Kender Nvidia ikke et GTX770 ??

Grafikkort d.  27. juli. 2013, skrevet af Burgurne
Vist: 923 gange.

Burgurne
 
Elitebruger
Tilføjet:
27-07-2013 09:58:10
Svar/Indlæg:
5874/1287
Hej.
Netop isat mit nye MSI GTX770 Lightning kort, og installeret Nvidia Inspector.
http://www.guru3d.com/files_de...

I data over kortet står der, at det kører 7000Mhz i ramhastighed, men Nvidia Inspectoren viser kun 3500Mhz.
Haha, griner I så og tænker den klovn ikke ved, at man skal gange tallet med 2.

Hmmm, hvorfor skal man egentligt det? Jeg tog et GTX580 ud af PC'en, og til dette kort skrev programmet den RIGTIGE ramhastighed nemlig ca. 4000Mhz. Så hvad er forklaringen? Er jeg en klovn til dette? Er GDDR5 på GTX580 og GDDR5 på GTX770 forskellige, så det er målemetoden der er forkert? Da Nvidia har lavet både program OG grafikkort, burde de vel kende det??

Eller er mit GTX770 bare kun i halv (ram) hastighed?
Gripen90
 
Senior Skribent
Tilføjet:
27-07-2013 12:30:40
Svar/Indlæg:
15982/637
Når man ganger om med to så er det levnet fra GDDR rammene tilbage i slutningen af 1999 hvor nVidia lavede både GeForce256 32MB SDR og 32MB DDR (double data rate).

Hvis man skal være helt pernittengryn omkring de så "duede" metoden med at doble op med MHz på DDR ram KUN på DDR Ram ved 128bit ram forbindelse. Da efterfølgende kort så med DDR2 ram og 256bit ram forbindelser, så tog man lige så dette med i kalkulationerne og så blev ram MHz proportionelt endnu højere - men alle de nye forskelle var noget ingen kunne finde ud af at håndtere korrekt og brugerne blev forvirrede, så derfor blev det generelt accepteret at når man talte om GDDR ram uanset om det så var GDDR1,2,3,4,5 så forblev man KUN ved fordoblingen af MHz.

Til dit spørgsmål.
Kortet kører med 3500MHz aka 7000MHz effektiv. Det vil GPU-Z også bekræfte da selve kernen i nVidia Inspector er baseret på denne.
Sidst så husk på dit GTX 580 var et Fermi kort og dit GTX 770 er Kepler, det er derfor muligt at nVidia Inspector læser rammene forskellig.

Forresten nVidia Inspector er IKKE lavet af nVidia , men af Orbmu2k (http://blog.orbmu2k.de/ )


Svaret blev redigeret 2 gange, sidst af Gripen90 d. 27-07-2013 12:34:20.


Burgurne
 
Elitebruger
Tilføjet:
27-07-2013 13:28:46
Svar/Indlæg:
5874/1287
Hmm, Gpu-Z viser nu ikke 7000Mhz, men kun 1753Mhz????
Altså halv hastighed af, hvad Nvidia Inspector viser, og kun 1/4 af hvad rammen på kortet rent faktisk skulle køre! 😢



MSI Afterburner viser forøvrigt det samme (3500Mhz) som Nvidia Inspector.


Svaret blev redigeret 1 gang, sidst af Burgurne d. 27-07-2013 13:30:24.


MazdaMadsen
 
Moderator
Tilføjet:
27-07-2013 13:34:39
Svar/Indlæg:
5039/109
Det er fordi GDDR5 er quad pumped. 1753 MHz * 4 = 7000 MHz.

Der er så forskel på om programmerne viser den reele frekvens eller den effektive frekvens.


Svaret blev redigeret 1 gang, sidst af MazdaMadsen d. 27-07-2013 13:35:42.


Shadowhunter
 
Elitebruger
Tilføjet:
27-07-2013 13:43:39
Svar/Indlæg:
5474/39
#2
kan være fordi spare strøm ?

Dengang med gtx470 serien. Den lukker ned når ikke har noget lave åbner når er behov.


mathiasm87
 
Elitebruger
Tilføjet:
27-07-2013 14:49:07
Svar/Indlæg:
626/77
Alle nyere grafikkort har en eller anden form strømbesparende funktion så den lukker ned hvis du ikke laver noget om det er Nvidia eller AMD


morra19
 
Moderator
Tilføjet:
27-07-2013 14:56:31
Svar/Indlæg:
2672/468
#4 og #5 det har intet med strømbesparende tiltag at gøre, men er som #3 er inde på, afhængigt af hvordan programmerne læser frekvensen. Hvis de læser dem som 3500 Mhz, så er det med den metode #1 henviser til, GPU-z læser den reelle frekvens.

Opsummeret, så er begge programmer "rigtige", men din effektive frekvens på rammene er 7000 Mhz, om du læser det som 2x3500 Mhz, eller som 4x1750 er det samme - dit kort fejler ikke noget.


mazd
 
Superbruger
Tilføjet:
27-07-2013 15:17:01
Svar/Indlæg:
129/6

Når man ganger om med to så er det levnet fra GDDR rammene tilbage i slutningen af 1999 hvor nVidia lavede både GeForce256 32MB SDR og 32MB DDR (double data rate).

Hvis man skal være helt pernittengryn omkring de så "duede" metoden med at doble op med MHz på DDR ram KUN på DDR Ram ved 128bit ram forbindelse. Da efterfølgende kort så med DDR2 ram og 256bit ram forbindelser, så tog man lige så dette med i kalkulationerne og så blev ram MHz proportionelt endnu højere - men alle de nye forskelle var noget ingen kunne finde ud af at håndtere korrekt og brugerne blev forvirrede, så derfor blev det generelt accepteret at når man talte om GDDR ram uanset om det så var GDDR1,2,3,4,5 så forblev man KUN ved fordoblingen af MHz.

Til dit spørgsmål.
Kortet kører med 3500MHz aka 7000MHz effektiv. Det vil GPU-Z også bekræfte da selve kernen i nVidia Inspector er baseret på denne.
Sidst så husk på dit GTX 580 var et Fermi kort og dit GTX 770 er Kepler, det er derfor muligt at nVidia Inspector læser rammene forskellig.

Forresten nVidia Inspector er IKKE lavet af nVidia , men af Orbmu2k (http://blog.orbmu2k.de/ )

Gripen90 skrev d. 27-07-2013 12:30:40

Det har ikke noget med bit bredden at gøre,det er simpelthen noget vrøvl.
Det er som #3 skriver.De 3500mhz er pga programmet ikke altid skelner mellem gddr3 og 5.


Gripen90
 
Senior Skribent
Tilføjet:
27-07-2013 15:37:16
Svar/Indlæg:
15982/637

Når man ganger om med to så er det levnet fra GDDR rammene tilbage i slutningen af 1999 hvor nVidia lavede både GeForce256 32MB SDR og 32MB DDR (double data rate).

Hvis man skal være helt pernittengryn omkring de så "duede" metoden med at doble op med MHz på DDR ram KUN på DDR Ram ved 128bit ram forbindelse. Da efterfølgende kort så med DDR2 ram og 256bit ram forbindelser, så tog man lige så dette med i kalkulationerne og så blev ram MHz proportionelt endnu højere - men alle de nye forskelle var noget ingen kunne finde ud af at håndtere korrekt og brugerne blev forvirrede, så derfor blev det generelt accepteret at når man talte om GDDR ram uanset om det så var GDDR1,2,3,4,5 så forblev man KUN ved fordoblingen af MHz.

Til dit spørgsmål.
Kortet kører med 3500MHz aka 7000MHz effektiv. Det vil GPU-Z også bekræfte da selve kernen i nVidia Inspector er baseret på denne.
Sidst så husk på dit GTX 580 var et Fermi kort og dit GTX 770 er Kepler, det er derfor muligt at nVidia Inspector læser rammene forskellig.

Forresten nVidia Inspector er IKKE lavet af nVidia , men af Orbmu2k (http://blog.orbmu2k.de/ )

Gripen90 skrev d. 27-07-2013 12:30:40

Det har ikke noget med bit bredden at gøre,det er simpelthen noget vrøvl.
Det er som #3 skriver.De 3500mhz er pga programmet ikke altid skelner mellem gddr3 og 5.

mazd skrev d. 27-07-2013 15:17:01


Nej det er skam ikke vrøvl. Det er bare at følge med ! Hele balladen startede jo blandt andet ved at GeForce 2MX kom med 128bit SDR og 64bit DDR, men den større bit båndbredde på trods af SDR var stadig bedre. Så var der også snak om at når man doblede op på rambit så betød det teoretisk også ændret ram hastighed. Det var hele fuoren tilbage i 2000/2001.

Og jeg skrev præcis det samme hvis folk ellers bare læste.

Mine viser det på samme måde
http://s95.photobucket.com/use...


Svaret blev redigeret 3 gange, sidst af Gripen90 d. 27-07-2013 15:42:07.


Burgurne
 
Elitebruger
Tilføjet:
27-07-2013 16:10:07
Svar/Indlæg:
5874/1287
#7 Det er ikke gddr3 vs gddr5 der er på tale her, idet både mit GTX580 og GTX770 har Gddr5 ram, men forskellig GPU"familie", så Gripen90 har måske fat i noget rigtigt mht dette. Så din forklaring er i hvert fald ikke den rigtige 😉




#10
mazd
 
Superbruger
Tilføjet:
08-08-2013 15:49:57
Svar/Indlæg:
129/6
#8 Jeg synes stadig det er noget vrøvl,det har intet med et moderne gfx kort at gøre,og du skriver så forkert ang hans hastighed,den er jo netop ikke 3500..
Men uddyb gerne præcis hvad betydningen det havde på de kort du omtaler,og hvordan hastigheden ændrede sig..

#9 Er skam godt klar over hvilke ram der sidder på de kort,men som du selv er inde på i #0 kan det være målemetoden.Men det er da lidt forvirrende,for på 400 og 500 serien opgiver nvidia selv hastigheden på den måde:
http://www.geforce.com/hardwar...
Tror det er opbygningen af gddr5,hvor det nok egentlig er forkert at benævne den effektive hastighed i mhz,det kan du også se hos begge producenter nu,de opgiver rammmenes base clock i mhz,og den effektive hastighed i Gbps.


Bonghætte
 
Elitebruger
Tilføjet:
08-08-2013 16:32:26
Svar/Indlæg:
1271/38
Begge programmer er rigtige. For at opklare problemet burde programmerne nok skrive lidt tydeligere om det er effektiv hastighed, eller reel hastighed osv.

Lad være med at stirre dig blind på de tal.

Desuden viser mit 570 også kun baseclock, så er du sikker på du husker korrekt angående dit 580? Jeg synes nemlig heller ikke mit afdøde 580 viste 4008Mhz - kun i MSI Afterburner EDIT: Næh.. Det viser dobbeltraten, 1900Mhz på mit 570...




#8 Har relativt ret. Der er tale om seriel ydelse imod parallel ydelse. 64bit DDR vs 128bit SDR vil cirka give det samme ved samme baseclock, da DDR er doublepumped, og videregiver data ved både stigninger og fald i clock signalet.

Det er også grunden til vi ikke får bredere busser, da de er usandsynligt dyre at lave - så producenterne vil hellere oppe den serielle ydelse (effektiv clockfrekvens - nye DDR iterationer med mere dataoverførsel pr. baseclock mhz), så der kommer mere ydelse uden at gøre noget ved busbredden.

Nvidia lavede ret brede busser i deres GTX 2xx serie, da de arbejdede med GDDR3 RAM. Konkurrenten AMD havde jo gang i GDDR5 RAM (HD4870) dengang, hvilket gjorde at de ikke behøvede nær så brede busser for at overføre samme mængde data.

Lidt hyggelig hardware historie. 🙂


Svaret blev redigeret 1 gang, sidst af Bonghætte d. 08-08-2013 16:46:22.


Burgurne
 
Elitebruger
Tilføjet:
08-08-2013 16:44:41
Svar/Indlæg:
5874/1287
#11 Se og læs #2 igen 😕
MSI Afterburner viser heller ikke det rigtige med dette GTX770 (har stadig ikke fundet et program der gør)


Bonghætte
 
Elitebruger
Tilføjet:
08-08-2013 16:46:46
Svar/Indlæg:
1271/38
Det var åbenbart en tanketorsk. MSI Afterburner heller ikke den effektive hastighed, sorry!

Selv ikke engang nTune driveradditionen viser den effektive frekvens, men den dobbelte.

Kan du ikke bare droppe at se det 'rigtige tal', når det hele nu alligevel er som det skal være? 🤡


Svaret blev redigeret 1 gang, sidst af Bonghætte d. 08-08-2013 16:51:30.


ICE-Cool
 
Elitebruger
Tilføjet:
08-08-2013 17:32:41
Svar/Indlæg:
3799/43
Det er nok en fejl i Nvidia Inspector

Se bare Version 1.9.6.6
- clock domains reworked, fixed some 304.xx issues on kepler.

http://chipdesignmag.com/displ... Her skulle der stå lidt om problemet.

Bare mit gæt, uden at skulle have den store professor hat på.


Svaret blev redigeret 1 gang, sidst af ICE-Cool d. 08-08-2013 17:34:21.


Gripen90
 
Senior Skribent
Tilføjet:
09-08-2013 00:22:59
Svar/Indlæg:
15982/637
#10: Nej det er ikke forkert. Det kommer blot an på hvilke briller du tager på for at opgive hastigheden. Men man tager den "jargon" som hardware producenter har taget i et årti. 3500Mhz eller 7000Mhz effektivt. De fleste progammer læser det jo ud fra "DDR" tendensen, dvs kører kortet 7000Mhz effektiv som producenter siger, jamen så er det 3500Mhz i DDR hastighed, selv om det teoretisk også er lige så forkert, men det hele er til netop for ikke at forvirre slutbrugeren.

Mht GeForce 2MX 32MB SDR 128bit vs 32MB DDR 64bit, så er det blot at finde dine gamle hardware blade frem (Incite PC Games etc). Ellers denne gamle anmeldelse af Creative 3D Blaster GeForce 2 MX 32MB DDR 64bit... et kort som jeg selv har stående på hylden i sin orignal æske ved siden af et Guillemot Hercules 3D Prophet GeForce 2 MX 32MB SDR 128bit.
http://www.xbitlabs.com/articl...

I kølvandet på de kort kom der i anmelderkredse mange spekulative tanker om hvordan man så skulle opgøre de reelle Mhz på rammene ! F.eks 128 bit ram ved 100Mhz var til at med at gøre og sammenlinge med kort andre kort at samme ram type og bitbredde opsætning. Husk på at den gang var langt de fleste rigtige "gamer" kort 128bit SDR bus', men undtagelse af f.eks nVidia Riva TNT2 M64 som have en 64bit SDR ram båndbredde. Så derfor blev standarden blandt anmeldere med også efterfølgende for mange producenter at der når der blev sammenligne ram mhz hastighed vs andre kort så var det ud fra 128bit SDR standarden.
Nu kom der så et kort med DDR ram der teoretisk fordoblede SDR hastigheden. Dvs 100Mhz DDR 128bit ram ville teoretisk tilsvare 200Mhz SDR 128bit hastighed - eller gjorde det ?. Hvis DDR ram doblede hastigheden med faktor 2x ville det også betyde at bit bussen skulle ganges med faktor 2?.
Så kom problemet med 64bit DDR Ram. 100Mhz 64bit DDR ram ville hastigheds mæssigt ikke tilsvare 200Mhz 128bit SDR hastighed, som man pr "standard" udregnende fra, men måske nærmere 150Mhz SDR 128bit hastighed... eller 250Mhz SDR 64bit hastighed...
Herfra tog forvirringen mere fat. Når man ændrende på bit bredden så ændrede man jo også den teoretisk hastighed. Så ville hvor 100Mhz DDR 64bit tilsvare 200Mhz 128bit SDR hastighed, ville 100MHz DDR 128bit så tilsvare 400MHz SDR 128bit hastighed ?.
Det lyder måske som noget relativt dumt at tænke på i dag, men ikke destomindre var det hvad der kogte i diverse blade, inden at alt blev "online" snak. Det var virkelig et rod på det tidspunkt, men standard blev dog efterfølgende at når der skulle regnes i ramhastighederne så to man udgangspunkt i DDR 128bit forbindelser (uagtet 64bit eller højere) og regnede ud herfra af.
Jeg ligger stadig inde med gamle PCGHW blade fra 2000 hvor dette blev vendt i forskellige GFX anmeldelser.

Men som alle de andre siger, så er jeg rimelig sikker på der er tale om læsefejl i softwaren.


Svaret blev redigeret 4 gange, sidst af Gripen90 d. 09-08-2013 00:36:44.