Tech reviews and news

NVidia GeForce 7950 GX2 anmeldelse

click fraud protection

Ikke så længe siden producenter som Gigabyte og Asus lavede grafikkort, der tog to nVidia-chips og satte dem på et kort. Min personlige fornemmelse af disse er, at de var ret meningsløse, som om du stadig havde brug for et SLI-bundkort, du kun kunne bruge et ad gangen, men alligevel koster det det samme som at købe to kort. I tilfælde af Gigabyte var du endda nødt til at bruge et bestemt bundkort også.


Så da nVidia lancerede GeForce 7950 GX2, var jeg straks bekymret for dens anvendelse.

Som du kan se på billedet ovenfor, er dette kort stort set to printkort, der er boltet sammen for at lave et enkelt kort. Den bruger et PCI-E-stik og har kun brug for et enkelt strømstik.

Ovenfor kan du se, hvordan kortet ser ud, når det trækkes fra hinanden. Der er et lille forbundne printkort, der bygger bro over de to 'kort' sammen. Hver PCB har en GeForce 7900 GT-kerne, der kører ved 500 MHz i stedet for 450 MHz, men med den lidt langsommere kørende hukommelse på 600 MHz i stedet for 660 MHz. Hukommelsesmodulerne er samme 1.4ns Samsung-moduler, som i teorien er klassificeret til 715MHz. Så man er nødt til at sætte spørgsmålstegn ved motivet til at underklokke disse med 115 MHz (eller 230 MHz, når man tager DDR med til konto).


Hvad der først slog mig ved dette kort er, hvor utrolig stille det er. Mens jeg sammenlignede det med to 7900 GT'er, var forskellen forbløffende. På trods af denne reduktion i både støj og luftgennemstrømning syntes kortets temperatur fin. Ved overclocking blev det lidt på den varme side, men jeg ville hurtigere holde urets hastigheder lidt væk for at spare mig for en støjrelateret hovedpine.


Chippen i ovenstående billede er det, der gør det muligt for dette kort at fungere. Det er en PCI Express til PCI Express Bridge og er fuldt ud kompatibel med PCI Express-standarderne. Dette betyder, at det skal fungere på ethvert bundkort, SLI-klar eller ej. Nogle kort kræver muligvis en BIOS-opdatering, da de ikke er vant til at se en sådan enhed, men vi havde ikke et problem med vores Asus A8N32-SLI. Denne chip har 48 baner - 16 baner, der forbinder til bundkortporten og derefter 16 baner replikeret til hver chip, der indeholder PCB.


Dette betyder uundgåeligt, at kortet er flaskehalset af de 16 baner i PCI-E-stikket, men at hver PCB har 16 baner hver betyder det, at hvis det kører i et spil, der ikke understøtter SLI, vil det første printkort få fuld brug af båndbredde. Det betyder også, at kommunikation mellem kernerne skal have ringe eller ingen latens.


Det faktum, at dette kort kun bruger en plads, ikke kræver et SLI-bundkort og detekteres som en GPU af operativsystemet, betyder ikke, at det er en enkelt GPU. SLI-teknologi er stadig på arbejde og kræver en SLI-profil for at opnå fuld ydeevne. nVidia har gjort et stort punkt for at reklamere for dette som en enkelt GPU og erstatte SLI til / fra med "Dual Display" og "Dual GPU" -tilstande. Vi kunne ikke finde noget at gøre med SLI-profiler i de anvendte drivere (91.29), hvilket betød, at vi ikke kunne specificere nogen manuelt.


Af denne grund finder jeg det lidt vildledende at reklamere for dette kort som et 48 pipeline-kort med en 1 GB rammebuffer. Jeg må understrege, at dette er en to 24 rørledningsdel, hver med en 512MB rammebuffer. Som med 7900 GT, hver kerne har 16 pixel outputmotorer og otte vertex shaders.

I modsætning til ethvert andet referencekort til dato er dette kort fuldt ud HDCP-kompatibelt, hvilket er gode nyheder. Der er to dual-link DVI-stik. Ligesom med SLI kan du dog ikke køre dobbelte skærme, mens SLI eller "Dual GPU" -tilstand er aktiveret. For at bruge to skærme skal du bruge “Dual Display” -tilstand, eller i tilfælde af SLI skal du slå SLI fra. Dette er en komplet irritation. Jeg forstår ikke, hvordan nVidia kan skabe noget som TurboCache, som kun bruger systemhukommelse, når en 3D-applikation er indlæst, men de kan ikke anvende et lignende princip på SLI.


Som du kan se ovenfor, er det et dual-slot-kort - ikke overraskende. Men i modsætning til SLI har du kun to DVI-forbindelser. Dette betyder, at du kun kan bruge to skærme i modsætning til de fire tilgængelige skærme, når du kører to kort i en ikke-SLI-skærmtilstand. Dette er virkelig ikke et stort træk, og der er mange måder omkring dette problem, hvis du har brug for flere skærme.


Enhver med et skarpt øje vil have bemærket SLI-stikket oven på kortet. Dette kort bruges i OEM-understøttede Quad SLI-maskiner. Det understøttes dog ikke i øjeblikket for nogen, der ønsker at bygge deres egne, og drivere til dette vil ikke være tilgængelige i nogen tid. Dette er dog en klar opgraderingssti for alle, der ved, hvad de laver. Tidligere Quad SLI-implementeringer har været lidt på den dårlige side, så jeg vil gerne se en anstændig opsætning, før jeg foreslår dette som opgraderingssti - men muligheden er der stadig.

NVidia-kortene blev testet på en Asus A8N32-SLI ved hjælp af en Athlon 64 FX-60, 2 GB CMX1024-3500LLPRO RAM og en Seagate Barracuda ST340083A8-harddisk. Strømmen blev leveret af en Tagan 900W TG900-U95. Til ATI-test blev alt holdt det samme bortset fra brugen af ​​en Asus A8R32-MVP Deluxe og en Etasis 850W ET850.


Alle nVidia-kortene blev testet ved hjælp af beta 91.29 ForceWare-drivere. 7900 GT'erne, der kører i SLI ved standardurhastigheder, blev testet ved hjælp af den lidt ældre 84,17. X1900 XTX blev testet ved hjælp af de officielle Catalyst 6.5 drivere.

Ved hjælp af vores proprietære automatiserede benchmarking-suite, passende betegnet 'SpodeMark 3D', kørte jeg Call of Duty 2, Counter Strike: Source, Quake 4, Battlefield 2 og 3DMark 06. Bar 3DMark06, disse kører alle ved hjælp af vores forudindspillede timedemos i de mest intense sektioner af hvert spil, jeg kunne finde. Hver indstilling køres tre gange, og gennemsnittet tages for reproducerbare og nøjagtige resultater. Jeg kørte hver spiltest ved 1.280 x 1.024, 1.600 x 1.200, 1.920 x 1.440 og 2.048 x 1.536 hver ved 0x FSAA med tredobbelt filtrering, 2x FSAA med 4x AF og 4x FSAA med 8x AF.


Jeg var interesseret i at se, hvordan brugen af ​​PCI Express-broen påvirkede ydeevnen, så jeg indstillede to 7900 GT'er til de samme urhastigheder som 7950 GX2 og brugte de samme 91,29 drivere til sammenligning. Jeg besluttede også at teste Call of Duty 2 med SLI-optimeringer slået til og fra for at se, hvor meget forskel på 7950 GX2 og de to 7900 GT-kort i et forsøg på at bevise, at dette ikke kun er et enkelt kort.


Der var åbenbart mange resultater at se på, men spørgsmålene i mit sind var: hvordan sammenlignes det med X1900 XTX (i øjeblikket den hurtigste enkelt kort til rådighed), hvordan sammenlignes det med et par lige så klokket 7900 GT'er, og hvordan sammenlignes det med et par lignende priser med fuld hastighed 7900 GT'er.


Det lykkedes mig også at overklokke dette kort til 600MHz på kernen og 800MHz (1.600MHz effektiv) på hukommelsen, og disse præstationsresultater er inkluderet til sammenligning.


At have de to GPU'er på et kort skal fraktioneret forbedre ydeevnen over en SLI-løsning, da der er mindre ventetid. Dette var faktisk tilfældet, med en eller to billeder pr. Sekund bemærket, men bestemt ikke noget stort. I de højere opløsninger blev disse forskelle dog ret store - 38 fps sammenlignet med 30. Det er ret en præstationsforskel i betragtning af hvor lidt der har ændret sig. I Counter-Strike: Source var forskellen endnu større, 60 fps versus 24. Dette var nok til at få mig til at spekulere på, om der var noget muggent.


Jeg gik tilbage til spillet og besluttede at kigge efter mig selv, da min bekymring var, at AA ikke blev tændt. Jeg tog fejl. Imidlertid har det niveau, jeg bruger i Counter-Strike: Source, HDR-effekter, og på 7950 GX2-kortet bemærkede jeg et par fejl i konsollen, da HDR-teksturer blev indlæst. Jeg tror, ​​der er en fejl i 91.29-drivere, der forårsager disse høje resultater. For den bedste indikation af 7950 GX2-ydeevne vil jeg hurtigere tage dig mere opmærksom på de downclocked 7900 GT'er i SLI end 7950 GX2-resultaterne.


I de fleste tilfælde var 7950 GX2 (eller simuleret 7950 GX2) hurtigere end to 7900 GT'er med fuld hastighed. Det tror jeg fordi i de fleste tilfælde er den ekstra hukommelsesbåndbredde ikke nødvendig, og den øgede kernehastighed hjælper tingene længe mere. I den højeste indstilling af Counter-Strike: Source var hukommelsesbåndbredden naturligvis nødvendig, da den nåede 35 fps i stedet for 24, og det bruger også ældre drivere.


Det sidste spørgsmål er, hvordan sammenlignes dette med X1900 XTX? Funktionsmæssigt har X1900 XTX naturligvis FSAA + HDR på sin side. På præstationssiden var bolden imidlertid klart i nVidias bane med 7950 GX2 i gennemsnit 30 procent hurtigere. Det faktum, at nVidia har brug for en anden GPU for at opnå dette, er et bevis på teknologien bag X1900 XTX.


"'Dom"'


7950 GX2 er det hurtigste kort til rådighed til bundkort med et enkelt slot, fuld stop. At kalde det en enkelt GPU er imidlertid vildledende, og enhver, der overvejer at købe en, skal være opmærksom på dens forbehold - primært at spil kræver en SLI-profil, og at de ikke kan køre dobbelte skærme uden kedeligt at deaktivere "Dual GPU" mode.


På omkring £ 400-mærket er det meget at betale for et grafikkort og i modsætning til at køre SLI, som kan opdeles i to håndterbare klumper - dette skal betales for alle på én gang. Jeg ville kun overveje at gøre det, hvis jeg ikke havde et SLI-bundkort eller havde den fulde intention om at opgradere til Quad SLI i fremtiden. For de fleste mennesker ville en enkelt 7900 GT og derefter tilføje et sekund på seks måneder give bedre værdi for pengene.


Alt i alt er dette dog ikke den skuffelse, jeg troede, det ville være. Det er hurtigt, støjsvagt, og prisen er konkurrencedygtig for ydeevnen.



















Selvom de ikke er særligt selvforklarende, viser disse grafer forskellen, at det at have "Optimer til SLI" slået til i Call of Duty 2 gør, hvilket svarer på spørgsmålet - er dette en enkelt GPU eller ej?



Fujifilm FinePix F40fd anmeldelse

Fujifilm FinePix F40fd anmeldelse

DomNøglespecifikationerAnmeldelsespris: 180,00 £Det er et par måneder siden, jeg sidst har gennem...

Læs Mere

Apple M1 vs Apple M1X: Hvad er forskellen?

Apple M1 vs Apple M1X: Hvad er forskellen?

Rygter tyder på, at Apple lancerer en ny M1X -chip inden årets udgang, men hvordan vil den sammen...

Læs Mere

Google gør ratings i Play Butik mere nyttige

Google gør ratings i Play Butik mere nyttige

Google har annonceret to ændringer, der skal gøre Play Store -anmeldelser mere nyttige for bruger...

Læs Mere

insta story