Tech reviews and news

NVidia GeForce GTX 280 anmeldelse

click fraud protection

Dom

Nøglespecifikationer

  • Anmeldelsespris: 425,00 £

Frigivelsen af ​​den G80 -baserede nVidia GeForce 8800 GTX i november 2006 var, set i bakspejlet, et paradigmeskift i computergrafikverdenen. Det var ikke kun det første DirectX 10 -grafikkort, men det blæste også konkurrencen i DirectX 9 -spil fuldstændigt væk før ankomsten af ​​Windows Vista og holdt dette forspring i en hidtil uset mængde tid, selv når Vista og DirectX 10 endelig kom. Faktisk først i februar i år, da AMD udgav ATI Radeon HD 3870 X2, der brugte to RV670 -kerner på et kort, havde G80 i sine forskellige afskygninger en reel konkurrence.


Ikke at denne konkurrence varede længe. Inden for et par uger frigav nVidia den dobbelte G92 -baserede 9800 GX2, der brugte en lignende to-chips-på-et-kort-metode til HD 3870 X2, og komfortabelt genvandt kronen med den bedste ydeevne-i hvert fald i de spil, den arbejdede med. nVidia fulgte dette derefter op med 9800 GTX, der brugte en enkelt G92-baseret chip til marginalt at udvide nVidias ydelsesmuligheder inden for single-chip grafikkortmarkedet. Selvfølgelig havde ATI stadig mange gode kort, og det konkurrerede meget hårdt på det almindelige sub- £ 150-marked, men det kunne bare ikke gøre krav på topplaceringen.


Selvom nVidia holdt fast i føringen med kortene i 9800 -serien, skubbede den ikke rigtigt nogen grænser frem. Ydeevnen var god, men ikke overvældende, og selvom nye funktioner som HybridPower er nyttige, føltes hele serien lidt skuffende.

Bare et par måneder senere har nVidia dog netop lanceret en helt ny grafikprocessor kaldet GT200 at det i hvert fald på papiret ser ud til at have al den ydelse, der er nødvendig for at være en sand efterfølger G80. Består af 1,4 milliarder (ja, det er milliarder med et ‘B’) transistorer, der pakker i 240 streamprocessorer, 32 ROP'er, en 512-bit hukommelsesgrænseflade og en lang række andre forbedringer under motorhjelmen, det er en absolut uhyre. Faktisk, da den stadig fremstilles ved hjælp af den samme 65nm -proces, der blev brugt på G92, er det ikke bare et monster internt, men også eksternt - med 24 x 24 mm er dette den største enkelt dør TSMC nogensinde har været kommercielt produceret.


Hvis du ser på en typisk siliciumskive i produktionen, der er 300 mm i diameter, er der højst kun plads til at producere 94 GT200 chips på hver. Sammenlign dette med noget som Intels Conroe CPU'er, der er bygget på fremstillingsprocessen i samme størrelse, men kun er 143 mm^2 i størrelse, så der kan produceres 426 dørstykker pr. Skive, og du får en idé om, hvor stor og dyr GT200 er.


To varianter af GT200 vil være tilgængelige ved lanceringen, og disse vil være de første dele, der tager på nVidias reviderede branding. Alt rebranding koger ned på er skiftet mellem bogstaver og tal, så de nye kort kaldes GTX 280 og GTX 260 frem for den x000 GT/GTX/GTS -form, vi er vant til.


GTX 280 bruger fuldt omfang af GT200 med sit shader -ur, der kører på 1296MHz, 1GB GDDR3 -hukommelse, der kører på 1107MHz (2,2GHz effektivt) og resten af ​​chippen væk ved 602MHz. Da strømbehovet for hele dette parti vil være 236W, har GTX 280 ikke kun brug for et konventionelt seks-benet PCI-Express-stik, men et ekstra otte-benet som godt.


I mellemtiden vil GTX 260, der udkommer den 26. juni (GTX 280 være tilgængelig, når du læser dette), har to SM -klynger deaktiveret (jeg forklarer mere om dette på den næste side), og en ROP -partition er også blevet fjernet. Udover dette er urets hastigheder blevet kvalt, hvilket resulterede i vital statistik om: 192 shaders, der kører ved 1242MHz, 28 ROP'er, der kører ved 576MHz og 896MB GDDR3 1000MHz hukommelse. Som følge af disse hastigheds- og komponentnedskæringer vil GTX 260 trække mindre strøm, 183W for at være præcis, og har derfor kun brug for et enkelt seks-benet PCI-Express-strømstik.

Listepriser er lige så astronomiske, som du ville forvente med GTX 280, der kræver 449 £ og GTX 260 £ 299. Desuden tyder tidlige indikationer på, at denne pris ikke vil blive afveget for meget fra butikker, der kører rabatter eller forsøger at udprissætte hinanden. Nevermind, hej.


Vi tager et ordentligt kig på GTX260 i en separat artikel, og vi får en snert omkring fysisk GTX280 -kort på få øjeblikke, men lad os først se på, hvad der gør nVidias seneste grafiske undren flåt.

Selvom GT200s arkitektur på mange måder meget ligner G80's, er der et stort antal tweaks, der er blevet anvendt på denne nye kerne, der gør den til en betydeligt bedre helhed. Inden vi kommer for langt ind i sammenligningerne, lad os dog vende tilbage til det grundlæggende.


Følgende er en Streaming Multiprocessor eller SM som nVidia forkorter det til:

Som du kan se på billedet, er en SM en række processorkerner kaldet Streaming Processors (SPs) med en del cachehukommelse og en instruktionsplanlægger. Der er faktisk lidt mere end det, herunder to Special Function Units (SFU), der ikke er afbilledet, men vi vil ikke gå for langt ind i detaljerne. Grundlæggende fungerer dette lille parti som en mini otte -core CPU, hvor hver kerne udfører beregningerne forbundet med en enkelt pixel. Den lille (16KB) del af hukommelsen bruges til kun at håndtere de specifikke data, der er knyttet til de otte pixels, SM i øjeblikket arbejder på. Dette er den grundlæggende byggesten i nVidias ensartede skyggearkitektur og er den samme på både G80, G92 og GT200.

(centrum)”TPC fra GT200”(/centrum)
Når vi zoomer et trin ud, ser vi det første store skillepunkt mellem G80/G92 og GT200. I GT200 kombineres tre af disse SM'er til en Texture/Processor Cluster (TPC), hvorimod G80 og G92 brugte to SM'er pr. TPC. Princippet er det samme, der er bare mere i den nye chip - 32 SP vs. 24 på G80.

(centrum)”TPC fra G80/G92”(/centrum)
Ud over at kombinere SM'erne tilføjer en TPC også tekstur behandling kapaciteter og igen er dette et andet område, hvor den nye chip adskiller sig fra sine forfædre, sådan. På G80 fik du fire teksturadressenheder og otte teksturfiltrering enheder pr. TPC, med G92 blev antallet af adresseenheder fordoblet til otte, mens filtreringen forblev på otte enheder. Nu har tingene med GT200 været de samme.


Du får stadig otte teksturadressenheder og otte filtreringsenheder pr. TPC, det er bare forholdet mellem shaders og tekstureringsenheder, der er ændret. Så selvom skyderantallet for hver TPC er steget med 50 procent, er tekstureringseffekten for hver TPC forblevet den samme. I første omgang kan dette virke som et baglæns skridt, men de fleste moderne spil bliver mere og mere skyggeafhængige, så ændringen i forhold giver mening. Når du ser på det større billede, vil du desuden se, at den samlede tekstureringseffekt af GT200 faktisk er steget en lille mængde.

Hvad kan vi sige om Counter-Strike: Source, der ikke er blevet sagt før? Det er simpelthen ”benchmarket” for teambaserede online skydespil, og fire år efter udgivelsen er det stadig et af de mest populære spil i sin genre. I fuldstændig kontrast til Enemy Territory: Quake Wars fokuserer den på små miljøer og utroligt intensive små kampe med one-shot dræber dagens orden. Hvis du vil teste alle elementer i dine first person shooter -færdigheder på én gang, er dette spillet til at gøre det.


Vi tester at bruge 32-bit versionen af ​​spillet ved hjælp af en brugerdefineret timedemo taget under et spil mod bots på cs_militia-kortet. Dette har en stor mængde løv, så gennemsigtighedsantialisering har en betydelig indvirkning på billedkvalitet og ydeevne og er generelt et af de mest grafisk intensive kort til rådighed. Vi finder en framerate på mindst 60 fps påkrævet til seriøst spil, da dette spil er massivt afhængigt af hurtige, nøjagtige reaktioner, der simpelthen ikke kan kompromitteres af tabte rammer.


Alle indstillinger i spillet er sat til deres maksimum, og vi tester med 0xAA 0xAF, 2xAA 4xAF og 4xAA 8xAA. Transparens-anti-aliasing aktiveres også manuelt via driveren, selvom dette naturligvis kun er aktiveret, når normal AA bruges i spillet.




Selvom ATIs HD 3870 X2 gør et godt forsøg på at følge med GTX280, kan det ganske enkelt ikke matche nVidias seneste når det kommer til knas. Endnu en gang hersker GTX280 øverst.

Call of Duty 4 må være et af vores yndlingsspil sidste år. Det bragte Call of Duty -mærket til dato og viste, at førstepersons skydespil ikke behøvede at have den bedste grafik eller den længste spilletid. Det var bare otte timers rent adrenalinrus, der konstant holdt dig på kanten.


Vi tester ved hjælp af 32-bit versionen af ​​spillet patched til version 1.4 FRAPS bruges til at optage framerates, mens vi manuelt går gennem en kort sektion af det andet niveau af spillet. Vi finder, at en framerate på 30 fps er ganske tilstrækkelig, fordi selvom atmosfæren er intens, er gameplayet mindre-det hænger ikke ved hurtige reaktioner og højhastighedsbevægelse.


Alle indstillinger i spillet er sat til deres maksimum, og vi tester med 0xAA og 4xAF. Transparens-anti-aliasing aktiveres også manuelt via driveren, selvom dette naturligvis kun er aktiveret, når normal AA bruges i spillet.




Af en eller anden grund havde dette spil simpelthen ikke så stor gavn af de forskellige forbedringer, der blev foretaget til GT200, og det blev simpelthen afbrudt af 9800 GX2. Vi formoder, at dette i høj grad skyldes, at Call of Duty 4 er et DirectX 9 -baseret spil, så det drager lidt fordel af de mere DirectX 10 -orienterede tweaks, der anvendes på GT200. Det kører dog stadig helt fint.

Enemy Territory: Quake Wars adskiller sig fra alle vores andre tests ved, at den bruger open source OpenGL API frem for Microsofts DirectX. Det er et teambaseret førstepersonsskydespil i et dystopisk fremtidigt krigsscenario. Som spiller kan du vælge mellem et enormt udvalg af karaktertyper og spillestile, og der er også en lang række køretøjer at vælge imellem. Kampe kan strække sig over store områder af åbent rum og involvere et stort antal deltagere. Alt i alt er det multiplayer -himlen.


Vi tester ved hjælp af 32-bit versionen af ​​spillet, som er lappet til version 1.4. Vi bruger en brugerdefineret timedemo fra Valley -niveau, som vi synes er omtrent lige så grafisk intens som spillet bliver. Vi føler, at der kræves en framerate på mindst 50 fps til dette spil, da den intense multiplayer -handling og højhastigheds musebevægelse kræver det.


Alle indstillinger i spillet er sat til deres maksimum, og vi tester med 0xAA 0xAF, 2xAA 4xAF og 4xAA 8xAA. Transparens-anti-aliasing aktiveres også manuelt via driveren, selvom dette naturligvis kun er aktiveret, når normal AA bruges i spillet.




Den positive historie fortsætter med Enemy Territory - GTX280 blæser simpelthen alt andet væk. Selv 9800 GX2 skal konsekvent spille anden fele, og dette er et spil, der skalerer meget godt i SLI.

Racerkører: GRID er det nyeste spil i vores testarsenal, og det er i øjeblikket også en af ​​vores favoritter. Kombinationen af ​​spænding og spild i arkadestil med en sund dosis realisme og ekstramateriale som Flashback gør det til en fantastisk afhentningsspil. Det er også visuelt fantastisk med smukt gengivne indstillinger, interaktive skarer, ødelæggelige miljøer og fantastisk belysning. Alt det, og det er heller ikke det mest krævende spil på hardware.


Vi tester ved hjælp af 32-bit versionen af ​​spillet, som ikke er opdateret og kører i DirectX10-tilstand. FRAPS bruges til at optage billedfrekvenser, mens vi manuelt gennemfører et kredsløb i Okutama Grand Circuit, i et Pro Tuned -løb med normale vanskeligheder. Vi finder en framerate på mindst 40 fps påkrævet for at spille dette spil tilfredsstillende, da betydelige stammer kan ødelægge din timing og præcision. Vi vil også overveje 4xAA som et minimum, da banen, barrierer og bilkarosserier lider betydeligt af alias og er en konstant distraktion.


Alle indstillinger i spillet er sat til deres maksimum, og vi tester med 0xAA, 4xAA og 8xAA. Transparens-anti-aliasing aktiveres også manuelt via driveren, selvom dette naturligvis kun er aktiveret, når normal AA bruges i spillet.




Vi havde meget begrænset tid til at teste dette spil, så vi fik kun sammenlignelige resultater på et par kort. Det er også klart, at nVidia ikke har haft en chance for at optimere sine SLI -drivere til dette spil, da 9800 GX2 kæmper mere, end det burde. Alt i alt kan vi altså ikke kommentere det store billede. Selv med begrænset test er det dog helt klart, at GTX280 er et godt valg til at spille dette spil.

Selvom det ikke har været en kæmpe kommerciel succes, og dets spil er langt fra revolutionerende, er den grafiske troskab af Crysis er stadig uden sidestykke, og som sådan er det stadig den ultimative test for et grafikkort. Med masser af dynamisk løv, rullende bjergkæder, lyse blå hav og store eksplosioner har dette spil alt det øjen-slik, du kan ønske dig, og derefter nogle.


Vi tester ved hjælp af 32-bit versionen af ​​spillet patched til version 1.1 og kører i DirectX 10-tilstand. Vi bruger et brugerdefineret timedemo, der er taget fra de første øjeblikke i starten af ​​spillet og undrer os over stranden. Overraskende set i betragtning af dens klaustrofobiske indstilling og grafisk rige miljø finder vi ud af, at enhver billedhastighed over 30 fps er omtrent tilstrækkelig til at spille dette spil.


Alle indstillinger i spillet er sat til høje for vores testkørsler, og vi tester med både 0xAA og 4xAA. Transparens-anti-aliasing aktiveres også manuelt via driveren, selvom dette naturligvis kun er aktiveret, når normal AA bruges i spillet.





Der er ikke meget at sige her, virkelig. GTX280 er langt det bedste bud på at spille Crysis. Faktisk er det det første kort, vi har set, der gør dette spil spilbart på 2.560 × 1.600. Dette er en god start.

Som jeg hentydede til tidligere, er GTX280 -lanceringen faldet sammen med et massivt skub fra nVidias side for at fremme GPGPU. Selvom dette kan være interessant, er det stadig langt fra at have stor betydning for alle, der søger et af disse kort. Så indtil hele GPGPU -spektret udlignes, og vi får en slags standarder i spil, lader vi analysen af ​​GPGPU -ydelsen være uden for ligningen. Så lad os få gang i de spil i stedet.


"'Fælles systemkomponenter' '


* Intel Core 2 Quad QX9770
* Asus P5E3
* 2 GB Corsair TWIN3X2048-1333C9 DDR3
* 150 GB Western Digital Raptor
* Microsoft Windows Vista Home Premium 32-bit


"'Chauffører' '
* GTX280: Forceware 177.34
* Andre nVidia -kort: Forceware 175.16
* ATI: Catalyst 8.4


'' Kort testet ''
* nVidia GeForce GTX 280
* nVidia GeForce 9800 GTX
* nVidia GeForce 9800 GX2
* nVidia GeForce 8800 GTX
* nVidia GeForce 8800 GTS 512
* ATI HD 3870 X2


"'Spil testet' '
* Crysis
* Racerkører: GRID
* Enemy Territory: Quake Wars
* Call of Duty 4
* Counter-Strike: Kilde

Det første kort, vi fik leveret til anmeldelse, er lavet af Zotac, men bortset fra Zotac -klistermærket er nøjagtig det samme design som nVidias opslagstavle, så det er, hvad vi vil basere vores vurdering på. Vi vil tage fat på detaljerne i Zotac -kortet sammen med en række andre partnerkort, når vi snart foretager en roundup.

GTX280 -kortet er 267 mm langt, hvilket er nogenlunde samme længde som 9800 GX2. Ligesom GX2 er den fuldstændig omsluttet af et metalkappe. Dette beskytter den sarte elektronik mod potentielle skader på grund af statiske eller generelle slag og skrammer og er en udvikling, vi byder velkommen med åbne arme.


Igen ligesom alle nVidias seneste high-end-kort bruger GTX280 et dual-slot heatsink/fan-design, der anvender den lidt off-parallelle blæserjustering, der debuterede med 8800 GTS 512. Som vi har forventet, er køleren meget effektiv, da den forbliver næsten stille, når den er inaktiv og selvom det bliver højt, når det er under belastning, er det en blid whoosh snarere end en højlydt hvin eller irriterende brummer. Kortet bliver meget varmt og kræver et godt ventileret etui for at sikre, at det ikke forårsager stabilitetsproblemer, men igen, det er noget, vi fuldt ud ville forvente af et avanceret grafikkort.

Som nævnt er maksimal effektforbrug en stor 236W. Dette er dog et værst tænkeligt scenario, og nVidia har anvendt nogle store strømbesparende foranstaltninger resultere i, at inaktiv strøm kun er 25W, og strømforbrug under accelereret videoafspilning vil kun stige til 32W. Det er meget imponerende tal, der får dig til at undre dig over fordelene ved HybridPower, især som vi har fundet de chipsæt, der understøtter denne strømbesparende funktion, forbruger betydelige mængder strøm dem selv.


Selvom kortet "kan" trække meget lidt strøm, fungerer det stadig ikke uden begge ekstra PCI-Express stikkontakter korrekt tilsluttet - noget der vil blive tydeliggjort af en LED på udvidelsesbeslaget, som lyser rødt, hvis kortet ikke har nok strøm. nVidia er ikke gået så langt som til at bruge de glødende PCI-Express-stik, det brugte på GX2 men det var virkelig mere en ”bling” funktion end en nødvendighed.

Skjult under gummiklapper langs toppen af ​​kortet er SLI -stik og et S/PDIF -stik. Førstnævnte muliggør dual- og triple-SLI-konfigurationer, og sidstnævnte giver mulighed for at transportere digital lyd ud via videoforbindelserne. Dette understøtter to-kanals LPCM på op til 192KHz, seks-kanals Dolby Digital på op til 48KHz og DTS 5.1 ved op til 96KHz. Det dækker ikke alle muligheder, med otte-kanals LPCM, Dolby TrueHD og DTS Master Audio som åbenlyse mangler, men det er nok til alle undtagen den mest omfattende hjemmebiograf opsætninger. En DVI-til-HDMI-adapter leveres til brug af dette.


Udgange er standardpris med to dual-link DVI-I-stik og et syv-benet analogt videostik, der understøtter S-Video indbygget samt komposit og komponent via en break-out dongle. Begge DVI-forbindelser understøtter HDCP-kryptering, så de kan bruges til at afspille kopibeskyttet HD-indhold som Blu-ray-diske.


Videoacceleration er det samme niveau som det, der ses på 9000-serien med H.264, VC-1 og MPEG-2, der alle nyder godt af GPU-acceleration. Der er også den tvivlsomt nyttige billede efterbehandling, dynamisk kontrastforbedring og blå, grøn og hudfarveforbedringer, der for nylig blev introduceret.

En af nVidias store marketingkampagner i år har kredset om at hæve profilen for General Purpose Graphics Processing Unit (GPGPU), opgaven med at udføre ikke-3D-grafikrelateret beregning på en GPU. Så med lanceringen af ​​GT200 var nVidia ivrig efter at understrege de overlegne GPGPU -evner med sin seneste chip.


GPU'er er generelt velegnede til at udføre parallel computing opgaver, som billedmanipulation og videokonvertering, fordi alle disse shaders også kan sættes i gang som mini -CPU'er. Individuelt kan de blegne ind sammenligning med en ordentlig CPU, men når du har 240 af dem, som du har i GT200, vil det rene brute force antal shaders let udføre enhver CPU. Det store problem i øjeblikket er, at det er meget vanskeligt at skrive software for at drage fordel af parallel behandling, og især parallel behandling på en GPU. Det var det, der fik nVidia til at begynde at arbejde på sin CUDA Software Development Kit (SDK), som Hugo for nylig talte om, og som gør programmering til GPGPU betydeligt lettere for koderen.


Samt CUDA som en generel programmeringsplatform, dog købte nVidia også for nylig PhysX, fysikprocessorselskabet, og integrerede dets teknologier i CUDA SDK. Dette betyder, at nVidia GPU'er nu kan sættes i gang med at skabe livlignende fysiske effekter såvel som livlignende visuelle effekter.


Da CUDA også er understøttet af alle nVidias GPU'er siden 8800 GTX, har den nu en massiv installeret brugerbase på 70 millioner. Dette har fået nogle temmelig store navneudviklere til at sidde op og være opmærksom på CUDA, herunder Adobe - det vil bruge GPU -acceleration i sine kommende versioner af Photoshop og Premier.


Selvfølgelig har AMD også udviklet sin egen konkurrent til CUDA i form af sin Close To Metal (CTM) SDK. Dette har imidlertid haft betydeligt mindre entusiastisk optagelse. Alligevel har AMD også planlagt at understøtte Havok -fysikmotoren og endnu ikke hoppe ombord med PhysX, den sande tilstand af leg med hensyn til GPGPU er alt sammen i luften, og personligt ville jeg tage det hele med en knivspids salt for tiden værende. Når det er sagt, for de interesserede har GT200 foretaget nogle betydelige forbedringer i forhold til nVidias tidligere indsats.


Når man ser på GT200 med hensyn til GPGPU, og man har en chip, der tager følgende udseende. TPC'erne bliver mini-24-core-processorer, hver med sine egne små lagre cachehukommelse. En trådplanlægger fordeler den massive beregningsbelastning mellem alle de forskellige TPC'er, og rammebufferhukommelsen fungerer som hovedsystemhukommelse.

Nu i sine briefings gik nVidia ind i mange detaljer om, hvorfor GT200 er bedre end alle nVidia GPU'er, der kom før, når det kommer til GPGPU. En stor del af forbedringen skyldes imidlertid simpelthen den grundlæggende stigning i behandlingsenheder frem for store nye designs. Resultatet er en stigning fra 518 GigaFLOP'er af processorkraft på G80 til 933 GigaFLOP'er på GT200.


Når det er sagt, er der også et par arkitektoniske forbedringer. For det første er trådplanlægning blevet forbedret, så MAD+MUL-funktioner med dobbelt problem kan udføres mere effektivt. Dobbelt præcision (64-bit) beregninger understøttes nu, selvom disse er afhængige af 30 (en pr. SM) dedikeret dobbelt præcision processorer frem for at bruge selve SP'erne, hvilket resulterer i dobbeltpræcisionsydelse, der er en tolvte af enkeltpræcision (32-bit). Fire 'Atomic' enheder er også tilføjet. Disse er designet til at håndtere bestemte atom-læs-modificer-skriv-kommandoer med direkte adgang til hukommelse, frem for at udnytte chipens egne caches.


Alt i alt er det dog mange ting, der involverer meget kompliceret matematik og optimeringer deraf, og lige nu er lidt af det relevant for den almindelige forbruger. Når almindelige GPGPU -applikationer begynder at komme på hylderne, vender vi tilbage til disse spørgsmål og ser, hvilken forskel de virkelig gør.


Så med al den teori på vej, lad os se på det første forbrugerkort baseret på GT200, GTX280.

Ved at tage et yderligere skridt tilbage blev vi mødt med følgende diagram.

Her ser vi, at der er ti TPC'er, der udgør chipens shader-power i et afsnit, som nVidia kalder Streaming Processor Array (SPA). I G80 og G92 bestod SPA kun af otte TPC'er, hvilket resulterede i i alt 128 SP'er. Med stigningen i SP'er pr. TPC og stigningen i TPC'er pr. SPA i GT200, ender vi med i alt 240 SP'er - en del stigning, jeg er sikker på, at du enig. Denne stigning i antallet af TPC'er tegner sig også for den forbedring af teksturstyrke, der er nævnt tidligere. Med to ekstra TPC'er får du to ekstra blokke tekstureringsenheder, hvilket giver i alt 32 teksturadressenheder og 32 teksturfiltreringsenheder, op fra 24 af hver på G92 og 12 adresseringsenheder og 24 filtreringsenheder på G80.


Over SPA'en er shader-thread-forsendelseslogikken, som klarer opgaven med at opdele det enorme antal beregninger i stykker af TPC-størrelse samt raster / opsætningsmotor.


Under SPA'en er otte ROP-partitioner, der håndterer opgaver pr. Pixel som anti-aliasing og alfa-blending. Hver ROP -partition kan behandle fire pixels pr. Ur, hvilket giver i alt 32 pixels pr. Ur for hele chippen. Desuden er de nye ROP'er blevet finjusteret for at muliggøre blanding i fuld hastighed (dvs. 32 pixels pr. Ur) - G80 kunne kun blande 12 og output 24 pixels pr. Urcyklus - så antialiasing, partikeleffekter, skygger og lignende bør alle se en præstationsstigning med GT200. Hver ROP har sin egen lille butik med L2-cache-hukommelse samt en dedikeret 64-bit forbindelse til rammebufferen, hvilket giver en samlet hukommelsesgrænseflade, der er 512-bit bred. Eller med andre ord, kolossalt!


Andre steder har der været anvendt en række tilpasninger, der inkluderer forbedret geometri-skygge og Z-okklusion-sløjfeydelse. Kommunikationen mellem hardware og driver er også blevet forbedret, hvilket reducerer potentielle flaskehalse, der kan påvirke ydeevnen.


Alt i alt resulterer disse ændringer i nogle ret imponerende råpræstationstal. Over G80 er skyggeprocessorkraft steget med 87,5 procent, tekstureringsmuligheder med 25 procent og pixelgennemstrømning med 33,3 procent. Sammenlignet med de dual-chip-kort, som ATI og nVidia begge for nylig introducerede, virker nogle af tallene mindre imponerende, men der er to ting at overveje her. For det første antager tallene for dual card -løsningerne en perfekt fordobling af ydeevnen fra de to involverede chips, hvilket sjældent er tilfældet i virkeligheden. For det andet tilbyder disse dual-chip-kort kun præstationsforøgelser for de spil, som de fungerer korrekt med, mens single-chip-løsninger som GT200 vil give dig et garanteret ydelsesniveau.


Så det er det logiske billede, men hvordan hænger det hele sammen med den gigantiske chip, vi så tidligere? Tag et kig herunder.

Dette er et billede af GT200 med de forskellige beregnede sektioner fremhævet. Den umærkede sektion i midten udfører en række roller, men primært er det bekymret for at styre resten af ​​chippen, så den omfatter ting som trådplanlægning og rasteropsætning.


Endelig en note om DirectX10.1. Kort sagt understøtter GT200 det ikke, hvilket er ærgerligt. Selvom 10.1 kun er en lille tweak, der ikke bringer nogen nye funktioner til Microsofts gaming API, forbedrer det effektiviteten og dermed ydeevnen i visse situationer. Det eneste i nVidias fordel her er, at få udviklere endnu udnytter disse nye tweaks. Dette vil imidlertid ikke være tilfældet for altid. Vi bliver bare nødt til at vente og se, hvordan dette forløber.

Det er helt klart, at nVidia GeForce GTX280 klarer sig fremragende, og i modsætning til den seneste mængde dual-chip-kort, vi har set, er denne ydeevne konsistent. Ok, det tilintetgør ikke alt, hvad der kom før det, ligesom 8800 GTX gjorde, da det ankommet, men der er et stort nok trin op til, at de, der ønsker at opgradere deres 8800 GTX'er har en værdi mulighed. Især da mere og mere spil bliver afhængigt af den ekstra shader -hardware, som GT200 leverer.


Vi kan også lide kortets fysiske layout med den beskyttende afdækning af hele kortet og lysdioder for at angive korrekt effekt konfiguration er velkomne tilføjelser, mens det afprøvede sorte kabinet og en stor køler forbliver fra tidligere kort. Bortset fra at ATI fortsat har overhånden, når det kommer til måden lydpass-through er aktiveret, kan vi virkelig ikke finde fejl med GTX280.


Et område, hvor GTX280 uundgåeligt falder ned, er i sit højeste effektforbrug, men så er det kun så højt, som vi ville forvente og er stadig lavere end nogle kort, der er kommet før det. Tag højde for det utroligt lave tomgangs- og videodekodende strømforbrug, samt understøttelse af HybridPower, og du har et kort, der ikke bør bekymre dig for meget, når det kommer til din elektricitet regning.

Den eneste faktor, der virkelig bekymrer os, er prisen, da nVidia virkelig har presset på og malker hver sidste dråbe overskud, den kan, mens den stadig har præstationen. Det er ikke et overraskende træk, og vi er sikre på, at dets konkurrenter ville gøre det samme, hvis de havde en chance. Det er dog stadig sørgeligt. Selvom GTX280 utvivlsomt er det hurtigste kort der findes, er det desuden ikke så meget hurtigere. Bestemt ikke nok til at retfærdiggøre at betale dobbelt så meget som en 9800 GTX. Hvis vi ville anbefale noget lige nu, ville det være at gå og købe to 9800 GTX -kort og køre dem i SLI (et emne, vi muligvis dækker snart). Enten det eller vent på vores anmeldelse af GTX260 for at se, hvordan det stabler sig.


"'Dom"'


Vi kan absolut ikke finde nogen fejl i GTX280, når det kommer til ydeevne, og den har alle de funktioner, de fleste spillere burde bekymre sig om. Desværre har nVidia spillet hård bold med priserne, og vi kan simpelthen ikke anbefale at købe en til en pris på 400 - 450 £.

Trusted Score

Starfield er eksklusivt til Xbox og pc, og Bethesda gnider salt i PS5-fansens sår

Måske var den største historie fra E3 2021 den mange forventede; Bethesdas næste AAA-eksklusive S...

Læs Mere

One Plus og Oppo 'fusionerer' - her kan det være gode nyheder for fans

Kinesiske mobile upstarts OnePlus og Oppo - der allerede ejes af det samme moderselskab - har bek...

Læs Mere

Facebook-annoncer er indstillet til Oculus Quest, hvilket viser, at der ikke er nogen reel flugt fra virkeligheden

Facebook-annoncer er indstillet til Oculus Quest, hvilket viser, at der ikke er nogen reel flugt fra virkeligheden

Der var altid en risiko for, at virtuel, forstærket og blandet virkelighed ville placere en evigt...

Læs Mere

insta story