Tech reviews and news

NVidia GeForce GTX 280 Gjennomgang

click fraud protection

Kjennelse

Nøkkelspesifikasjoner

  • Gjennomgangspris: £ 425,00

Utgivelsen av G80 -baserte nVidia GeForce 8800 GTX i november 2006 var, i ettertid, et paradigmeskifte i datagrafikkverdenen. Ikke bare var det det første DirectX 10 -grafikkortet, men det blåste også helt konkurransen i DirectX 9 -spill før ankomst av Windows Vista og holdt denne ledelsen i en enestående tid, selv når Vista og DirectX 10 endelig kom. Faktisk ikke før i februar i år, da AMD ga ut ATI Radeon HD 3870 X2, som brukte to RV670 -kjerner på ett kort, hadde G80 i sine forskjellige former noen reell konkurranse.


Ikke at denne konkurransen varte lenge. I løpet av få uker ga nVidia ut den dobbelte G92 -baserte 9800 GX2, som brukte en lignende to-chips-on-one-card-metode til HD 3870 X2, og komfortabelt gjenvunnet toppkronen-i hvert fall i spillene den jobbet med. nVidia fulgte dette deretter opp med 9800 GTX, som brukte en enkelt G92-basert chip for å utvide nVidias ytelsesledelse marginalt på markedet for enkeltbrikker. Selvfølgelig hadde ATI fortsatt mange gode kort, og det konkurrerte veldig hardt i det vanlige markedet under £ 150, men det kunne bare ikke kreve topplasseringen.


Selv om nVidia holdt teten med kortene i 9800 -serien, presset den ikke noen grenser. Ytelsen var god, men ikke overveldende, og mens nye funksjoner som HybridPower er nyttige, føltes hele serien litt skuffende.

Bare noen få måneder senere har nVidia nettopp lansert en helt ny grafikkprosessor kalt GT200 det, i det minste på papiret, ser ut til å ha all den ytelsen som er nødvendig for å være en sann etterfølger G80. Består av 1,4 milliarder (ja, det vil si milliarder med en ‘B’) transistorer, pakket i 240 strømprosessorer, 32 ROP-er, et 512-biters minnegrensesnitt og en hel rekke andre forbedringer under panseret, det er en absolutt monster. Faktisk, med at den fremdeles fremstilles ved hjelp av den samme 65nm -prosessen som ble brukt på G92, er den ikke bare et monster internt, men også eksternt - på 24 x 24 mm er dette den største enkelt dø TSMC noensinne har vært kommersielt produsert.


Faktisk, hvis du ser på en typisk silisiumskive i produksjon, som er 300 mm i diameter, er det på det meste bare plass til å produsere 94 GT200 -brikker på hver. Sammenlign dette med noe som Intels Conroe -prosessorer, som er bygget på samme produksjonsprosess, men bare er 143 mm^2 i størrelse, så 426 dies kan produseres per skive, og du får en ide om hvor stor og dyr GT200 er.


To varianter på GT200 vil være tilgjengelig ved lansering, og disse vil være de første delene som tar på seg nVidias reviderte merkevarebygging. Alt rebranding koker ned til er å bytte bokstaver og tall, så de nye kortene kalles GTX 280 og GTX 260 i stedet for x000 GT/GTX/GTS -arrangementet vi er vant til.


GTX 280 vil bruke hele omfanget av GT200 med sin skyggeklokke som kjører på 1296MHz, 1GB GDDR3 -minne som kjører på 1107MHz (2,2GHz effektivt) og resten av brikken. borte på 602MHz. Ettersom effektbehovet for hele dette partiet vil være 236W, trenger GTX 280 ikke bare en konvensjonell seks-pinners PCI-Express-kontakt, men en ekstra åtte-pinners en som vi vil.


I mellomtiden vil GTX 260, som slippes 26. juni (GTX 280 være tilgjengelig når du leser dette), har to SM -klynger deaktivert (jeg forklarer mer om dette på neste side) og en ROP -partisjon har også blitt fjernet. I tillegg til dette har klokkehastighetene blitt strupet, noe som resulterte i vital statistikk om: 192 shaders som kjører på 1242MHz, 28 ROPs som kjører på 576MHz og 896MB GDDR3 1000MHz minne. Som et resultat av disse hastighetene og komponentkuttene, vil GTX 260 trekke mindre strøm, 183W for å være nøyaktig, og trenger derfor bare en seks-pinners PCI-Express-strømkontakt.

Listepriser er så astronomiske som du forventer med GTX 280 som krever 449 pund og GTX 260 299 pund. Dessuten tyder tidlige indikasjoner på at denne prisen ikke vil avvike fra for mye ved at butikker som tilbyr rabatter eller prøver å sette pris på hverandre. Nevermind, hei.


Vi tar en skikkelig titt på GTX260 i en egen artikkel, og vi tar en titt rundt fysisk GTX280 -kort på noen få øyeblikk, men la oss først se på hva som gjør nVidias siste grafiske undringsflått.

Selv om GT200s arkitektur på mange måter er veldig lik G80, er det et stort antall tilpasninger som har blitt brukt på denne nye kjernen som gjør den til en betydelig bedre helhet. Før vi kommer for langt inn i sammenligningene, la oss imidlertid gå tilbake til det grunnleggende.


Følgende er en Streaming Multiprocessor, eller SM som nVidia forkorter det til:

Som du kan se fra bildet, er en SM en rekke prosessorkjerner kalt Streaming Processors (SPs), med en del cacheminne og en instruksjonsplanlegger. Det er faktisk litt mer enn det, inkludert to spesialfunksjonsenheter (SFU) som ikke er avbildet, men vi vil ikke gå for langt inn i detaljene. I hovedsak fungerer dette lille partiet som en mini -åtte -kjerners CPU hvor hver kjerne utfører beregningene knyttet til en enkelt piksel. Den lille (16KB) delen av minnet brukes til å håndtere bare spesifikke data knyttet til de åtte pikslene SM for tiden jobber med. Dette er den grunnleggende byggesteinen i nVidias enhetlige skyggearkitektur og er den samme på både G80, G92 og GT200.

(senter)"TPC fra GT200"(/senter)
Når vi zoomer ut ett trinn, ser vi det første store skillet mellom G80/G92 og GT200. I GT200 kombineres tre av disse SM -ene for å danne en Texture/Processor Cluster (TPC), mens G80 og G92 brukte to SM -er per TPC. Prinsippet er det samme, det er bare mer i den nye brikken - 32 SP vs. 24 på G80.

(senter)”TPC fra G80/G92”(/senter)
I tillegg til å kombinere SM -er, legger en TPC også til teksturbehandling evner og igjen er dette et annet område der den nye brikken skiller seg fra sine forfedre, liksom. På G80 har du fire teksturadressenheter og åtte teksturfiltrering enheter per TPC, med G92 ble antallet adresseenheter doblet til åtte mens filtreringen forble på åtte enheter. Nå, med GT200 har ting, vel, vært det samme.


Du får fortsatt åtte teksturadressenheter og åtte filtreringsenheter per TPC, det er bare forholdet mellom shaders og tekstureringsenheter som er endret. Så mens skyggetallet for hver TPC har økt med 50 prosent, har teksturstyrken til hver TPC vært den samme. Til å begynne med kan dette virke som et tilbakestående skritt, men de fleste moderne spill blir mer og mer avhengige, så endringen i forhold gir mening. Når du ser på det større bildet, vil du dessuten se at den totale teksturstyrken til GT200 faktisk har økt en liten mengde.

Hva kan vi si om Counter-Strike: Source som ikke har blitt sagt før? Det er rett og slett "referansen" for lagbaserte online-skytespillere, og fire år etter utgivelsen er det fortsatt et av de mest populære spillene i sin sjanger. I full kontrast til Enemy Territory: Quake Wars, fokuserer den på små miljøer og utrolig intensive småskala kamper med ett skudd dreper dagens orden. Hvis du vil teste alle elementene i dine førstepersonsskytterferdigheter på en gang, er dette spillet for å gjøre det.


Vi tester å bruke 32-biters versjon av spillet ved hjelp av en tilpasset tidsdemo tatt under et spill mot roboter på cs_militia-kartet. Dette har en stor mengde løvverk, så transparens antialiasing har en betydelig innvirkning på bildekvalitet og ytelse, og er generelt et av de mest grafisk intensive kartene som er tilgjengelige. Vi finner en framerate på minst 60 bps for seriøst spill, ettersom dette spillet er avhengig av raske, nøyaktige reaksjoner som rett og slett ikke kan kompromitteres av nedlagte rammer.


Alle innstillinger i spillet er satt til sitt maksimum, og vi tester med 0xAA 0xAF, 2xAA 4xAF og 4xAA 8xAA. Transparency anti-aliasing er også slått på manuelt via driveren, selv om dette åpenbart bare er aktivert når vanlig AA brukes i spillet.




Selv om ATIs HD 3870 X2 klarer å holde tritt med GTX280, kan den ganske enkelt ikke matche nVidias siste når det gjelder knase. Nok en gang hersker GTX280.

Call of Duty 4 må være en av favorittkampene våre i fjor. Det gjorde Call of Duty -merkevaren oppdatert og viste at førstepersonsskyttere ikke trengte å ha den beste grafikken eller den lengste spilletiden. Det var bare åtte timer med rent adrenalinkick som konstant holdt deg på spissen.


Vi tester å bruke 32-biters versjon av spillet lappet til versjon 1.4 FRAPS brukes til å registrere framerates mens vi går manuelt gjennom en kort del av det andre nivået av spillet. Vi finner en framerate på 30 bps som er ganske tilstrekkelig, selv om atmosfæren er intens, er spillingen mindre-det henger ikke på raske reaksjoner og høyhastighetsbevegelse.


Alle innstillinger i spillet er satt til sitt maksimum, og vi tester med 0xAA og 4xAF. Transparency anti-aliasing er også slått på manuelt via driveren, selv om dette åpenbart bare er aktivert når vanlig AA brukes i spillet.




Av en eller annen grunn hadde dette spillet rett og slett ikke så stor nytte av de forskjellige forbedringene som ble gjort på GT200, og det ble ganske enkelt trukket av 9800 GX2. Vi mistenker at dette i stor grad skyldes Call of Duty 4 som et DirectX 9 -basert spill, så det har liten fordel av de mer DirectX 10 -orienterte tweaksene som er brukt på GT200. Det går fortsatt helt fint.

Enemy Territory: Quake Wars skiller seg fra alle våre andre tester ved at den bruker åpen kildekode OpenGL API i stedet for Microsofts DirectX. Det er et lagbasert førstepersonsskytespill satt i et dystopisk fremtidig krigsscenario. Som spiller får du velge mellom et enormt spekter av karaktertyper og spillestiler, og det er også en rekke kjøretøyer å velge mellom. Kampene kan spenne over store områder med åpen plass og involvere et stort antall deltakere. Alt i alt er det himmelen for flere spillere.


Vi tester ved hjelp av 32-biters versjon av spillet, som er oppdatert til versjon 1.4. Vi bruker en tilpasset timedemo fra dalenivå, som vi synes er omtrent så grafisk intensiv som spillet blir. Vi føler at det kreves en framerate på minst 50 b / s for dette spillet ettersom den intense flerspillersaksjonen og høyhastighets musebevegelsen krever det.


Alle innstillinger i spillet er satt til sitt maksimum, og vi tester med 0xAA 0xAF, 2xAA 4xAF og 4xAA 8xAA. Transparency anti-aliasing er også slått på manuelt via driveren, selv om dette åpenbart bare er aktivert når vanlig AA brukes i spillet.




Den positive historien fortsetter med Enemy Territory - GTX280 blåser bare bort alt annet. Selv 9800 GX2 må konsekvent spille andre fele, og dette er et spill som skalerer veldig godt i SLI.

Race Driver: GRID er det nyeste spillet i testarsenalet vårt, og det er for tiden også en av våre favoritter. Kombinasjonen av spenning og søl i arkadestil med en sunn dose realisme og statister som Flashback gjør det til et flott pickup og kjørespill. Det er også visuelt imponerende med vakkert gjengitte innstillinger, interaktive folkemengder, ødeleggende miljøer og fantastisk belysning. Alt det, og det er heller ikke det mest krevende spillet på maskinvare.


Vi tester ved hjelp av 32-biters versjon av spillet, som er upatchet og kjører i DirectX10-modus. FRAPS brukes til å registrere bildefrekvenser mens vi manuelt fullfører en krets i Okutama Grand Circuit, i et Pro Tuned -løp på normale vanskeligheter. Vi finner en framerate på minst 40 b / s for å spille dette spillet tilfredsstillende, da betydelige stammere kan ødelegge timingen og presisjonen din. Vi vil også vurdere 4xAA som et minimum ettersom banen, barrierer og bilkarosserier lider betydelig av aliasing og er en konstant distraksjon.


Alle innstillinger i spillet er satt til maksimum, og vi tester med 0xAA, 4xAA og 8xAA. Transparency anti-aliasing er også slått på manuelt via driveren, selv om dette åpenbart bare er aktivert når vanlig AA brukes i spillet.




Vi hadde svært begrenset tid til å teste dette spillet, så vi fikk bare sammenlignbare resultater på et par kort. Det er også klart at nVidia ikke har hatt en sjanse til å optimalisere SLI -driverne for dette spillet ettersom 9800 GX2 sliter mer enn det burde. Alt i alt, så kan vi ikke kommentere det store bildet. Selv med begrenset testing er det imidlertid ganske klart at GTX280 er et godt valg for å spille dette spillet.

Selv om det ikke har vært en stor kommersiell suksess og spillet er langt fra revolusjonerende, er den grafiske troskapen til Crysis er fortsatt uten sidestykke, og som sådan er det fortsatt den ultimate testen for et grafikkort. Med masser av dynamisk løvverk, bølgende fjellkjeder, knallblått hav og store eksplosjoner, har dette spillet alt det øye-godteriet du kan ønske deg og så litt.


Vi tester å bruke 32-biters versjon av spillet patched til versjon 1.1 og kjører i DirectX 10-modus. Vi bruker en tilpasset timedemo som er hentet fra de første øyeblikkene i starten av spillet, og lurer på stranden. Overraskende, med tanke på den klaustrofobiske innstillingen og det grafisk rike miljøet, finner vi ut at enhver bildefrekvens over 30 bps er tilstrekkelig til å spille dette spillet.


Alle innstillinger i spillet er høye for testkjøringene våre, og vi tester med både 0xAA og 4xAA. Transparency anti-aliasing er også slått på manuelt via driveren, selv om dette åpenbart bare er aktivert når vanlig AA brukes i spillet.





Det er ikke så mye å si her, egentlig. GTX280 er den desidert beste innsatsen for å spille Crysis. Faktisk er det det første kortet vi har sett som gjør dette spillet spillbart på 2560 × 1600. Dette er en flott start.

Som jeg hentydet til tidligere, har lanseringen av GTX280 sammenfalt med et stort press fra nVidias side for å markedsføre GPGPU. Selv om dette kan være interessant, er det fortsatt langt fra å være av stor betydning for alle som ønsker et av disse kortene. Så til hele GPGPU -spekteret utjevner seg og vi får en slags standarder som spiller inn, lar vi analysen av GPGPU -ytelsen stå utenfor ligningen. Så la oss få sparken i gang med disse spillene i stedet.


"'Felles systemkomponenter"'


* Intel Core 2 Quad QX9770
* Asus P5E3
* 2 GB Corsair TWIN3X2048-1333C9 DDR3
* 150 GB Western Digital Raptor
* Microsoft Windows Vista Home Premium 32-biters


"'Sjåfører' '
* GTX280: Forceware 177.34
* Andre nVidia -kort: Forceware 175.16
* ATI: Catalyst 8.4


"Kort testet"
* nVidia GeForce GTX 280
* nVidia GeForce 9800 GTX
* nVidia GeForce 9800 GX2
* nVidia GeForce 8800 GTX
* nVidia GeForce 8800 GTS 512
* ATI HD 3870 X2


"'Spill testet"'
* Crysis
* Race Driver: GRID
* Enemy Territory: Quake Wars
* Call of Duty 4
* Counter Strike Source

Det første kortet vi fikk levert til anmeldelse er laget av Zotac, men bortsett fra Zotac -klistremerket er nøyaktig samme design som nVidias referansetavle, så det er det vi vil basere vår vurdering på på. Vi vil ta opp detaljene i Zotac -brettet sammen med en rekke andre partnerkort når vi snart foretar en roundup.

GTX280 -kortet er 267 mm langt, som er omtrent samme lengde som 9800 GX2. I likhet med GX2 er den helt omsluttet av et metallhylster. Dette beskytter den delikate elektronikken mot potensiell skade på grunn av statiske eller generelle slag og skraper, og er en utvikling vi ønsker velkommen med åpne armer.


Igjen, som alle nVidias nylige high-end-kort, bruker GTX280 en dual-slot heatsink/fan-design som bruker den litt off-parallelle viftejusteringen som debuterte med 8800 GTS 512. Som vi har forventet, er kjøleren veldig effektiv, og den er nesten stille når den er inaktiv og selv om det blir høyt når det er under belastning, er det en mild whoosh i stedet for et høylytt hvin eller irriterende summer. Kortet blir veldig varmt og krever et godt ventilert etui for å sikre at det ikke forårsaker stabilitetsproblemer, men igjen, dette er noe vi helt ville forvente av et avansert grafikkort.

Som nevnt er toppeffekten en heftig 236W. Dette er imidlertid et verst tenkelig scenario, og nVidia har benyttet noen flotte strømsparingstiltak som Dette resulterer i at inaktiv effekt bare er 25W, og strømforbruk under akselerert videoavspilling vil bare stige til 32W. Dette er veldig imponerende tall som får deg til å lure på fordelene med HybridPower, spesielt som vi har funnet brikkesettene som støtter denne strømsparingsfunksjonen bruker betydelige mengder strøm dem selv.


Selv om kortet "kan" trekke veldig lite strøm, vil det fortsatt ikke fungere uten at de ekstra PCI-Express-stikkontaktene er riktig tilkoblet - noe som vil bli tydeliggjort av en LED på ekspansjonsbraketten, som lyser rødt hvis kortet ikke har nok makt. nVidia har ikke gått så langt som å bruke de glødende PCI-Express-kontaktene den brukte på GX2 men det var egentlig mer en "bling" -funksjon enn en nødvendighet.

Skjult under gummiklaffer langs toppen av kortet er SLI -kontaktene og en S/PDIF -kontakt. Førstnevnte muliggjør to- og trippel-SLI-konfigurasjoner, og sistnevnte gir muligheten til å bære digital lyd ut gjennom videotilkoblingene. Dette støtter to-kanals LPCM på opptil 192KHz, seks-kanals Dolby Digital på opptil 48KHz og DTS 5.1 på opptil 96KHz. Det dekker ikke alle alternativer, med åtte-kanals LPCM, Dolby TrueHD og DTS Master Audio som åpenbare utelatelser, men det er nok for alle unntatt den mest forseggjorte hjemmekinoen oppsett. En DVI-til-HDMI-adapter følger med for å bruke dette.


Utganger er standardpris med to dual-link DVI-I-kontakter og en syv-pinners analog videokontakt som støtter S-Video, så vel som kompositt og komponent via en break-out dongle. Begge DVI-tilkoblinger støtter HDCP-kryptering, så de kan brukes til å spille av kopibeskyttet HD-innhold som Blu-ray-plater.


Videoakselerasjon er på samme nivå som det som ble sett på 9000-serien med H.264, VC-1 og MPEG-2 som alle drar fordel av GPU-akselerasjon. Det er også den tvilsomt nyttige bildebehandlingen, dynamisk kontrastforbedring og forbedringer av blått, grønt og hudfarge som nylig ble introdusert.

En av nVidias store markedsføringskampanjer i år har dreid seg om å heve profilen til General Purpose Graphics Processing Unit (GPGPU), oppgaven med å utføre ikke-3D-grafikkrelatert beregning på en GPU. Så, med lanseringen av GT200, var nVidia opptatt av å understreke de overlegne GPGPU -evnene til den siste brikken.


GPUer generelt er ideelt egnet for å utføre parallell databehandling oppgaver, som bildemanipulering og videokonvertering, fordi alle disse shaders også kan settes i gang som mini -CPUer. Individuelt kan de bleke inn sammenligning med en riktig CPU, men når du har 240 av dem, som du har i GT200, vil det rene antallet brute force -skytere enkelt utføre alle PROSESSOR. Det store problemet for øyeblikket er at det er veldig vanskelig å skrive programvare for å dra nytte av parallellbehandling, og spesielt parallellbehandling på en GPU. Dette var det som fikk nVidia til å begynne å jobbe med sin CUDA Software Development Kit (SDK), som Hugo nylig snakket om, og som gjør programmering for GPGPU betydelig enklere for koderen.


I tillegg til CUDA som en generell programmeringsplattform, kjøpte nVidia også nylig PhysX, fysikkprosessorselskapet, og integrerte teknologiene i CUDA SDK. Dette betyr at nVidia GPUer nå kan brukes til å skape livslignende fysiske effekter så vel som livlignende visuelle effekter.


Med CUDA som støttes av alle nVidias GPU -er siden 8800 GTX, har den nå en massiv installert brukerbase på 70 millioner. Dette har fått noen ganske store navnutviklere til å sette seg opp og ta hensyn til CUDA, inkludert Adobe - det vil bruke GPU -akselerasjon i sine kommende versjoner av Photoshop og Premier.


Selvfølgelig har AMD også utviklet sin egen konkurrent til CUDA, i form av sin Close To Metal (CTM) SDK. Dette har imidlertid hatt betydelig mindre entusiastisk opptak. Likevel, med AMD som også planlegger å støtte Havok fysikkmotor og ennå ikke hopper ombord med PhysX, den sanne tilstanden til lek med hensyn til GPGPU er veldig i luften, og personlig ville jeg tatt det hele med en klype salt for tiden å være. Når det er sagt, for de som er interessert, har GT200 gjort noen betydelige forbedringer i forhold til nVidias tidligere innsats.


Når du ser på GT200 med hensyn til GPGPU, og du har en brikke som tar følgende utseende. TPC-ene blir mini 24-kjerners prosessorer, hver med sine egne små lagre med hurtigminne. En trådplanlegger fordeler den massive beregningsbelastningen mellom alle de forskjellige TPC -ene, og rammebufferminnet fungerer som hovedsystemminne.

Nå i sine orienteringer gikk nVidia inn i mange detaljer om hvorfor GT200 er bedre enn alle nVidia GPUer som kom før når det gjelder GPGPU. Imidlertid er mye av forbedringen bare ned til den grunnleggende økningen i prosesseringsenheter i stedet for noen helt nye design. Resultatet er en økning fra 518 GigaFLOPs prosessorkraft på G80 til 933 GigaFLOPs på GT200.


Når det er sagt, er det også noen få arkitektoniske forbedringer. For det første har trådplanlegging blitt forbedret slik at MAD+MUL-funksjoner med dobbel utgave kan utføres mer effektivt. Dobbelt presisjon (64-biters) beregninger støttes nå, selv om disse er avhengige av 30 (en per SM) dedikert dobbel presisjon prosessorer i stedet for å bruke SP-ene selv, noe som resulterer i ytelse med dobbel presisjon som er en tolvte av enkeltpresisjon (32-bit). Fire ‘Atomic’ enheter er også lagt til. Disse er designet for å håndtere bestemte atom-lese-modifiser-skrive-kommandoer med direkte tilgang til minne, i stedet for å bruke brikkens egne cacher.


Alt sammen er det imidlertid mange ting som innebærer svært komplisert matematikk og optimaliseringer av det, og akkurat nå er lite av det relevant for den generelle forbrukeren. Når vanlige GPGPU -applikasjoner begynner å treffe hyllene, kommer vi tilbake til disse problemene og ser hvilken forskjell de virkelig gjør.


Så, med all den teorien ute av veien, la oss se på det første forbrukerkortet basert på GT200, GTX280.

Ved å ta et ytterligere skritt tilbake ble vi møtt med følgende diagram.

Her ser vi at det er ti TPC-er som utgjør skyggekraften til brikken i en seksjon som nVidia kaller Streaming Processor Array (SPA). I G80 og G92 besto SPA av bare åtte TPC, noe som resulterte i totalt 128 SP. Med økningen i SP per TPC og økningen i TPC per SPA i GT200, ender vi med totalt 240 SP - ganske mye økning, det er jeg sikker på at du bli enige. Denne økningen i antall TPC -er står også for forbedringen i tekstureringskraft nevnt tidligere. Med to ekstra TPC får du to ekstra blokker med tekstureringsenheter, og gir totalt 32 teksturadressenheter og 32 teksturfiltreringsenheter, opp fra 24 av hver på G92 og 12 adresseringsenheter og 24 filtreringsenheter på G80.


Over SPA er shader-thread utsendelseslogikken, som klarer oppgaven med å dele opp det store antallet beregninger i biter av TPC-størrelse, samt raster / oppsettmotoren.


Under SPA er åtte ROP-partisjoner, som håndterer oppgaver per piksel som anti-aliasing og alfa-blanding. Hver ROP -partisjon kan behandle fire piksler per klokke, noe som gir totalt 32 piksler per klokke for hele brikken. De nye ROP -ene er også justert for å muliggjøre blanding i full hastighet (dvs. 32 piksler per klokke) - G80 kan bare blande 12 og output 24 piksler per klokkesyklus - så antialiasing, partikkeleffekter, skygger og lignende bør alle se en ytelsesøkning med GT200. Hver ROP har sin egen lille butikk med L2-hurtigminne, samt en dedikert 64-biters tilkobling til rammebufferen, noe som gir et totalt minnegrensesnitt som er 512-bits bredt. Eller med andre ord, kolossalt!


Andre steder har det blitt anvendt en rekke justeringer som inkluderer forbedret geometri-skygge og Z-okklusjon-culling-ytelse. Kommunikasjonen mellom maskinvare og driver har også blitt forbedret og redusert potensielle flaskehalser som kan påvirke ytelsen.


Alt dette resulterer i disse endringene i noen ganske imponerende råytelsestall. Over G80 har skyggeprosessorkraften økt med 87,5 prosent, tekstureringsmuligheter med 25 prosent og pikselgjennomstrømning med 33,3 prosent. Sammenlignet med dual-chip-kortene som ATI og nVidia begge nylig introduserte, virker noen av tallene mindre imponerende, men det er to ting å vurdere her. For det første antar tallene for dobbeltkortløsningene en perfekt dobling av ytelsen fra de to sjetongene som er involvert, noe som sjelden er tilfelle i virkeligheten. For det andre tilbyr disse dual-chip-kortene bare ytelsesøkninger for spillene de fungerer som de skal, mens single chip-løsninger som GT200 vil gi deg et garantert ytelsesnivå.


Så det er det logiske bildet, men hvordan henger det hele sammen med den gigantiske brikken vi så tidligere? Vel, ta en titt nedenfor.

Dette er et bilde av GT200 med de forskjellige beregningsseksjonene uthevet. Den umerkede delen i midten utfører en rekke roller, men først og fremst er det opptatt av å administrere resten av brikken, så inkluderer ting som trådplanleggeren og rasteroppsettet.


Til slutt ett notat om DirectX10.1. Enkelt sagt, GT200 støtter det ikke, noe som er synd. Selv om 10.1 bare er en liten finjustering som ikke gir noen nye funksjoner til Microsofts spill -API, forbedrer det effektiviteten og dermed ytelsen i visse situasjoner. Det eneste som er til fordel for nVidia her er at få utviklere ennå bruker disse nye justeringene. Imidlertid vil dette ikke være tilfelle for alltid. Vi får bare vente og se hvordan dette blir.

Det er helt klart at nVidia GeForce GTX280 yter ypperlig, og i motsetning til den siste mengden dual-chip-kort vi har sett, er denne ytelsen konsekvent. Ok, det ødelegger ikke absolutt alt som kom før det, slik 8800 GTX gjorde da det kommet, men det er et stort nok steg opp til at de som ønsker å oppgradere sine 8800 GTX -er har en verdi alternativ. Spesielt ettersom mer og mer spill vil bli avhengig av den ekstra shader -maskinvaren som GT200 tilbyr.


Vi liker også kortets fysiske oppsett med beskyttende deksel på hele kortet og lysdioder for å indikere riktig effekt konfigurasjonen er velkomne tillegg, mens den velprøvde svarte kappen og en flott kjøligere gjenstår fra tidligere kort. Bortsett fra at ATI fortsetter å ha overtaket når det gjelder måten lydgjennomgang er aktivert, kan vi virkelig ikke finne feil med GTX280.


Et område der GTX280 uunngåelig faller ned, er i topptrekk, men da er det bare så høyt som vi ville forvente og er fortsatt lavere enn noen kort som har kommet før det. Ta hensyn til strømforbruket med lav tomgangs- og videodekoding, samt støtte for HybridPower, og du har et kort som ikke burde bekymre deg for mye når det gjelder strømmen din regning.

Den eneste faktoren som virkelig bekymrer oss er prisen, ettersom nVidia virkelig har presset på og melket hver siste dråpe med overskudd den kan mens den fremdeles har ytelseslederen. Det er ikke et overraskende trekk, og vi er sikre på at konkurrentene ville gjort det samme hvis de hadde en sjanse. Imidlertid er det fortsatt beklagelig. Selv om GTX280 utvilsomt er det raskeste kortet rundt, er det dessuten ikke så mye raskere. Absolutt ikke nok til å rettferdiggjøre å betale dobbelt så mye som en 9800 GTX. Hvis vi skulle anbefale noe akkurat nå, ville det være å kjøpe to 9800 GTX -kort og kjøre dem i SLI (et emne vi kan dekke om kort tid). Enten det, eller vent på vår anmeldelse av GTX260 for å se hvordan det stabler seg.


"'Kjennelse"'


Vi kan absolutt ikke finne noen feil i GTX280 når det gjelder ytelse, og den har alle funksjonene de fleste spillere burde bry seg om. Dessverre har nVidia spilt hardball med prisene, og vi kan rett og slett ikke anbefale å kjøpe en til £ 400 - £ 450 £.

Trusted Score

Microsoft Explorer Mouse Review

Microsoft Explorer Mouse Review

KjennelseNøkkelspesifikasjonerGjennomgangspris: £ 42,99Inntil nylig kunne du lett bli tilgitt for...

Les Mer

Kodak EasyShare E610 Printer Dock Review

Kodak EasyShare E610 Printer Dock Review

KjennelseNøkkelspesifikasjonerGjennomgangspris: £ 129,99For et par år siden husker jeg en fremtre...

Les Mer

InFocus IN83 DLP -projektoranmeldelse

InFocus IN83 DLP -projektoranmeldelse

KjennelseNøkkelspesifikasjonerGjennomgangspris: £ 3500.00Når jeg ser på en film, liker jeg at mør...

Les Mer

insta story