Tech reviews and news

NVidia GeForce GTX 280 recensie

click fraud protection

Uitspraak

Belangrijkste specificaties:

  • Beoordelingsprijs: £ 425,00

De release van de op de G80 gebaseerde nVidia GeForce 8800 GTX in november 2006 was, achteraf gezien, een paradigmaverschuiving in de wereld van computergraphics. Het was niet alleen de eerste DirectX 10 grafische kaart, maar hij blies ook de concurrentie in DirectX 9-games volledig weg voordat de komst van Windows Vista en hield deze voorsprong voor een ongekende hoeveelheid tijd vast, zelfs toen Vista en DirectX 10 eindelijk arriveerden. Inderdaad, pas in februari van dit jaar, toen AMD de ATI Radeon HD 3870 X2, die twee RV670-kernen op één kaart gebruikte, had de G80 in zijn verschillende gedaanten enige echte concurrentie.


Niet dat deze wedstrijd lang duurde. Binnen een paar weken bracht nVidia de dubbele op G92 gebaseerde 9800 GX2, die een vergelijkbare twee-chips-op-één-kaart-methode gebruikte als de HD 3870 X2, en comfortabel de kroon op het gebied van topprestaties herwon - althans in de games waarmee het werkte. nVidia volgde dit vervolgens op met de 9800 GTX, die een enkele op G92 gebaseerde chip gebruikte om de prestatievoorsprong van nVidia op de markt voor grafische kaarten met één chip marginaal uit te breiden. Natuurlijk had ATI nog steeds veel goede kaarten en het concurreerde zeer fel op de reguliere markt van minder dan £ 150, maar het kon gewoon niet de eerste plaats claimen.


Toch, terwijl nVidia zijn voorsprong vasthield met de kaarten uit de 9800-serie, verlegde het niet echt grenzen. De prestaties waren goed, maar niet overweldigend en hoewel nieuwe functies zoals HybridPower nuttig zijn, voelde het hele assortiment een beetje teleurstellend.

Slechts een paar maanden later heeft nVidia echter een gloednieuwe grafische processor gelanceerd, genaamd GT200 dat, althans op papier, eruit ziet alsof het alle prestaties zou moeten hebben die nodig zijn om een ​​echte opvolger te zijn van G80. Bestaat uit 1,4 miljard (ja, dat is miljard met een 'B') transistors, verpakt in 240 streamprocessors, 32 ROP's, een 512-bit geheugeninterface en een hele reeks andere verbeteringen onder de motorkap, het is een absoluut monster. Omdat het nog steeds wordt gemaakt met hetzelfde 65nm-proces dat op de G92 wordt gebruikt, is het niet zomaar een monster intern, maar ook extern - met 24 x 24 mm is dit de grootste enkele matrijs die TSMC ooit commercieel heeft gemaakt geproduceerd.


Inderdaad, als je kijkt naar een typische siliciumwafel voor productie, met een diameter van 300 mm, is er hoogstens slechts ruimte om op elke schijf 94 GT200-chips te produceren. Vergelijk dit met iets als Intel's Conroe CPU's, die zijn gebouwd op hetzelfde productieproces, maar slechts: 143 mm ^ 2 groot, dus 426 matrijzen kunnen per wafer worden geproduceerd, en je krijgt een idee van hoe groot en duur GT200 is.


Bij de lancering zullen er twee varianten van de GT200 beschikbaar zijn, en dit zullen de eerste onderdelen zijn die de herziene branding van nVidia overnemen. De rebranding komt allemaal neer op het omwisselen van letters en cijfers, dus de nieuwe kaarten heten GTX 280 en GTX 260 in plaats van het soort x000 GT/GTX/GTS dat we gewend zijn.


De GTX 280 zal de volledige omvang van GT200 gebruiken met zijn shader-klok op 1296 MHz, 1 GB GDDR3-geheugen op 1107 MHz (effectief 2,2 GHz), en de rest van de chip spinnend weg op 602MHz. Aangezien de stroomvereiste voor al deze kavels 236W zal zijn, heeft de GTX 280 niet alleen een conventionele zes-pins PCI-Express-connector nodig, maar ook een extra acht-pins connector goed.


Ondertussen is de GTX 260, die op 26 juni uitkomt (de GTX 280 zal beschikbaar zijn tegen de tijd dat je leest dit), heeft twee SM-clusters uitgeschakeld (ik zal hier meer over uitleggen op de volgende pagina) en een ROP-partitie is ook VERWIJDERD. Daarnaast zijn de kloksnelheden verlaagd, wat resulteert in vitale statistieken van: 192 shaders op 1242 MHz, 28 ROP's op 576 MHz en 896 MB GDDR3 1000 MHz-geheugen. Als gevolg van deze snelheids- en componentverlagingen zal de GTX 260 minder stroom verbruiken, 183 W om precies te zijn, en heeft hij bijgevolg slechts een enkele zes-pins PCI-Express-voedingsconnector nodig.

De catalogusprijs is net zo astronomisch als je zou verwachten met de GTX 280 die £ 449 eist en de GTX 260 £ 299. Bovendien suggereren vroege indicaties dat deze prijzen niet te veel zullen worden afgeweken door winkels die kortingen geven of proberen elkaar te overtreffen. Laat maar, hé.


We zullen de GTX260 goed bekijken in een apart artikel en we zullen een kijkje nemen in de fysieke GTX280-kaart in een paar ogenblikken, maar laten we eerst kijken naar wat de nieuwste grafische kaart van nVidia maakt wonder vinkje.

Hoewel de architectuur van de GT200 in veel opzichten erg lijkt op die van de G80, is er een enorm aantal tweaks toegepast op deze nieuwe kern die het een aanzienlijk beter geheel maken. Voordat we echter te ver ingaan op de vergelijkingen, gaan we terug naar de basis.


Het volgende is een Streaming Multiprocessor, of SM zoals nVidia het afkortt tot:

Zoals je op de afbeelding kunt zien, is een SM een reeks verwerkingskernen die Streaming Processors (SP's) worden genoemd, met een deel van het cachegeheugen en een instructieplanner. Er is eigenlijk iets meer aan de hand, inclusief twee Special Function Units (SFU) die niet zijn afgebeeld, maar we zullen niet te ver ingaan op de details. In wezen werkt dit kleine kavel als een mini-cpu met acht kernen, waarbij elke kern de berekeningen uitvoert die zijn gekoppeld aan een enkele pixel. Het kleine (16 KB) deel van het geheugen wordt gebruikt om alleen de specifieke gegevens te verwerken die zijn gekoppeld aan die acht pixels waaraan de SM momenteel werkt. Dit is de basisbouwsteen van de unified shader-architectuur van nVidia en is hetzelfde op zowel de G80, G92 als GT200.

(centrum)"TPC van GT200"(/centrum)
Als we één stap uitzoomen, zien we het eerste grote scheidingspunt tussen G80/G92 en GT200. In GT200 worden drie van deze SM's gecombineerd om een ​​Texture/Processor Cluster (TPC) te vormen, terwijl G80 en G92 twee SM's per TPC gebruikten. Het principe is hetzelfde, er zit alleen meer in de nieuwe chip: 32 SP's vs. 24 op G80.

(centrum)”TPC van G80/G92”(/centrum)
Naast het combineren van de SM's, voegt een TPC ook toe: textuurverwerking mogelijkheden en nogmaals, dit is een ander gebied waar de nieuwe chip verschilt van zijn voorouders, een soort van. Op de G80 heb je vier textuuradreseenheden en acht textuur filteren eenheden per TPC, met G92 verdubbelde het aantal adreseenheden tot acht, terwijl de filtering op acht eenheden bleef. Nu, met GT200 zijn de dingen, nou ja, hetzelfde gebleven.


Je krijgt nog steeds acht textuuradreseenheden en acht filtereenheden per TPC, alleen de verhouding tussen shaders en textuureenheden is veranderd. Dus hoewel het aantal shaders van elke TPC met 50 procent is toegenomen, is het textureringsvermogen van elke TPC hetzelfde gebleven. In eerste instantie lijkt dit misschien een stap achteruit, maar de meeste moderne games worden shader-afhankelijk, dus de verandering in verhouding is logisch. Bovendien, als je naar het grotere geheel kijkt, zul je zien dat de totale textuurkracht van GT200 eigenlijk een klein beetje is toegenomen.

Wat kunnen we zeggen over Counter-Strike: Source dat nog niet eerder is gezegd? Het is gewoon "de" benchmark voor online shooters in teamverband en vier jaar na de release is het nog steeds een van de meest populaire games in zijn genre. In compleet contrast met Enemy Territory: Quake Wars, richt het zich op kleine omgevingen en ongelooflijk intensieve kleinschalige gevechten met one-shot kills aan de orde van de dag. Als je alle elementen van je first person shooter-vaardigheden in één keer wilt testen, is dit de game om het te doen.


We testen met behulp van de 32-bits versie van het spel met behulp van een aangepaste tijddemo die is gemaakt tijdens een spel tegen bots op de cs_militia-kaart. Dit heeft een grote hoeveelheid bladerdek, dus anti-aliasing van transparantie heeft een aanzienlijke invloed op de beeldkwaliteit en prestaties, en is over het algemeen een van de grafisch meest intensieve kaarten die beschikbaar zijn. We vinden dat een framerate van ten minste 60 fps vereist is voor serieus gamen, aangezien deze game enorm afhankelijk is van snelle, nauwkeurige reacties die eenvoudigweg niet kunnen worden aangetast door wegvallende frames.


Alle in-game instellingen zijn maximaal ingesteld en we testen met 0xAA 0xAF, 2xAA 4xAF en 4xAA 8xAA. Transparantie-anti-aliasing wordt ook handmatig ingeschakeld via de driver, hoewel dit uiteraard alleen is ingeschakeld wanneer normale AA in de game wordt gebruikt.




Hoewel ATI's HD 3870 X2 het goed doet om de GTX280 bij te houden, kan het gewoon niet tippen aan het nieuwste van nVidia. Nogmaals, GTX280 regeert oppermachtig.

Call of Duty 4 moet een van onze favoriete games van vorig jaar zijn. Het bracht het merk Call of Duty up-to-date en bewees dat first person shooters niet de beste graphics of de langste speeltijd nodig hadden. Het was slechts acht uur pure adrenalinestoot die je constant op scherp hield.


We testen met behulp van de 32-bits versie van de game die is gepatcht naar versie 1.4. FRAPS wordt gebruikt om framerates op te nemen terwijl we handmatig door een kort gedeelte van het tweede niveau van de game lopen. We vinden dat een framerate van 30 fps ruim voldoende is, want hoewel de sfeer intens is, is de gameplay minder - het hangt niet af van snelle reacties en snelle bewegingen.


Alle in-game instellingen staan ​​op hun maximum en we testen met 0xAA en 4xAF. Transparantie-anti-aliasing wordt ook handmatig ingeschakeld via de driver, hoewel dit uiteraard alleen is ingeschakeld wanneer normale AA in de game wordt gebruikt.




Om de een of andere reden profiteerde deze game gewoon niet zo veel van de verschillende verbeteringen die aan GT200 zijn aangebracht en wordt het simpelweg verslagen door de 9800 GX2. We vermoeden dat dit grotendeels te wijten is aan het feit dat Call of Duty 4 een op DirectX 9 gebaseerde game is, dus het profiteert weinig van de meer DirectX 10-georiënteerde tweaks die zijn toegepast op GT200. Het loopt echter nog helemaal prima.

Vijand gebied: Quake Wars onderscheidt zich van al onze andere tests door het feit dat het de open source OpenGL API gebruikt in plaats van Microsoft's DirectX. Het is een teamgebaseerde first person shooter die zich afspeelt in een dystopisch toekomstig oorlogsscenario. Als speler kun je kiezen uit een enorm scala aan personagetypes en speelstijlen, en er is ook een hele reeks voertuigen om uit te kiezen. Gevechten kunnen zich uitstrekken over uitgestrekte open ruimte en er zijn een groot aantal deelnemers bij betrokken. Al met al is het een multiplayer-hemel.


We testen met de 32-bits versie van het spel, die is gepatcht naar versie 1.4. We gebruiken een aangepaste tijddemo van het Valley-niveau, waarvan we denken dat deze grafisch ongeveer net zo intensief is als de game wordt. We zijn van mening dat een framerate van ten minste 50 fps vereist is voor deze game, omdat de intense multiplayer-actie en snelle muisbewegingen dit vereisen.


Alle in-game instellingen zijn maximaal ingesteld en we testen met 0xAA 0xAF, 2xAA 4xAF en 4xAA 8xAA. Transparantie-anti-aliasing wordt ook handmatig ingeschakeld via de driver, hoewel dit uiteraard alleen is ingeschakeld wanneer normale AA in de game wordt gebruikt.




Het positieve verhaal gaat verder met Enemy Territory - GTX280 blaast gewoon al het andere weg. Zelfs de 9800 GX2 moet consequent de tweede viool spelen en dit is een spel dat zeer goed schaalt in SLI.

Racecoureur: GRID is de nieuwste game in ons testarsenaal en het is momenteel ook een van onze favorieten. De combinatie van spanning en sensatie in arcade-stijl met een gezonde dosis realisme en extra's zoals Flashback, maakt het een geweldig ophaal- en rijspel. Het is ook visueel verbluffend met prachtig weergegeven instellingen, interactieve menigten, vernietigbare omgevingen en verbluffende verlichting. Dat alles en het is ook niet de meest veeleisende game op hardware.


We testen met de 32-bits versie van de game, die niet is gepatcht en draait in DirectX10-modus. FRAPS wordt gebruikt om framesnelheden vast te leggen terwijl we handmatig een circuit van het Okutama Grand Circuit voltooien, in een Pro Tuned-race op normale moeilijkheidsgraad. We vinden dat een framerate van ten minste 40 fps vereist is om deze game naar tevredenheid te spelen, omdat aanzienlijke haperingen je timing en precisie kunnen verpesten. We zouden ook 4xAA als een minimum beschouwen, omdat de baan, de barrières en de carrosserieën aanzienlijk lijden onder aliasing en een constante afleiding zijn.


Alle in-game instellingen zijn maximaal ingesteld en we testen met 0xAA, 4xAA en 8xAA. Transparantie-anti-aliasing wordt ook handmatig ingeschakeld via de driver, hoewel dit uiteraard alleen is ingeschakeld wanneer normale AA in de game wordt gebruikt.




We hadden heel weinig tijd om dit spel te testen, dus we kregen slechts vergelijkbare resultaten op een paar kaarten. Het is ook duidelijk dat nVidia geen kans heeft gehad om zijn SLI-stuurprogramma's voor deze game te optimaliseren, aangezien de 9800 GX2 meer worstelt dan zou moeten. Alles bij elkaar genomen kunnen we dus geen commentaar geven op het grote geheel. Zelfs met beperkte tests is het echter vrij duidelijk dat de GTX280 een uitstekende keuze is om deze game te spelen.

Hoewel het geen enorm commercieel succes is geweest en de gameplay verre van revolutionair is, is de grafische betrouwbaarheid van Crysis is nog steeds ongeëvenaard en als zodanig is het nog steeds de ultieme test voor een grafische kaart. Met massa's dynamisch gebladerte, glooiende bergketens, helderblauwe zeeën en grote explosies, heeft deze game alle eye-candy die je maar kunt wensen en nog wat.


We testen met de 32-bits versie van het spel, gepatcht naar versie 1.1 en draaiend in DirectX 10-modus. We gebruiken een aangepaste tijddemo die is genomen vanaf de eerste momenten aan het begin van het spel, terwijl we ons afvragen op het strand. Verrassend genoeg, gezien de claustrofobische setting en grafisch rijke omgeving, vinden we dat elke framesnelheid boven 30 fps ongeveer voldoende is om deze game te spelen.


Alle in-game instellingen zijn op hoog ingesteld voor onze testruns en we testen met zowel 0xAA als 4xAA. Transparantie-anti-aliasing wordt ook handmatig ingeschakeld via de driver, hoewel dit uiteraard alleen is ingeschakeld wanneer normale AA in de game wordt gebruikt.





Er valt hier niet veel te zeggen, echt niet. GTX280 is verreweg de beste gok om Crysis te spelen. Het is zelfs de eerste kaart die we hebben gezien die dit spel speelbaar maakt op 2.560×1.600. Dit is een goed begin.

Zoals ik eerder al zei, viel de lancering van de GTX280 samen met een enorme druk van nVidia om GPGPU te promoten. Hoewel dit misschien interessant is, is het nog lang niet van grote betekenis voor iedereen die op zoek is naar een van deze kaarten. Dus totdat het hele GPGPU-spectrum gelijk is en we een soort van standaarden in het spel krijgen, laten we de analyse van de GPGPU-prestaties buiten beschouwing. Dus laten we die games in plaats daarvan starten.


”'Gemeenschappelijke systeemcomponenten''


* Intel Core 2 Quad QX9770
* Asus P5E3
* 2GB Corsair TWIN3X2048-1333C9 DDR3
* 150 GB Western Digital Raptor
* Microsoft Windows Vista Home Premium 32-bits


”‘Bestuurders”’
* GTX280: Forceware 177,34
* Andere nVidia-kaarten: Forceware 175.16
* ATI: Katalysator 8.4


”‘Kaarten getest’’
* nVidia GeForce GTX 280
* nVidia GeForce 9800 GTX
* nVidia GeForce 9800 GX2
* nVidia GeForce 8800 GTX
* nVidia GeForce 8800 GTS 512
* ATI HD 3870X2


”‘Games getest”’
* Crysis
* Racecoureur: GRID
* Vijand gebied: Quake Wars
* Call of Duty 4
* Tegenaanval: Bron

De eerste kaart die we ter review kregen is gemaakt door Zotac maar afgezien van de Zotac sticker is het is exact hetzelfde ontwerp als het referentiebord van nVidia, dus daar zullen we onze beoordeling op baseren Aan. We zullen de details van het Zotac-bord samen met een aantal andere partnerkaarten bespreken wanneer we binnenkort een round-up doen.

De GTX280-kaart is 267 mm lang, wat ongeveer dezelfde lengte is als de 9800 GX2. Net als de GX2 is hij volledig omsloten door een metalen omhulsel. Dit beschermt de delicate elektronica tegen mogelijke schade door statische of algemene stoten en krassen en is een ontwikkeling die we met open armen verwelkomen.


Net als alle recente high-end kaarten van nVidia, gebruikt de GTX280 een dual-slot heatsink/fan-ontwerp dat gebruik maakt van de enigszins niet-parallelle ventilatoruitlijning die debuteerde met de 8800 GTS 512. Zoals we gewend zijn, is de koeler zeer effectief omdat hij bijna stil blijft wanneer hij inactief is en hoewel het luid wordt onder belasting, is het een zacht suizen in plaats van een hoge pieptoon of irritant gezoem. De kaart wordt erg heet en vereist een goed geventileerde behuizing om ervoor te zorgen dat deze geen stabiliteitsproblemen veroorzaakt, maar nogmaals, dit is iets dat we volledig zouden verwachten van een high-end grafische kaart.

Zoals gezegd is het piekvermogen een forse 236W. Dit is echter een worstcasescenario en nVidia heeft enkele geweldige energiebesparende maatregelen genomen die: resulteren in een inactief vermogen van slechts 25 W en het stroomverbruik tijdens versnelde videoweergave zal alleen maar toenemen tot 32W. Dit zijn zeer indrukwekkende cijfers die je doen afvragen over de verdiensten van HybridPower, vooral omdat we hebben geconstateerd dat de chipsets die deze energiebesparende functie ondersteunen, aanzienlijke hoeveelheden stroom verbruiken zich.


Ook al "kan" de kaart heel weinig stroom trekken, hij zal nog steeds niet werken zonder beide extra PCI-Express-stroomaansluitingen correct aangesloten - iets dat duidelijk wordt gemaakt door een LED op de uitbreidingsbeugel, die rood oplicht als de kaart niet genoeg heeft stroom. nVidia is niet zo ver gegaan om de gloeiende PCI-Express-sockets te gebruiken die het gebruikte op de GX2 maar dat was echt meer een "bling"-functie dan een noodzaak.

Verborgen onder rubberen flappen langs de bovenkant van de kaart zijn de SLI-connectoren en een S/PDIF-socket. De eerste maakt dual- en triple-SLI-configuraties mogelijk en de laatste biedt de mogelijkheid om digitale audio uit te voeren via de video-aansluitingen. Deze ondersteunt tweekanaals LPCM tot 192 KHz, zeskanaals Dolby Digital tot 48 KHz en DTS 5.1 tot 96 KHz. Het dekt niet elke optie, met acht-kanaals LPCM, Dolby TrueHD en DTS Master Audio als voor de hand liggende omissies, maar het is genoeg voor iedereen behalve de meest uitgebreide thuisbioscoop opstellingen. Hiervoor wordt een DVI-naar-HDMI-adapter meegeleverd.


Uitgangen zijn standaard met twee dual-link DVI-I-connectoren en een zeven-pins analoge videoconnector die native S-Video ondersteunt, evenals composiet en component via een break-out dongle. Beide DVI-aansluitingen ondersteunen HDCP-codering en kunnen dus worden gebruikt om tegen kopiëren beveiligde HD-inhoud, zoals Blu-ray-schijven, af te spelen.


Videoversnelling is van hetzelfde niveau als bij de 9000-serie, waarbij H.264, VC-1 en MPEG-2 allemaal profiteren van GPU-versnelling. Er is ook de twijfelachtig bruikbare beeldnabewerking, dynamische contrastverbetering en blauw, groen en huidtintverbeteringen die onlangs zijn geïntroduceerd.

Een van de grote marketingcampagnes van nVidia dit jaar draaide om het verhogen van het profiel van General Doel Graphics Processing Unit (GPGPU), de taak om niet-3D-grafische berekeningen uit te voeren op een GPU. Met de lancering van GT200 wilde nVidia dus graag de superieure GPGPU-mogelijkheden van zijn nieuwste chip benadrukken.


GPU's zijn over het algemeen bij uitstek geschikt om te presteren parallel computergebruik taken, zoals beeldmanipulatie en videoconversie, omdat al die shaders ook als mini-CPU's kunnen worden ingezet. Individueel kunnen ze verbleken in vergelijking met een goede CPU, maar als je er 240 hebt, zoals je hebt in GT200, zal het enorme aantal shaders met brute kracht gemakkelijk alle PROCESSOR. Het grote probleem op dit moment is dat het schrijven van software om te profiteren van parallelle verwerking, en met name parallelle verwerking op een GPU, erg moeilijk is. Dit is de reden waarom nVidia begon te werken aan zijn CUDA Software Development Kit (SDK), waar Hugo onlangs over sprak, en die het programmeren voor GPGPU aanzienlijk eenvoudiger maakt voor de codeur.


Naast CUDA als algemeen programmeerplatform kocht nVidia onlangs ook PhysX, het bedrijf voor fysica-processors, en integreerde het zijn technologieën in de CUDA SDK. Dit betekent dat nVidia GPU's nu kunnen worden ingezet bij het creëren van levensechte fysieke effecten en levensechte visuele effecten.


Omdat CUDA sinds de 8800 GTX wordt ondersteund door alle GPU's van nVidia, heeft het nu een enorme geïnstalleerde gebruikersbasis van 70 miljoen. Dit heeft een aantal behoorlijk grote naamontwikkelaars ertoe aangezet om rechtop te zitten en aandacht te besteden aan CUDA, inclusief Adobe - het zal GPU-versnelling gebruiken in de aankomende versies van Photoshop en Premier.


Natuurlijk heeft AMD ook zijn eigen concurrent voor CUDA ontwikkeld, in de vorm van zijn Close To Metal (CTM) SDK. Dit is echter beduidend minder enthousiast ontvangen. Toch, met AMD die ook van plan is om de Havok-fysica-engine te ondersteunen en nog niet aan boord te springen met PhysX, de ware staat van spelen met betrekking tot GPGPU is allemaal erg in de lucht en persoonlijk zou ik de hele zaak voorlopig met een korreltje zout nemen wezen. Dat gezegd hebbende, voor degenen die geïnteresseerd zijn, heeft GT200 een aantal belangrijke verbeteringen aangebracht ten opzichte van de eerdere inspanningen van nVidia.


Kijkend naar GT200 met betrekking tot GPGPU en je hebt een chip die er als volgt uitziet. De TPC's worden mini 24-coreprocessors, elk met zijn eigen kleine cachegeheugen. Een Thread Scheduler verdeelt de enorme rekenbelasting tussen alle verschillende TPC's en het framebuffergeheugen fungeert als hoofdsysteemgeheugen.

Nu ging nVidia in zijn briefings veel in detail over waarom GT200 beter is dan elke nVidia GPU die eerder kwam als het gaat om GPGPU. Veel van de verbetering is echter eenvoudig te wijten aan de basistoename van verwerkingseenheden in plaats van grote nieuwe ontwerpen. Het resultaat is een toename van 518 GigaFLOP's aan verwerkingskracht op de G80 naar 933 GigaFLOP's op GT200.


Dat gezegd hebbende, zijn er ook enkele architecturale verbeteringen. Ten eerste is de threadplanning verbeterd, zodat MAD+MUL-functies met twee problemen efficiënter kunnen worden uitgevoerd. Ook berekeningen met dubbele precisie (64-bits) worden nu ondersteund, hoewel deze afhankelijk zijn van 30 (één per SM) speciale dubbele precisie processors in plaats van de SP's zelf te gebruiken, wat resulteert in prestaties met dubbele precisie die een twaalfde zijn van die van single-precision (32-bits). Er zijn ook vier 'Atomic'-eenheden toegevoegd. Deze zijn ontworpen om bepaalde atomaire read-modify-write-commando's te verwerken met directe toegang tot het geheugen, in plaats van de eigen caches van de chip te gebruiken.


Alles bij elkaar genomen is het echter een heleboel dingen waarbij zeer gecompliceerde wiskunde en optimalisaties daarvan betrokken zijn, en op dit moment is er weinig van relevant voor de algemene consument. Wanneer reguliere GPGPU-applicaties in de schappen komen te liggen, komen we terug op deze problemen en zien we welk verschil ze echt maken.


Dus, met al die theorie uit de weg, laten we eens kijken naar de eerste consumentenkaart op basis van GT200, de GTX280.

Toen we nog een stap terug deden, begroetten we het volgende diagram.

Hier zien we dat er tien TPC's zijn die de shader-kracht van de chip vormen in een sectie die nVidia de Streaming Processor Array (SPA) noemt. In G80 en G92 bestond de SPA uit slechts acht TPC's, wat resulteerde in het totaal van 128 SP's. Met de toename van SP's per TPC en de toename van TPC's per SPA in GT200, we eindigen met een totaal van 240 SP's - een behoorlijke stijging, ik weet zeker dat je dat zou doen mee eens. Deze toename van het aantal TPC's verklaart ook de eerder genoemde verbetering van het textureervermogen. Met twee extra TPC's krijg je twee extra blokken met textuureenheden, wat een totaal van 32 textuuradreseenheden oplevert en 32 textuurfiltereenheden, een stijging van 24 van elk op G92 en 12 adresseringseenheden en 24 filtereenheden op G80.


Boven de SPA bevindt zich de shader-thread-dispatchlogica, die de taak beheert om het enorme aantal berekeningen op te splitsen in brokken van TPC-formaat, evenals de raster- / setup-engine.


Onder de SPA bevinden zich acht ROP-partities, die taken per pixel afhandelen, zoals anti-aliasing en alpha-blending. Elke ROP-partitie kan vier pixels per klok verwerken, wat neerkomt op een totaal van 32 pixels per klok voor de hele chip. Ook zijn de nieuwe ROP's aangepast om blending op volle snelheid mogelijk te maken (d.w.z. 32 pixels per klok) - G80 kon alleen 12 en output combineren 24 pixels per klokcyclus - dus anti-aliasing, deeltjeseffecten, schaduwen en dergelijke zouden allemaal een prestatieverbetering moeten zien met GT200. Elke ROP heeft zijn eigen kleine opslag van L2-cachegeheugen en een speciale 64-bits verbinding met de framebuffer, wat zorgt voor een totale geheugeninterface van 512-bits breed. Of met andere woorden, kolossaal!


Elders zijn een aantal tweaks toegepast, waaronder verbeterde geometrie-schaduwen en Z-occlusie-opruimprestaties. De communicatie tussen hardware en stuurprogramma is ook verbeterd, waardoor potentiële knelpunten die de prestaties kunnen beïnvloeden, zijn verminderd.


Alles bij elkaar resulteren deze veranderingen in behoorlijk indrukwekkende ruwe prestatiecijfers. In vergelijking met G80 is de verwerkingskracht van de shader met 87,5 procent toegenomen, de textureringsmogelijkheden met 25 procent en de pixeldoorvoer met 33,3 procent. Vergeleken met de dual-chipkaarten die ATI en nVidia onlangs hebben geïntroduceerd, lijken sommige cijfers minder indrukwekkend, maar er zijn twee dingen om hier rekening mee te houden. Ten eerste gaan de cijfers voor de dubbele kaartoplossingen uit van een perfecte verdubbeling van de prestaties van de twee betrokken chips, wat in het echte leven zelden het geval is. Ten tweede bieden deze dual-chip-kaarten alleen prestatieverbeteringen voor de games waarmee ze goed werken, terwijl single-chip-oplossingen zoals GT200 u een gegarandeerd prestatieniveau bieden.


Dus dat is het logische beeld, maar hoe verhoudt het zich allemaal tot die gigantische chip die we eerder zagen? Nou, kijk eens hieronder.

Dit is een foto van de GT200 met de verschillende compute-secties gemarkeerd. Het niet-gemarkeerde gedeelte in het midden vervult verschillende rollen, maar houdt zich voornamelijk bezig met het beheer van de rest van de chip, dus inclusief zaken als de thread-planner en rasterinstellingen.


Tot slot nog een opmerking over DirectX10.1. Simpel gezegd, GT200 ondersteunt het niet, wat jammer is. Hoewel 10.1 slechts een kleine aanpassing is die geen nieuwe functies toevoegt aan de gaming-API van Microsoft, verbetert het in bepaalde situaties de efficiëntie en dus de prestaties. Het enige dat in het voordeel van nVidia is, is dat nog maar weinig ontwikkelaars deze nieuwe tweaks gebruiken. Dit zal echter niet voor altijd het geval zijn. We zullen gewoon moeten afwachten en zien hoe deze uitpakt.

Het is vrij duidelijk dat de nVidia GeForce GTX280 uitstekend presteert en, in tegenstelling tot de recente golf van dual-chipkaarten die we hebben gezien, zijn deze prestaties consistent. Ok, het vernietigt absoluut niet alles wat ervoor kwam, zoals de 8800 GTX deed toen het aangekomen, maar er is een stap omhoog die groot genoeg is dat degenen die hun 8800 GTX's willen upgraden, de moeite waard zijn keuze. Vooral omdat steeds meer games afhankelijk zullen worden van de extra shader-hardware die GT200 biedt.


We houden ook van de fysieke lay-out van de kaart met de beschermende afdekking van de hele kaart en LED's om de juiste stroom aan te geven configuratie zijn welkome toevoegingen, terwijl de beproefde zwarte behuizing en een geweldige koeler van de vorige blijven kaarten. Afgezien van dat ATI de overhand blijft hebben als het gaat om de manier waarop audio-doorvoer is ingeschakeld, kunnen we echt geen fout vinden in de GTX280.


Een gebied waar de GTX280 onvermijdelijk naar beneden valt, is in zijn piekvermogen, maar dan is het alleen zo hoog als we zouden verwachten en is het nog steeds lager dan sommige kaarten die ervoor zijn gekomen. Houd rekening met het ongelooflijk lage stroomverbruik bij inactiviteit en videodecodering, evenals ondersteuning voor: HybridPower en je hebt een kaart waar je je niet al te veel zorgen over hoeft te maken als het om je elektriciteit gaat rekening.

De enige factor die ons echt zorgen baart, is de prijs, aangezien nVidia echt de druk heeft uitgeoefend en elke laatste druppel winst heeft gemolken terwijl het nog steeds de prestatievoorsprong heeft. Het is geen verrassende zet, en we zijn er zeker van dat zijn concurrenten hetzelfde zouden doen als ze de kans hadden. Het is echter nog steeds betreurenswaardig. Bovendien, hoewel de GTX280 onmiskenbaar de snelste kaart is die er is, is hij niet zo veel sneller. Zeker niet genoeg om twee keer zoveel te betalen als een 9800 GTX. Als we op dit moment iets zouden aanbevelen, zou het zijn om twee 9800 GTX-kaarten te kopen en deze in SLI uit te voeren (een onderwerp dat we binnenkort kunnen behandelen). Ofwel dat, of wacht op onze review van de GTX260 om te zien hoe dat zich verhoudt.


"'Uitspraak"'


We kunnen absoluut geen fout vinden in de GTX280 als het gaat om prestaties en hij heeft alle functies waar de meeste gamers om zouden moeten geven. Helaas heeft nVidia hard gespeeld met de prijsstelling en we kunnen het simpelweg niet aanbevelen om er een te kopen voor de vraagprijs van £ 400 – £ 450.

Betrouwbare score

Pixel 3 en Pixel 3 XL krijgen nog een update in 2022

Pixel 3 en Pixel 3 XL krijgen nog een update in 2022

Alle eigenaren van de Pixel 3 en Pixel 3 XL zouden volgend jaar op een update moeten letten, hoew...

Lees Verder

Bespaar € 130 op deze krachtige Shark rechtopstaande stofzuiger

Bespaar € 130 op deze krachtige Shark rechtopstaande stofzuiger

U hoeft niet te wachten op de Zwarte vrijdag verkopen dalen om een ​​nieuwe stofzuiger op te hale...

Lees Verder

Hoe Liverpool vs Atletico Madrid live online en op tv te kijken

Hoe Liverpool vs Atletico Madrid live online en op tv te kijken

Hoe je Liverpool vs Atletico Madrid in de Champions League live op tv en online kunt bekijken. Hi...

Lees Verder

insta story