Tech reviews and news

NVidia GeForce GTX 280 im Test

click fraud protection

Urteil

Wichtige Spezifikationen

  • Bewertungspreis: 425,00 £

Die Veröffentlichung des G80-basierten nVidia GeForce 8800 GTX im November 2006 war rückblickend ein Paradigmenwechsel in der Welt der Computergrafik. Sie war nicht nur die erste DirectX 10-Grafikkarte, sondern hat auch die Konkurrenz in DirectX 9-Spielen vor der Einführung völlig umgehauen Ankunft von Windows Vista und hielt diese Führung für eine noch nie dagewesene Zeit, selbst als Vista und DirectX 10 endlich auf den Markt kamen. Tatsächlich erst im Februar dieses Jahres, als AMD die ATI Radeon HD 3870 X2, das zwei RV670-Kerne auf einer Karte nutzte, hatte das G80 in seinen verschiedenen Erscheinungsformen keine echte Konkurrenz.


Nicht dass dieser Wettbewerb lange gedauert hätte. Innerhalb weniger Wochen hat nVidia den Dual G92 basierend. veröffentlicht 9800 GX2, das ein ähnliches Zwei-Chips-auf-einer-Karte-Verfahren wie die HD 3870 X2 verwendet und die Krone der Spitzenleistung bequem zurückerobert – zumindest in den Spielen, mit denen es arbeitete. nVidia folgte dann mit der 9800 GTX, die einen einzigen G92-basierten Chip verwendet, um den Leistungsvorsprung von nVidia auf dem Markt für Single-Chip-Grafikkarten geringfügig auszubauen. Natürlich hatte ATI immer noch viele gute Karten und konkurrierte sehr hart auf dem Mainstream-Markt unter 150 Pfund, konnte aber einfach nicht den Spitzenplatz beanspruchen.


Während nVidia mit den Karten der 9800er-Serie seinen Vorsprung behauptete, hat es jedoch keine wirklichen Grenzen gesetzt. Die Leistung war gut, aber nicht überwältigend, und obwohl neue Funktionen wie HybridPower nützlich sind, fühlte sich die gesamte Palette ein wenig enttäuschend an.

Nur wenige Monate später hat nVidia jedoch gerade einen brandneuen Grafikprozessor namens GT200. auf den Markt gebracht das, zumindest auf dem Papier, so aussieht, als ob es die nötige Leistung haben sollte, um ein echter Nachfolger zu sein G80. Bestehend aus 1,4 Milliarden (ja, das sind Milliarden mit einem „B“) Transistoren, verpackt in 240 Stream-Prozessoren, 32 ROPs, ein 512-Bit-Speicherinterface und eine ganze Reihe anderer Verbesserungen unter der Motorhaube, es ist ein absolutes Monster. Da es immer noch mit dem gleichen 65-nm-Prozess wie beim G92 hergestellt wird, ist es nicht nur ein Monster intern, aber auch extern – mit 24 x 24 mm ist dies der größte Einzelchip, den TSMC jemals auf dem Markt hat produziert.


Betrachtet man einen typischen Siliziumwafer aus der Produktion mit einem Durchmesser von 300 mm, so ist auf jedem nur Platz für 94 GT200-Chips. Vergleichen Sie dies mit etwas wie Intels Conroe-CPUs, die auf dem gleichen Herstellungsprozess basieren, aber nur 143 mm ^ 2 groß, sodass 426 Chips pro Wafer hergestellt werden können, und Sie erhalten eine Vorstellung davon, wie groß und teuer GT200 ist.


Zwei Varianten des GT200 werden zum Start verfügbar sein, und dies werden die ersten Teile sein, die das überarbeitete Branding von nVidia übernehmen. Das Rebranding läuft nur darauf hinaus, Buchstaben und Zahlen zu wechseln, sodass die neuen Karten GTX 280 und GTX 260 heißen und nicht die x000 GT / GTX / GTS-Anordnung, an die wir gewöhnt sind.


Die GTX 280 nutzt den vollen Umfang von GT200 mit ihrem Shader-Takt mit 1296 MHz, 1 GB GDDR3-Speicher mit 1107 MHz (2,2 GHz effektiv) und dem Rest des Chips schnurrt bei 602MHz entfernt. Da der Strombedarf für all dieses Los 236W beträgt, benötigt die GTX 280 nicht nur einen herkömmlichen sechspoligen PCI-Express-Anschluss, sondern einen zusätzlichen achtpoligen als Gut.


In der Zwischenzeit die GTX 260, die am 26. Juni veröffentlicht wird (die GTX 280 wird zum Zeitpunkt des Lesens verfügbar sein dies), hat zwei SM-Cluster deaktiviert (ich erkläre mehr dazu auf der nächsten Seite) und eine ROP-Partition wurde ebenfalls ENTFERNT. Darüber hinaus wurden die Taktraten gedrosselt, was zu wichtigen Statistiken führt: 192 Shader mit 1242 MHz, 28 ROPs mit 576 MHz und 896 MB GDDR3-1000-MHz-Speicher. Aufgrund dieser Geschwindigkeits- und Komponentenkürzungen verbraucht die GTX 260 weniger Strom, um genau zu sein 183 W, und benötigt daher nur einen einzigen sechspoligen PCI-Express-Stromanschluss.

Die Listenpreise sind so astronomisch, wie Sie es erwarten würden, da die GTX 280 449 £ und die GTX 260 299 £ verlangt. Darüber hinaus deuten erste Anzeichen darauf hin, dass diese Preisgestaltung nicht zu stark von Geschäften abgewichen wird, die Rabatte anbieten oder versuchen, sich gegenseitig zu übertreffen. Egal, hey.


Wir werden die GTX260 in einem separaten Artikel genauer unter die Lupe nehmen und einen Blick in die physische GTX280-Karte in wenigen Augenblicken, aber schauen wir uns zuerst an, was nVidias neueste Grafik ausmacht Wunder ticken.

Obwohl die Architektur des GT200 der des G80 in vielerlei Hinsicht sehr ähnlich ist, gibt es eine Vielzahl von Optimierungen, die an diesem neuen Kern vorgenommen wurden, die ihn zu einem erheblich besseren Ganzen machen. Bevor wir jedoch zu weit in die Vergleiche einsteigen, kehren wir zu den Grundlagen zurück.


Das Folgende ist ein Streaming Multiprocessor oder SM, wie nVidia es abkürzt:

Wie Sie auf dem Bild sehen können, ist ein SM ein Array von Verarbeitungskernen, die als Streaming-Prozessoren (SPs) bezeichnet werden, mit einem Teil des Cache-Speichers und einem Instruktions-Scheduler. Es steckt tatsächlich ein bisschen mehr dahinter, einschließlich zweier Special Function Units (SFU), die nicht abgebildet sind, aber wir werden nicht zu weit auf die Einzelheiten eingehen. Im Wesentlichen verhält sich dieses kleine Los wie eine Mini-Acht-Kern-CPU, wobei jeder Kern die Berechnungen durchführt, die einem einzelnen Pixel zugeordnet sind. Der kleine (16 KB) Teil des Speichers wird verwendet, um nur die spezifischen Daten zu verarbeiten, die diesen acht Pixeln zugeordnet sind, an denen die SM gerade arbeitet. Dies ist der Grundbaustein der Unified-Shader-Architektur von nVidia und ist bei G80, G92 und GT200 gleich.

(Center)„TPC von GT200“(/Center)
Wenn wir einen Schritt herauszoomen, sehen wir den ersten großen Trennpunkt zwischen G80/G92 und GT200. In GT200 werden drei dieser SMs zu einem Texture/Processor Cluster (TPC) zusammengefasst, während G80 und G92 zwei SMs pro TPC verwendet haben. Das Prinzip ist das gleiche, der neue Chip bietet nur mehr – 32 SPs vs. 24 auf G80.

(Center)”TPC ab G80/G92”(/Center)
Neben der Kombination der SMs fügt ein TPC auch hinzu Texturbearbeitung Fähigkeiten und auch dies ist ein weiterer Bereich, in dem sich der neue Chip von seinen Vorfahren unterscheidet. Auf G80 hast du vier Texturadresseinheiten und acht Texturfilterung Einheiten pro TPC, mit G92 verdoppelte sich die Anzahl der Adresseinheiten auf acht, während die Filterung bei acht Einheiten blieb. Nun, mit GT200 sind die Dinge gleich geblieben.


Sie erhalten immer noch acht Texturadresseinheiten und acht Filtereinheiten pro TPC, nur das Verhältnis von Shadern zu Texturierungseinheiten hat sich geändert. Während also die Shaderanzahl jedes TPCs um 50 Prozent gestiegen ist, ist die Texturierungsleistung jedes TPCs gleich geblieben. Auf den ersten Blick mag dies wie ein Rückschritt erscheinen, aber die meisten modernen Spiele werden Shader-abhängig, sodass die Änderung des Verhältnisses sinnvoll ist. Wenn Sie sich das Gesamtbild ansehen, werden Sie außerdem feststellen, dass die Gesamttexturierungsleistung von GT200 tatsächlich geringfügig gestiegen ist.

Was können wir zu Counter-Strike sagen: Quelle, die noch nie zuvor erwähnt wurde? Es ist einfach „der“ Maßstab für teambasierte Online-Shooter und auch vier Jahre nach seiner Veröffentlichung immer noch eines der beliebtesten Spiele seines Genres. Ganz im Gegensatz zu Enemy Territory: Quake Wars konzentriert es sich auf kleine Umgebungen und unglaublich intensive Kleinschlachten mit One-Shot-Kills an der Tagesordnung. Wenn Sie alle Elemente Ihrer Ego-Shooter-Fähigkeiten auf einmal testen möchten, ist dies das richtige Spiel dafür.


Wir testen die 32-Bit-Version des Spiels mit einer benutzerdefinierten Zeitdemo, die während eines Spiels gegen Bots auf der cs_militia-Karte aufgenommen wurde. Dies hat eine große Menge an Laub, daher hat Transparenz-Antialiasing einen erheblichen Einfluss auf die Bildqualität und Leistung und ist im Allgemeinen eine der grafisch intensivsten verfügbaren Karten. Wir finden, dass für ernsthafte Spiele eine Framerate von mindestens 60 fps erforderlich ist, da dieses Spiel massiv auf schnelle, genaue Reaktionen angewiesen ist, die einfach nicht durch Dropped Frames beeinträchtigt werden können.


Alle Einstellungen im Spiel sind auf das Maximum eingestellt und wir testen mit 0xAA 0xAF, 2xAA 4xAF und 4xAA 8xAA. Das Transparenz-Anti-Aliasing wird auch manuell über den Treiber aktiviert, obwohl dies offensichtlich nur aktiviert ist, wenn normales AA im Spiel verwendet wird.




Obwohl die HD 3870 X2 von ATI gut mit der GTX280 mithalten kann, kann sie in puncto Härte einfach nicht mit der neuesten von nVidia mithalten. Die GTX280 regiert wieder einmal die Oberhand.

Call of Duty 4 muss eines unserer Lieblingsspiele des letzten Jahres sein. Es brachte die Marke Call of Duty auf den neuesten Stand und bewies, dass Ego-Shooter nicht die beste Grafik oder die längste Spielzeit haben müssen. Es waren nur acht Stunden Adrenalin pur, die Sie ständig in Atem hielten.


Wir testen mit der 32-Bit-Version des Spiels, die auf Version 1.4 gepatcht wurde. FRAPS wird verwendet, um die Frameraten aufzuzeichnen, während wir manuell einen kurzen Abschnitt des zweiten Levels des Spiels durchlaufen. Wir finden eine Framerate von 30 fps völlig ausreichend, denn die Atmosphäre ist zwar intensiv, das Gameplay jedoch weniger – es hängt nicht von schnellen Reaktionen und schnellen Bewegungen ab.


Alle Einstellungen im Spiel sind auf Maximum gesetzt und wir testen mit 0xAA und 4xAF. Das Transparenz-Anti-Aliasing wird auch manuell über den Treiber aktiviert, obwohl dies offensichtlich nur aktiviert ist, wenn normales AA im Spiel verwendet wird.




Aus irgendeinem Grund hat dieses Spiel einfach nicht so viel von den verschiedenen Verbesserungen an GT200 profitiert und wird vom 9800 GX2 einfach übertroffen. Wir vermuten, dass dies hauptsächlich darauf zurückzuführen ist, dass Call of Duty 4 ein DirectX 9-basiertes Spiel ist, so dass es wenig von den mehr DirectX 10-orientierten Optimierungen profitiert, die auf GT200 angewendet wurden. Es läuft aber immer noch absolut einwandfrei.

Feindliches Territorium: Quake Wars unterscheidet sich von all unseren anderen Tests dadurch, dass es die Open-Source-OpenGL-API anstelle von Microsoft DirectX verwendet. Es ist ein teambasierter Ego-Shooter, der in einem dystopischen zukünftigen Kriegsszenario spielt. Als Spieler können Sie aus einer enormen Auswahl an Charaktertypen und Spielstilen wählen, und es gibt auch eine ganze Reihe von Fahrzeugen zur Auswahl. Schlachten können sich über weite Bereiche des offenen Raums erstrecken und eine große Anzahl von Teilnehmern umfassen. Alles in allem ist es der Multiplayer-Himmel.


Wir testen mit der 32-Bit-Version des Spiels, die auf Version 1.4 gepatcht ist. Wir verwenden eine benutzerdefinierte Zeitdemo aus dem Valley-Level, die unserer Meinung nach grafisch so intensiv ist, wie das Spiel nur geht. Wir glauben, dass für dieses Spiel eine Framerate von mindestens 50 fps erforderlich ist, da die intensive Multiplayer-Action und die schnelle Mausbewegung dies erfordern.


Alle Einstellungen im Spiel sind auf das Maximum eingestellt und wir testen mit 0xAA 0xAF, 2xAA 4xAF und 4xAA 8xAA. Das Transparenz-Anti-Aliasing wird auch manuell über den Treiber aktiviert, obwohl dies offensichtlich nur aktiviert ist, wenn normales AA im Spiel verwendet wird.




Mit Enemy Territory geht die positive Geschichte weiter – GTX280 bläst alles andere einfach weg. Auch das 9800 GX2 muss ständig die zweite Geige spielen und dieses Spiel skaliert sehr gut in SLI.

Rennfahrer: GRID ist das neueste Spiel in unserem Testarsenal und derzeit auch einer unserer Favoriten. Seine Kombination aus Nervenkitzel im Arcade-Stil mit einer gesunden Portion Realismus und Extras wie Flashback macht es zu einem großartigen Pickup-and-Go-Fahrspiel. Es ist auch visuell atemberaubend mit wunderschön gerenderten Einstellungen, interaktiven Menschenmengen, zerstörbaren Umgebungen und atemberaubender Beleuchtung. All das und es ist auch nicht das anspruchsvollste Spiel auf Hardware.


Wir testen mit der 32-Bit-Version des Spiels, die ungepatcht ist und im DirectX10-Modus läuft. FRAPS wird verwendet, um die Frameraten aufzuzeichnen, während wir eine Runde des Okutama Grand Circuit manuell in einem Pro Tuned-Rennen auf normalem Schwierigkeitsgrad absolvieren. Wir finden, dass eine Framerate von mindestens 40 fps erforderlich ist, um dieses Spiel zufriedenstellend zu spielen, da erhebliche Ruckler Ihr Timing und Ihre Präzision ruinieren können. Wir würden auch 4xAA als Minimum in Betracht ziehen, da die Strecke, Absperrungen und Karosserien erheblich unter Aliasing leiden und eine ständige Ablenkung sind.


Alle Einstellungen im Spiel sind auf das Maximum eingestellt und wir testen mit 0xAA, 4xAA und 8xAA. Das Transparenz-Anti-Aliasing wird auch manuell über den Treiber aktiviert, obwohl dies offensichtlich nur aktiviert ist, wenn normales AA im Spiel verwendet wird.




Wir hatten nur sehr begrenzte Zeit, um dieses Spiel zu testen, daher haben wir nur bei einigen Karten vergleichbare Ergebnisse erhalten. Es ist auch klar, dass nVidia keine Chance hatte, seine SLI-Treiber für dieses Spiel zu optimieren, da der 9800 GX2 mehr zu kämpfen hat, als er sollte. Alles in allem können wir also das Gesamtbild nicht kommentieren. Aber selbst nach begrenzten Tests ist ziemlich klar, dass die GTX280 eine gute Wahl für dieses Spiel ist.

Obwohl es kein großer kommerzieller Erfolg war und sein Gameplay alles andere als revolutionär ist, ist die grafische Wiedergabetreue von Crysis ist immer noch unübertroffen und als solcher immer noch der ultimative Test für eine Grafikkarte. Mit Massen von dynamischem Laub, sanften Bergketten, strahlend blauem Meer und großen Explosionen bietet dieses Spiel alle Augenschmaus, die Sie sich wünschen können und noch mehr.


Wir testen mit der 32-Bit-Version des Spiels, die auf Version 1.1 gepatcht wurde und im DirectX 10-Modus ausgeführt wird. Wir verwenden eine benutzerdefinierte Zeitdemo, die aus den ersten Momenten zu Beginn des Spiels stammt und uns am Strand herumtreibt. Überraschenderweise finden wir in Anbetracht der klaustrophobischen Umgebung und der grafisch reichhaltigen Umgebung, dass jede Bildrate über 30 fps ungefähr ausreicht, um dieses Spiel zu spielen.


Alle Einstellungen im Spiel sind für unsere Testläufe auf hoch eingestellt und wir testen sowohl mit 0xAA als auch mit 4xAA. Das Transparenz-Anti-Aliasing wird auch manuell über den Treiber aktiviert, obwohl dies offensichtlich nur aktiviert ist, wenn normales AA im Spiel verwendet wird.





Hier gibt es eigentlich nicht viel zu sagen. GTX280 ist bei weitem die beste Wahl, um Crysis zu spielen. Tatsächlich ist es die erste Karte, die wir gesehen haben, die dieses Spiel mit 2.560 × 1.600 spielbar macht. Dies ist ein großartiger Anfang.

Wie ich bereits erwähnt habe, fiel der Start der GTX280 mit einem massiven Druck von nVidia zusammen, um die GPGPU zu fördern. Dies mag zwar interessant sein, aber es ist noch lange nicht von großer Bedeutung für jeden, der nach einer dieser Karten sucht. Bis sich also das gesamte GPGPU-Spektrum ausgeglichen hat und wir eine Art von Standards ins Spiel bringen, werden wir die Analyse der GPGPU-Leistung aus der Gleichung herausnehmen. Also, lass uns stattdessen diese Spiele anheizen.


”’Gemeinsame Systemkomponenten”’


* Intel Core 2 Quad QX9770
* Asus P5E3
* 2GB Corsair TWIN3X2048-1333C9 DDR3
* 150 GB Western Digital Raptor
* Microsoft Windows Vista Home Premium 32-Bit


”’Fahrer”’
* GTX280: Forceware 177.34
* Andere nVidia-Karten: Forceware 175.16
* ATI: Katalysator 8.4


”’Karten getestet”’
* nVidia GeForce GTX 280
* nVidia GeForce 9800 GTX
* nVidia GeForce 9800 GX2
* nVidia GeForce 8800 GTX
* nVidia GeForce 8800 GTS 512
* ATI HD 3870 X2


”’Spiele getestet”’
*Kryse
* Rennfahrer: GRID
* Feindliches Territorium: Quake Wars
* Call of Duty 4
* Counter Strike Source

Die erste Karte, die uns zur Überprüfung zur Verfügung gestellt wurde, stammt von Zotac, aber abgesehen von dem Zotac-Aufkleber ist sie ist genau das gleiche Design wie das Referenzboard von nVidia, daher werden wir unsere Bewertung stützen an. Wir werden die Besonderheiten des Zotac-Boards zusammen mit einer Reihe anderer Partnerkarten ansprechen, wenn wir in Kürze eine Zusammenfassung machen.

Die GTX280-Karte ist 267 mm lang, was ungefähr der Länge der 9800 GX2 entspricht. Ebenso wie das GX2 ist es komplett von einer Metallverkleidung umgeben. Dies schützt die empfindliche Elektronik vor möglichen Schäden durch statische oder allgemeine Stöße und Kratzer und ist eine Entwicklung, die wir mit offenen Armen begrüßen.


Wie alle aktuellen High-End-Karten von nVidia verwendet die GTX280 ein Dual-Slot-Kühlkörper-/Lüfter-Design, das die leicht nicht parallele Lüfterausrichtung verwendet, die mit der 8800 GTS 512 debütierte. Wie wir erwarten, ist der Kühler sehr effektiv, da er im Leerlauf fast geräuschlos bleibt und obwohl es unter Last laut wird, ist es eher ein leises Zischen als ein hohes Quietschen oder nerviges Summen. Die Karte wird sehr heiß und benötigt ein gut belüftetes Gehäuse, um sicherzustellen, dass sie keine Stabilitätsprobleme verursacht, aber auch dies ist etwas, was wir von einer High-End-Grafikkarte voll und ganz erwarten würden.

Wie bereits erwähnt, beträgt die Spitzenleistungsaufnahme satte 236W. Dies ist jedoch ein Worst-Case-Szenario und nVidia hat einige großartige Energiesparmaßnahmen ergriffen, die führt dazu, dass die Leerlaufleistung nur 25 W beträgt und die Leistungsaufnahme während der beschleunigten Videowiedergabe nur auf ansteigt 32W. Dies sind sehr beeindruckende Zahlen, die Sie über die Vorzüge von HybridPower wundern, zumal Wir haben festgestellt, dass die Chipsätze, die diese Energiesparfunktion unterstützen, erhebliche Mengen an Strom verbrauchen sich.


Auch wenn die Karte nur sehr wenig Strom „verbrauchen“ kann, funktioniert sie ohne die beiden zusätzlichen PCI-Express-Steckdosen trotzdem nicht richtig verbunden – etwas, das durch eine LED auf der Erweiterungshalterung angezeigt wird, die rot leuchtet, wenn die Karte nicht genug hat Energie. nVidia ist nicht so weit gegangen, die leuchtenden PCI-Express-Sockel zu verwenden, die es auf der GX2 aber das war wirklich mehr ein „Bling“-Feature als eine Notwendigkeit.

Unter Gummiklappen an der Oberseite der Karte sind die SLI-Anschlüsse und eine S/PDIF-Buchse versteckt. Ersteres ermöglicht Dual- und Triple-SLI-Konfigurationen und letzteres bietet die Möglichkeit, digitales Audio über die Videoanschlüsse zu übertragen. Dieser unterstützt Zweikanal-LPCM mit bis zu 192 KHz, Sechskanal-Dolby Digital mit bis zu 48 KHz und DTS 5.1 mit bis zu 96 KHz. Es deckt nicht alle Optionen ab, mit Acht-Kanal-LPCM, Dolby TrueHD und DTS Master Audio sind offensichtliche Auslassungen, aber es reicht für alle außer dem aufwendigsten Heimkino Aufstellungen. Dafür steht ein DVI-zu-HDMI-Adapter zur Verfügung.


Die Ausgänge sind Standard mit zwei Dual-Link-DVI-I-Anschlüssen und einem siebenpoligen analogen Videoanschluss, der S-Video nativ sowie Composite und Component über einen Break-Out-Dongle unterstützt. Beide DVI-Anschlüsse unterstützen die HDCP-Verschlüsselung und können somit zur Wiedergabe von kopiergeschützten HD-Inhalten wie Blu-ray-Discs verwendet werden.


Die Videobeschleunigung ist auf dem gleichen Niveau wie bei der 9000er-Serie, wobei H.264, VC-1 und MPEG-2 alle von der GPU-Beschleunigung profitieren. Hinzu kommen die fragwürdig nützliche Bildnachbearbeitung, die dynamische Kontrastverbesserung sowie die kürzlich eingeführten Blau-, Grün- und Hauttonverbesserungen.

Eine der großen Marketingkampagnen von nVidia in diesem Jahr drehte sich um die Steigerung des Profils von General Zweck Graphics Processing Unit (GPGPU), die Aufgabe, nicht mit 3D-Grafiken zusammenhängende Berechnungen auf einem GPU. Mit der Einführung von GT200 war nVidia daher daran interessiert, die überlegenen GPGPU-Fähigkeiten seines neuesten Chips hervorzuheben.


GPUs im Allgemeinen sind ideal für die Leistung geeignet paralleles Rechnen Aufgaben wie Bildbearbeitung und Videokonvertierung, denn all diese Shader können auch als Mini-CPUs eingesetzt werden. Einzeln können sie blass werden Vergleich mit einer richtigen CPU, aber wenn Sie 240 davon haben, wie Sie es in GT200 haben, wird die schiere Brute-Force-Anzahl der Shader alle leicht übertreffen ZENTRALPROZESSOR. Das große Problem besteht derzeit darin, dass es sehr schwierig ist, Software zu schreiben, um die Vorteile der Parallelverarbeitung und insbesondere der Parallelverarbeitung auf einer GPU zu nutzen. Dies hat nVidia dazu veranlasst, mit der Arbeit an seinem CUDA Software Development Kit (SDK), über das Hugo kürzlich gesprochen hat und das dem Programmierer die Programmierung für GPGPU erheblich erleichtert.


Neben CUDA als allgemeine Programmierplattform hat nVidia jedoch kürzlich auch PhysX, das Unternehmen für Physikprozessoren, gekauft und seine Technologien in das CUDA SDK integriert. Dies bedeutet, dass nVidia-GPUs nun damit beauftragt werden können, lebensechte physikalische Effekte sowie lebensechte visuelle Effekte zu erzeugen.


Da CUDA seit der 8800 GTX von allen GPUs von nVidia unterstützt wird, hat es jetzt eine massive installierte Benutzerbasis von 70 Millionen. Dies hat einige ziemlich große Entwickler dazu veranlasst, auf CUDA zu achten, darunter auch Adobe – es wird die GPU-Beschleunigung in seinen kommenden Versionen von Photoshop und Premier verwenden.


Natürlich hat AMD mit dem Close To Metal (CTM) SDK auch einen eigenen Konkurrenten zu CUDA entwickelt. Dies wurde jedoch deutlich weniger enthusiastisch aufgenommen. Dennoch, da AMD auch plant, die Havok-Physik-Engine zu unterstützen und noch nicht mit PhysX an Bord springt, ist der wahre Zustand von Spielen in Bezug auf GPGPU ist alles sehr in der Luft und ich persönlich würde das Ganze für die Zeit mit einer Prise Salz nehmen Sein. Für Interessierte hat GT200 jedoch einige signifikante Verbesserungen gegenüber den vorherigen Bemühungen von nVidia vorgenommen.


Wenn man sich GT200 in Bezug auf GPGPU ansieht, hat man einen Chip, der das folgende Aussehen annimmt. Die TPCs werden zu Mini-Prozessoren mit 24 Kernen, jeder mit seinen eigenen kleinen Cachespeichern. Ein Thread-Scheduler verteilt die massive Rechenlast zwischen all den verschiedenen TPCs und der Bildpufferspeicher verhält sich wie der Hauptsystemspeicher.

Jetzt ging nVidia in seinen Briefings sehr detailliert darauf ein, warum GT200 besser ist als jede nVidia-GPU, die es zuvor gab, wenn es um GPGPU geht. Viele Verbesserungen sind jedoch einfach auf die grundlegende Erhöhung der Verarbeitungseinheiten und nicht auf großartige neue Designs zurückzuführen. Das Ergebnis ist eine Steigerung der Rechenleistung von 518 GigaFLOPs beim G80 auf 933 GigaFLOPs beim GT200.


Allerdings gibt es auch einige architektonische Verbesserungen. Erstens wurde das Thread-Scheduling verbessert, um eine effizientere Ausführung von Dual-Issue-MAD+MUL-Funktionen zu ermöglichen. Auch Berechnungen mit doppelter Genauigkeit (64-Bit) werden jetzt unterstützt, obwohl diese auf 30 (eine pro SM) dedizierte doppelte Genauigkeit angewiesen sind Prozessoren, anstatt die SPs selbst zu verwenden, was zu einer Leistung mit doppelter Genauigkeit führt, die ein Zwölftel der Leistung mit einfacher Genauigkeit beträgt (32-Bit). Vier „Atom“-Einheiten wurden ebenfalls hinzugefügt. Diese sind so konzipiert, dass sie bestimmte atomare Read-Modify-Write-Befehle mit direktem Zugriff auf den Speicher verarbeiten, anstatt die eigenen Caches des Chips zu verwenden.


Alles in allem handelt es sich jedoch um eine Menge Dinge, die sehr komplizierte Mathematik und deren Optimierungen beinhalten, und im Moment ist nur wenig davon für den allgemeinen Verbraucher relevant. Wenn Mainstream-GPGPU-Anwendungen in die Regale kommen, werden wir auf diese Probleme zurückkommen und sehen, welchen Unterschied sie wirklich machen.


Schauen wir uns also nach all dieser Theorie die erste auf GT200 basierende Consumer-Karte, die GTX280, an.

Einen weiteren Schritt zurück gehend, werden wir mit dem folgenden Diagramm begrüßt.

Hier sehen wir, dass zehn TPCs die Shader-Leistung des Chips in einem Abschnitt ausmachen, den nVidia Streaming Processor Array (SPA) nennt. In G80 und G92 bestand das SPA aus nur acht TPCs, was insgesamt 128 SPs ergab. Mit der Zunahme der SPs pro TPC und dem Anstieg der TPCs pro SPA in GT200, kommen wir auf insgesamt 240 SPs – eine ziemliche Steigerung, da bin ich mir sicher sich einigen. Diese Zunahme der Anzahl von TPCs erklärt auch die zuvor erwähnte Verbesserung der Texturierungsleistung. Mit zwei zusätzlichen TPCs erhalten Sie zwei zusätzliche Blöcke von Texturierungseinheiten, was insgesamt 32 Texturadressierungseinheiten ergibt und 32 Texturfiltereinheiten, von jeweils 24 bei G92 und 12 Adressierungseinheiten und 24 Filtereinheiten bei G80.


Über dem SPA befindet sich die Shader-Thread-Dispatch-Logik, die die Aufgabe übernimmt, die riesige Anzahl von Berechnungen in TPC-große Chunks aufzuteilen, sowie die Raster- / Setup-Engine.


Unterhalb des SPA befinden sich acht ROP-Partitionen, die pro Pixel Aufgaben wie Anti-Aliasing und Alpha-Blending übernehmen. Jede ROP-Partition kann vier Pixel pro Takt verarbeiten, was insgesamt 32 Pixel pro Takt für den gesamten Chip ergibt. Außerdem wurden die neuen ROPs optimiert, um Full-Speed-Blending (d. h. 32 Pixel pro Takt) zu ermöglichen – G80 konnte nur 12 mischen und ausgeben 24 Pixel pro Taktzyklus – Antialiasing, Partikeleffekte, Schatten und dergleichen sollten also alle eine Leistungssteigerung erfahren mit GT200. Jeder ROP verfügt über einen eigenen kleinen L2-Cache-Speicher sowie eine dedizierte 64-Bit-Verbindung zum Framebuffer, was eine Gesamtspeicherschnittstelle mit einer Breite von 512 Bits ergibt. Oder anders gesagt, kolossal!


An anderer Stelle wurden eine Reihe von Optimierungen vorgenommen, die eine verbesserte Geometrieschattierung und eine verbesserte Z-Okklusions-Culling-Leistung umfassen. Die Kommunikation zwischen Hardware und Treiber wurde ebenfalls verbessert, um potenzielle Engpässe zu reduzieren, die sich auf die Leistung auswirken könnten.


Alles in allem führen diese Änderungen zu ziemlich beeindruckenden Rohleistungszahlen. Gegenüber G80 hat sich die Shader-Verarbeitungsleistung um 87,5 Prozent, die Texturierungsfunktionen um 25 Prozent und der Pixeldurchsatz um 33,3 Prozent erhöht. Im Vergleich zu den Dual-Chip-Karten, die ATI und nVidia kürzlich vorgestellt haben, erscheinen einige Zahlen weniger beeindruckend, aber es gibt hier zwei Dinge zu beachten. Erstens gehen die Zahlen für die Dual-Card-Lösungen von einer perfekten Verdoppelung der Leistung der beiden beteiligten Chips aus, was in der Realität selten der Fall ist. Zweitens bieten diese Dual-Chip-Karten nur Leistungssteigerungen für die Spiele, mit denen sie ordnungsgemäß funktionieren, während Single-Chip-Lösungen wie GT200 Ihnen ein garantiertes Leistungsniveau bieten.


Das ist also das logische Bild, aber wie hängt das alles mit diesem riesigen Chip zusammen, den wir vorhin gesehen haben? Nun, schau mal unten.

Dies ist ein Bild des GT200 mit den verschiedenen hervorgehobenen Rechenabschnitten. Der nicht markierte Abschnitt in der Mitte erfüllt eine Vielzahl von Rollen, aber in erster Linie befasst er sich mit der Verwaltung des Rests des Chips und umfasst Dinge wie den Thread-Scheduler und das Raster-Setup.


Abschließend noch eine Anmerkung zu DirectX10.1. Einfach ausgedrückt, GT200 unterstützt dies nicht, was eine Schande ist. Obwohl 10.1 nur eine kleine Optimierung ist, die der Gaming-API von Microsoft keine neuen Funktionen bringt, verbessert es in bestimmten Situationen die Effizienz und damit die Leistung. Das Einzige, was hier für nVidia spricht, ist, dass noch wenige Entwickler diese neuen Optimierungen verwenden. Dies wird jedoch nicht für immer der Fall sein. Wir müssen nur abwarten und sehen, wie sich dieser entwickelt.

Es ist ziemlich klar, dass die nVidia GeForce GTX280 hervorragend abschneidet und im Gegensatz zu der jüngsten Flut von Dual-Chip-Karten, die wir gesehen haben, ist diese Leistung konstant. Ok, es vernichtet alles, was davor kam, absolut, wie es die 8800 GTX damals tat angekommen, aber es gibt einen großen Schritt nach oben, dass diejenigen, die ihre 8800 GTXs aufrüsten möchten, einen lohnenswerten Vorteil haben Möglichkeit. Zumal immer mehr Spiele von der zusätzlichen Shader-Hardware des GT200 abhängig werden.


Uns gefällt auch das physische Layout der Karte mit der Schutzabdeckung der gesamten Karte und LEDs zur Anzeige der korrekten Stromversorgung Konfiguration sind willkommene Ergänzungen, während das bewährte schwarze Gehäuse und ein toller Kühler vom Vorgänger geblieben sind Karten. Abgesehen davon, dass ATI bei der Aktivierung von Audio-Pass-Through weiterhin die Oberhand behält, können wir an der GTX280 wirklich nichts auszusetzen.


Ein Bereich, in dem die GTX280 unweigerlich nach unten fällt, ist die Spitzenleistungsaufnahme, aber dann ist sie nur so hoch, wie wir es erwarten würden, und immer noch niedriger als bei einigen Karten, die davor erschienen sind. Berücksichtigen Sie den unglaublich niedrigen Stromverbrauch im Leerlauf und die Videodecodierung sowie die Unterstützung für HybridPower und Sie haben eine Karte, die Sie in Bezug auf Ihren Strom nicht zu sehr beunruhigen sollte Rechnung.

Der einzige Faktor, der uns wirklich Sorgen macht, ist der Preis, da nVidia wirklich den Druck ausgeübt hat und jeden letzten Tropfen Gewinn abgemolken hat, während es immer noch den Leistungsvorsprung hat. Es ist kein überraschender Schritt, und wir sind sicher, dass seine Konkurrenten dasselbe tun würden, wenn sie eine Chance hätten. Es ist jedoch immer noch bedauerlich. Darüber hinaus ist die GTX280 zwar zweifellos die schnellste Karte auf dem Markt, aber nicht viel schneller. Sicherlich nicht genug, um das Doppelte einer 9800 GTX zu bezahlen. In der Tat, wenn wir jetzt etwas empfehlen würden, wäre es, zwei 9800 GTX-Karten zu kaufen und sie in SLI zu betreiben (ein Thema, das wir in Kürze behandeln werden). Entweder das oder warten Sie auf unseren Test der GTX260, um zu sehen, wie das abschneidet.


"'Urteil"'


An der Leistung können wir der GTX280 absolut nichts aussetzen und sie verfügt über alle Features, die den meisten Spielern wichtig sind. Leider hat nVidia bei der Preisgestaltung hart gespielt und wir können einfach nicht empfehlen, einen zum Preis von 400 – 450 £ zu kaufen.

Vertrauenswürdiger Score

EBays Top-TV-Angebote: Rabatte auf OLEDs, 4K-HDR-Sets und mehr

EBays Top-TV-Angebote: Rabatte auf OLEDs, 4K-HDR-Sets und mehr

Wenn es um Rabatte auf TV-Geräte großer Marken geht, können nur sehr wenige Händler das Preis-Lei...

Weiterlesen

Die Kamerafirma Leica hat ein Telefon gemacht – hier sind alle Details

Die Kamerafirma Leica hat ein Telefon gemacht – hier sind alle Details

Leica hat ein Japan-exklusives Smartphone entwickelt, bei dem vor allem die Kameraqualität im Vor...

Weiterlesen

Alte Android-Handys verlieren bald den Support – steht Ihres auf der Liste?

Alte Android-Handys verlieren bald den Support – steht Ihres auf der Liste?

Es tut uns leid zu sagen, aber wenn Sie ein Android-Telefon mit Version 2.3.7 oder niedriger besi...

Weiterlesen

insta story