Tech reviews and news

Test de la nVidia GeForce GTX 280

click fraud protection

Verdict

Spécifications clés

  • Prix ​​de la critique: 425,00 £

La sortie du nVidia basé sur le G80 GeForce 8800 GTX en novembre 2006 a été, avec le recul, un changement de paradigme dans le monde de l'infographie. Non seulement c'était la première carte graphique DirectX 10, mais elle a également complètement éclipsé la concurrence dans les jeux DirectX 9 avant la l'arrivée de Windows Vista et a conservé cette avance pendant une durée sans précédent, même lorsque Vista et DirectX 10 sont finalement arrivés. En effet, ce n'est qu'en février de cette année, quand AMD a sorti le ATI Radeon HD 3870 X2, qui utilisait deux cœurs RV670 sur une seule carte, le G80 sous ses différentes formes avait-il une réelle concurrence.


Non pas que cette compétition ait duré longtemps. En quelques semaines, nVidia a sorti le double G92 basé 9800 GX2, qui a utilisé une méthode similaire à deux puces sur une carte à celle du HD 3870 X2, et a confortablement regagné la couronne des meilleures performances – du moins dans les jeux avec lesquels il fonctionnait. nVidia a ensuite suivi cela avec la 9800 GTX, qui utilisait une seule puce basée sur le G92 pour étendre légèrement l'avance de performances de nVidia sur le marché des cartes graphiques à puce unique. Bien sûr, ATI avait encore de nombreuses bonnes cartes et était en concurrence très féroce sur le marché grand public inférieur à 150 £, mais elle ne pouvait tout simplement pas prétendre à la première place.


Pourtant, alors que nVidia a conservé son avance avec les cartes de la série 9800, il n'a pas vraiment repoussé les frontières. Les performances étaient bonnes mais pas écrasantes et, bien que de nouvelles fonctionnalités comme HybridPower soient utiles, l'ensemble de la gamme était un peu décevant.

Quelques mois plus tard, nVidia vient de lancer un tout nouveau processeur graphique appelé GT200. qui, au moins sur le papier, semble avoir toutes les performances nécessaires pour être un véritable successeur de G80. Composé de 1,4 milliard (oui, c'est un milliard avec un "B") de transistors, contenant 240 processeurs de flux, 32 ROPs, une interface mémoire 512 bits et toute une série d'autres améliorations sous le capot, c'est un absolu monstre. En fait, comme il est toujours fabriqué à l'aide du même processus 65 nm utilisé sur le G92, ce n'est pas seulement un monstre à l'intérieur, mais aussi à l'extérieur - à 24 x 24 mm, c'est la plus grande matrice unique jamais commercialisée par TSMC produit.


En effet, si vous regardez une plaquette de silicium de production typique, qui fait 300 mm de diamètre, il n'y a tout au plus que de la place pour produire 94 puces GT200 sur chacune. Comparez cela à quelque chose comme les processeurs Conroe d'Intel, qui sont construits sur le même processus de fabrication de taille mais ne sont que 143 mm^2 en taille, donc 426 matrices peuvent être produites par plaquette, et vous avez une idée de la taille et du coût du GT200.


Deux variantes du GT200 seront disponibles au lancement, et ce seront les premières pièces à adopter la marque révisée de nVidia. Tout le changement de marque se résume à la commutation des lettres et des chiffres, de sorte que les nouvelles cartes s'appellent GTX 280 et GTX 260 plutôt que le type d'arrangement x000 GT/GTX/GTS auquel nous sommes habitués.


La GTX 280 utilisera toute l'étendue du GT200 avec son horloge de shader fonctionnant à 1296 MHz, 1 Go de mémoire GDDR3 fonctionnant à 1107 MHz (2,2 GHz effectivement) et le reste de la puce ronronnant à 602MHz. Comme la puissance requise pour tout ce lot sera de 236 W, la GTX 280 aura non seulement besoin d'un connecteur PCI-Express à six broches conventionnel, mais aussi d'un connecteur supplémentaire à huit broches. bien.


Pendant ce temps, la GTX 260, qui sortira le 26 juin (la GTX 280 sera disponible au moment où vous lirez this), a deux clusters SM désactivés (j'expliquerai plus à ce sujet à la page suivante) et une partition ROP a également été supprimé. De plus, les vitesses d'horloge ont été réduites, ce qui a donné des statistiques vitales de: 192 shaders fonctionnant à 1242 MHz, 28 ROP fonctionnant à 576 MHz et 896 Mo de mémoire GDDR3 1000 MHz. En raison de ces réductions de vitesse et de composants, la GTX 260 consommera moins d'énergie, 183 W pour être exact, et n'a donc besoin que d'un seul connecteur d'alimentation PCI-Express à six broches.

Les prix de liste sont aussi astronomiques que prévu avec la GTX 280 exigeant 449 £ et la GTX 260 299 £. De plus, les premières indications suggèrent que ce prix ne sera pas trop dévié par les magasins proposant des remises ou essayant de se surpasser les uns les autres. Peu importe, hé.


Nous examinerons de manière appropriée la GTX260 dans un article séparé et nous aurons un aperçu du carte GTX280 physique dans quelques instants mais regardons d'abord ce qui rend le dernier graphique de nVidia tique d'émerveillement.

Bien que l'architecture du GT200 soit à bien des égards très similaire à celle du G80, un grand nombre d'ajustements ont été appliqués à ce nouveau noyau qui en font un ensemble considérablement meilleur. Avant d'aller trop loin dans les comparaisons, revenons à l'essentiel.


Ce qui suit est un Streaming Multiprocessor, ou SM comme nVidia l'abrège en :

Comme vous pouvez le voir sur l'image, un SM est un ensemble de cœurs de traitement appelés processeurs de streaming (SP), avec une partie de la mémoire cache et un planificateur d'instructions. Il y a en fait un peu plus que cela, y compris deux unités de fonction spéciale (SFU) qui ne sont pas illustrées, mais nous n'irons pas trop loin dans les détails. Essentiellement, ce petit lot agit comme un mini processeur à huit cœurs, chaque cœur effectuant les calculs associés à un seul pixel. La petite partie (16 Ko) de la mémoire est utilisée pour gérer uniquement les données spécifiques associées à ces huit pixels sur lesquels le SM travaille actuellement. C'est le bloc de construction de base de l'architecture de shader unifiée de nVidia et est le même sur les G80, G92 et GT200.

(centre)« TPC de GT200 »(/centre)
Au fur et à mesure que nous effectuons un zoom arrière, nous voyons le premier point de division majeur entre G80/G92 et GT200. Dans GT200, trois de ces SM sont combinés pour former un cluster de texture/processeur (TPC), tandis que G80 et G92 utilisaient deux SM par TPC. Le principe est le même, il y a juste plus dans la nouvelle puce – 32 SP vs. 24 sur G80.

(centre)« TPC de G80/G92 »(/centre)
En plus de combiner les SM, un TPC ajoute également traitement des textures capacités et encore une fois c'est un autre domaine où la nouvelle puce diffère de ses ancêtres, en quelque sorte. Sur G80, vous avez quatre unités d'adresse de texture et huit filtrage de texture unités par TPC, avec G92 le nombre d'unités d'adresse a doublé à huit tandis que le filtrage est resté à huit unités. Maintenant, avec GT200, les choses sont restées les mêmes.


Vous obtenez toujours huit unités d'adresse de texture et huit unités de filtrage par TPC, c'est juste que le rapport des shaders aux unités de texturation a changé. Ainsi, alors que le nombre de shaders de chaque TPC a augmenté de 50 %, la puissance de texturation de chaque TPC est restée la même. Au début, cela peut sembler un pas en arrière, mais la plupart des jeux modernes deviennent dépendants des shaders, donc le changement de ratio est logique. De plus, lorsque vous regardez la situation dans son ensemble, vous verrez que la puissance totale de texturation du GT200 a en fait légèrement augmenté.

Que pouvons-nous dire à propos de Counter-Strike: Source qui n'a pas encore été dit? C'est tout simplement "la" référence pour les tireurs en ligne en équipe et, quatre ans après sa sortie, c'est toujours l'un des jeux les plus populaires de son genre. Contrairement à Enemy Territory: Quake Wars, il se concentre sur de petits environnements et des batailles à petite échelle incroyablement intensives avec des tueries à un coup à l'ordre du jour. Si vous voulez tester tous les éléments de vos compétences de tir à la première personne en une seule fois, ce jeu est fait pour le faire.


Nous testons en utilisant la version 32 bits du jeu en utilisant une démo personnalisée prise lors d'un match contre des bots sur la carte cs_militia. Cela a une grande quantité de feuillage, donc l'anticrénelage de la transparence a un impact significatif sur la qualité et les performances de l'image, et est généralement l'une des cartes les plus graphiques disponibles. Nous constatons qu'une fréquence d'images d'au moins 60 images par seconde est requise pour les jeux sérieux, car ce jeu repose massivement sur des réactions rapides et précises qui ne peuvent tout simplement pas être compromises par des images perdues.


Tous les paramètres du jeu sont réglés au maximum et nous testons avec 0xAA 0xAF, 2xAA 4xAF et 4xAA 8xAA. L'anticrénelage de transparence est également activé manuellement via le pilote, bien qu'il ne soit évidemment activé que lorsque l'AA normal est utilisé dans le jeu.




Bien que le HD 3870 X2 d'ATI réussisse bien à suivre la GTX280, en ce qui concerne le resserrement, il ne peut tout simplement pas correspondre au dernier de nVidia. Une fois de plus, la GTX280 règne en maître.

Call of Duty 4 doit être l'un de nos jeux préférés de l'année dernière. Cela a mis à jour la marque Call of Duty et a prouvé que les tireurs à la première personne n'avaient pas besoin d'avoir les meilleurs graphismes ni la plus longue durée de jeu. Ce n'était que huit heures de pure montée d'adrénaline qui vous tenait constamment à cran.


Nous testons en utilisant la version 32 bits du jeu corrigée vers la version 1.4. FRAPS est utilisé pour enregistrer les fréquences d'images pendant que nous parcourons manuellement une courte section du deuxième niveau du jeu. Nous trouvons qu'un framerate de 30fps est tout à fait suffisant car, bien que l'atmosphère soit intense, le gameplay l'est moins - il ne s'accroche pas aux réactions rapides et aux mouvements à grande vitesse.


Tous les paramètres du jeu sont réglés au maximum et nous testons avec 0xAA et 4xAF. L'anticrénelage de transparence est également activé manuellement via le pilote, bien qu'il ne soit évidemment activé que lorsque l'AA normal est utilisé dans le jeu.




Pour une raison quelconque, ce jeu n'a tout simplement pas beaucoup bénéficié des diverses améliorations apportées au GT200 et il est tout simplement battu par le 9800 GX2. Nous pensons que cela est en grande partie dû au fait que Call of Duty 4 est un jeu basé sur DirectX 9, il bénéficie donc peu des ajustements plus orientés DirectX 10 appliqués à GT200. Il fonctionne toujours parfaitement bien.

Territoire ennemi: Quake Wars se distingue de tous nos autres tests par le fait qu'il utilise l'API OpenGL open source plutôt que DirectX de Microsoft. Il s'agit d'un jeu de tir à la première personne en équipe se déroulant dans un scénario de guerre future dystopique. En tant que joueur, vous avez le choix parmi une vaste gamme de types de personnages et de styles de jeu, et vous avez également le choix entre une multitude de véhicules. Les batailles peuvent s'étendre sur de vastes zones d'espace ouvert et impliquer un grand nombre de participants. Dans l'ensemble, c'est le paradis multijoueur.


Nous testons en utilisant la version 32 bits du jeu, qui est patchée à la version 1.4. Nous utilisons une démo personnalisée du niveau Valley, qui, selon nous, est à peu près aussi intensive graphiquement que le jeu l'est. Nous pensons qu'une fréquence d'images d'au moins 50 images par seconde est requise pour ce jeu, car l'action multijoueur intense et les mouvements de souris à grande vitesse l'exigent.


Tous les paramètres du jeu sont réglés au maximum et nous testons avec 0xAA 0xAF, 2xAA 4xAF et 4xAA 8xAA. L'anticrénelage de transparence est également activé manuellement via le pilote, bien qu'il ne soit évidemment activé que lorsque l'AA normal est utilisé dans le jeu.




L'histoire positive continue avec Enemy Territory – la GTX280 fait tout simplement exploser tout le reste. Même le 9800 GX2 doit constamment jouer le second violon et c'est un jeu qui évolue très bien en SLI.

Pilote de course: GRID est le jeu le plus récent de notre arsenal de tests et c'est aussi actuellement l'un de nos favoris. Sa combinaison de sensations fortes et de débordements de style arcade avec une bonne dose de réalisme et d'extras comme Flashback en fait un excellent jeu de ramassage et de conduite. Il est également visuellement époustouflant avec des paramètres magnifiquement rendus, des foules interactives, des environnements destructibles et un éclairage époustouflant. Tout cela et ce n'est pas non plus le jeu le plus exigeant sur le matériel.


Nous testons en utilisant la version 32 bits du jeu, qui n'est pas corrigée et fonctionne en mode DirectX10. FRAPS est utilisé pour enregistrer les fréquences d'images pendant que nous effectuons manuellement un circuit du Grand Circuit d'Okutama, dans une course Pro Tuned en difficulté normale. Nous constatons qu'une fréquence d'images d'au moins 40 images par seconde est nécessaire pour jouer à ce jeu de manière satisfaisante, car des bégaiements importants peuvent ruiner votre timing et votre précision. Nous considérerions également 4xAA comme un minimum car la piste, les barrières et les carrosseries souffrent considérablement d'aliasing et constituent une distraction constante.


Tous les paramètres du jeu sont réglés au maximum et nous testons avec 0xAA, 4xAA et 8xAA. L'anticrénelage de transparence est également activé manuellement via le pilote, bien qu'il ne soit évidemment activé que lorsque l'AA normal est utilisé dans le jeu.




Nous avons eu très peu de temps pour tester ce jeu, nous n'avons donc obtenu des résultats comparables que sur quelques cartes. Il est également clair que nVidia n'a pas eu l'occasion d'optimiser ses pilotes SLI pour ce jeu, car le 9800 GX2 a plus de difficultés qu'il ne le devrait. Tout compte fait, alors, nous ne pouvons pas commenter la situation dans son ensemble. Cependant, même avec des tests limités, il est clair que la GTX280 est un excellent choix pour jouer à ce jeu.

Bien qu'il n'ait pas connu un énorme succès commercial et que son gameplay soit loin d'être révolutionnaire, la fidélité graphique de Crise est toujours incomparable et en tant que tel, c'est toujours le test ultime pour une carte graphique. Avec des masses de feuillage dynamique, des chaînes de montagnes vallonnées, des mers d'un bleu éclatant et de grandes explosions, ce jeu a tout ce que vous pourriez souhaiter, et plus encore.


Nous testons en utilisant la version 32 bits du jeu patchée vers la version 1.1 et fonctionnant en mode DirectX 10. Nous utilisons une démo personnalisée qui est prise dès les premiers instants du début du jeu, en nous promenant sur la plage. Étonnamment, compte tenu de son cadre claustrophobe et de son environnement graphiquement riche, nous constatons que toute fréquence d'images supérieure à 30 images par seconde est à peu près suffisante pour jouer à ce jeu.


Tous les paramètres du jeu sont réglés sur élevé pour nos tests et nous testons avec 0xAA et 4xAA. L'anticrénelage de transparence est également activé manuellement via le pilote, bien qu'il ne soit évidemment activé que lorsque l'AA normal est utilisé dans le jeu.





Il n'y a pas grand chose à dire ici, vraiment. GTX280 est de loin le meilleur pari pour jouer à Crysis. En fait, c'est la première carte que nous avons vue qui rend ce jeu jouable à 2 560 × 1 600. Ceci est un bon début.

Comme je l'ai mentionné plus tôt, le lancement de la GTX280 a coïncidé avec une poussée massive de la part de nVidia pour promouvoir le GPGPU. Cependant, bien que cela puisse être intéressant, il est encore loin d'être d'une grande importance pour quiconque cherche à utiliser l'une de ces cartes. Ainsi, jusqu'à ce que l'ensemble du spectre GPGPU soit égalisé et que nous obtenions une sorte de normes entrant en jeu, nous laisserons l'analyse des performances GPGPU hors de l'équation. Alors, lançons ces jeux à la place.


« Composants communs du système » '


* Intel Core 2 Quad QX9770
* Asus P5E3
* 2 Go Corsair TWIN3X2048-1333C9 DDR3
* 150 Go Western Digital Raptor
* Microsoft Windows Vista Édition Familiale Premium 32 bits


"'Conducteurs"'
* GTX280: Forceware 177.34
* Autres cartes nVidia: Forceware 175.16
* ATI: Catalyseur 8.4


"'Cartes testées"'
* nVidia GeForce GTX 280
* nVidia GeForce 9800 GTX
* nVidia GeForce 9800 GX2
* nVidia GeForce 8800 GTX
* nVidia GeForce 8800 GTS 512
* ATI HD 3870X2


"'Jeux testés"'
* Crise
* Pilote de course: GRID
* Territoire ennemi: Quake Wars
* Call of Duty 4
* Counter-Strike: Source

La première carte qui nous a été fournie pour examen est fabriquée par Zotac, mais à part l'autocollant Zotac, elle est exactement le même design que le tableau de référence de nVidia, c'est donc sur cela que nous fonderons notre évaluation sur. Nous aborderons les spécificités du tableau Zotac ainsi qu'un certain nombre d'autres cartes partenaires lorsque nous ferons bientôt un tour d'horizon.

La carte GTX280 mesure 267 mm de long, soit à peu près la même longueur que la 9800 GX2. Comme le GX2, il est entièrement fermé par un carénage métallique. Cela protège les composants électroniques délicats des dommages potentiels dus aux chocs et éraflures statiques ou généraux et c'est un développement que nous accueillons à bras ouverts.


Encore une fois, comme toutes les cartes haut de gamme récentes de nVidia, la GTX280 utilise une conception de dissipateur thermique/ventilateur à double emplacement qui utilise l'alignement de ventilateur légèrement hors parallèle qui a fait ses débuts avec la 8800 GTS 512. Comme on s'y attend, le refroidisseur est très efficace et reste presque silencieux lorsqu'il est inactif et bien qu'il devienne fort lorsqu'il est sous charge, il s'agit d'un doux whoosh plutôt que d'un cri aigu ou bourdonnement agaçant. La carte devient très chaude et nécessitera un boîtier bien ventilé pour s'assurer qu'elle ne cause pas de problèmes de stabilité mais, encore une fois, c'est quelque chose que nous attendrions pleinement d'une carte graphique haut de gamme.

Comme mentionné, la puissance de crête est de 236 W. Cependant, il s'agit du pire des cas et nVidia a utilisé d'excellentes mesures d'économie d'énergie qui la puissance au ralenti n'est que de 25 W et la consommation d'énergie pendant la lecture vidéo accélérée n'augmentera qu'à 32W. Ce sont des chiffres très impressionnants qui font s'interroger sur les mérites d'HybridPower, d'autant plus que nous avons constaté que les chipsets qui prennent en charge cette fonction d'économie d'énergie consomment des quantités importantes d'énergie eux-mêmes.


Même si la carte "peut" consommer très peu d'énergie, elle ne fonctionnera toujours pas sans les deux prises d'alimentation auxiliaires PCI-Express correctement connecté - quelque chose qui sera rendu évident par une LED sur le support d'extension, qui s'allume en rouge si la carte n'a pas assez Puissance. nVidia n'est pas allé jusqu'à utiliser les sockets PCI-Express lumineux qu'il utilisait sur le GX2 mais c'était vraiment plus une fonctionnalité "bling" qu'une nécessité.

Cachés sous des rabats en caoutchouc le long du haut de la carte se trouvent les connecteurs SLI et une prise S/PDIF. Le premier permet des configurations à double et triple SLI et le second offre la possibilité d'acheminer l'audio numérique via les connexions vidéo. Il prend en charge le LPCM à deux canaux jusqu'à 192 kHz, le Dolby Digital à six canaux jusqu'à 48 kHz et le DTS 5.1 jusqu'à 96 kHz. Il ne couvre pas toutes les options, avec LPCM à huit canaux, Dolby TrueHD et DTS Master Audio étant des omissions évidentes, mais c'est suffisant pour tout sauf le home cinéma le plus élaboré configurations. Un adaptateur DVI vers HDMI est fourni pour l'utiliser.


Les sorties sont au tarif standard avec deux connecteurs DVI-I à double liaison et un connecteur vidéo analogique à sept broches qui prend en charge la S-Vidéo nativement ainsi que le composite et le composant via un dongle de dérivation. Les deux connexions DVI prennent en charge le cryptage HDCP et peuvent donc être utilisées pour lire du contenu HD protégé contre la copie comme les disques Blu-ray.


L'accélération vidéo est du même niveau que celle observée sur la série 9000 avec H.264, VC-1 et MPEG-2 bénéficiant tous de l'accélération GPU. Il y a aussi le post-traitement d'image douteux, l'amélioration du contraste dynamique et les améliorations du bleu, du vert et du teint qui ont été récemment introduits.

L'une des grandes campagnes marketing de nVidia cette année a consisté à rehausser le profil de General Unité de traitement graphique (GPGPU), la tâche consistant à effectuer des calculs non liés aux graphiques 3D sur un GPU. Ainsi, avec le lancement de GT200, nVidia a tenu à souligner les capacités supérieures GPGPU de sa dernière puce.


Les GPU en général sont parfaitement adaptés à la performance traitement en parallèle tâches, comme la manipulation d'images et la conversion vidéo, car tous ces shaders peuvent également être mis à contribution en tant que mini processeurs. Individuellement, ils peuvent pâlir par rapport à un processeur approprié, mais lorsque vous en avez 240, comme dans GT200, le nombre de shaders en force brute surpassera facilement n'importe quel CPU. Le gros problème à l'heure actuelle est qu'écrire un logiciel pour tirer parti du traitement parallèle, et en particulier du traitement parallèle sur un GPU, est très difficile. C'est ce qui a poussé nVidia à commencer à travailler sur son CUDA Kit de développement logiciel (SDK), dont Hugo a récemment parlé, et qui facilite considérablement la programmation pour GPGPU pour le codeur.


En plus de CUDA en tant que plate-forme de programmation générale, nVidia a également récemment acheté PhysX, la société de processeurs physiques, et a intégré ses technologies dans le SDK CUDA. Cela signifie que les GPU nVidia peuvent désormais être mis à contribution pour créer des effets physiques réalistes ainsi que des effets visuels réalistes.


De plus, CUDA étant pris en charge par tous les GPU nVidia depuis la 8800 GTX, il compte désormais une énorme base d'utilisateurs installés de 70 millions. Cela a incité de très grands développeurs à s'asseoir et à prêter attention à CUDA, y compris Adobe - il utilisera l'accélération GPU dans ses prochaines versions de Photoshop et Premier.


Bien entendu, AMD a également développé son propre concurrent de CUDA, sous la forme de son SDK Close To Metal (CTM). Cependant, cela a eu une adoption beaucoup moins enthousiaste. Même ainsi, avec AMD prévoyant également de prendre en charge le moteur physique Havok et ne se joignant pas encore à PhysX, le véritable état de jouer en ce qui concerne GPGPU est très en suspens et personnellement je prendrais le tout avec une pincée de sel pour le moment étant. Cela dit, pour ceux qui sont intéressés, GT200 a apporté des améliorations significatives par rapport aux efforts précédents de nVidia.


En regardant GT200 en ce qui concerne GPGPU, vous avez une puce qui prend l'apparence suivante. Les TPC deviennent des mini processeurs à 24 cœurs, chacun avec ses propres petites réserves de mémoire cache. Un planificateur de threads répartit la charge de calcul massive entre tous les différents TPC et la mémoire tampon de trame agit comme la mémoire principale du système.

Maintenant, dans ses briefings, nVidia a expliqué en détail pourquoi GT200 est meilleur que tous les GPU nVidia précédents en matière de GPGPU. Cependant, une grande partie de l'amélioration est simplement due à l'augmentation de base des unités de traitement plutôt qu'à de nouvelles conceptions grandioses. Le résultat est une augmentation de 518 GigaFLOP de puissance de traitement sur G80 à 933 GigaFLOP sur GT200.


Cela dit, il y a aussi quelques améliorations architecturales. Premièrement, l'ordonnancement des threads a été amélioré pour permettre aux fonctions MAD+MUL à double émission d'être exécutées plus efficacement. De plus, les calculs en double précision (64 bits) sont désormais pris en charge, bien qu'ils reposent sur 30 (un par SM) dédiés à double précision processeurs plutôt que d'utiliser les SP eux-mêmes, ce qui entraîne des performances en double précision qui sont un douzième de celles en simple précision (32 bits). Quatre unités « Atomic » ont également été ajoutées. Ceux-ci sont conçus pour gérer des commandes atomiques de lecture-modification-écriture particulières avec un accès direct à la mémoire, plutôt que d'utiliser les propres caches de la puce.


Tout compte fait, cependant, c'est beaucoup de choses qui impliquent des mathématiques très compliquées et des optimisations de celles-ci, et à l'heure actuelle, peu d'entre elles sont pertinentes pour le grand public. Lorsque les applications GPGPU traditionnelles commenceront à arriver sur les étagères, nous reviendrons sur ces problèmes et verrons quelle différence elles font vraiment.


Donc, avec toute cette théorie à l'écart, regardons la première carte grand public basée sur GT200, la GTX280.

Prenant un peu de recul, nous sommes accueillis avec le schéma suivant.

Ici, nous voyons qu'il y a dix TPC constituant la puissance de shader de la puce dans une section que nVidia appelle le Streaming Processor Array (SPA). En G80 et G92, le SPA ne comprenait que huit TPC, ce qui a donné un total de 128 SP. Avec l'augmentation des SP par TPC et l'augmentation des TPC par SPA dans GT200, nous nous retrouvons avec un total de 240 SP - une bonne augmentation, je suis sûr que vous le feriez se mettre d'accord. Cette augmentation du nombre de TPC explique également l'amélioration du pouvoir texturant évoquée précédemment. Avec deux TPC supplémentaires, vous obtenez deux blocs d'unités de texturation supplémentaires, soit un total de 32 unités d'adresse de texture et 32 ​​unités de filtrage de texture, contre 24 de chacune sur G92 et 12 unités d'adressage et 24 unités de filtrage sur G80.


Au-dessus du SPA se trouve la logique de répartition des threads de shader, qui gère la tâche de diviser le grand nombre de calculs en morceaux de taille TPC, ainsi que le moteur de raster/configuration.


Sous le SPA se trouvent huit partitions ROP, qui gèrent les tâches par pixel telles que l'anticrénelage et le mélange alpha. Chaque partition ROP peut traiter quatre pixels par horloge, soit un total de 32 pixels par horloge pour l'ensemble de la puce. De plus, les nouvelles ROP ont été modifiées pour permettre un mélange à pleine vitesse (c'est-à-dire 32 pixels par horloge) - G80 ne pouvait mélanger que 12 et produire 24 pixels par cycle d'horloge - donc l'anticrénelage, les effets de particules, les ombres et autres devraient tous voir une augmentation des performances avec GT200. Chaque ROP a son propre petit magasin de mémoire cache L2 ainsi qu'une connexion 64 bits dédiée au tampon de trame, ce qui donne une interface mémoire totale de 512 bits. Ou en d'autres termes, colossal !


Ailleurs, un certain nombre d'ajustements ont été appliqués, notamment une amélioration de l'ombrage de la géométrie et des performances d'élimination de l'occlusion en Z. La communication entre le matériel et le pilote a également été améliorée, réduisant ainsi les goulots d'étranglement potentiels qui pourraient avoir un impact sur les performances.


Tout compte fait, ces changements se traduisent par des chiffres de performance bruts assez impressionnants. Par rapport au G80, la puissance de traitement des shaders a augmenté de 87,5%, les capacités de texturation de 25% et le débit de pixels de 33,3%. Par rapport aux cartes à double puce récemment introduites par ATI et nVidia, certains chiffres semblent moins impressionnants, mais il y a deux choses à considérer ici. Premièrement, les chiffres pour les solutions à double carte supposent un parfait doublement des performances des deux puces impliquées, ce qui est rarement le cas dans la vie réelle. Deuxièmement, ces cartes à double puce n'offrent des augmentations de performances que pour les jeux avec lesquels elles fonctionnent correctement, tandis que les solutions à puce unique comme GT200 vous offriront un niveau de performance garanti.


Donc, c'est l'image logique, mais quel est le rapport avec cette puce gigantesque que nous avons vue plus tôt? Eh bien, regardez ci-dessous.

Voici une photo du GT200 avec les différentes sections de calcul mises en évidence. La section non marquée au milieu remplit une variété de rôles, mais elle concerne principalement la gestion du reste de la puce, elle inclut donc des éléments tels que le planificateur de threads et la configuration de raster.


Enfin, une note sur DirectX10.1. En termes simples, GT200 ne le supporte pas, ce qui est dommage. Bien que 10.1 ne soit qu'un petit ajustement qui n'apporte aucune nouvelle fonctionnalité à l'API de jeu de Microsoft, il améliore l'efficacité, et donc les performances, dans certaines situations. La seule chose en faveur de nVidia ici est que peu de développeurs utilisent encore ces nouveaux réglages. Cependant, ce ne sera pas le cas pour toujours. Nous devrons simplement attendre et voir comment celui-ci se déroulera.

Il est assez clair que la nVidia GeForce GTX280 fonctionne superbement et, contrairement à la récente vague de cartes à double puce que nous avons vues, cette performance est cohérente. D'accord, il n'anéantit pas absolument tout ce qui l'a précédé, comme le 8800 GTX l'a fait quand il est arrivé, mais il y a un pas en avant assez important pour que ceux qui cherchent à mettre à niveau leurs 8800 GTX en aient la peine option. D'autant plus que de plus en plus de jeux deviendront dépendants du matériel de shader supplémentaire fourni par GT200.


Nous aimons également la disposition physique de la carte avec le revêtement de protection de l'ensemble de la carte et les LED pour indiquer la bonne alimentation configuration étant des ajouts bienvenus, tandis que le boîtier noir éprouvé et un excellent refroidisseur restent des précédents cartes. Hormis ATI qui continue à avoir le dessus sur la façon dont le pass-through audio est activé, nous ne pouvons vraiment pas trouver à redire à la GTX280.


Un domaine dans lequel la GTX280 tombe inévitablement est sa consommation de puissance maximale, mais elle n'est alors qu'aussi élevée que prévu et reste inférieure à certaines cartes qui l'ont précédée. Tenez compte de la consommation électrique incroyablement faible au ralenti et de décodage vidéo, ainsi que de la prise en charge de HybridPower et vous avez une carte qui ne devrait pas trop vous inquiéter en ce qui concerne votre électricité facture.

Le seul facteur qui nous préoccupe vraiment est le prix, car nVidia a vraiment mis la pression, en tirant chaque dernière goutte de profit possible alors qu'elle a toujours l'avance en termes de performances. Ce n'est pas une décision surprenante, et nous sommes sûrs que ses concurrents feraient de même s'ils en avaient l'occasion. Cependant, cela reste lamentable. De plus, alors que la GTX280 est indéniablement la carte la plus rapide du marché, elle n'est pas beaucoup plus rapide. Certainement pas assez pour justifier de payer deux fois plus qu'une 9800 GTX. En effet, si nous devions recommander quelque chose maintenant, ce serait d'aller acheter deux cartes 9800 GTX et de les exécuter en SLI (un sujet que nous aborderons peut-être bientôt). Soit cela, soit attendez notre examen de la GTX260 pour voir comment cela se compare.


"'Verdict"'


Nous ne pouvons trouver absolument aucun défaut dans le GTX280 en matière de performances et il possède toutes les fonctionnalités dont la plupart des joueurs devraient se soucier. Malheureusement, nVidia a joué dur avec les prix et nous ne pouvons tout simplement pas recommander d'en acheter un au prix demandé de 400 £ à 450 £.

Score de confiance

Test de la station audio USB ASUS Xonar U1

Test de la station audio USB ASUS Xonar U1

VerdictSpécifications clésPrix ​​de la critique: 53,30 £Le Asus Xonar D2 a été largement considér...

Lire La Suite

Évaluation du Kodak EasyShare M873

Évaluation du Kodak EasyShare M873

VerdictSpécifications clésPrix ​​de la critique: 113,00 £Plus tôt cette année, Kodak annoncé qu'i...

Lire La Suite

Test du chargeur automatique Iomega REV 1000

Test du chargeur automatique Iomega REV 1000

VerdictSpécifications clésPrix ​​de la critique: 1360.00 £Iomega s'est occupé ces derniers temps ...

Lire La Suite

insta story