Tech reviews and news

Recenzja nVidia GeForce GTX 280

click fraud protection

Werdykt

Kluczowe specyfikacje

  • Cena recenzji: £425,00

Premiera karty nVidia opartej na G80 GeForce 8800 GTX w listopadzie 2006 roku, z perspektywy czasu, nastąpiła zmiana paradygmatu w świecie grafiki komputerowej. Była to nie tylko pierwsza karta graficzna obsługująca DirectX 10, ale także całkowicie zmiażdżyła konkurencję w grach DirectX 9 przed pojawienie się systemu Windows Vista i utrzymywał tę pozycję przez bezprecedensowy czas, nawet gdy w końcu pojawiły się Vista i DirectX 10. Rzeczywiście, dopiero w lutym tego roku, kiedy AMD wypuściło ATI Radeon HD 3870 X2, który używał dwóch rdzeni RV670 na jednej karcie, czy G80 w swoich różnych odsłonach miał jakąkolwiek prawdziwą konkurencję.


Nie żeby ta rywalizacja trwała długo. W ciągu kilku tygodni nVidia wypuściła na rynek podwójny procesor G92 9800 GX2, który wykorzystywał podobną metodę dwóch żetonów na jednej karcie do HD 3870 X2 i wygodnie odzyskał koronę najwyższej wydajności – przynajmniej w grach, z którymi działał. Następnie nVidia podążyła za tym z 9800 GTX, który wykorzystywał pojedynczy układ oparty na G92, aby nieznacznie zwiększyć przewagę wydajności nVidii na rynku jednoukładowych kart graficznych. Oczywiście ATi wciąż miała wiele dobrych kart i bardzo zaciekle konkurowała na głównym rynku poniżej 150 funtów, ale po prostu nie mogła zająć najwyższego miejsca.


Mimo to, chociaż nVidia utrzymywała przewagę dzięki kartom z serii 9800, tak naprawdę nie przesuwała żadnych granic. Wydajność była dobra, ale nie przytłaczająca i chociaż nowe funkcje, takie jak HybridPower, są przydatne, cała gama była trochę rozczarowująca.

Jednak zaledwie kilka miesięcy później nVidia właśnie wprowadziła na rynek zupełnie nowy procesor graficzny o nazwie GT200 który, przynajmniej na papierze, wygląda na to, że powinien mieć wszystkie parametry niezbędne, aby być prawdziwym następcą G80. Składa się z 1,4 miliarda (tak, czyli miliarda z „B”) tranzystorów, pakowanych w 240 procesorów strumieniowych, 32 ROP, 512-bitowy interfejs pamięci i cały szereg innych ulepszeń pod maską, to absolutna potwór. W rzeczywistości, ponieważ nadal jest wytwarzany przy użyciu tego samego procesu 65 nm, co w G92, nie jest tylko potworem wewnętrznie, ale także zewnętrznie – o wymiarach 24 x 24 mm jest to największa pojedyncza matryca, jaką kiedykolwiek TSMC kiedykolwiek zrobił na rynku wytworzony.


Rzeczywiście, jeśli spojrzeć na typową produkcyjną płytkę krzemową, która ma średnicę 300 mm, co najwyżej jest miejsce na wyprodukowanie 94 chipów GT200 na każdym z nich. Porównaj to do czegoś takiego jak procesory Intel Conroe, które są zbudowane w tym samym procesie produkcyjnym, ale są tylko 143mm^2, więc można wyprodukować 426 matryc na wafel, i masz pojęcie, jak duży i drogi jest GT200.


Dwa warianty GT200 będą dostępne w momencie premiery i będą to pierwsze części, które przyjmą zmieniony branding nVidii. Cały rebranding sprowadza się do zamiany liter i cyfr, więc nowe karty nazywają się GTX 280 i GTX 260, a nie układem x000 GT/GTX/GTS, do którego jesteśmy przyzwyczajeni.


GTX 280 będzie wykorzystywał pełny zakres GT200 z zegarem cieniowania 1296 MHz, 1 GB pamięci GDDR3 1107 MHz (efektywnie 2,2 GHz), a reszta chipa mruczy z dala od 602 MHz. Ponieważ zapotrzebowanie na moc dla całej tej partii wyniesie 236 W, GTX 280 będzie potrzebował nie tylko konwencjonalnego sześciostykowego złącza PCI-Express, ale także dodatkowego ośmiostykowego złącza, ponieważ dobrze.


Tymczasem GTX 260, który ukaże się 26 czerwca (GTX 280 będzie dostępny przed lekturą to), ma wyłączone dwa klastry SM (więcej na ten temat wyjaśnię na następnej stronie), a także jedna partycja ROP REMOVED. Oprócz tego zmniejszono prędkości zegara, co skutkuje istotnymi statystykami: 192 shaderów działających z częstotliwością 1242 MHz, 28 ROP działającymi z częstotliwością 576 MHz i 896 MB pamięci GDDR3 1000 MHz. W wyniku tych ograniczeń prędkości i komponentów GTX 260 będzie pobierał mniej energii, a dokładnie 183 W, a w konsekwencji potrzebuje tylko jednego sześciopinowego złącza zasilania PCI-Express.

Ceny katalogowe są tak astronomiczne, jak można by się spodziewać, gdy GTX 280 wymaga 449 GBP, a GTX 260 299 GBP. Co więcej, wczesne wskazania sugerują, że ceny te nie będą zbytnio odbiegać od sklepów oferujących zniżki lub próbujących przewyższać ceny. Nieważne, hej.


Przyjrzymy się GTX260 w osobnym artykule i będziemy się nim zajmować fizyczna karta GTX280 za kilka chwil, ale najpierw spójrzmy, co sprawia, że ​​najnowsza karta graficzna nVidii cudowny kleszcz.

Chociaż architektura GT200 jest pod wieloma względami bardzo podobna do tej z G80, w nowym rdzeniu wprowadzono ogromną liczbę poprawek, które czynią go znacznie lepszą całością. Zanim jednak przejdziemy zbyt daleko w porównania, wróćmy do podstaw.


Poniżej przedstawiono Multiprocesor strumieniowy lub SM, jak nVidia w skrócie to:

Jak widać na rysunku, SM to szereg rdzeni przetwarzających zwanych procesorami strumieniowymi (SP), z częścią pamięci podręcznej i harmonogramem instrukcji. W rzeczywistości jest w tym trochę więcej, w tym dwie jednostki funkcji specjalnych (SFU), które nie są przedstawione na zdjęciu, ale nie będziemy zagłębiać się w szczegóły. Zasadniczo ta niewielka część działa jak mini ośmiordzeniowy procesor, w którym każdy rdzeń wykonuje obliczenia związane z pojedynczym pikselem. Mała (16 KB) część pamięci jest używana do obsługi tylko określonych danych związanych z tymi ośmioma pikselami, nad którymi aktualnie pracuje moduł SM. Jest to podstawowy blok konstrukcyjny zunifikowanej architektury shaderów nVidii i jest taki sam w G80, G92 i GT200.

(środek)„TPC z GT200”(/środek)
Gdy pomniejszamy o jeden krok, widzimy pierwszy główny punkt podziału między G80/G92 i GT200. W GT200 trzy z tych SM są połączone, tworząc klaster tekstur/procesorów (TPC), podczas gdy G80 i G92 używały dwóch SM na TPC. Zasada jest taka sama, w nowym chipie jest po prostu więcej – 32 SP vs. 24 na G80.

(środek)„TPC od G80/G92”(/środek)
Oprócz łączenia SM, TPC dodaje również przetwarzanie tekstur możliwości i znowu jest to kolejny obszar, w którym nowy chip różni się od swoich poprzedników. Na G80 masz cztery jednostki adresowania tekstur i osiem filtrowanie tekstur jednostek na TPC, z G92 liczba jednostek adresowych podwoiła się do ośmiu, podczas gdy filtrowanie pozostało na poziomie ośmiu jednostek. Teraz, dzięki GT200, wszystko pozostało bez zmian.


Nadal otrzymujesz osiem jednostek adresowania tekstur i osiem jednostek filtrujących na TPC, to po prostu zmienił się stosunek jednostek cieniujących do jednostek teksturujących. Tak więc, podczas gdy liczba shaderów każdego TPC wzrosła o 50 procent, moc teksturowania każdego TPC pozostała taka sama. Na początku może się to wydawać krokiem wstecz, ale większość nowoczesnych gier staje się zależna od shaderów, więc zmiana proporcji ma sens. Co więcej, gdy spojrzysz na większy obraz, zobaczysz, że całkowita moc teksturowania GT200 w rzeczywistości nieznacznie wzrosła.

Co możemy powiedzieć o Counter-Strike: Source, co nie zostało powiedziane wcześniej? Jest to po prostu „punkt odniesienia” dla drużynowych strzelanek online, a cztery lata po premierze nadal jest jedną z najpopularniejszych gier w swoim gatunku. W przeciwieństwie do Enemy Territory: Quake Wars, skupia się na małych środowiskach i niezwykle intensywnych bitwach na małą skalę, w których zabija się jednym strzałem na porządku dziennym. Jeśli chcesz przetestować wszystkie elementy swoich umiejętności w strzelaniu z perspektywy pierwszej osoby za jednym razem, jest to gra, w której możesz to zrobić.


Testujemy na 32-bitowej wersji gry, korzystając z niestandardowego timedemo wykonanego podczas gry z botami na mapie cs_militia. Zawiera dużą ilość roślinności, więc antyaliasing przezroczystości ma znaczący wpływ na jakość obrazu i wydajność i jest ogólnie jedną z najbardziej intensywnych graficznie dostępnych map. Uważamy, że do poważnych gier wymagana jest liczba klatek na sekundę wynosząca co najmniej 60 klatek na sekundę, ponieważ ta gra opiera się w dużej mierze na szybkich, dokładnych reakcjach, których po prostu nie można zakłócić przez pominięte klatki.


Wszystkie ustawienia w grze są ustawione na maksimum i testujemy z 0xAA 0xAF, 2xAA 4xAF i 4xAA 8xAA. Antyaliasing przezroczystości jest również ręcznie włączany przez sterownik, chociaż jest to oczywiście włączone tylko wtedy, gdy w grze używane jest normalne AA.




Chociaż ATI HD 3870 X2 dobrze nadąża za GTX280, jeśli chodzi o kryzys, po prostu nie może dorównać najnowszym produktom nVidii. Po raz kolejny króluje GTX280.

Call of Duty 4 musi być jedną z naszych ulubionych gier zeszłego roku. To unowocześniło markę Call of Duty i udowodniło, że strzelanki FPS nie muszą mieć najlepszej grafiki ani najdłuższego czasu gry. To tylko osiem godzin czystego przypływu adrenaliny, który nieustannie trzymał cię na krawędzi.


Testujemy przy użyciu 32-bitowej wersji gry załatanej do wersji 1.4 FRAPS służy do rejestrowania klatek na sekundę, podczas gdy ręcznie przechodzimy przez krótki odcinek drugiego poziomu gry. Uważamy, że liczba klatek na sekundę 30 klatek na sekundę jest w zupełności wystarczająca, ponieważ chociaż atmosfera jest intensywna, rozgrywka jest słabsza – nie opiera się na szybkich reakcjach i szybkim ruchu.


Wszystkie ustawienia w grze są ustawione na maksimum i testujemy z 0xAA i 4xAF. Antyaliasing przezroczystości jest również ręcznie włączany przez sterownik, chociaż jest to oczywiście włączone tylko wtedy, gdy w grze używane jest normalne AA.




Z jakiegoś powodu ta gra po prostu nie skorzystała tak bardzo z różnych ulepszeń wprowadzonych do GT200 i jest po prostu pokonana przez 9800 GX2. Podejrzewamy, że jest to w dużej mierze spowodowane tym, że Call of Duty 4 jest grą opartą na DirectX 9, więc niewiele zyskuje na poprawkach bardziej zorientowanych na DirectX 10 zastosowanych w GT200. Jednak nadal działa absolutnie dobrze.

Wrogie terytorium: Quake Wars wyróżnia się spośród wszystkich naszych innych testów tym, że wykorzystuje OpenGL API, a nie DirectX Microsoftu. To drużynowa strzelanka pierwszoosobowa osadzona w dystopijnym scenariuszu przyszłej wojny. Jako gracz możesz wybierać spośród ogromnej gamy typów postaci i stylów gry, a także masz do wyboru całą gamę pojazdów. Bitwy mogą obejmować ogromne obszary otwartej przestrzeni i angażować ogromną liczbę uczestników. Podsumowując, to raj dla wielu graczy.


Testujemy na 32-bitowej wersji gry, która została załatana do wersji 1.4. Używamy niestandardowego timedemo z poziomu Doliny, który naszym zdaniem jest tak intensywny graficznie, jak gra. Uważamy, że w tej grze wymagana jest co najmniej 50 klatek na sekundę, ponieważ wymaga tego intensywna akcja dla wielu graczy i szybki ruch myszy.


Wszystkie ustawienia w grze są ustawione na maksimum i testujemy z 0xAA 0xAF, 2xAA 4xAF i 4xAA 8xAA. Antyaliasing przezroczystości jest również ręcznie włączany przez sterownik, chociaż jest to oczywiście włączone tylko wtedy, gdy w grze używane jest normalne AA.




Pozytywna historia toczy się dalej w Enemy Territory – GTX280 po prostu niszczy wszystko inne. Nawet 9800 GX2 musi konsekwentnie grać drugie skrzypce i jest to gra, która bardzo dobrze skaluje się w SLI.

Kierowca wyścigowy: GRID to najnowsza gra w naszym arsenale testowym i obecnie jest również jedną z naszych ulubionych. Połączenie emocji i rozlewów w stylu zręcznościowym ze zdrową dawką realizmu i dodatkami, takimi jak Flashback, sprawia, że ​​jest to świetna gra typu pick-up i jeździć samochodem. Jest również oszałamiający wizualnie dzięki pięknie renderowanym ustawieniom, interaktywnym tłumom, zniszczalnym otoczeniu i oszałamiającemu oświetleniu. Wszystko to i nie jest to również najbardziej wymagająca gra na sprzęcie.


Testujemy na 32-bitowej wersji gry, która jest niezałatana i działa w trybie DirectX10. FRAPS służy do rejestrowania liczby klatek na sekundę, podczas gdy ręcznie pokonujemy jeden tor Okutama Grand Circuit w wyścigu Pro Tuned na normalnym poziomie trudności. Uważamy, że do zadowalającego grania w tę grę wymagana jest liczba klatek na sekundę wynosząca co najmniej 40 klatek na sekundę, ponieważ znaczne zacięcia mogą zrujnować wyczucie czasu i precyzję. Uznalibyśmy również, że 4xAA jest minimum, ponieważ tor, bariery i karoserie znacznie cierpią z powodu aliasingu i są ciągłym rozpraszaniem.


Wszystkie ustawienia w grze są ustawione na maksimum i testujemy z 0xAA, 4xAA i 8xAA. Antyaliasing przezroczystości jest również ręcznie włączany przez sterownik, chociaż jest to oczywiście włączone tylko wtedy, gdy w grze używane jest normalne AA.




Mieliśmy bardzo ograniczony czas na przetestowanie tej gry, więc uzyskaliśmy porównywalne wyniki tylko na kilku kartach. Oczywiste jest również, że nVidia nie miała okazji zoptymalizować swoich sterowników SLI do tej gry, ponieważ 9800 GX2 zmaga się bardziej niż powinien. Podsumowując, nie możemy więc komentować całościowego obrazu. Jednak nawet przy ograniczonych testach jest całkiem jasne, że GTX280 to świetny wybór do grania w tę grę.

Chociaż nie odniósł wielkiego sukcesu komercyjnego, a jego rozgrywka jest daleka od rewolucyjnej, wierność graficzna kryzys wciąż nie ma sobie równych i jako taki nadal jest ostatecznym testem dla karty graficznej. Mnóstwo dynamicznego listowia, falistych pasm górskich, jasnoniebieskich mórz i wielkich eksplozji, ta gra ma wszystko, czego można sobie życzyć, a nawet więcej.


Testujemy przy użyciu 32-bitowej wersji gry załatanej do wersji 1.1 i działającej w trybie DirectX 10. Korzystamy z niestandardowego timedemo, które zostało zaczerpnięte z pierwszych chwil na początku gry, wędrując po plaży. Co zaskakujące, biorąc pod uwagę klaustrofobiczną scenerię i bogate graficznie środowisko, stwierdziliśmy, że każda liczba klatek na sekundę powyżej 30 klatek na sekundę jest wystarczająca do grania w tę grę.


Wszystkie ustawienia w grze są ustawione na wysokie dla naszych przebiegów testowych i testujemy zarówno z 0xAA, jak i 4xAA. Antyaliasing przezroczystości jest również ręcznie włączany przez sterownik, chociaż jest to oczywiście włączone tylko wtedy, gdy w grze używane jest normalne AA.





Naprawdę nie ma tu wiele do powiedzenia. GTX280 to zdecydowanie najlepszy zakład do grania w Crysis. W rzeczywistości jest to pierwsza karta, jaką widzieliśmy, dzięki której można grać w tę grę w rozdzielczości 2560×1600. To świetny początek.

Jak wspomniałem wcześniej, premiera GTX280 zbiegła się w czasie z ogromnym naciskiem ze strony nVidii na promowanie GPGPU. Jednak, chociaż może to być interesujące, nadal nie ma wielkiego znaczenia dla każdego, kto chce skorzystać z jednej z tych kart. Tak więc, dopóki całe spektrum GPGPU się nie wyrówna i nie wejdzie w grę jakiś rodzaj standardów, pominiemy analizę wydajności GPGPU. Więc zamiast tego uruchommy te gry.


„Wspólne elementy systemu”


* Intel Core 2 Quad QX9770
* Asus P5E3
* 2 GB Corsair TWIN3X2048-1333C9 DDR3
* 150 GB Western Digital Raptor
* Microsoft Windows Vista Home Premium 32-bitowy


„Kierowcy”
* GTX280: Wymuszenie 177,34
* Inne karty nVidia: Forceware 175,16
* ATI: katalizator 8,4


„Przetestowane karty”
* nVidia GeForce GTX 280
* nVidia GeForce 9800 GTX
* nVidia GeForce 9800 GX2
* nVidia GeForce 8800 GTX
* nVidia GeForce 8800 GTS 512
* ATI HD 3870 X2


„Przetestowane gry”
* Kryzys
* Kierowca wyścigowy: GRID
* Wrogie terytorium: Quake Wars
* Call of Duty 4
* Counter-Strike: Źródło

Pierwsza karta, którą otrzymaliśmy do recenzji, została wykonana przez Zotac, ale poza naklejką Zotac jest to to dokładnie ten sam projekt, co płyta referencyjna nVidii, więc na tym będziemy opierać naszą ocenę na. O szczegółach tablicy Zotac wraz z kilkoma innymi kartami partnerskimi omówimy wkrótce, gdy przeprowadzimy podsumowanie.

Karta GTX280 ma 267 mm długości, czyli mniej więcej tyle samo, co 9800 GX2. Podobnie jak GX2, jest całkowicie osłonięty metalową osłoną. Chroni to delikatną elektronikę przed potencjalnymi uszkodzeniami spowodowanymi statycznymi lub ogólnymi uderzeniami i zadrapaniami i jest to rozwój, który witamy z otwartymi ramionami.


Podobnie jak wszystkie najnowsze karty high-end nVidii, GTX280 wykorzystuje konstrukcję z dwoma gniazdami radiatora/wentylatora, która wykorzystuje nieco nierównoległe wyrównanie wentylatorów, które zadebiutowało w 8800 GTS 512. Jak się spodziewaliśmy, lodówka jest bardzo skuteczna, ponieważ podczas bezczynności i bezczynności pozostaje prawie bezgłośna chociaż pod obciążeniem robi się głośno, jest to raczej delikatny świst niż wysoki pisk lub denerwujący szum. Karta robi się bardzo gorąca i będzie wymagała dobrze wentylowanej obudowy, aby upewnić się, że nie powoduje problemów ze stabilnością, ale znowu jest to coś, czego w pełni oczekiwalibyśmy od wysokiej klasy karty graficznej.

Jak wspomniano, szczytowy pobór mocy wynosi 236W. Jest to jednak najgorszy scenariusz, a nVidia zastosowała kilka świetnych środków oszczędzania energii, które: w rezultacie moc w stanie bezczynności wynosi zaledwie 25 W, a pobór mocy podczas przyspieszonego odtwarzania wideo wzrośnie tylko do 32W. Są to bardzo imponujące liczby, które sprawiają, że zastanawiasz się nad zaletami HybridPower, zwłaszcza że odkryliśmy, że chipsety obsługujące tę funkcję oszczędzania energii zużywają znaczne ilości energii sobie.


Mimo że karta „może” pobierać bardzo mało energii, nadal nie będzie działać bez prawidłowo obu pomocniczych gniazd zasilania PCI-Express podłączony – coś, co będzie widoczne przez diodę LED na wsporniku rozszerzeń, która świeci na czerwono, jeśli karta nie ma wystarczającej ilości moc. nVidia nie posunęła się tak daleko, aby użyć świecących gniazd PCI-Express, których używała na GX2 ale to była naprawdę bardziej „błyskotka” niż konieczność.

Pod gumowymi klapkami na górze karty ukryte są złącza SLI i gniazdo S/PDIF. Pierwsza z nich umożliwia konfiguracje dual- i triple-SLI, a druga umożliwia przesyłanie cyfrowego dźwięku przez połączenia wideo. Obsługuje dwukanałowy LPCM do 192 kHz, sześciokanałowy Dolby Digital do 48 kHz i DTS 5.1 do 96 kHz. Nie obejmuje wszystkich opcji, z ośmiokanałowym LPCM, Dolby TrueHD i DTS Master Audio są oczywistymi pominięciami, ale to wystarczy dla wszystkich poza najbardziej wyszukanym kinem domowym konfiguracje. Służy do tego adapter DVI-do-HDMI.


Wyjścia są standardowo wyposażone w dwa złącza dual-link DVI-I i siedmiopinowe analogowe złącze wideo, które obsługuje natywnie S-Video, a także kompozyt i komponent za pośrednictwem klucza sprzętowego. Oba połączenia DVI obsługują szyfrowanie HDCP, dzięki czemu można ich używać do odtwarzania zawartości HD zabezpieczonej przed kopiowaniem, takiej jak płyty Blu-ray.


Akceleracja wideo jest na tym samym poziomie, co w serii 9000 z H.264, VC-1 i MPEG-2, wszystkie korzystające z akceleracji GPU. Istnieje również wątpliwie przydatne przetwarzanie obrazu, dynamiczne wzmocnienie kontrastu oraz ulepszenia niebieskiego, zielonego i odcienia skóry, które zostały niedawno wprowadzone.

Jedna z dużych kampanii marketingowych nVidii w tym roku dotyczyła podniesienia rangi generała Cel przetwarzania grafiki (GPGPU), zadanie wykonywania obliczeń niezwiązanych z grafiką 3D na a GPU. Tak więc wraz z wprowadzeniem GT200, nVidia chciała podkreślić doskonałe możliwości GPGPU swojego najnowszego układu.


Ogólnie rzecz biorąc, procesory graficzne idealnie nadają się do wykonywania Równoległe obliczenia zadania, takie jak manipulacja obrazem i konwersja wideo, ponieważ wszystkie te moduły cieniujące można również wykorzystać jako mini procesory. Pojedynczo mogą blednąć w w porównaniu do właściwego procesora, ale gdy masz ich 240, jak w GT200, liczba shaderów z brutalną siłą z łatwością wykona każdą PROCESOR. Obecnie dużym problemem jest to, że pisanie oprogramowania wykorzystującego przetwarzanie równoległe, a zwłaszcza przetwarzanie równoległe na GPU, jest bardzo trudne. To właśnie skłoniło nVidię do rozpoczęcia pracy nad swoim CUDA Software Development Kit (SDK), o którym ostatnio mówił Hugo i który znacznie ułatwia programistom programowanie dla GPGPU.


Oprócz CUDA jako ogólnej platformy programistycznej, nVidia niedawno kupiła również PhysX, firmę produkującą procesory fizyki, i zintegrowała jej technologie z CUDA SDK. Oznacza to, że procesory graficzne nVidia mogą teraz wykonywać zadanie tworzenia realistycznych efektów fizycznych, a także realistycznych efektów wizualnych.


Ponadto, ponieważ CUDA jest wspierana przez wszystkie procesory graficzne nVidia od 8800 GTX, ma teraz ogromną bazę 70 milionów zainstalowanych użytkowników. To skłoniło kilku całkiem znanych programistów do usiąść i zwrócić uwagę na CUDA, w tym Adobe – będzie używał akceleracji GPU w nadchodzących wersjach Photoshopa i Premier.


Oczywiście AMD rozwija również własnego konkurenta dla CUDA, w postaci swojego pakietu SDK Close To Metal (CTM). Jednak spotkało się to ze znacznie mniej entuzjastycznym przyjęciem. Mimo to, ponieważ AMD planuje również wspierać silnik fizyki Havok i jeszcze nie wskakuje na pokład z PhysX, prawdziwy stan gra z pozdrowieniami GPGPU jest bardzo w powietrzu i osobiście traktuję całość z przymrużeniem oka na ten czas istnienie. To powiedziawszy, dla tych, którzy są zainteresowani, GT200 wprowadził kilka znaczących ulepszeń w stosunku do poprzednich wysiłków nVidii.


Patrząc na GT200 w odniesieniu do GPGPU i masz chip, który przybiera następujący wygląd. TPC stają się mini-procesorami 24-rdzeniowymi, każdy z własnymi małymi magazynami pamięci podręcznej. Harmonogram wątków rozdziela ogromne obciążenie obliczeniowe między wszystkie różne TPC, a pamięć bufora ramki działa jak główna pamięć systemowa.

Teraz w swoich briefingach nVidia szczegółowo omówiła, dlaczego GT200 jest lepszy niż każdy GPU nVidia, który pojawił się wcześniej, jeśli chodzi o GPGPU. Jednak wiele ulepszeń jest po prostu sprowadzane do podstawowego wzrostu jednostek przetwarzających, a nie do wielkich nowych projektów. Rezultatem jest wzrost mocy obliczeniowej z 518 GigaFLOP w G80 do 933 GigaFLOP w GT200.


To powiedziawszy, jest też kilka ulepszeń architektonicznych. Po pierwsze, ulepszono planowanie wątków, aby umożliwić wydajniejsze wykonywanie funkcji MAD+MUL z dwoma problemami. Obsługiwane są również obliczenia o podwójnej precyzji (64-bitowe), chociaż opierają się one na 30 (jeden na SM) dedykowanych obliczeniach podwójnej precyzji procesorów zamiast korzystania z samych SP, co zapewnia wydajność o podwójnej precyzji, która wynosi jedną dwunastą w porównaniu z pojedynczą precyzją (32-bitowy). Dodano również cztery jednostki „atomowe”. Są one zaprojektowane do obsługi konkretnych poleceń atomowych odczytu, modyfikacji i zapisu z bezpośrednim dostępem do pamięci, zamiast wykorzystywania własnych pamięci podręcznych układu.


Podsumowując, jest to wiele rzeczy, które obejmują bardzo skomplikowaną matematykę i jej optymalizacje, a obecnie niewiele z nich ma znaczenie dla ogólnego konsumenta. Kiedy główne aplikacje GPGPU zaczną trafiać na półki, wrócimy do tych problemów i zobaczymy, jakie naprawdę robią różnicę.


Tak więc, pomijając całą tę teorię, spójrzmy na pierwszą kartę konsumencką opartą na GT200, GTX280.

Cofając się o kolejny krok, przywitaliśmy się poniższym diagramem.

Tutaj widzimy, że jest dziesięć TPC tworzących moc cieniowania chipa w sekcji, którą nVidia nazywa macierzą procesora strumieniowego (SPA). W G80 i G92 SPA składało się tylko z ośmiu TPC, co dało łącznie 128 SP. Wraz ze wzrostem SP na TPC i wzrost TPC na SPA w GT200, otrzymujemy łącznie 240 SP – całkiem spory wzrost, jestem pewien, że Zgodzić się. Ten wzrost liczby TPC odpowiada również za wspomnianą wcześniej poprawę siły teksturowania. Dzięki dwóm dodatkowym TPC otrzymujesz dwa dodatkowe bloki jednostek teksturujących, co daje w sumie 32 jednostki adresowe tekstur oraz 32 jednostki filtrowania tekstur, w górę z 24 jednostek w G92 oraz 12 jednostek adresujących i 24 jednostki filtrujące w G80.


Nad SPA znajduje się logika wysyłania wątków cieniowania, która zarządza zadaniem dzielenia ogromnej liczby obliczeń na kawałki o rozmiarze TPC, a także silnikiem rastrowym / konfiguracyjnym.


Poniżej SPA znajduje się osiem partycji ROP, które obsługują zadania na piksel, takie jak antyaliasing i alpha-blending. Każda partycja ROP może przetwarzać cztery piksele na zegar, co daje łącznie 32 piksele na zegar dla całego układu. Ponadto nowe ROP zostały zmodyfikowane, aby umożliwić mieszanie z pełną prędkością (tj. 32 piksele na zegar) – G80 mógł mieszać tylko 12 i wydajność 24 piksele na cykl zegara – więc antyaliasing, efekty cząsteczkowe, cienie itp. powinny zwiększyć wydajność wraz z GT200. Każdy ROP ma swój mały magazyn pamięci podręcznej L2, a także dedykowane 64-bitowe połączenie z buforem ramki, co zapewnia całkowity interfejs pamięci o szerokości 512 bitów. Innymi słowy, kolosalny!


W innych miejscach wprowadzono szereg poprawek, w tym ulepszone cieniowanie geometrii i wydajność usuwania okluzji Z. Ulepszono również komunikację między sprzętem a sterownikiem, zmniejszając potencjalne wąskie gardła, które mogą wpływać na wydajność.


Podsumowując, zmiany te skutkują imponującymi surowymi danymi dotyczącymi wydajności. W porównaniu z G80 moc przetwarzania cieniowania wzrosła o 87,5%, możliwości teksturowania o 25%, a przepustowość pikseli o 33,3%. W porównaniu z kartami dwuprocesorowymi wprowadzonymi niedawno przez ATI i nVidia, niektóre liczby wydają się mniej imponujące, ale należy wziąć pod uwagę dwie rzeczy. Po pierwsze, dane liczbowe dotyczące rozwiązań z dwiema kartami zakładają doskonałe podwojenie wydajności dwóch zaangażowanych chipów, co rzadko zdarza się w prawdziwym życiu. Po drugie, te karty dwuprocesorowe zapewniają wzrost wydajności tylko w grach, z którymi działają prawidłowo, podczas gdy rozwiązania jednoukładowe, takie jak GT200, zapewniają gwarantowany poziom wydajności.


To logiczny obraz, ale jak to wszystko ma się do tego ogromnego chipa, który widzieliśmy wcześniej? Cóż, spójrz poniżej.

To jest zdjęcie GT200 z wyróżnionymi różnymi sekcjami obliczeniowymi. Nieoznaczona sekcja pośrodku pełni różne role, ale przede wszystkim zajmuje się zarządzaniem resztą chipa, więc obejmuje takie rzeczy, jak harmonogram wątków i konfiguracja rastra.


Na koniec jeszcze jedna uwaga na temat DirectX10.1. Mówiąc prościej, GT200 go nie obsługuje, a szkoda. Chociaż 10.1 to tylko niewielka poprawka, która nie wprowadza żadnych nowych funkcji do interfejsu API gier firmy Microsoft, w niektórych sytuacjach poprawia wydajność, a tym samym wydajność. Jedyną rzeczą na korzyść nVidii jest to, że niewielu programistów korzysta jeszcze z tych nowych poprawek. Jednak nie będzie tak na zawsze. Musimy tylko poczekać i zobaczyć, jak to się uda.

Jest całkiem jasne, że nVidia GeForce GTX280 działa znakomicie i, w przeciwieństwie do niedawnej serii kart z dwoma układami, które widzieliśmy, ta wydajność jest spójna. Ok, nie unicestwia absolutnie wszystkiego, co było przed nim, tak jak zrobił to 8800 GTX, kiedy to zrobił przyjechał, ale jest na tyle duży krok, że ci, którzy chcą ulepszyć swoje 8800 GTX, mają sens opcja. Zwłaszcza, że ​​coraz więcej gier będzie uzależnionych od dodatkowego sprzętu do cieniowania, który zapewnia GT200.


Podoba nam się również fizyczny układ karty z ochronną osłoną całej karty i diodami LED wskazującymi prawidłową moc konfiguracja jest mile widzianymi dodatkami, natomiast wypróbowana i przetestowana czarna obudowa i świetny cooler pozostają z poprzednich karty. Poza tym, że ATI nadal ma przewagę, jeśli chodzi o sposób włączania przekazywania dźwięku, naprawdę nie możemy znaleźć błędu w GTX280.


Jednym z obszarów, w którym GTX280 nieuchronnie spada, jest szczytowy pobór mocy, ale jest tak wysoki, jak byśmy się spodziewali, i wciąż jest niższy niż niektóre karty, które pojawiły się wcześniej. Weź pod uwagę niewiarygodnie niskie zużycie energii w trybie bezczynności i dekodowania wideo, a także wsparcie dla HybridPower i masz kartę, która nie powinna Cię zbytnio martwić, jeśli chodzi o energię elektryczną rachunek.

Jedynym czynnikiem, który naprawdę nas martwi, jest cena, ponieważ nVidia naprawdę położyła nacisk na każdą kroplę zysku, podczas gdy nadal ma przewagę wydajności. Nie jest to zaskakujące posunięcie i jesteśmy pewni, że jego konkurenci zrobiliby to samo, gdyby mieli szansę. Jednak nadal jest to godne ubolewania. Co więcej, chociaż GTX280 jest niezaprzeczalnie najszybszą kartą na rynku, nie jest o wiele szybsza. Z pewnością za mało, by uzasadnić płacenie dwa razy więcej niż za 9800 GTX. Rzeczywiście, gdybyśmy mieli teraz cokolwiek polecić, byłoby to kupienie dwóch kart 9800 GTX i uruchomienie ich w SLI (temat, który możemy wkrótce omówić). Albo tak, albo poczekaj na naszą recenzję GTX260, aby zobaczyć, jak się to układa.


"'Werdykt"'


W GTX280 nie znajdziemy absolutnie żadnej wady, jeśli chodzi o wydajność i wszystkie cechy, na których powinna zależeć większość graczy. Niestety, nVidia gra ostro z cenami i po prostu nie możemy polecić kupowania takiego w cenie wywoławczej 400 GBP – 450 GBP.

Zaufany wynik

Przegląd telewizora plazmowego Panasonic TH-42PX700 42in

Przegląd telewizora plazmowego Panasonic TH-42PX700 42in

WerdyktKluczowe specyfikacjeCena recenzji: 899,99 £Można śmiało powiedzieć, że nie znaleźliśmy ni...

Czytaj Więcej

Recenzja projektora Acer H5350 DLP

Recenzja projektora Acer H5350 DLP

WerdyktKluczowe specyfikacjeCena recenzji: £420,70Pamiętaj, jak InFocus X10 przesunęło ostatnio c...

Czytaj Więcej

Przegląd telewizora plazmowego Panasonic TH-50PX70 50in

Przegląd telewizora plazmowego Panasonic TH-50PX70 50in

WerdyktKluczowe specyfikacjeCena recenzji: £1185,99Kilka tygodni temu sprawdziliśmy i prawie wpad...

Czytaj Więcej

insta story