Tech reviews and news

Recenzja Leadtek WinFast PX8800 GTX TDH

click fraud protection

Kluczowe specyfikacje

  • Cena recenzji: 470,00 GBP

Wiatry zmian wieją i wieją mocno. System Windows Vista ma zostać wydany 30 stycznia, a wraz z nim oferuje cały szereg „funkcji”, które z pewnością zwiększą naszą produktywność bez końca. A może nie, będziemy musieli poczekać i zobaczyć. Jasne jest, że Vista przyniesie ze sobą DirectX 10, który nie zostanie przeniesiony na Windows XP.


Oznacza to, że aby jak najlepiej uruchamiać gry DirectX 10, będziesz potrzebować karty graficznej obsługującej DirectX 10 i licencjonowanej kopii systemu Windows Vista. Nie ma również gwarancji, że gry będą miały wsteczną kompatybilność z DirectX 9, ale szanse są duże.


DirectX 10 zmienia wiele rzeczy, ale największą zmianą jest wprowadzenie Geometry Shadera. Oznacza to, że geometria nie jest już przetwarzana na CPU, ale jest tworzona bezpośrednio na GPU, gdzie można nią manipulować lub zniszczyć. Jest to naturalny postęp i łatwo poddaje się obróbce fizyki również na GPU. Dzięki temu znacznie mniej danych jest nieefektywnie przesyłanych przez magistralę PCI Express.


Wraz z coraz większym obciążeniem procesora, wizja firmy Intel dotycząca nas wszystkich działa czterordzeniowy procesory mogą być źle przemyślane. W rzeczywistości może się okazać, że kupimy najtańsze Celerony, jakie uda nam się zdobyć, aby pozwolić sobie na lepszą kartę graficzną. Być może AMD wykazało większą przewidywanie przez kupując ATI.


Mając to wszystko na uwadze, przyglądam się pierwszej części nVidii dotyczącej DirectX 10 i rzeczywiście pierwszej na świecie - GeForce 8800 GTX. Karta, którą otrzymałem do przeglądu, powstała dzięki uprzejmości Leadtek.


Jak widać, karta wygląda identycznie jak nasza karta referencyjna, ale jest trochę ładniejsza. Dotyczy to obecnie wszystkich partnerów zarządu, ale spodziewaj się innych rozwiązań w nadchodzących miesiącach.


Ponieważ jest to karta detaliczna, zawiera również dwa konwertery Molex na PCI Express i kabel wyjściowy Component / S-Video. Zawiera kopię SpellForce 2: Shadow Wars, TrackMania Nations i PowerDVD 6.

Cooler Master również robił wszystko, co w jego mocy, aby zapewnić nam RealPower 850W. To całkiem nowe przedsięwzięcie dla Cooler Master, aby osiągnąć tak wysoki poziom mocy. Ma sześć linii 12 V, wszystkie zdolne do 20 A, ale oczywiście nie jednocześnie. Co ważne, ma cztery złącza PCI Express, każde wychodzące z innej szyny. Będzie wyceniony na około 170 funtów.


Jeśli nie zauważyłeś powyżej, G80 lub 8800 GTX, jak jest lepiej znany, wymaga dwóch złączy PCI Express. Pobór mocy na tych kartach nie jest znacząco wyższy niż w poprzednich generacjach, ale w ramach specyfikacji PCI Express, powyżej pewnego poboru mocy, wymagane jest drugie złącze.


W rzeczywistości seria ATI X1900 również powinna mieć dwa złącza. Dlatego znalezienie zasilacza, który działałby w CrossFire, było prawie niemożliwe. Tylko jednostki, które nie wyłączyły się automatycznie, gdy pobrano więcej niż 20A, działałyby Jak na ironię, często były to najtańsze jednostki - ponieważ jest to obowiązkowa cecha bezpieczeństwa ATX specyfikacja.

Procesor G80 działa w zupełnie inny sposób niż poprzednie generacje. Weź GeForce 7900 GTX na przykład - ma 24 potoki cieniowania pikseli i osiem shaderów wierzchołków. Każda z tych jednostek jest przeznaczona do wykonywania określonego zadania i nic więcej. Oczywiście ta dystrybucja 24/8 opiera się na analizie gier i sposobu, w jaki rozpowszechniają one swój kod. Będą jednak scenariusze, w których potoki pikseli będą niedostatecznie wykorzystywane, a procesory wierzchołków będą pracować w nadgodzinach; i na odwrót.


Ma to wpływ na nieefektywne działanie chipa z powodu wąskich gardeł. Czy nie byłoby miło, gdyby nieużywane jednostki mogły pomóc w innych obszarach?


I tu właśnie wkracza architektura G80. Zamiast określonych jednostek funkcyjnych ma 128 „procesorów strumieniowych”, które mogą wykonywać wszelkie niezbędne zadania. Oznacza to, że mogą to być shadery pikseli, shadery wierzchołków, shadery geometrii, a nawet wykonywać inne funkcje, takie jak fizyka przetwarzania. Nazywa się to „ujednoliconą architekturą shaderów”.


Powinno to oznaczać, że w środowisku gier każda jednostka pracuje na scenie i jest to wyłącznie kwestia dystrybucji. Dzięki pracy wszystkich jednostek powinno to znacznie zmniejszyć wewnętrzne wąskie gardła i radykalnie zwiększyć liczbę klatek na sekundę.


Chociaż upraszcza to różnicę między kartami, wprowadza kolejne nieporozumienia - drugą częstotliwość taktowania. Rdzeń 8800 GTX działa z częstotliwością 575 MHz, ale procesory strumieniowe działają z innym zegarem 1,35 GHz. Chociaż poprzednie karty również miały wiele częstotliwości taktowania, dopiero teraz zdecydowały się je ujawnić (i nastawny).


GeForce 8800 GTX ma 768 MB pamięci GDDR3, działającej z częstotliwością 900 MHz (efektywnie 1800 MHz) na 384-bitowym interfejsie. To dość zdumiewająca przepustowość i dość spory bufor ramki do przechowywania danych. Ciekawe jest to, że nVidia nie zdecydowała się na przejście na GDDR4, ale najwyraźniej nie uważa tego jeszcze za konieczne. Oczywiście procesor G80 ma na to wsparcie.

nVidia pozostała przy niezawodnym 90-nanometrowym procesie dla G80. Dzięki całej nowej technologii stworzyło to duży chip, a tym samym dużą płytkę. Jak widać powyżej, jest większy niż już duży 7900 GTX. W rzeczywistości jest dłuższy niż płyta główna, której używaliśmy do testów, co w wielu przypadkach może powodować problemy. Większość dodatkowego rozmiaru to regulacja mocy dla złączy zasilania. Jest też dość nieporęczny. Jednak rozwiązanie chłodzące, które zastosowała nVidia i zastosowała tutaj Leadtek, jest znakomite. Pomimo ciepła, które musi emanować chip, wentylator zawsze działał cicho, co jest dużym dobrodziejstwem dla każdego, kto chce zbudować system oparty na jednym lub nawet dwóch z nich.

Możesz również zauważyć dodatkowe połączenie dla SLI. To jest coś, co zauważyliśmy w ATI X1950 Pro, zgodnie z tą samą zasadą. Mając dwa złącza, istnieje przepustowość w obu kierunkach i większa.


Ponieważ chip został całkowicie przerobiony, nVidia dodała obsługę jednoczesnego HDR i FSAA - obszar, w którym ATI była wcześniej sama. Ponadto ogólna jakość obrazu została znacznie poprawiona. Oprócz zwykłych testów timedemo większość dnia spędziłem na sprawdzaniu jakości obrazu w najlepszych grach. Bez wątpienia nastąpiła ogromna poprawa w tej dziedzinie.

Windows Vista jeszcze nie wyszedł, jest też DirectX 10 lub jakiekolwiek gry DirectX 10. Więc chociaż możemy przetestować, że są to obecne środowiska, to naprawdę mija się z celem i będzie musiało zostać ponownie odwiedzone w przyszłym roku, z oczywistą aktualizacją naszej rutyny testowej.


Do testowania tej karty użyłem naszej referencyjnej płyty głównej Intel 975XBX „Bad Axe” z X6800 Core 2 Duo. W połączeniu z 2 GB pamięci Corsair CMX1024-6400C4 działającej z częstotliwością 800 MHz 4-4-4-12. Moje testy porównawcze X1950 XT-X i GeForce 7950 GX2 zostały wzięte bezpośrednio z mojego X1950 XT-X recenzja, w której korzystałem ze sterowników WHQL 6.8 Catalyst i WHQL 91.31.


W przypadku 7900 GTX i 8800 GTX użyłem nowszych sterowników 96,94. Część testów dotycząca Counter-Strike'a uległa nieznacznej zmianie, więc tych wyników nie można porównać ze starszymi kartami i dlatego zostały one usunięte z wykresów.


Uruchomiłem Call of Duty 2, Counter Strike: Source, Quake 4, Battlefield 2, Prey i 3DMark06. Bar 3DMark06, wszystkie działają przy użyciu naszych własnych, wcześniej nagranych timedemos w najbardziej intensywnych sekcjach każdej gry, jakie mogłem znaleźć. Każde ustawienie jest uruchamiane trzykrotnie i pobierana jest średnia w celu uzyskania powtarzalnych i dokładnych wyników. Przeprowadziłem każdy test gry przy rozdzielczości 1280 x 1024, 1600 x 1200, 1920 x 1200 i 2048 x 1536 przy 0x FSAA z filtrowaniem trójliniowym, 2x FSAA z 4x AF i 4x FSAA z 8x AF.


Wydajność jest po prostu znakomita iw większości przypadków jest o 50-100 procent szybsza. Przy 1280 x 1024 różnica nie była tak oczywista, ponieważ w większości przypadków była ograniczona procesorem. Jak zwykle, to w wyższych rozdzielczościach lub po włączeniu AA różnice były widoczne. Szczerze mówiąc, 21 wykresów na końcu tej recenzji mówi samo za siebie.

"'Werdykt"'


Bez wątpienia jest to najszybsza obecnie dostępna karta graficzna o najlepszej jakości obrazu, jaką kiedykolwiek widzieliśmy.


Na tym etapie możemy tylko przewidzieć, jaka będzie wydajność DirectX 10. Dlatego polecałbym kupowanie tej karty tylko wtedy, gdy naprawdę chcesz lub potrzebujesz najlepszej możliwej wydajności i jakości obrazu DirectX 9, powiedzmy, że masz 24-calowy wyświetlacz lub 30-calowy potwór firmy Dell. Jeśli celujesz w DirectX 10, poczekaj do przyszłego roku, kiedy będziemy mogli przetestować system Windows Vista i porównać z konkurencyjną kartą ATI.


W przypadku tak radykalnie nowej architektury mogę być pod wrażeniem tego, jak bezproblemowe wydaje się przejście na zunifikowaną architekturę shaderów. Kiedy SLI jest połączone z DirectX 10, widzę nawet, jak skalowanie zbliża się do 100-procentowego wzrostu wydajności niż kiedykolwiek wcześniej.


To niesamowity krok naprzód dla nVidii i całej branży graficznej.

















Pebble obniża ceny całej gamy smartwatchów w Wielkiej Brytanii

Pebble ogłosił, że obniża ceny w swojej brytyjskiej gamie smartwatchów.Wydaje się, że nagłówki ob...

Czytaj Więcej

IPin: najmniejszy na świecie wskaźnik laserowy na iOS i Androida

Jeśli prowadzisz prezentację biznesową lub po prostu chcesz pobawić się ze swoim kotem, plik iPin...

Czytaj Więcej

Recenzja Denon AVR-X3100W

Recenzja Denon AVR-X3100W

PlusyDoskonały zakres funkcjiEkscytujący dźwięk z dużą ilością szczegółów Wspaniałe menu ekranowe...

Czytaj Więcej

insta story