Tech reviews and news

Recenzja nVidia GeForce 7950 GX2

click fraud protection

Nie tak dawno temu producenci tacy jak Gigabyte i Asus zrobiłem kartę graficzną, która wzięła dwa chipy nVidia i umieściła je na jednej karcie. Moje osobiste odczucie jest takie, że były one całkiem bezcelowe, jakbyś nadal potrzebował płyty głównej SLI, z której możesz korzystać tylko po jednej na raz, ale kosztują tyle samo, co zakup dwóch kart. W przypadku Gigabyte trzeba było nawet użyć konkretnej płyty głównej.


Kiedy więc nVidia wypuściła GeForce 7950 GX2, od razu zaniepokoiłem się jego zastosowaniem.

Jak widać na powyższym obrazku, ta karta to prawie dwie płytki PCB przykręcone razem, aby utworzyć jedną kartę. Wykorzystuje jedno gniazdo PCI-E i potrzebuje tylko jednego złącza zasilania.

Powyżej możesz zobaczyć, jak wygląda karta po rozłączeniu. Znajduje się tam mała płytka łącząca, która łączy ze sobą dwie „karty”. Każda płytka drukowana ma rdzeń GeForce 7900 GT, pracujący z częstotliwością 500 MHz zamiast 450 MHz, ale z nieco wolniejszą pamięcią 600 MHz zamiast 660 MHz. Moduły pamięci to te same moduły Samsunga 1,4ns, które teoretycznie są oceniane na 715 MHz. Trzeba więc kwestionować motyw podkręcania ich o 115 MHz (lub 230 MHz, biorąc pod uwagę DDR).


To, co pierwsze uderzyło mnie w tej karcie, to to, jak niesamowicie cicha jest. Kiedy porównywałem to z dwoma 7900 GT, różnica była zdumiewająca. Pomimo tego zmniejszenia zarówno hałasu, jak i przepływu powietrza, temperatura karty wydawała się w porządku. Podczas przetaktowywania robiło się to trochę gorsze, ale prędzej wstrzymałem się trochę z zegarem, aby zaoszczędzić sobie bólu głowy związanego z hałasem.


Chip na powyższym obrazku umożliwia działanie tej karty. Jest to mostek PCI Express do PCI Express i jest w pełni zgodny ze standardami PCI Express. Oznacza to, że powinien działać z każdą płytą główną, obsługującą SLI lub nie. Niektóre płyty główne mogą wymagać aktualizacji systemu BIOS, ponieważ nie są przyzwyczajone do oglądania takiego urządzenia, ale nie mieliśmy problemu z naszym Asus A8N32-SLI. Ten układ ma 48 ścieżek - 16 ścieżek łączących się z gniazdem płyty głównej, a następnie 16 ścieżek replikowanych na każdy chip zawierający PCB.


Nieuchronnie oznacza to, że karta jest zablokowana przez 16 linii gniazda PCI-E, ale przy każdej płytce drukowanej ma 16 oznacza to, że jeśli uruchomisz grę, która nie obsługuje SLI, pierwsza płytka PCB w pełni wykorzysta pasmo. Oznacza to również, że komunikacja między rdzeniami powinna mieć niewielkie lub żadne opóźnienia.


Jednak fakt, że ta karta używa tylko jednego gniazda, nie wymaga płyty głównej SLI i jest wykrywana jako jeden GPU przez system operacyjny, nie oznacza, że ​​jest to pojedynczy GPU. Technologia SLI nadal działa i wymaga, aby profil SLI był na miejscu, aby uzyskać pełną wydajność. nVidia postawiła na reklamę jako pojedynczy GPU, zastępując włączanie / wyłączanie SLI trybami „Dual Display” i „Dual GPU”. Nie mogliśmy znaleźć nic wspólnego z profilami SLI w używanych sterownikach (91.29), co oznaczało, że nie mogliśmy określić żadnego ręcznie.


Z tego powodu uważam za trochę mylące reklamowanie tej karty jako karty 48-potokowej z buforem ramki 1 GB. Muszę podkreślić, że jest to dwie 24 części potokowe, każda z buforem ramki 512 MB. Podobnie jak w przypadku 7900 GT, każdy rdzeń ma 16 silników wyjściowych pikseli i osiem shaderów wierzchołków.

W przeciwieństwie do innych dotychczasowych kart referencyjnych, ta karta jest w pełni zgodna z HDCP, co jest świetną wiadomością. Istnieją dwa podwójne złącza DVI. Jednak, podobnie jak w przypadku SLI, nie można uruchomić dwóch wyświetlaczy, gdy włączony jest tryb SLI lub „Dual GPU”. Aby korzystać z dwóch wyświetlaczy, musisz użyć trybu „Dual Display” lub, w przypadku SLI, wyłączyć SLI. To kompletna irytacja. Nie rozumiem, jak nVidia może stworzyć coś takiego jak TurboCache, które będzie wykorzystywać pamięć systemową tylko wtedy, gdy ładowana jest aplikacja 3D, ale nie może zastosować podobnej zasady do SLI.


Jak widać powyżej, jest to karta z dwoma gniazdami - nic dziwnego. Ale w przeciwieństwie do SLI masz tylko dwa połączenia DVI. Oznacza to, że możesz używać tylko dwóch wyświetlaczy, w przeciwieństwie do czterech wyświetlaczy dostępnych podczas korzystania z dwóch kart w trybie wyświetlania non-SLI. To naprawdę nie jest wielka wada i istnieje wiele sposobów obejścia tego problemu, jeśli potrzebujesz więcej wyświetlaczy.


Każdy, kto ma bystre oko, zauważy złącze SLI na górze karty. Ta karta będzie używana w maszynach Quad SLI obsługiwanych przez OEM. Jednak obecnie nie jest to obsługiwane dla każdego, kto chce tworzyć własne, a sterowniki do tego nie będą dostępne przez jakiś czas. Jest to jednak jasna ścieżka aktualizacji dla każdego, kto wie, co robi. Poprzednie implementacje Quad SLI były trochę kiepskie, więc chciałbym zobaczyć przyzwoitą konfigurację, zanim zasugeruję to jako ścieżkę aktualizacji - ale opcja nadal istnieje.

Karty nVidia zostały przetestowane na Asus A8N32-SLI przy użyciu Athlona 64 FX-60, 2 GB pamięci CMX1024-3500LLPRO RAM i dysku twardego Seagate Barracuda ST340083A8. Zasilanie było dostarczane przez Tagan 900W TG900-U95. Do testów ATI wszystko pozostało takie samo, z wyjątkiem użycia Asus A8R32-MVP Deluxe i Etasis 850W ET850.


Wszystkie karty nVidia zostały przetestowane przy użyciu sterowników Beta 91.29 ForceWare. 7900 GT działające w trybie SLI ze standardowymi częstotliwościami zegara testowano przy użyciu nieco starszego 84.17. X1900 XTX zostały przetestowane przy użyciu oficjalnych sterowników Catalyst 6.5.

Korzystając z naszego zastrzeżonego automatycznego pakietu do testów porównawczych, trafnie nazwanego „SpodeMark 3D”, uruchomiłem Call of Duty 2, Counter Strike: Source, Quake 4, Battlefield 2 i 3DMark 06. Bar 3DMark06, wszystkie działają przy użyciu naszych własnych, wcześniej nagranych timedemos w najbardziej intensywnych sekcjach każdej gry, jakie mogłem znaleźć. Każde ustawienie jest uruchamiane trzykrotnie i pobierana jest średnia w celu uzyskania powtarzalnych i dokładnych wyników. Przeprowadziłem każdy test gry przy rozdzielczości 1280 x 1024, 1600 x 1200, 1920 x 1440 i 2048 x 1536 przy 0x FSAA z filtrowaniem trójliniowym, 2x FSAA z 4x AF i 4x FSAA z 8x AF.


Chciałem zobaczyć, jak użycie mostka PCI Express wpłynęło na wydajność, więc ustawiłem dwa 7900 GT na te same częstotliwości zegara co 7950 GX2 i użyłem tych samych sterowników 91.29 dla porównania. Postanowiłem również przetestować Call of Duty 2 z włączoną i wyłączoną optymalizacją SLI, aby sprawdzić, ile Różnica ta dotyczyła 7950 GX2 i dwóch kart 7900 GT, próbując udowodnić, że nie jest to tylko pojedyncza karta.


Oczywiście wyników było wiele do obejrzenia, ale pytania, które przyszły mi do głowy, brzmiały: jak wypada w porównaniu z X1900 XTX (obecnie najszybszym dostępna pojedyncza karta), jak wypada to w porównaniu z parą równie taktowanych 7900 GT i jak wypada w porównaniu z parą podobnie wycenionych na pełną prędkość 7900 GT.


Udało mi się również podkręcić tę kartę do 600 MHz na rdzeniu i 800 MHz (efektywnie 1600 MHz) na pamięci i te wyniki wydajności są uwzględnione dla porównania.


Posiadanie dwóch procesorów graficznych na jednej karcie powinno nieznacznie poprawić wydajność w porównaniu z rozwiązaniem SLI, ponieważ jest mniej opóźnień. Tak było w rzeczywistości, zauważono jedną lub dwie klatki na sekundę, ale z pewnością nic ważnego. Jednak w wyższych rozdzielczościach różnice te były naprawdę spore - 38 fps w porównaniu do 30. To spora różnica w wydajności, biorąc pod uwagę, jak niewiele się zmieniło. W Counter-Strike: Source różnica była jeszcze większa, 60 fps kontra 24. To wystarczyło, by zastanowić się, czy nie dzieje się coś podejrzanego.


Wróciłem do gier i postanowiłem poszukać siebie, ponieważ martwiłem się, że AA nie jest włączone. Myliłem się. Jednak poziom, z którego korzystam w Counter-Strike: Source, zawiera efekty HDR i na karcie 7950 GX2 zauważyłem kilka błędów w konsoli podczas ładowania tekstur HDR. Myślę, że jest błąd w sterownikach 91.29, który powoduje te wysokie wyniki. Aby uzyskać najlepszą wskazówkę dotyczącą wydajności 7950 GX2, prędzej zwróciłbym większą uwagę na downclockowane 7900 GT w SLI, niż na wyniki 7950 GX2.


W większości przypadków 7950 GX2 (lub symulowany 7950 GX2) był szybszy niż dwa działające z pełną prędkością 7900 GT. Sądzę, że to ponieważ w większości przypadków dodatkowa przepustowość pamięci nie jest potrzebna, a zwiększona prędkość rdzenia pomaga na dłuższą metę jeszcze. Jednak przy najwyższym ustawieniu Counter-Strike: Source przepustowość pamięci była oczywiście potrzebna, ponieważ osiągnęła 35 klatek na sekundę zamiast 24, i to również przy użyciu starszych sterowników.


Ostatnie pytanie brzmi: jak wypada to w porównaniu z X1900 XTX? Pod względem funkcji X1900 XTX ma oczywiście po swojej stronie FSAA + HDR. Jednak jeśli chodzi o wydajność, piłka była wyraźnie na boisku nVidii, a 7950 GX2 był średnio o 30 procent szybszy. Jednak fakt, że nVidia potrzebuje drugiego GPU, aby to osiągnąć, świadczy o technologii stojącej za X1900 XTX.


"'Werdykt"'


7950 GX2 to najszybsza karta dostępna dla płyty głównej z jednym gniazdem, kropka. Jednak nazywanie go pojedynczym procesorem graficznym jest mylące i każdy, kto rozważa zakup takiego, powinien zdawać sobie sprawę z jego zastrzeżeń - głównie to, że gry wymagają profilu SLI i że nie mogą działać na dwóch monitorach bez żmudnego wyłączania „Dual GPU” tryb.


Około 400 funtów to dużo, aby zapłacić za kartę graficzną, w przeciwieństwie do uruchomionego SLI, który można podzielić na dwie łatwe do zarządzania części - należy to zapłacić za wszystko naraz. Rozważałbym zrobienie tego tylko wtedy, gdybym nie miał płyty głównej SLI lub miałbym pełny zamiar uaktualnienia do Quad SLI w przyszłości. Dla większości ludzi pojedynczy 7900 GT, a następnie dodanie drugiego w ciągu sześciu miesięcy zapewni lepszy stosunek jakości do ceny.


W sumie jednak nie jest to rozczarowanie, o którym myślałem, że będzie. Jest szybki, cichy, a cena jest konkurencyjna w stosunku do wydajności.



















Chociaż nie są one szczególnie oczywiste, te wykresy pokazują różnicę, jaką powoduje włączenie opcji „Optimize for SLI” w Call of Duty 2, odpowiadając w ten sposób na pytanie - czy to pojedynczy procesor graficzny, czy nie?



Apple iWatch może stać za upadkiem Nike FuelBand

Plik Nike FuelBand wydaje się zbliżać do końca swojego życia, a najnowsze doniesienia sugerują zb...

Czytaj Więcej

Facebook, aby rozpocząć śledzenie kursorów na ekranie użytkowników?

Jeśli myślałeś, że ukierunkowane reklamy Facebooka były już teraz przerażające i uciążliwe, pocze...

Czytaj Więcej

Głośnik soundbar Vizio 5.1.2 Dolby Atmos zostaje wprowadzony na rynek w Wielkiej Brytanii

Głośnik soundbar Vizio 5.1.2 Dolby Atmos zostaje wprowadzony na rynek w Wielkiej Brytanii

Vizio, marka numer jeden soundbarów w USA, jeszcze bardziej wzmocniła swoją ofertę audio w Wielki...

Czytaj Więcej

insta story