Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
RECENZJE | nVidia GeForceFX 5800 Ultra - pierwszy kontakt
    

 

nVidia GeForceFX 5800 Ultra - pierwszy kontakt


 Autor: Kris | Data: 15/04/03

nVidia GeForceFX 5800 Ultra - pierwszy kontaktTen artykuł w zasadzie miał wyglądać trochę inaczej. nVidia wypuściła na rynek układ należący do nowej generacji. Biorąc pod uwagę fakt, że producent ma dominującą pozycję na rynku kart graficznych, poprzedzającą premierę całą otoczkę handlowo-reklamową oraz powalającą potencjalnego użytkownika cenę to produkt zasługuje przynajmniej na parę tygodni wnikliwych badań. Stało się jednak inaczej i po krótkiej walce zgodziłem się na wpuszczenie w maliny dwudniowych, intensywnych testów, których owoc mam przyjemność dziś przedstawić. Zapraszam na pierwszy opis wrażeń dostarczonych mi przez kartę GeForceFX 5800 Ultra w wykonaniu Gainwarda udostępnioną przez firmę Multimedia Vision.

Wstęp

  

O nowym układzie o nazwie kodowej NV30 mówiło się już od roku. Przygotowany wspólnym wysiłkiem specjalistów nVidia oraz byłych pracowników przejętej firmy 3Dfx miał obsługiwać efekty Dx9 i stanowić istotny krok w dziedzinie rozwoju układów przetwarzania trójwymiarowego. Spokojny sen speców od marketingu nVidia został jednak zdmuchnięty już w lecie zeszłego roku prezentacją ATI R300 i zapowiedzią wydania kart w ciągu paru miesięcy. Niestety jedyną możliwą reakcją, na jaką nVidia mogła sobie wtedy pozwolić, były przecieki możliwości funkcjonalnych przyszłego chipa. Powód był prozaiczny. Brak działającego układu krzemowego. Schemat był już w zasadzie opracowany, ale czekano na "nośnik". Było to wynikiem ryzykownej decyzji o przejściu na architekturę 0.13 um, która w tym czasie była dopiero w okresie testów fabryk TSMC, związanych z nVidia umowami produkcyjnymi.

Tymczasem konkurent pokazał światu pierwszą kartę przygotowaną do DirectX 9 o możliwościach i wydajności, której nic nie mogło wtedy przebić. Jedyne, co można było w takiej sytuacji zrobić to obiecywać wydanie czegoś lepszego i do tego w stosunkowo krótkim czasie tak, aby powstrzymać potencjalnych klientów przed zakupem kart konkurencji. Było to o tyle ważne, że produkty ATI w zasadzie zalane morzem dominujących na rynku kart GeForce budziły szereg obaw kompatybilnościowych i masowe przechodzenie klientów na Radeony wcześniej czy później zaowocowałoby pozbyciem się takich lęków i doprowadzeniem do wyrównania poziomów sprzedaży. W zasadzie działania osłonowe marketingu nVidia częściowo przyniosły zamierzony skutek i powszechnie oczekiwano, że nowy układ wręcz zmiażdży Radeona 9700 Pro.

Tymczasem inżynierowie nVidia dostali w końcu do rąk prototyp NV30 i nastąpiła moralna katastrofa. Układ nie był mocniejszy od konkurencji i handlowcom zrobiło się duszno. Za punkt honoru wobec wiernej klienteli poczytywano sobie przedstawienie kart, które w testach będą, choć trochę lepsze od nowego króla wydajności ze stajni ATI. Nie pozostało nic innego jak podkręcić kartę do granic możliwości chłodzenia powietrzem, zapewnić jej najdroższe i w zasadzie prototypowe pamięci oraz zabezpieczyć stabilność działania w tak ekstremalnych częstotliwościach przy pomocy bezkompromisowej technologii samego laminatu płytki. 18-stego listopada 2002 roku świat zobaczył kartę GeForceFX 5800 Ultra. Choć dla niektórych wyglądała nieco groteskowo to niewątpliwie robiła wrażenie. To, co nastąpiło później przypominało zabawę w kotka i myszkę. Sprawa dotyczyła kwestii fizycznego pojawienia się kart na rynku. Przekładano kolejne terminy i składano następne obietnice. Nadszarpnęło to w sporym stopniu wizerunkiem firmy i oczywiście przełożyło się na konkretne wyniki finansowe, bo faktycznie wzrosła w tym czasie znacząco sprzedaż kart konkurencji.

Osobiście mam wrażenie, że niemal natychmiast po testach prototypu NV30 ruszyły prace zmierzające do jego udoskonalenia, a karty GeForceFX, które właśnie pojawiają się na rynku będą traktowane nieco przejściowo i znikną zanim ich sprzedaż rozwinie się na dobre. Z resztą sam producent upatruje szansy ich zaistnienia głownie w odniesieniu do rynku profesjonalnych kart do modelowania 3D. Tyle dywagacji na ten temat. Mamy początek kwietnia i niemal pół roku po oficjalnej prezentacji GeForceFX 5800 Ultra wchodzi na rynek szokując nie tylko wyglądem, ale i rekordowo wysoką ceną jak na kategorię domowego sprzętu multimedialnego (czytaj: rozrywkowego).





Specyfikacja

Jak zwykle najlepiej zacząć od tabeli porównawczej, którą potem spróbuję w paru słowach uściślić opisem wybranych zagadnień. Przy GeForceFX nie jest ona tak prosta do stworzenia i jednoznaczna jak w przypadku wcześniejszych kart.

  • Geometria: W zasadzie nie wiem ile jednostek Vertex Shader zawiera układ NV30. Na jednym ze schematów blokowych widać wyraźnie trzy procesory geometrii, a jednocześnie nVidia utrzymuje, że nie można wydzielić ich na tej samej zasadzie jak we wcześniejszych układach, bo jest to zestaw rozdzielonych jednostek obliczeniowych, które mogą się łączyć w różny sposób. Jedynym powtarzającym się elementem jest oficjalnie podawana wydajność geometryczna (trójkąty/s), która jest znacznie wyższa niż w poprzednim układzie NV25, ale i ponad 50% niższa od tej, którą chwali się ATI. Oczywiście GeForceFX może wykonywać programy Vertex Shadera zgodne ze specyfikacją 2.0, zawartą w Dx9. Podkreślane jest jednak to, że w odróżnieniu od produktu konkurencji możliwości GFFX są większe niż opiewa standard, co obrazuje znaczek "+" przy wersji specyfikacji podawanej w ulotkach reklamowych. Aby jednak miało to realne znaczenie dla użytkownika to producenci gier musieliby chcieć z nich korzystać. Z tego, co można wywnioskować z ich wypowiedzi to raczej zainteresowania jak na razie nie ma, ale za to prawdopodobne wydaje się użycie rozszerzeń standardu w oprogramowaniu profesjonalnym. Możliwe również, że zostaną one uwzględnione w kolejnym DirectX. Nie zmienia to jednak faktu, że wg. specyfikacji możliwości programowe NV30 są większe niż w jakimkolwiek innym znanym układzie.
  • Piksele: Kolejną, często dyskutowaną kwestią jest realna ilość strumieni renderowania NV30. nVidia od początku podawała jedynie informację o ośmiu jednostkach teksturowania umożliwiających przetwarzania ośmiu pikseli na raz. Zostało to zrozumiane jako układ 8x1 (8 strumieni po jednym TMU), taki sam, w jaki "uzbrojono" nowe Radeony. Wyniki testów wyraźnie jednak wskazywały na architekturę 4x2 (jak NV25) i w końcu producent stwierdził, że w niektórych przypadkach nie jest możliwe przetwarzanie ośmiokrotne. Te "przypadki" trafiają się jednak w wielu grach. Jak na razie dalej nic nie jest oficjalnie potwierdzone a nVidia ograniczyła się do małej modyfikacji specyfikacji, w której można teraz wyczytać, że GFFX przetwarza DO ośmiu pikseli w takcie. W odniesieniu do teoretycznej wydajności, różnica sprowadzałaby się do Fill Rate w trybie SingleTexture (przy 4x2 byłoby 2000 Mpix/s zamiast 4000). Dlatego i ja dodałem w tabeli słowo "DO". Podobnie jak w przypadku geometrii również i specyfikacja Pixel Shadera podawana jest jako 2.0+ i również w tym wypadku mamy do czynienia ze większymi możliwościami dla programistów. Przynajmniej potencjalnie.
  • Pamięć: Układ komunikuje się z pamięciami przy pomocy podobnego interfejsu jak w jego poprzedniku. Mamy więc do czynienia z czterema, 32-bitowymi kontrolerami krzyżowymi obsługującymi szynę 128-bitów. Pomimo zastosowana pamięci DDR II i gigantycznego taktowania karta ma mniejszą przepustowość pamięci niż konkurent ATI. nVidia próbuje zmienić ten niekorzystny obraz lansowaniem kwestii kompresji i materiałach podaje się efektywną przepustowość. Na początku było to 48GB/s a aktualnie 32GB/s. Jest to typowy chwyt reklamowy, bo chodzi o to, aby było to porównywane z danymi konkurencji, które nie uwzględniają kompresji, choć oczywiście również mają ją zaimplementowaną. Wstępnie wydaje się, że jest to jeden ze słabszych punktów wydajności nowej karty.
  • Krzem: GeForceFX jest pierwszą kartą na świecie, która opiera się na technologii 0.13. Dzięki temu możliwe było uzyskanie tak wysokiego taktowania. Jednak analizując kwestię odprowadzania ciepła wydaje się, że w "klasycznych" układach chłodzących, rdzenie te nie są w stanie osiągać taktowania większego niż 400MHz i dopiero dzięki tej słynnej już dmuchawie "ukradziono" dodatkowe 100MHz, potrzebne do pokonania R9700Pro.
Wraz z nowym układem obowiązkowo pojawia się nowy zestaw określeń technologicznych. Poniższa tabelka próbuje przybliżyć te najważniejsze.





Karta

Dzięki uprzejmości firmy Multimedia Vision mogłem przez kilka dni testować jeden z pierwszych egzemplarzy najnowszej i najmocniejszej karty sygnowanej przez Gainwarda. Nie napisałem "wyprodukowanej", bo z informacji, jakie posiadam wynika, że wszystkie karty GeForceFX 5800 Ultra zostały dostarczone producentom przez nVidia, która zleciła ich produkcję tylko jednej firmie. Wynika to ze skomplikowania procesu technologicznego ich wytwarzania oraz chęci uzyskania wysokiej, powtarzalnej i dokładnie skontrolowanej jakości. Do producentów należy natomiast sprawa wyboru chłodzenia, okablowania, oprogramowania, dodatków oraz oczywiście ceny.

Przejdźmy do opisu naszego bohatera. Duże, ciężkie pudło z wizerunkiem sympatycznej, choć mocno "wirtualnej" twarzy młodej przedstawicielki płci pięknej. Środek przypomina pedantycznie spakowaną apteczkę od TIR'a. Po rozłożeniu zawartości na dywanie (na stole się nie zmieściło) wywołuje ona na pierwszy rzut oka wrażenie przepychu. Zestaw Gainward FX PowerPack! Ultra/1000 Plus "Golden Sample" zawiera:
  • Kartę właściwą, czyli GeForceFX 5800 Ultra 128MB. Na jej opisie za chwilę się skoncentruję.
  • Sześciokanałową kartę dźwiękową opartą na układzie CMI 8738 z kompletem wyjść analogowych i portem Midi.
  • Czteroportowy kontroler FireWire (trzy porty na śledziu i jeden wewnętrzny) oparty na układzie VIA, znany już z wcześniejszych zestawów Gainwarda.
  • Śledź z dodatkowymi wyprowadzeniami karty dźwiękowej w postaci wyjść i wejść cyfrowych w standardzie zarówno miedzianym jak i światłowodowym (łącznie cztery porty).
  • Małe słuchawki do powieszenia (dosłownie) na uszach.
  • Kabelek światłowodowy do cyfrowego połączenia karty dźwiękowej ze wzmacniaczem posiadającym odpowiednie wejście.
  • Kabelek umożliwiający podłączenie do jednego z portów karty FireWire kamery cyfrowej.
  • Przejściówkę S-Video (miniDIN 4-piny) -> Composite do podłączenia telewizora z wejściem w tym standardzie.
  • Przejściówkę DVI -> VGA umożliwiającą podłączenie do karty drugiego monitora analogowego (CRT).
  • Kabelek rozdzielający zasilanie. Przydatny, jeśli nie mamy wolnych wtyczek z zasilacza.
  • CD z driverami dla karty graficznej (nVidia v43.00) oraz karty FireWire.
  • CD z driverami do karty dźwiękowej.
  • CD z grą Duke Nukem Manhattan Projekt.
  • CD z pakietem oprogramowania InterVideo WinCinema, w skład którego wchodzi WinDVD 4 (odtwarzacz video/DVD), WinRip 2 (odtwarzacz audio) oraz WinProducer 3 (edytor video).
  • Obszerna, kolorowa instrukcja instalacji i użytkowania karty wraz z elementami opisu sterownika w języku polskim.
  • Krótka instrukcja instalacji karty FireWire.




w pudełku wiele się mieści... (kliknij, aby powiększyć)

Prawdę mówiąc mam mieszane uczucia w kwestii wyposażenia karty. Z jednej strony niespotykane wśród konkurencji dodatkowe elementy sprzętowe, ale z drugiej strony ich realna wartość nie jest zbyt imponująca. W Multimedia Vision karta jest dostępna za astronomiczną kwotę 2999 zł. Na tak drogą kartę mogą pozwolić sobie tylko najzamożniejsi entuzjaści gier komputerowych i trudno mi sobie wyobrazić, że ktoś o takich zasobach finansowych zadowoli się tanią kartą dźwiękową na układzie CMI, choć trzeba przyznać, że przynajmniej dobrze wyposażoną w porty zewnętrzne. Jeśli taki użytkownik ma kamerę cyfrową (co jest prawdopodobne), to i pewnie od dawna w jego pececie siedzi lepiej oprogramowany produkt Pinnacle, czy po prostu płyta główna jest wyposażona w port FireWire (typowe w droższych konstrukcjach). Pakiet multimedialny InterVideo jest niewątpliwie przydatnym elementem (chociażby sam odtwarzacz DVD), ale nie jest to nic nadzwyczajnego biorąc pod uwagę konkurencyjne dodatki. Do tego jedna, jak dla mnie niezbyt przebojowa gra (mam wrażenie, że niektórym nazwa może kojarzyć się z Duke Nukem Forever i dlatego właśnie tą grę dołączono do zestawu). Miniaturowe słuchawki, choć ładnie wyglądają to właściwie mają tylko jedną zaletę. W ogóle nie czuć ich na uszach. Dźwięk dają bardzo cichy i jakościowo fatalny. Przykro to zabrzmi, ale to nic innego jak azjatycka, tania tandeta z kiepskiego tworzywa.




karta dźwiękowa 5.1, karta Fire wire (IEEE 1934), złącze DVI, słuchawki... (kliknij, aby powiększyć)

Pochwała należy się natomiast za dobrze przygotowaną instrukcję w języku rodzimym (prawdopodobnie jest to już zasługa dystrybutora). Rzecz wciąż niespotykana na naszym rynku i warta odnotowania. W zestawie nie zabrakło przejściówek DVI-> VGA oraz S-Video-> Composite. Nie ma natomiast żadnych kabelków do połączenia karty z telewizorem. Podsumowując: niewątpliwie zestaw przyciąga uwagę klienta wyposażeniem, ale z drugiej strony (przynajmniej ja mam takie odczucie) jego klasa i wartość odbiega poziomem od samego GeForceFX 5800 Ultra. Karta objęta jest 3 letnią gwarancją z darmowym transportem serwisowym do/od klienta.




Gainward FX Ultra/1000 Plus GS od góry, od dołu i... (kliknij, aby powiększyć)

Przyszedł czas na przyjrzenie się samej karcie. A trzeba przyznać, że jest, na co popatrzeć. Czegoś takiego jeszcze w moim pececie nie było. Karta jest bardzo długa, waży ponad 0.5 kg i zajmuje dwa sloty (podwójny śledź). Za jej wagę głównie odpowiedzialna jest pokaźna ilość czystej miedzi, z której wykonano radiatory pokrywające zarówno układ graficzny jak i pamięci i do tego po obu stronach laminatu. Aby chłodzenie było prawidłowo osadzone i unieruchomione to oczywiście uchwycone jest wielopunktowo, za co odpowiedzialny jest szereg otworów w samej płytce. Nie ma jednak problemu ze zdjęciem chłodzenia, jeśli ktoś chciałby bawić się w obieg wody. Należy jednak bezwzględnie pamiętać o konieczności odprowadzania ciepła z kości pamięci, bo DDR II grzeje się bardzo mocno.




(kliknij, aby powiększyć)

Kartę wyposażono w 128MB pamięci DDR II Samsunga 1.8ns w ośmiu kościach. Chłodzenie tego wielkiego kawałka miedzi realizowane jest za pomocą wysokoobrotowego wentylatora, który pobiera powietrze z wnętrza komputera, przepuszcza je pomiędzy miedzianymi kołkami radiatora i przez specjalny kanał prowadzący do grilla, wyciętego w podwójnym śledziu, wyrzuca je na zewnątrz. Takie rozwiązanie ma zarówno zalety jak i wady. Karta nie podgrzewa dodatkowo wnętrza peceta i w zasadzie może służyć do dodatkowej wentylacji obudowy, ale z drugiej strony sama chłodzona jest rozgrzanym już wcześniej powietrzem, co zmniejsza skuteczność działania chłodnicy w odniesieniu do układu graficznego. Jak dla mnie jest to lepsze dla całego peceta rozwiązanie pod warunkiem, że karcie to wystarczy do stabilnego działania a pomysł z dalszym podkręcaniem samej karty wstępnie wydaje się i tak mało sensowny. Oczywiście rewers karty wentylowany jest pasywnie. Chłodzenie jest jedynym elementem konstrukcyjnym, w przygotowaniu którego uczestniczył Gainward, więc najważniejsze jest sprawdzenie jak ta konstrukcja wypada na tle innych rozwiązań.


(kliknij, aby powiększyć)

Na rancie wewnętrznym karty znajdziemy gniazdo zasilania w takim samym standardzie jak od napędów CD czy dysków twardych. Jeśli nie dysponujemy wolną wtyczką od zasilacza to wystarczy użyć dołączony do zestawu kabelek rozgałęziający. Również konkurencyjne karty ATI oparte na układzie R300 wymagają dodatkowego zasilania (wtyczka typu FDD), więc w tym wypadku tym bardziej nie powinno to nikogo dziwić. Obecność wtyczki związana jest z przekroczeniem standardów energetycznych złącza AGP. Karta pobiera ok. 75W energii, więc należy zapewnić obudowie odpowiedni zasilacz. nVidia sugeruje 350W ale osobiście nie widzę problemu jeśli posiadamy dobrej klasy 300-tkę a nasz pecet nie opiera się np. na podkręconym P4 3.06GHz z zestawem czterech "lutownic" Rambusa. Z resztą sądzę, że właściciele ekstremalnych energetycznie konstrukcji dobrze rozumieją to zagadnienie. Kartę wyposażono w trzy wyjścia na śledziu: analogowe VGA (DSUB), cyfrowe DVI oraz telewizyjne S-Video. Za pomocą dołączonych przejściówek można mieć również dwa analogowe wyjścia VGA oraz telewizyjny sygnał zespolony (Composite, Cinch). Możemy w ten sposób uzyskać niemal wszystkie dozwolone połączenia urządzeń do wyświetlania (oprócz 2x DVI).



Rozruch i testy obrazu

Po raz pierwszy w historii aktualnego zestawu płyta-obudowa miałem problem z włożeniem karty. Okazało się, że w jej dociśnięciu przeszkadza wtyczka audio (CD_IN) łącząca zintegrowany z płytą (GA-8IHXP) układ dźwiękowy z napędem DVD. Po odłączeniu kabelka karta "doszła", ale z kolei miałem problem z założeniem zapinki na śledziach (taka konstrukcja Chiefteca, dzięki której nie trzeba przykręcać kart śrubami). Dopiero po dłuższej szarpaninie, poprzedzonej odłączeniem komputera i położeniem go na stole pod lampą operacja się udała. Było to o tyle ważne, że karta jest ciężka i następowałoby duże obciążenie gniazda AGP, szczególnie przy częstych manipulacjach przy wyjściach na śledziu. Okazało się również, że nie straciłem funkcjonalności CD-Audio, bo w sam raz miałem wolne gniazdo AUX-IN znajdujące się pod drugim slotem PCI. Specjalnie to opisałem, bo w przypadku sporych gabarytowo kart warto mieć takie problemy na uwadze. Muszę przyznać, że w moim, specyficznym przypadku chłodzenie Gainwarda nie jest odpowiednie, bo mam odwrócony kierunek przepływu powietrza (zaciąganie z tyłu obudowy, wydmuch na przód), ale to tylko test, więc już nic nie stało na przeszkodzie, aby w końcu odpalić bestię.


(kliknij, aby powiększyć)

Karta manifestuje swoje działanie przez krótkotrwałe uruchomienie wentylatora na pełnych obrotach, po czym całkowicie cichnie. Jako, że na stronie www.nvidia.com pojawiły się nowe sterowniki v43.45 to oczywiście wszystkie testy przeprowadziłem przy ich wykorzystaniu. Instalacja oprogramowania nie stanowiła najmniejszego problemu i po chwili karta była gotowa do pracy. Z nawyku dodałem też do rejestru wpis uruchamiający dodatkową funkcjonalność sterownika:

Windows Registry Editor Version 5.00

[HKEY_LOCAL_MACHINE\SOFTWARE\NVIDIA Corporation\Global\NVTweak]
"Coolbits"=dword:ffffffff
"NvCplEnableHardwarePage"=dword:00000001
"NvCplEnableAGPSettingsPage"=dword:00000001


(kliknij, aby powiększyć)

Kartą zarządza BIOS 4.30.20.21.16. Innowacją jest wprowadzenie dwóch trybów pracy karty. W trybie 2D karta taktowana jest zegarami 300/300MHz (rdzeń/pamięć) natomiast w 3D zgodnie ze specyfikacją, czyli 500/500MHz. Dzięki takiemu rozwiązaniu można było całkowicie wyciszyć chłodzenie w czasie, gdy nasze działanie z komputerem ograniczamy do samego pulpitu systemowego. Jest to bardzo przydatna funkcja, bo zarówno przy oglądaniu filmów jak i wszystkich innych, poza grami i innym oprogramowaniem 3D, działaniach (Internet, biuro itd.) możemy się cieszyć całkowitą ciszą. Przynajmniej od strony karty graficznej. Oczywiście z wiadomych względów należy pamiętać o tym, aby nie używać wygaszaczy ekranu działających w 3D. Na co dzień używam pasywnie chłodzonego R9700, więc poczułem się jak "w domu". Kartę wyposażono w cały arsenał dodatkowej ochrony sprzętowej połączonej z monitoringiem, więc wydaje się, że nie grozi nam uszkodzenie związane z nadmiernym ciepłem. Możemy odczytać aktualną temperaturę a także wpływać na próg włączenia chłodzenia, jeśli w trybie 2D nastąpi przegrzanie rdzenia.


(kliknij, aby powiększyć)

Sielanka trwa do momentu uruchomienia dowolnej gry. Piekielna maszyna natychmiast wali nas huraganem w uszy. Różnica pomiędzy trybami jest (przynajmniej w moim cichym pececie) tak duża, że nie ma mowy, aby użytkownik przyzwyczaił uszy, a tryb cichy wciąż przypomina, jakie walory eksploatacyjne tracimy w 3D. Jeśli ktoś nie ma wad słuchu to nie widzę możliwości, aby zaakceptować taki system chłodzenia. Możemy go jedynie zagłuszyć. Słuchawki na uszy albo podkręcamy głośność dźwięku. Złośliwcy mogą powiedzieć, że właśnie po to Gainward dodał kartę dźwiękową wraz ze słuchawkami, ale mogę to zdementować, bo jeśli nie chcemy, aby słuchawki rzęziły to nie są one w stanie zagłuszyć karty. Są na to po prostu za słabe. Gainward chwali się, że jego chłodzenie jest cichsze od rozwiązania referencyjnego nVidia. Jako, że miałem okazję to porównać, więc mogę potwierdzić, że tak faktycznie jest. Ale to tylko połowa prawdy, bo niewielkie obniżenie poziomu dźwięku jest jednocześnie połączone ze zwiększeniem jego częstotliwości. Dźwięk jest może i nieco cichszy, ale nadal za głośny a co ważne ma zdecydowanie bardziej nieprzyjemny ton. Aby nieco przybliżyć problem nagrałem następujące po sobie dźwięki mojej głośnej suszarki (Philips typ HP4399 w trybie I) oraz Gainwarda GFFX w trybie 3D. Suszarka (pierwszy dźwięk) zwyciężyła w kategorii głośności, ale nie można powiedzieć, że karta ma mniej męczący odgłos. Jak dla mnie nastąpił przerost formy nad treścią. Cel nadrzędny, jakim było przebicie wydajności konkurencji osiągnięty przez firmowe przetaktowanie karty wymagające takiej dmuchawy topi walory eksploatacyjne. Obawiam się, że dla zdecydowanej większości użytkowników będzie to nie do zaakceptowania. Jak dla mnie to jest bardziej konstrukcja marketingowo-prestiżowa niż rynkowa. Cena też chyba na to wskazuje.


(kliknij, aby powiększyć)

Przyjrzyjmy się teraz jakości obrazu, jaki wyświetla karta na monitorze analogowym oraz telewizorze. Po raz pierwszy nVidia zastosowała Ramdac 2x 400MHz. W połączeniu z referencyjną konstrukcją filtrów wyjściowych dało to efekt znakomity. W testowanych trybach (do 1600x1200@85Hz) karta wyświetla obraz, nieodbiegający klasą od najlepszych produktów konkurencji. Zarówno pod względem kolorów i kontrastu jak i ostrości czcionek. Jak dla mnie, bez wątpienia jest to najlepszy obraz jaki uzyskałem na karcie nVidia przeznaczonej na rynek "domowy". W żadnym z testowanych trybów GeForceFX nie odpuszczał "pola" karcie Radeon 9700 (ATI OEM), z którą na co dzień mam do czynienia. Jedynie w trybach średnich (do 1280@85Hz) minimalną przewagę w ostrości mają niektóre produkty Hercules'a (w wyższych działa tak samo). nVidia w kolejnych układach wyraźnie poprawia jakość obrazu i jeśli ten sam Ramdac zostanie wykorzystany w tańszych konstrukcjach to przynajmniej w przypadku najlepszych producentów wytrącona zostanie broń konkurencji ze stajni ATI. Sprawdziłem również drugie wyjście po zastosowaniu przejściówki z DVI. Jest minimalnie gorzej jak na głównym wyjściu. Podobnie z resztą jak na kartach ATI. Podsumowując kwestię jakości obrazu 2D, nowy produkt nVidia można uznać za sukces.


(kliknij, aby powiększyć)

Bardzo pozytywne wrażenia budzi również wyjście telewizyjne. Wbudowany kodek PAL/NTSC wyświetla stabilny i dobrze nasycony obraz aż do 1024x768. Do tego sterownik zachowuje się bez zarzutu. Nie jest potrzebne żadne dodatkowe oprogramowanie, aby prawidłowo wykorzystać wszystkie możliwości wyjścia. Choć przyzwyczaiłem się do sterownika ATI to wydaje mi się, że sterowanie nVidia jest bardziej intuicyjne i grozi mniej pułapek. Wprawdzie jest nieco mniej parametrów do ustawienia, ale osobiście nie odczuwałem potrzeby ich istnienia. Ujął mnie natomiast płynnie działający overscan pozwalający na dokładne wypełnienie ekranu telewizora obrazem nawet w najwyższym trybie. Moim zdaniem, żaden sterownik nie robi tego lepiej (z Matrox'em włącznie). Jedyne, co trochę bardziej mi odpowiada w ATI to jakość wyświetlanych filmów. Różnica się zmniejszyła, ale wciąż jeszcze istnieje. Nie znam również odpowiedzi nVidia na techniki ATI VideoShader (na przełomie miesiąca mają się pojawić sterowniki współpracujące z Divx Player 2.1). Jeśli chodzi o oprogramowanie wspomagające pracę dwumonitorową to nView już od pewnego czasu wyprzedza możliwościami ATI HydraVision, więc w wersji 2.0 może być tylko lepiej. Zamykając ten temat, mogę stwierdzić, że producent w kwestii wyjścia telewizyjnego zrobił kolejny krok w dobrym kierunku.



Testy podstawowe w trzecim wymiarze




(kliknij, aby powiększyć)

Najpierw parę słów na temat sprzętu testowego oraz sterowników. Wyniki zbierane były na zestawie P4 2.4/533, 512MB PC800, GA-8IHXP dźwięk CT5880, Sirtec 300W, Windows XP Pro SP1, Detonator 43.45. W porównaniach uczestniczył GF4Ti4600 (Gainward, sterownik 40.42) oraz Radeon 9700Pro (ATI OEM, sterownik 3.1). Gry testowe starałem się ustawić na jak najlepszą jakość obrazu i tak gdzie to było możliwe wyłączałem dźwięk. Sterowniki działały w na domyślnych ustawieniach + vsynch Off.


(kliknij, aby powiększyć)

Zacznę od tego, że zagadnienie określenia wydajności GFFX nie jest zadaniem trywialnym. Nie ulega najmniejszej wątpliwości, że najnowsze karty graficzne nie mają żadnych problemów z "rozprawieniem" się z klasycznymi grami testowymi. Uzyskiwane w testach średnich fps wyniki często prowadzą na manowce. Różnice bardziej związane są z optymalizacją działania na prostych ramkach czy wykorzystaniem procesora. Jeśli są one duże to również należy przyczyn upatrywać bardziej w kwestii błędu sterownika czy optymalizacji kodu pod dany układ graficzny. Dopiero po uniezależnieniu wyników od procesora i zmuszeniu karty do potężnego wysiłku wychodzą rzeczywiste różnice, które możemy odnieść do potencjalnych możliwości karty w przyszłych, wymagających grach.

W przypadku GeForceFX i sterownika 43.45 najciekawszym elementem jego ustawień był dla mnie suwak optymalizacji wydajności. Domyślnie był on ustawiony w położeniu środkowym, oznaczającym optimum, natomiast przesuwając go na lewo zmuszamy kartę do postępowania zgodnie z tym, czego wymaga od niej aplikacja. Nasuwa się pytanie, co i jak jest optymalizowane oraz jaki to ma realnie wpływ zarówno na wydajność jak i jakość obrazu. Możliwości, jakie daje architektura NV30 są bardzo duże. Badając wpływ optymalizacji wydaje mi się, że udało się programistom zachować jakość obrazu w zasadzie niezmienioną w stosunku do oryginalnej. Dopiero dokładna analiza szeregu następujących zrzutów ekranu wykazuje minimalne różnice, które głównie sprowadzają się do palety barw. W trakcie gry nie sądzę, aby ktokolwiek to zobaczył. W związku z tym nie widzę przeciwwskazań, aby testować kartę na domyślnych ustawieniach zoptymalizowanych. Jedynie, co niepokoi to fakt, że ta optymalizacja głównie wpływa na wyniki testów 3DMarka 2003 i 2001 SE. W grach różnice w wynikach są zdecydowanie mniej spektakularne. Miło, że producent stara się, aby gry chodziły lepiej, ale wygląda na to, że jak na razie nVidia głównie "bawi się" w nabijanie punktów w syntetycznych testach. Szczególnie smuci mnie fakt, że obiektem badań programistów stał się 3DMark 2003, bo jak na razie nie ma dostępnych innych testów Dx9, a kupujący taki sprzęt chciałby wiedzieć, co może się po karcie spodziewać w momencie pojawienia się odpowiednich gier na rynku. Trudno. Pozostawiam optymalizację, wyłączam vsynch i przystępuję do testów, co od razu boleśnie uderza w uszy wszystkich domowników.

Oczywiście nie może zabraknąć mojego typowego "garnituru" testów, którego wyniki są wprost porównywalne z wszystkimi innymi testami przeprowadzonymi na tej platformie testowej. Czas rozpocząć numerologię dydaktyczną. W większości przypadków, w zasadzie komentarz jest zbyteczny.

Bez 1024x768 trudno w ogóle wyczuć w grze różnicę pomiędzy wszystkimi trzema kartami pomimo różnic w wynikach. W 1600x1200 zaznacza się przewaga nowych kart. GFFX i R9700P działają w zasadzie tak samo. Remis.

Ta gra nie stanowi problemu dla żadnej z kart, ale GFFX w 1600x1200 niepokojąco słabnie. Stawiam na błąd sterownika. Punkt dla Radeona.

Sytuacja zbliżona do testu Aquanox. Remis.

Wszystkie karty bez problemów "rozprawiają" się z JK2. Nie czuć różnicy na żadnej z kart. GFFX ma parę punktów więcej z uwagi na lepszą optymalizację wykorzystania procesora, który w obu przypadkach jest barierą dla wyników. Może przy 5GHz można by było stwierdzić, która karta jest mocniejsza. Z konieczności jak dla mnie remis.

Również i Giants nie sprawia kłopotów "gigantom". Następny remis. Wydaje mi się jednak, że przy mocniejszym procesorze GFFX położyłby konkurencję.

W końcu można się wykazać mocą. Karty mają, co robić i GFFX spokojnie zdobywa punkt.

Tym razem punkt dla Radeona. Moim zdaniem nie jest to kwestia słabości sterownika, ale właściwość samej gry, która ma procedury dostosowania się do sprzętu i nie znając GFFX nie dała mu typowej optymalizacji dla GeForce.

Mój specyficzny test chwilowego fps w konkretnym, mocno nieprzyjemnym dla kart miejscu. GFFX górą. Oczywiście nie należy z tego wyciągać wniosków, co do zachowania się kart w grze. W 1024x767 żadna nie ma problemów.

Oj widać różnicę do starszej generacji kart. Na nowych kartach gra się podobnie, ale proponuję punkt dla GFFX.

W tej rozdzielczości niewiele można wyciągnąć sensownych wniosków. Wszystkie trzy karty "chodzą" podobnie a jedyne różnice w testach gier znaleźć można w demie Nature. Jak dla mnie remis. Analizując testy dodatkowe GFFX, przyciąga uwagę słaby (w stosunku do taktowania) Fill-Rate w pojedynczym teksturowaniu i Advanced Pixel Shader. Natomiast niespodziewanie wysoki jest wynik jaki osiąga karta w teście High Poly Count (8 źródeł światła). Z jednej strony jest to zaleta wysokiego taktowania rdzenia ale z drugiej strony wynik optymalizacji w sterowniku. Porównajmy z ustawieniami "aplikacyjnymi" (wyłączenie optymalizacji).

Jak widać oprócz ogólnego, niewielkiego osłabienia właśnie "wylazła" duża różnica w teście HPC8.



Testy podstawowe c.d.

No to może damy się kartom wykazać w wyższym trybie?

Niesamowite. Niedawno ten test był postrachem układów graficznych, a tu nawet w 1600x1200 wynik wciąż dosyć mocno opiera się na procesorze. Tym niemniej można już powiedzieć nieco więcej. W punktacji ogólnej jest nadal remis, ale zaznaczyła się przewaga GFFX w PixelShader oraz przewaga R9700P w VertexShader. Wydaje mi się, że ma to odzwierciedlenie w tabeli teoretycznej wydajności.

Na koniec w zasadzie jedyny istniejący test uniwersalny dla Dx9 czyli 3DMark2003.

Ślicznie. A teraz wyłączamy optymalizację.

To kto, w końcu wygrał w tym teście? Jak dla mnie jednak GFFX. Obraz jest niemal identyczny (już o tym pisałem), więc czemu nie optymalizować?

Ważne jest coś innego. W związku z tak istotną różnicą wyników bezpieczniej jest nie wyciągać z nich wniosków dotyczących zachowania karty w realnych grach Dx9. W zależności od tego ile programiści włożą pracy w dostosowaniu silnika do specyficznych możliwości NV30 będzie zależało to, jak wypadnie on na tle konkurencji ATI. Rąbek tajemnicy uchylił wcześniej John Carmack (programista IDSoftware) pisząc, że w Doom3 (przyszła, zaawansowana gra FPP) korzystając z uniwersalnego portu ARB2 (OpenGL) Radeon 9700 Pro jest niemal dwa razy wydajniejszy generując w zasadzie ten sam obraz przez to, że GFFX musi korzystać z precyzji 128-bitowej. Natomiast napisany został dedykowany port, który dzięki wykorzystaniu trybu FP64 powoduje, że NV30 działa nieco wydajniej od konkurenta kosztem minimalnie gorszej jakości obrazu.



Testy z wykorzystaniem ulepszaczy obrazu

Jako, że z aktualnymi grami testowymi nowe karty nie mają problemów to można spożytkować ich nadwyżkę mocy na poprawienie jakości wyświetlanego obrazu. Dokonuje się to za pomocą technik filtrowania anizotropowego oraz pełnoekranowego antyaliasingu. W przypadku Radeona ustawienia filtrowania anizotropowego dotyczą modelu Quality.

Przykład D3D. No proszę. Jak dla mnie mamy remisik. Przynajmniej widać doskonale gdzie tkwi różnica do starszej generacji kart. GF4Ti został po prostu wbity w ziemię.

Przykład OpenGL. Wstrzelenie się w grę, z którą GFFX ma drobne problemy (patrz test 1600x1200) wynika nie ze złośliwości, ale po prostu od dłuższego czasu wykorzystuję R.T.C.W. do porównania FSAA/Anizo. Pomimo użycia ulepszaczy karty nadal mają "wolne moce przerobowe". Tym nie mniej GFFX zaczyna minimalnie słabnąć.

GeForceFX 5800 Ultra bardzo dobrze radzi sobie z FSAA 4x czy filtrowaniem anizotropowym. Daje się jednak zauważyć kilka ciekawostek. Po pierwsze zrzuty ekranu FSAA nie są moim zdaniem odpowiadające rzeczywistemu, ruchomemu obrazowi generowanemu przez kartę w czasie gry. Lepiej ulepszony obraz wygląda w rzeczywistości niż na nieruchomym obrazku. Podobne wrażenia opisywałem kiedyś w teście Radeona. Jak dla mnie jakość obydwu konkurentów w tym względzie jest porównywalna.

Inna kwestia dotyczy trybów FSAA 6x, 8x i 16x. Przy 6x GFFX fatalnie słabnie i co gorsza obraz wydaje mi się gorszy niż 6x Radeona. Dalszy spadek wydajności w 8x i 16x również moim zdaniem nie pociąga za sobą dużych różnic w obrazie. Ośmielę się nawet napisać, że R9700Pro przy FSAA 6x daje obraz lepszy niż GFFX w 6-16x a przy tym mniej traci na wydajności.

Na koniec jeszcze dwa testy FSAA/Anizo.

W UT2003 jest podobnie natomiast w 3DMark2001 realną przewagę ma GFFX. Oczywiście z włączoną optymalizacją.



Dodatkowe testy i podkręcanie

Z braku czasu nie zdążyłem przeprowadzić wielu z zamierzonych wcześniej testów służących do potwierdzenia bądź obalenia kilku dodatkowych tez. Myślę jednak, że niektórych zainteresuje to jak radzi sobie GeForceFX 5800 Ultra po sprowadzeniu taktowania do poziomu GeForce4 Ti 4600 (300/325MHz) oraz jak wypadnie w testach wersja 400/400MHz (GFFX 5800 bez "Ultra").

Cóż. Zaryzykuję stwierdzenie, że wersja 400/400MHz będzie osiągała wyniki zbliżone do R9700 (bez Pro). Bardziej interesujące są wyniki przy taktowaniu takim jak GF4Ti4600. W zasadzie GFFX i GF4Ti działają wtedy tak samo (oprócz PixelShadera). Daleki jednak jestem od stwierdzenia, że GFFX to tylko podkręcony GF4Ti ze względu na kwestię możliwych optymalizacji (np. tryb zgodności).

Nie mając pod ręką gier ani testów Dx9 (oprócz 3DMark 2003) postanowiłem sprawdzić jak GeForceFX radzi sobie z demonstracjami możliwości Radeona 9700 i 9800, przygotowanymi przez ATI. W związku z tym, że napisane są w Dx9 to teoretycznie nie powinno być problemu z ich odpaleniem. Niestety z tych, które próbowałem to demka Car i NPR w ogóle nie nadawały się do oglądania (jakieś zupełnie pomieszane tekstury, które nic sensownego nie przedstawiały) a "zwierzątka" Chimp i Bear pozbawione były znaczących kawałków ciała (demo zgłasza problemy z interpretacją niektórych programów shadera). Natomiast bez żadnych zastrzeżeń działał "Pipe Dream" przygotowany przez Animusic. Frame Rate oscylował w zakresie 10-20 fps. Dla porównania na R9700 20-35 fps. Spec optymalizacja dla ATI czy może po prostu Carmack miał rację (wystarczy brak optymalizacji dla GFFX)? Pozostaje jedynie czekać na większą ilość gier, aby to zweryfikować. Na razie zamieszczam hicior w postaci zrzutu z demek ATI prezentowanych przy użyciu karty nVidia:


(kliknij, aby powiększyć)

Patrząc na tego, jakby zbyt mocno roznegliżowanego szympansa, wpatrującego się w motylka pozbawionego skrzydełek mam pewne konkretne skojarzenia dotyczące zestawu utajnionych opcji NV30 działających w środowisku Dx9. Sądzę, że niektórzy wiedzą, co mam na myśli. Przejdźmy, więc do ostatniej demonstracji, o której moim zdaniem należy napisać parę słów.

Wraz z wydaniem nowego układu oczywiście producent przygotował kilka demonstracji własnych, pokazujących możliwości najnowszego swojego "dziecka". Są one do ściągnięcia ze strony: www.nvidia.com

Starzejący się samochód czy latające zabawki jakoś specjalnie nie zachwyciły natomiast przechadzający się po konarach drzew Elf (czy może bardziej swojsko: Rusałka), należący niewątpliwie do płci pięknej, wręcz przeciwnie. Użycie zaawansowanych technik VertexShadera w połączeniu z zmiennoprzecinkową precyzją i kilkoma nowymi efektami mapowania zaowocowało bardzo realistycznym obrazem. Muszę przyznać, że wcześniej nie udało się mi się na domowym komputerze, zobaczyć efekt renderowania w czasie rzeczywistym, który tak dobrze odwzorowuje "żywą" skórę czy mimikę twarzy (Rachela z dema ATI sprzed 1.5 roku wygląda przy tym jak Zombie). Oczywiście daleki jestem od stwierdzenia, że jest to zasługą NV30 a nie programistów. Niestety demonstracje nVidia napisane są w OpenGL i jeśli jakaś dobra dusza nie napisze wrappera rozszerzeń NV dla ATI (oczywiście nieoficjalnie, bo objęte są ochroną prawną) to nie da się sprawdzić jak z tym demkiem poradziłby sobie nowy Radeon (zaryzykuję stwierdzenie, że nie gorzej).



(kliknij, aby powiększyć)

Mała dygresja: Proszę mnie nie poprawiać, że nie jest to Elf tylko Elfica czy Elfka (oba słowa brzmią dla mnie fatalnie), bo przenosząc kwestię językową na gatunek ludzki "kobieta to też człowiek" (przepraszam wszystkie Panie za ten cytat).

W kwestii podkręcania będzie krótko: Zły pomysł. W zasadzie zerowy efekt a sporo problemów. Po dłuższej walce udało mi się osiągnąć stabilne 515/515 MHz, czyli 3% (!) nadtaktowania. Jeśli test ma wysoce stabilne wyniki to przekłada się to na parę marnych fps a w większości przypadków można traktować jak rozrzut wyników pomiaru. Oczywiście o żadnej realniej korzyści nie można mówić. Karta również pracowała z nieco większym taktowaniem, ale to tylko teoria, bo po chwili wygrzania testem automatycznie (niejawnie) zmniejszała częstotliwości i wynik robił się znacznie mniejszy niż bez nadtaktowania. Jeśli ktoś myśli o połączeniu karty z chłodzeniem wodnym to warto pamiętać o tym, że pamięci powinny być również chłodzone, bo grzeją się nieprawdopodobnie a to właśnie na ich taktowaniu głownie opiera się wydajność karty. W ogóle trzeba przyznać, że GeForceFX jest najpotężniejszą grzałką, jaką miałem kiedykolwiek w slocie AGP i warto mieć na uwadze kwestię odpowiedniej cyrkulacji powietrza w obudowie.



Podsumowanie

Testując GeForceFX 5800 Ultra próbowałem wyciągać nie tylko wnioski dotyczące tej konkretnej karty Gainwarda (w zasadzie umownie można przyjąć, że jest to nVidia OEM), ale interesowała mnie ona również, jako że zawiera pierwszy układ z nowej generacji nVidia (NV3x) i wszystko wskazuje na to, że będzie to produkt bazowy dla całej serii układów, które pojawią się przez najbliższy rok lub nawet dwa lata.

Karta jest niewątpliwie bardzo wydajna w odniesieniu do aktualnych gier Dx8. Myślę, że zabrakło odpowiedniego procesora, aby udowodnić za pomocą wyników testów, że jest wydajniejsza od Radeona 9700 Pro. Jednak wartość tych różnic jest na tyle mała, że ATI nie powinno mieć większych problemów, aby za pomocą wyżej taktowanego układu R350, który niedługo pojawi się w sprzedaży, odzyskać koronę w zawodach na punkty i fps'y. Mało tego. Obawiam się, że nawet R9700 (bez Pro) z dobrze podkręconym i mocniej dociśniętym do radiatora rdzeniem osiągałby podobne wyniki jak to monstrum. Nie zmienia to jednak faktu, że nVidia stworzyła układ kolejnej generacji, wprowadziła zmiennoprzecinkową precyzję obliczeń, poprawiła filtrowanie anizotropowe, osiągnęła świetną jakość wyjścia analogowego oraz telewizyjnego, wykorzystała pamięci DDR II a wszystko to zapakowała w technologię 0.13 um i oprogramowała za pomocą znakomitych sterowników. Niestety hałas wywołany chłodzeniem oraz cena, jaką przychodzi za to zapłacić będzie dla większości barierą skutecznie powstrzymującą przed zakupem. Za zdecydowanie mniejszą kwotę można kupić niewiele ustępującą w wydajności i dysponującą tą samą jakością obrazu oraz zbliżonymi możliwościami kartę Radeon 9700 Pro (nawet bez Pro). I do tego wykorzystującą klasyczne chłodzenie o akceptowalnym poziomie hałasu. Z powyższych względów odradzam zakup GeForceFX 5800 Ultra. Jeśli ktoś ma alergię na karty ATI to sugeruję spokojnie przeczekać na GF4Ti4800 aż do pojawienia się kolejnego układu nVidia z grupy wydajnościowej. Tym bardziej, że w zasadzie wcale jeszcze nie potrzebujemy do "szczęścia" karty ze wsparciem sprzętowym Dx9.

TwojePC - Jakość! Gainward FX PowerPack! Ultra/1000 Plus "Golden Sample"

Gainward FX PowerPack! Ultra/1000 Plus "Golden Sample" oczywiście bez najmniejszych wątpliwości zasłużył na znaczek jakości TwojePC. Solidne wykonanie, doskonała jakość i wyposażenie wszystkich wyjść, szereg ciekawych dodatków, gwarancja czy bogata w treść instrukcja stanowią podstawę do takiego wniosku. Jego główne wady użytkowe są oczywiście wspólne dla wszystkich kart serii GeForceFX 5800 Ultra: drogi, głośny, duży.


W czasie tych dwudniowych testów wciąż miałem wrażenie, że karta, która właśnie wchodzi na rynek nie jest dokładnie tym, czym miał być GeForceFX według zamierzeń nVidia. To bardziej przypomina siłowo skonstruowany produkt marketingowy, w którym dodatkowo zbrakło czasu na poprawienie kilku niedociągnięć. Czasu nie wystarczyło na opracowanie i zoptymalizowanie działania 256-bitowego kontrolera pamięci, w pełni sprawnej architektury 8x1, wyższych trybów pełnoekranowego antyaliasingu czy może również wydajniejszego działania shaderów Dx9 przy pełnej precyzji danych. Dodatkowym efektem powyższych działań mogłoby być obniżenie taktowania rdzenia do wartości, które bez firmowego podkręcenia byłoby strawne dla układu 0.13 um. Taka karta i tak prawdopodobnie bez problemu przebiłaby wydajnością układy konkurencji i co ważne można byłoby zdjąć z niej tą piekielną "suszarkę". Nie będę specjalnie zaskoczony, jeśli moje gdybanie ujrzy już niedługo światło dzienne w postaci "prawdziwego" GFFX a nie takiej (przepraszam za wyrażenie) namiastki. Prawdę powiedziawszy zupełnie nie rozumiem, na jakiej podstawie niektórzy "analitycy" mogą w ogóle pisać o rychłym końcu graficznego giganta czy robić uszczypliwe porównania do schyłku 3dfx. Wszystko jest oczywiście możliwe, ale moim zdaniem zdecydowanie za wcześnie na takie wnioski. nVidia chyba nie powiedziała jeszcze ostatniego słowa choć trzeba przyznać, że GeForceFX 5800 Ultra, który właśnie pojawił się w sklepach ma nikłe szanse na sukces rynkowy.




  Sprzęt do testów dostarczyły firmy:

Multimedia Vision      Multimedia Vision