Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
RECENZJE | Pełna recenzja kart nowej generacji !
    

 

Pełna recenzja kart nowej generacji !


 Autor: Kris | Data: 09/08/04

Pełna recenzja kart nowej generacji !Po wielu tygodniach zmagań ze sprzętem najnowszej generacji, z prawdziwą przyjemnością zawiadamiam zainteresowanych o ukończeniu największej recenzji, jaką mi przyszło w życiu napisać. Udało mi się przetestować wszystkie, zaanonsowane wcześniej modele kart serii GeForce 6800 oraz Radeon X800, dzięki czemu mogę, za pomocą trzeciej i ostatniej odsłony, zamknąć recenzję "Nowa Generacja". Zapraszam do lektury...

Wstęp

Czym jest nowa generacja kart graficznych? Kolejną pierwszą cyfrą liczby kodowej serii układów? Znaczącym zwiększeniem wydajności w dziedzinie przetwarzania 3D w czasie rzeczywistym? Serią nowych technologii, wprowadzających rozszerzony zestaw efektów, tworzących wirtualny obraz? Wsparciem kolejnej wersji DirectX'a? A może wszystkim po trochu? Oczywiście to producenci lansują odpowiednie hasła marketingowe, a recenzenci oraz użytkownicy próbują je zweryfikować w aktualnych grach, czy kusić się o prognozę ich działania w przyszłych silnikach 3D. W tym roku producenci postanowili dać nam układy, które mają stworzyć karty graficzne, umożliwiające osiągnięcie nowej klasy jakości obrazu w grach.

Cyfrą przewodnią nowej generacji jest "4". Linię produktów rozpoczynają układy ATI R420 oraz nVidia NV40. Proponuję małe spojrzenie wstecz. Pierwszym przedstawicielem "trójek" był ATI R300 (Radeon 9700 Pro), mający swoją premierę w lipcu 2002 roku, czyli prawie dwa lata temu. W styczniu 2003 dołączył do niego układ nVidia NV30 (GeForceFX 5800 Ultra). W czasie panowania "trójek" wyszły układy ATI R350 (Radeon 9800 Pro) i R360 (Radeon 9800 XT) oraz nVidia NV35 (GeForce 5900 Ultra) i NV38 (GeForce 5950 Ultra). Oczywiście ograniczam się jedynie do topowych modeli, opartych na pełnej wersji architektury. Ostatnie premiery, zgodnie z niewielkim skokiem numeracji, faktycznie były już tylko drobnym szlifem swoich poprzedników i w zasadzie dalszy rozwój tej linii nie byłby mile widziany przez klientów. Po dwóch latach nadszedł czas na wprowadzenie faktycznych nowości. Pewną różnicą jest fakt, że tym razem, wraz z premierą układów graficznych nie zmienia się cyferka DirectX'a. Microsoft zamierza jedynie wprowadzić rozszerzoną o nowe efekty wersję, której wyróżnikiem będzie dodatkowa literka.


Modeliki: nVidia (Nalu) i ATI (Ruby)

14-stego kwietnia 2004 ujrzała światło dzienne karta nVidia GeForce 6800 Ultra, a niecałe trzy tygodnie później ATI Radeon X800 XT Platinium Edition. Oprócz najmocniejszych kart zaanonsowano nieco słabsze wersje GF 6800 oraz R X800 Pro. Z nieoficjalnych przecieków można było się również dowiedzieć o przygotowaniu kart GF 6800GT oraz R X800 XT. Pewnym dodatkowym zamieszaniem była próba wprowadzenia przez nVidia karty GF 6800 Ultra Extreme, której chyba jedynym celem było osłabienie efektu premiery nowych kart ATI. Pojawiła się w recenzjach w postaci przetaktowanej Ultry niemal w dniu prezentacji X800 i niedługo potem została oficjalnie wycofana, z uwagi na brak możliwości osiągnięcia zamierzonej częstotliwości pracy przez większą ilość próbek układu NV40. Wygląda na to, że w segmencie "wydajnościowym" będzie to walka trzech kart, choć w dużej mierze będzie to zależało od stosunku ceny do możliwości tych produktów.





Teoria (technologia, pamięć, wierzchołki)

Tym razem, w zasadzie po raz pierwszy, postanowiłem odejść od unikania opisów tego, co dzieje się wewnątrz układu. Nadal stoję na stanowisku, że najważniejsze jest to, co układ wypracowuje swoim działaniem, a nie to, jak on działa. Prawdą jest jednak również to, że aktualne karty graficzne wyprzedziły technologicznie, możliwości obecnych silników gier, co powoduje, że na decyzję o zakupie, może również wpływać, przynajmniej częściowo, próba projekcji ich zachowania w najbliższej przyszłości. Niestety, aby choć spróbować to zrobić, trzeba się "wgryźć" w ich architekturę wewnętrzną i spróbować odrobiny działań prognozowych. Z natury, są one przynajmniej częściowo, oparte na czymś, co mogę nazwać: "wróżenie z niewielkiej ilości fusów". Warto o tym pamiętać.

Wprawdzie najważniejszy jest dla mnie potok pikseli, ale i o innych blokach funkcjonalnych rdzenia, postaram się również napisać parę słów. Mogę natomiast obiecać, że spróbuję (niekoniecznie się to uda) to przedstawić w jak najbardziej "strawnej" formie, zdając sobie sprawę z tego, że i tak zainteresuje to tylko niektórych.

a) Technologia wytwarzania

Na NV40 składa się gigantyczna liczba 220 mln tranzystorów. Jego poprzednik (NV38) miał ich "tylko" 125 mln. Możemy odnotować przyrost 75%. Nowy układ produkowany jest w fabryce IBM'a, w procesie technologicznym 0.13um. Takim samym jak i poprzednik. R420 zawiera 160 mln tranzystorów. W stosunku do R360, składającego się z 110 mln, nastąpił wzrost o 45%. Jednak w przypadku ATI nastąpiła jednocześnie zmiana procesu technologicznego z 0.15 na 0.13um. Dodatkowo, układ produkowany jest przez fabrykę TSMC, z wykorzystaniem materiału o obniżonej stałej dielektrycznej (low-k). Dzięki temu można osiągnąć wyższe taktowanie przy jednoczesnym zmniejszeniu ilości oddawanego ciepła.

Jako, że niewiele rzeczy w "przyrodzie" daje przychód bez kosztów, to i technologia wykorzystywana przez ATI też oczywiście ma swoje wady. Po pierwsze, ma mniejsze upakowanie tranzystorów (mniej układów da się wykroić z "plastra" krzemu), a po drugie jest droższa. W związku z tym koszt ponoszony przez obie firmy jest prawdopodobnie zbliżony, pomimo niemal 40-sto procentowej różnicy w ilości tranzystorów rdzenia. Natomiast duże zainteresowanie Radeonami ze strony producentów kart wskazuje wyraźnie, gdzie leży źródło zysku (ew. z możliwością zamiany na obniżkę ceny). Tańsza jest produkcja kart (kwestia chłodzenia, laminat, układy stabilizujące itd.). W zasadzie to właśnie dodatkowe aspekty technologii wytwarzania stanowią jeden z dwóch, potencjalnie najmocniejszych punktów nowych Radeonów. Z drugiej strony, różnica w ilości tranzystorów wyraźnie wskazuje na możliwość wystąpienia sporych rozbieżności w funkcjonalności układów. Oczywiście z korzyścią dla nVidia.

b) Kontroler pamięci

Oba układy cechuje podobny kontroler pamięci składający się z czterech, krzyżowo połączonych 64-bitowych bloków (kanałów) obsługujących poprzez 256-bitową magistralę do 512MB pamięci DDR, DDR2 lub GDDR3. W zasadzie wielkich zmian technologicznych w stosunku do poprzedników trudno się doszukać. Główna różnica to kwestia obsługi GDDR3 i ewentualna, dodatkowa optymalizacja ich działania.

Pamięci GDDR3, dzięki zintegrowanym obwodom zapobiegającym degradacji sygnałów oraz dzięki mniejszemu napięciu zasilania (z 2.5 na 1.8V), mogą działać ze znacznie wyższym taktowaniem, mniej się grzeją (w stosunku do taktowania) i upraszczają konstrukcję płytki. Kosztem (zawsze musi być jakieś "ale") są znacznie większe opóźnienia odczytu CAS (nieco mniejsza wydajność przy tym samym taktowaniu) oraz oczywiście cena. Jako ciekawostkę dodam tylko, że specyfikacja GDDR3 została zaprezentowana (jako otwarty standard) w październiku 2002 roku, przez firmę ATI Technologies Inc.

c) Przetwarzanie wierzchołków

W NV40, w stosunku do poprzednika, dwukrotnie zwiększono ilość procesorów do przetwarzania wierzchołków. Z trzech do sześciu. Dodatkowo nastąpiły zmiany w samych procesorach. Dwie najistotniejsze to: zwiększenie z 13 do 32 ilości rejestrów tymczasowych oraz dodanie do każdego procesora jednostki operującej na teksturach (TMU). Przypomnę, że dynamiczna i statyczna kontrola przebiegu była już zaimplementowana w NV38 (wersja silnika 2.a), więc właśnie możliwość odwołania do tekstur, pozwala na przypisanie silnikowi wierzchołków NV40 wersji 3.0. Kod shadera może być w zasadzie dowolnej długości (specyfikacja 2.x ma ograniczenie maksymalnej ilości do 256-ciu instrukcji). Silnik przetwarzania wierzchołków R420 oparty jest na specyfikacji 2.0 (w odróżnieniu od 2.a z NV38 brak jest, na przykład, dynamicznej kontroli przebiegu). Tej samej co poprzednika. Może więc wykonywać shader opisany 256-instrukcjami. ATI zwiększyło i nieznacznie przebudowało (pojawiły się instrukcje trygonometryczne) ilość procesorów. Z czterech do sześciu. W związku z tym, że wraz z ilością (i częściowo wydajnością pojedynczego procesora) znacząco wzrosło również taktowanie samego rdzenia to również i w przypadku nowego Radeona można liczyć się z niemal dwukrotnym przyrostem mocy przetwarzania wierzchołków.

Całkowitą nowością w NV40 jest obecność TMU w strumieniu wierzchołków. Jako, że jest to element, za pomocą którego układ jest w stanie stworzyć jedyny efekt (mapowanie przemieszczeń), który nie jest dostępny dla kart z obsługą SM2.0 (model shaderów 2.0), to zainteresował mnie najbardziej. Niestety wszystko wskazuje na to, że praktyczne jego wykorzystanie w grach szybko nie nastąpi. Tym niemniej, dzięki niemu, programiści dostali już dziś do ręki funkcje, które niewątpliwie zdominują kiedyś gry, a dla nVidia jest to element niezbędny w celu uzyskania specyfikacji shaderów w wersji 3.0.

Przyglądając się nowej jednostce operującej na teksturach nietrudno zauważyć, że projektanci uprościli do maksimum konstrukcję, w celu minimalizacji jej wielkości, a tym samym powodując zapewnienie jedynie podstawowej funkcjonalności. Efekty realizowane za jej pomocą będą dla układu bardzo kosztowne. Wystarczy sobie uświadomić, że samo mapowanie przemieszczeń (displacement mapping) bez zaawansowanego filtrowania (point sampling) realizowane jest za pomocą dwóch taktów zegara. Każdy dodatkowy efekt filtrowania wymaga kolejnych obliczeń Vertex Shadera. Prawdopodobnie dopiero pojawienie się w przyszłych układach, w potoku wierzchołków, TMU z możliwościami zbliżonymi do tych, które od dawna stosowane są w potokach pikseli (przynajmniej sprzętowe filtrowanie), da nam praktyczną korzyść w grach. Z drugiej strony, dzięki temu, że pojawiła się karta SM3.0 ruszył zegar odmierzający czas do nadejścia nowych silników gier, o zupełnie nowych możliwościach, a nVidia uzyskała w ten sposób wyraźną przewagę nad konkurencją w specyfikacji produktów.



Teoria (piksele)

Przetwarzanie pikseli

NV40 jest w stanie przetwarzać jednocześnie 16 pikseli (architektura szesnastopotokowa) lub 32 wartości "Z" (współrzędne bez parametru koloru), czyli 4x więcej niż jego poprzednik. Cztery potoki tworzą jeden blok funkcjonalny (tzw. Quad) ze wspólną pamięcią podręczną tekstur (L2). Każdy potok zawiera procesor pikseli składający się z dwóch jednostek arytmetyczno-logicznych (ALU) realizujących program shadera i odpowiadających za teksturowanie. Taki sam schemat znajdziemy również w poprzednich układach nVidia, ale możliwości wykonywania operacji na ALU są różne. W NV30 i NV35 jeden ALU był dedykowany do wykonywania operacji odwołania do tekstur (TMU), natomiast drugi przetwarzał instrukcje matematyczne (NV30 wykonywał jedną a NV35 dwie takie instrukcje w takcie zegara). NV40 natomiast, przy braku operacji związanych z teksturami może wykorzystać również i drugi ALU do obliczeń arytmetycznych. Zwiększeniu uległa również ilość rejestrów. Stałych, z 32 do 224, a tymczasowych, z 22 do 32. Oprócz zmian o charakterze wydajnościowym mamy również pokaźną listę nowych funkcji. TMU zyskał precyzją zmiennoprzecinkową FP16 (filtrowanie tekstur), wprowadzono możliwość obsługi wielu obszarów renderowania (Multiple Render Targets) oraz dynamiczną i statyczną kontrolę przebiegu. Dzięki temu silnik pikseli NV40 uzyskał zgodność ze specyfikacją 3.0, a ilość instrukcji pojedynczego shadera może być nieograniczona (NV3.x wspierały wersję 2.a z limitem 512 instrukcji). 32-bitowa precyzja obliczeń została odziedziczona po poprzednikach. R420 przetwarza jednocześnie 16 pikseli (lub wartości "Z"), czyli 2x więcej niż jego poprzednik. Zwiększono również ilość rejestrów tymczasowych, z 12 do 32 i wprowadzono statyczną kontrolę przebiegu programu shadera. Silnik pikseli jest zgodny z wersją 2.b. R3xx mógł wykonywać program shadera składający się z 32 operacji na teksturach oraz 64 instrukcji matematycznych (silnik w wersji 2.0). R420 jest w stanie przetworzyć po 512 instrukcji każdego typu, co łącznie daje 1024, ale specyfikacja DirectX dla PS wersji 2.b nie pozwala na przekroczenie łącznej ilości 512 operacji na shader. Podobnie jak w NV40 cztery potoki powiązane są w jeden Quad. Do zwiększenia efektywności przetwarzania dłuższych programów służy F-Bufor, który w przypadku R420 uzyskał możliwość dynamicznej zmiany swojej wielkości. Obsługa wielu obszarów renderowania oraz zmiennoprzecinkowe filtrowanie przez TMU było już dostępne we wcześniejszych układach. Nie zmieniła się również 24-bitowa precyzja obliczeń oraz układ trzech ALU (z których jeden odpowiada za operacje na teksturach), umożliwiający przetworzenie do pięciu instrukcji w pojedynczym takcie zegara. Wprowadzono również możliwość sprzętowej dekompresji tekstur spakowanych w nowym, bezstratnym standardzie 3Dc.

Wbrew temu, co niektórzy sądzą, NV40 nie jest oparty na nowej architekturze. Bazą silnika jest model przetwarzania NV30, który nieznacznie (głównie kontroler pamięci i jeden ALU) zmodyfikowano, najpierw do postaci NV35, a teraz, w końcu, doczekał się poważnej i nie ma co ukrywać, wysoce pożądanej rekonstrukcji. Od pierwszego układu Dx9, przygotowanego przez nVidia (pomimo początkowych problemów z interpretacją, związanych z utajnieniem szczegółów konstrukcyjnych), rzuca się w oczy odmienność podejścia do metody przetwarzania operacji 3D, w stosunku do ATI. Rdzeń Radeonów cechuje minimalizacja ilości rozkazów jednostek matematycznych ALU, przy względnie dużej liczbie, możliwych do wykonania, prostych operacji, w jednym takcie zegara (stąd wynika również łatwość implementacji przeróżnych innych efektów, niekoniecznie 3D, korzystając ze wsparcia silnika pikseli). GeForce natomiast, dysponował pokaźną listą, zaawansowanych instrukcji, dedykowanych ściśle określonym zadaniom przetwarzania 3D (pewną analogię znajdziemy w zasadzie działania procesorów RISC i CISC). Jeśli układ nVidia miałby szansę na osiągnięcie tej samej liczby dowolnych operacji w jednym takcie, to przy zbliżonej częstotliwości działania oczywiście zmasakrowałby produkt ATI wydajnością.

Nie jest to jednak możliwe w związku z niezbędnym działaniem projektantów, borykających się z próbą zniwelowania podstawowej wady tego modelu przetwarzania. Chodzi mianowicie o wielkość i skomplikowanie rdzenia, z którym bezpośrednio wiążą się kwestie kosztów produkcji oraz wydatku energetycznego, i co za tym idzie, taktowania. Idea minimalizacji ilości tranzystorów polegała na powiązaniu części zasobów i bloków poszczególnych jednostek ALU. Pojedynczy potok NV3x/4x jest w stanie wykonywać kilka instrukcji jednocześnie, ale tylko wtedy, gdy są one różne (oprócz kilku wyjątków). W takim przypadku mamy do czynienie z największą wydajnością oraz efektywnym wykorzystaniem, niemal każdego "tranzystora", tworzącego bloki wykonawcze potoku pikseli. Problem w tym, że konkretny shader może w sam raz "złośliwie" powielać, w kolejnych rozkazach, te same polecenia i układ natychmiast straci efektywność działania. W ten sposób doszliśmy do jednej z podstawowych wad architektury nowych GeForce'ów. Niestety skuteczność ich działania jest w znacznej mierze oparta na optymalizacji kodu. Niektórym wydajne się, że program współpracy nVidia z programistami gier ma charakter głównie marketingowy. To też, ale przede wszystkim chodzi o maksymalne dostosowanie struktury instrukcji do możliwości układu, bo jest to w stanie przynieść wymierny efekt wydajnościowy. Programistom, wbrew kolejnym plotkom, wcale nie zależy aby ich dzieło działało dobrze tylko na części sprzętu obecnego na rynku. W ich interesie jest również to, aby gra wyglądała i działała dobrze na każdej karcie. Korzystnie na wydajność wpływa sam kompilator, który analizując program shadera jest w stanie zmienić kolejność instrukcji, ale pełnię wydajności karty można jedynie osiągnąć przy dedykowanym kodzie. ATI również wprowadza swój program współpracy z twórcami gier, ale w przypadku Radeonów, zarówno potrzeba, jak i sam efekt optymalizacji, ma niewielkie znaczenie. Chodzi głównie o stronę reklamową i stanowi próbę zbilansowania działań konkurencji, w oczach potencjalnego klienta. Wróćmy do opisu nowych układów.


NV40 vs R420

W zasadzie o R420 niewiele można napisać. Działania projektantów miały na celu efektywne wprowadzenie dwukrotnie większej ilości potoków wraz z nieznacznym usprawnieniem przetwarzania dłuższych shaderów. I pewnie im się to udało. Do nowości zaliczyć można 3Dc. Jest to model kompresji bezstratnej mający zastosowanie dla tekstur odwzorowujących wypukłości metodą map "normalnych". Użycie dużej tekstury pozwala na lepszą implementację efektu, a metody stratne kompresji prowadzą do zniekształceń obrazu (tekstura w tym wypadku "tworzy" geometrię) znacznie łatwiejszych do wychwycenia niż w przypadku klasycznego teksturowania (zakłócenia w samej palecie koloru). Jednak w związku z tym, że R420 potrafi sprzętowo jedynie dekompresować, to aby mógł wykorzystać tekstury w tym formacie, muszą być one, w formie skompresowanej, zawarte w samej grze. ATI nieodpłatnie udostępnia zarówno narzędzia do kompresji jak i nie ogranicza dostępu do samego algorytmu licząc na to, że stanie się to standardem również dla innych producentów hardware a programiści gier wprowadzą format 3Dc zarówno w nowych silnikach jak i w postaci łaty do starych. Dopiero czas pokaże w jakim stopniu 3Dc przyjmie się w grach. Osobiście jestem raczej umiarkowanym entuzjastą.

NV40 natomiast, wręcz zalewa nas powodzią modyfikacji. Oprócz zwiększenia ilości potoków, przebudowano lub przynajmniej rozszerzono, instrukcję większości ALU. Nareszcie GeForce dostał TMU (nakładanie i filtrowanie tekstur) na miarę generacji Dx9 (z ograniczeniem do precyzji 16-bitowej). W powiązaniu z kilkoma efektami (co ważniejsze od dawna dostępnymi u konkurencji) będzie można (mam nadzieję, że nVidia doprowadzi do tego) zrezygnować z kilku uproszczeń w obrazie. Choć teoretycznie, mogły być one realizowane przez układ, to koszt ich wykonania był za duży. Wprawdzie realna ilość jednostek wykonawczych w potoku nie zwiększyła się (niektóre ulotki reklamowych stosują naciąganą formę przedstawienia ich działania), ale dzięki wprowadzeniu "dwufunkcyjnego" ALU (tekstury LUB arytmetyka), potok powinien znacznie lepiej dostosować się do nowych wymagań gier, w których następuje tendencja do zwiększania ilości obliczeń matematycznych kosztem bezpośrednich operacji na teksturach. Pojawienie się instrukcji umożliwiających kontrolę przebiegu programu jest, z jednej strony, krokiem milowym do powstania silników gier, zawierających skomplikowane efekty shaderów, a z drugiej strony, może stanowić dodatkowy zastrzyk wydajności w grach aktualnych oraz tych, które pojawią się jeszcze w tym roku. Jest to możliwe, między innymi, dzięki możliwości dodatkowej optymalizacji procesu nakładania efektu. Można sobie wyobrazić logiczną konstrukcję programu uzależniającego zastosowanie polecania dla piksela od faktu, czy w danych warunkach efekt może być na nim w ogóle widoczny. Chodzi głównie o statyczną kontrolę przebiegu bo w przypadku dynamicznej koszt jest już znacznie większy (3x więcej cykli zegara).

W odróżnieniu od kwestii wydajności nie należy natomiast dać się ponieść marketingowi i uwierzyć, że dzięki zakupie NV40, w sposób spektakularny, skorzystamy na jakości obrazu w stosunku do kart konkurencji. Jako, że niedawny "król shaderów", Radeon 9800 XT, "padał" przy próbie obrobienia programów zawierających kilkadziesiąt prostych instrukcji, to układ, który ma moc nawet i parę razy większą (nawet teoretycznie), nie jest w stanie zbliżyć się do granic specyfikacji 2.x, a tym bardziej osiągać korzyść z braku ograniczenia ilości instrukcji. W kwestii wydajności można, w nieco uproszczony sposób, znaleźć analogię do realnego porównania PS1.4 z PS1.1 z ewentualnym, dodatkowym kosztem w postaci konieczności użycia 32-bitowej precyzji. PS3.0 nie jest żadną metodą bezpośrednią na dodatkowe efekty 3D. Jest to pewien certyfikat, którego zdobycie gwarantuje programistom osiągnięcie konkretnej "kultury" pracy, a producentowi układu ewentualną możliwość dodatkowego zysku wydajnościowego. Trzeba również podkreślić, że to właśnie nVidia zdecydowała się na ten krok (kosztem zarówno inwestycyjnym w pionach R&D, jak i wielkości samego rdzenia) i tak, jak aktualne gry SM2.0 zaczęły pierwotnie powstawać na kartach ATI, tak pichcenie kolejnej generacji silników 3D zacznie się dokonywać na "palnikach" nowych GeForce'ów.



Teoria (fsaa, inne)

a) Pełnoekranowy antyaliasing

NV40, w stosunku do poprzednika, wnosi jedną, konkretną zmianę w działaniu pełnoekranowego antyaliasingu. Tryb 4x oparty został na multisamplingu (wyznaczanie koloru na podstawie próbek pikseli z obszaru przyległego) opartym na technice "rotated grid", co powoduje znaczną lepszą jakość wygładzania. Sterowniki wprowadzają również tryby 2x oraz 8x. Ten ostatni jest tworzony przez połączenie technik multisamplingu oraz supersamplingu (wyznaczenie koloru w oparciu o niejawny rendering w wyższym trybie). Wraz z R420, ATI zaanonsowało metodę podwyższenia jakości filtrowania bez straty framerate, nazwaną "Temporal FSAA", polegającą na wykorzystaniu właściwości działania monitora, w połączeniu z funkcją dynamicznej zmiany maski, wyznaczającej piksele do obliczeń multisamplingowych. Niezmienne, w stosunku do poprzednika, pozostają "klasyczne" tryby 2/4/6x, wykorzystujące metodę "rotated grid" wraz z filtracją gamma.

W przypadku układu R420, osobiście raczej skłonny jestem uznać, że nic konkretnego się nie zmieniło. Temporal FSAA traktuję bardziej jako chwyt marketingowy niż konkretną korzyść dla użytkownika. Efekt jest w stanie działać bez widocznego, nieprzyjemnego migotania rantów tekstur jedynie wtedy gry framerate przekracza 60 fps i wymaga włączenia vsynch. W związku z tym, implementacja w sterowniku ma charakter dynamiczny. W momencie gdy czas przygotowania ramki jest dłuższy "temporal" przestaje działać. Aby nie odczuć tego boleśnie musimy wspierać go klasycznym multisamplingiem. Również warto zauważyć, że w przypadku większej dynamiki obiektów jego wpływ na obraz wyraźnie się zmniejsza. Wszystko to powoduje, że realna wartość "Temporal FSAA" jest moim zdaniem niewielka. Jak włączymy multisampling, znajdziemy grę, która z vsynch osiąga czasem >60 fps w trybie, który nas interesuje, to na statycznych rantach będziemy mogli, przy zwyżkach framerate zobaczyć stopień wygładzania wyższy od domyślnego. Inna sprawa, że już od R300 ATI wprowadziło znakomity model FSAA 2/4/6 oparty na metodzie "rotated grid" z filtrem gamma, który jak dotąd był bezkonkurencyjny.


Rotated Grid vs Ordered Grid

NV40 wprowadza jedną, ale konkretną zmianę w modelu antyaliasingu. Kwestia dotyczy trybu 4x. W zasadzie najważniejszego. Dzięki wykorzystaniu, w algorytmie obliczeń, punktów wyznaczonych metodą podobną do ATI ("rotated grid") znacząco wrosła klasa filtrowania "schodków". Tak jak w poprzednim modelu "gołym" okiem widać było lepsze wygładzanie Radeonów, tak w nowym układzie różnica jest tak mała, że w zasadzie można przyjąć zbliżoną jakość obrazu. Jedynie filtr korekcji gamma zapewnia ATI minimalną, optyczną przewagę, której nie należy jednak przewartościowywać. Dodatkowo, sterowniki nVidia umożliwiają użycie trybu 8x. Należy go jednak traktować równie marketingowo jak "temporal" ATI. Wyższy tryb uzyskiwany jest przez połączenie multisamplingu "rotated grid" z supersamplingiem. Tak jak jakość wygładzania jest faktycznie nieco lepsza od 4x i zbliżona do ATI 6x, tak spadek wydajności praktycznie uniemożliwia sensowne jego wykorzystanie. Podsumowując, mogę przyjąć, że palma pierwszeństwa, dzięki wydajnemu trybowi 6x oraz w mniejszym stopniu, korekcji gamma, zostaje przy Radeonach. Z drugiej strony, jako że tryb 4x jest najbardziej optymalnym połączeniem wydajności z jakością filtrowania (zmiany w obrazie pomiędzy 4x a 6/8x nie są duże), i co za tym idzie, najczęściej wykorzystywanym, to można przyjąć, że dzięki poprawkom wnoszonym przez NV40, różnica pomiędzy układami przestaje być rażąca.

b) Inne...

Filtrowanie anizotropowe: W zasadzie dużo się nie da napisać. W kwestii filtrowania anizotropowego NV40 wprowadził dodatkowy tryb 16x natomiast R420 dysponuje takimi samymi możliwościami jak jego poprzednik (Anizo do 16x).

Trudno analizować możliwości filtrowania na podstawie samych informacji o trybach. nVidia wraz z NV40 zmieniła nieco model filtrowania. Nowe układy w znaczącym stopniu upodabniają obraz do tego, który uzyskuje się na kartach konkurencji. W kwestii jakości jest to pewien krok wstecz ponieważ obraz filtrowania anizotropowego NV30 był nieco lepszy, niż w przypadku Radeonów. Wynikało to przede wszystkim z asymetrii działania efektu, w zależności od kąta nachylenia filtrowanej tekstury. Nieprzyjemnym dla testującego, bo utrudniającym porównanie obrazu, aspektem dodatkowym są liczne optymalizacje stosowane przez obydwu producentów polegające na zmniejszeniu jakości obrazu w celu uzyskania wyższego framerate.

Przetwarzanie filmów: Obydwaj producenci chwalą się wsparciem sprzętowym zarówno procesu dekodowania jak i kodowania licznych metod kompresji strumienia wizyjnego. Ma to na celu odciążenie procesora, dla którego jest to spory wydatek mocy.

Osobiście daleki jestem od większego, entuzjazmowania się tymi funkcjami. Mogą być przydatne, jeśli użytkownik chce, jednocześnie z obsługą strumienia wizyjnego (oglądanie filmów, kompresja), wykorzystać peceta do innych zadań. Realny efekt zależy w znacznej mierze od kwestii współpracy sterownika z konkretnym oprogramowaniem i nie ma się co łudzić, że nastąpi pełne odciążenie procesora. W skrajnych przypadkach można pisać o kilkudziesięcioprocentowym wsparciu. W przypadku ATI najczęściej polega to na wykorzystaniu jednostek obliczeniowych potoków pikseli do przeprowadzenia konkretnych operacji, wyselekcjonowanych przez sterownik. Trudno powiedzieć czy nVidia realizuje to za pomocą dedykowanego modułu, bo aktualne sterowniki nie wykorzystują jeszcze tych możliwości karty.

Skalowalność: Nowe układy NV40 i R420 tworzą najmocniejsze karty oparte na tych architekturach. Każdy z producentów ma zamiar, w oparciu o nią, stworzyć również karty z niższej półki cenowej. Aby następowała gradacja wydajności, już na etapie tworzenia, przewidywane są słabsze mutacje. W obydwu układach będzie to realizowane przez wyłączenie z działania jednego, dwóch lub trzech, powiązanych wspólnym cache L2, potoków pikseli (Quad) oraz ograniczeniem szyny pamięci.

Najważniejsze jest to, że przy takim podejściu nie mamy do czynienia z ograniczeniem możliwości układów w zakresie przetwarzania konkretnych efektów 3D, a jedynie ze zmniejszeniem wydajności. Jako, że w poprzednich układach ATI, w odróżnieniu od nVidia, "cięcie" szło również wzdłuż linii potoków wierzchołków, to warto zauważyć, że tym razem ograniczenia ilościowe dotyczą samego przetwarzania pikseli.


Cztery potoki pikseli powiazane w blok funkcjonalny (kliknij, aby powiększyć)





Teoria (słowniczek, tabela zbiorcza)

a) Nazwy technologii

Aby specjalnie nie rozwijać opisów marketingowych to nazwy technologii zebrałem w krótkim słowniczku.

Nietrudno zauważyć, że w nowych układach nVidia głównie atakuje magią cyfry "3" natomiast ATI, wywołującymi odpowiednie skojarzenia, literami "HD".

b) Tabela zbiorcza architektury z uwzględnieniem opisanych różnic

Opisane powyżej możliwości, związane z architekturą wewnętrzną układów umieściłem w jednej tabelce, aby zainteresowany łatwiej mógł wychwycić różnice.

Sprzęt wykorzystywany do testów Podobnie jak w poprzedniej recenzji, wykorzystałem 32-bitową platformę AMD i następujący software:
  • Procesor AMD Barton 2500MHz
  • Płyta główna Asus A7N8X
  • Pamięć 2 x 512MB DDR-400
  • System Windows XP SP1
  • Sterowniki ATI Catalyst 4.5, 4.7 (RX800XTPE), 4.9 Beta (Doom3)
  • Sterowniki nVidia Detonator v61.11, v61.34, v61.45 (GF6800GT) i v61.77 (GF6800)
Całość (dochodzi kilka kart PCI, dwa napędy optyczne, HDD, kilka wentylatorów i gadżetów USB) zasilał popularny zasilacz Chieftec (produkcja Sirtec'a) HPC-360-302 DF po drobnej kuracji wyciszającej. W związku z tym, że nowe karty straszą nas możliwym zwiększeniem zapotrzebowania na energię, to postanowiłem również sprawdzić ten parametr. Użyty zasilacz należy do klasy średniej, a w związku z jego sporą przeciążalnością (potrafi oddawać blisko 400W przy obciążeniu ciągłym), niezłymi zabezpieczeniami i stosunkowo niską awaryjnością przy umiarkowanej cenie cieszy się na tyle dużym powodzeniem, że kilka osób prosiło mnie o zbadanie jego przydatności w konstrukcjach wykorzystujących układy nowej generacji. Trzeba przyznać, że łatwego zadania mieć nie będzie, bo wyciszony został kosztem zmniejszenia przepływu powietrza, płyta nie ma dodatkowego gniazda ATX12V a żeby bardziej upodobnić obciążenie do zestawu miłośnika nadtaktowania zwiększyłem procesorowi napięcie do 1.8V, a pamięciom do 2.9V. W takim układzie newralgicznym punktem wydaje się linia 5V zasilacza. Ciekawe czy sobie poradzi. Od razu uprzedzam, że nie będę sugerował się żadnym odczytem napięć, ale podstawą jak zwykle, jest stabilność działania zestawu.

Dokładny pomiar obciążenia generowanego przez samą kartę nie jest możliwy bez "prucia" złącza AGP (sam pomiar prądu na wtyczce niewiele daje, bo nie można zakładać stałego obciążenia płyty). Jako, że mój głód wiedzy "energetycznej" nie jest na tyle silny abym niszczył płytę, to idąc na łatwiznę, postanowiłem zebrać informację od strony sieci energetycznej. W związku z tym, że wykorzystywany zasilacz zaopatrzono w aktywny układ korekcji współczynnika mocy, to wyniki pomiaru tylko nieznacznie różnią się od wartości, którymi musi dysponować sam zasilacz. Wykorzystałem prościutki i stosunkowo tani miernik mocy Voltcraft'a, który całkowicie wystarcza do osiągnięcia zamierzonego celu.


Voltcraft - miernik mocy (kliknij, aby powiększyć)

Zdecydowanie największy kłopot polega na odseparowaniu mocy pobieranej w czasie gry przez procesor od tej, którą żywi się karta graficzna. Wymagało to kilku dodatków sprzętowych, paru przemyślanych testów i odrobiny matematyki. Szczegółów zdradzać nie mam zamiaru. Dla testowego peceta można przyjąć wirtualną wartość 185W. Oznacza ona moc czynną pobieraną z sieci dla danej konfiguracji BEZ (dlatego wirtualną) karty graficznej. Wbrew pozorom nie jest to mała wartość, bo nowe karty graficzne stanowią jeden z największych odbiorników mocy, a wartość 360W, którą karmi nas tabliczka znamionowa testowego zasilacza oznacza maksymalną moc, którą może on oddawać przy optymalnym dla niego obciążeniu wszystkich linii napięciowych.

Drugą zabaweczką, która przydała mi się w teście jest stosunkowo tani, bezdotykowy termometr na podczerwień IR-101 (producent: Europe Supplies Ltd.).


Termometr na podczerwień IR-101 - miernik mocy (kliknij, aby powiększyć)

Wprawdzie parametr D:S (stosunek odległości do powierzchni mierzonej) wynosi tylko 6:1, ale przy odpowiednim zbliżeniu wystarcza to do określenia temperatury samych kości BGA w czasie pracy.

O cyfrowej wadze "kuchennej" chyba nie będę się rozpisywał...



Opis karty Gainward GFFX5950U

a) Karty

Zanim przejdę do opisu głównych bohaterów recenzji chciałbym najpierw, w dużym skrócie, przedstawić tło sprzętowe, które w tym opracowaniu stanowią najmocniejsze karty poprzedniej generacji, wystawione przez ATI i nVidia. Są to Abit Radeon 9800 XT i Gainward GeForceFX 5950 Ultra. Radeon udostępniony został przez przedstawiciela producenta ABIT Polska natomiast GeForce przez Multimedia Vision, dystrybutora kart Gainward.

b) GeForceFX 5950 Ultra




GeForceFX PowerPack! Ultra/1800 XP Golden Sample (kliknij, aby powiększyć)

Karta GeForceFX 5950 Ultra (nazwa modelu: GeForceFX PowerPack! Ultra/1800 XP Golden Sample) wyprodukowana została przez firmę Gainward. Duże ciężkie pudełko zaszokowało bogactwem zawartości. Oprócz samej karty graficznej można w nim znaleźć:
  • Czteroportowy (jeden port wewnętrzny) kontroler PCI FireWire (IEEE1394) oparty na układzie VIA VT6306
  • Sześciokanałowa karta dźwiękowa PCI oparta na układzie CMI8738
  • Śledź z czteroma dodatkowymi wyjściami i wejściami cyfrowymi karty dźwiękowej (optyczne i elektryczne).
  • Stereofoniczne słuchawki nauszne
  • Kabel FireWire zakończony wtyczką umożliwiającą podłączenie kamer cyfrowych
  • Kabel optyczny do przenoszenia wielokanałowego dźwięku
  • Kabel VIVO z wtykiem miniDIN 9-pinów od strony karty. Wyjścia i wejścia w standardach Composite (Cinch) i S-Video (miniDIN 4-piny)
  • Przejściówka DVI -> VGA do podłączenia drugiego monitora z wejściem analogowym
  • Płyta CD z sterownikami (v52.14) oraz oprogramowaniem narzędziowym wspierającym obsługę karty: EXPERTool i EXPERTBios
  • 2x płyta CD z pełną wersją gry Chrome
  • Płyta CD ze sterownikami i oprogramowaniem karty dźwiękowej
  • Płyta CD z oprogramowaniem InterVideo WinCinema, w skład którego wchodzą: odtwarzacz filmów WinDVD4 w wersji wielokanałowej, odtwarzacz/koder muzyki WinRip2 oraz edytor filmowy WinProducer3
  • Króciutka instrukcja instalacji karty FireWire w języku angielskim
  • Instrukcja instalacji i obsługi karty dźwiękowej w języku polskim
  • Instrukcja instalacji i obsługi karty dźwiękowej w języku angielskim
  • Bardzo obszerna Instrukcja instalacji i obsługi karty graficznej w języku polskim (75 stron !) wraz z elementami konfiguracji sterownika, słowniczkiem i opisem narzędzia EXPERTool. Oprócz Gainwarda, rzecz praktycznie niespotykana wśród kart sprzedawanych w Polsce
  • Instrukcja instalacji i obsługi karty graficznej w języku angielskim
Ważąca ok. 440 g karta oparta jest na czerwonym laminacie o potężnych gabarytach (jest ok. 4 cm dłuższa niż Radeony) i solidnym "obłożeniu" metalem. Zawiera osiem kości 2.0 ns o łącznej pojemności 256MB. Duży, ożebrowany radiator pokrywa większą część powierzchni awersu wraz z układem graficznym i pamięciami. Jest on zintegrowany z dwoma (oddzielne, dwupinowe gniazda zasilania), podświetlonymi czerwonym światłem, niewielkimi wentylatorami. Na rewersje drugi, niewiele mniejszy radiator, którego celem jest chłodzenie pamięci. Na śledziu gniazda VGA, DVI oraz VIVO (miniDIN 9-pinów). Wejście wizyjne realizuje układ Philipsa SAA7108AE (wyjście obsługuje sam rdzeń graficzny). Na karcie gniazdo dodatkowego zasilania (Molex). Warto zwrócić uwagę na fakt, że w odróżnieniu od referencyjnych kart nVidia, konstrukcja Gainwarda nie zajmuje dodatkowych slotów PCI.

Chłodzenie niestety nie należy do tych najcichszych. Dwa małe, ale wysokoobrotowe wentylatorki robią spory harmider. Choć słyszałem już głośniejsze karty, to do cichych konstrukcji zdecydowanie nie mogę go zaliczyć. Dźwięk o podobnym natężeniu, jak Radeon 9800XT po wygrzaniu, choć z powodu nieco wyższego tonu wydaje się minimalnie głośniejszy. Jakość obrazu bardzo dobra w całym testowanym zakresie trybów (do 1600x1200 @ 85Hz). Pulpit wydaje się trochę mniej ostry niż w kartach ATI, ale już po chwili następuje przyzwyczajenie wzroku. Brak zastrzeżeń. Laminat rozgrzewa się do ok. 60 stopni natomiast radiatory do 55/60 stopni (awers/rewers). Najcieplejsze były niektóre elementy stabilizatora, które osiągały do 80 stopni. Największym zaskoczeniem był pobór mocy, jaką karta zasysała z sieci. Potrafił on sięgać chwilami wartości 95W.

Kartę udało się podkręcić z domyślnych 475/475MHz do 560/570MHz. Zbyt mało aby odczuć to w grze, ale miłośnicy testów "zobaczą" kilka dodatkowych fps.

Gainward FX PP! Ultra/1800 GS - sugerowana przez dystrybutora cena detaliczna wynosi 2395 PLN wraz z 3-letnią gwarancją w systemie S.O.S (serwis odbiera sprzęt).



Opis karty Abit R9800XT




Abit R9800XT (kliknij, aby powiększyć)

Przedstawicielem najmocniejszej dotychczas karty ze stajni ATI jest, w tej recenzji, produkt Abita. Spore pudełko w ciemnych barwach zawierało, w dodatkowych kartonikach, oprócz samej karty:
  • Instrukcja instalacji i użytkowania karty wraz z elementami konfiguracji sterownika, w języku angielskim
  • Instrukcja instalacji karty w 20-stu językach, łącznie z polskim (5 stron na język)
  • Płyta CD ze sterownikami (Catalyst v3.9) oraz z odtwarzaczem CyberLink PowerDVD 5.0
  • Przejściówka DVI -> VGA do podłączenia drugiego monitora z wejściem analogowym
  • Rozgałęźnik zasilania przydatny gdy nie mamy wolnych gniazd Molex z zasilacza
  • Przejściówka TV-Out do podłączenia telewizora sygnałem zespolonym (Composite) miniDIN 7-pin -> Cinch
  • Kabel S-Video (Y/C), 2x miniDIN 4-piny
  • Kabel Composite, 2x Cinch
Pomimo, że na pudełku znajduje się informacja o zawarciu kuponu na HL2, nie udało mi się go znaleźć w środku. Nie wiem, czy jest to "urok" sampla testowego, czy świadome ograniczenie wyposażenia. Jeśli taka jest oferta Abita, to mnie osobiście razi brak dodatku w postaci gry. Szczególnie biorąc pod uwagę fakt, że jest to topowy model.

Klasycznych dla ATI rozmiarów, czerwony laminat obsadzono ośmioma układami pamięci BGA Hynix 2.5 ns o łącznej pojemności 256MB. Pomimo względnie małych rozmiarów karta waży ok. 420g na co głównie wpływ ma charakterystyczne, referencyjne, miedziane chłodzenie ATI. Gruba płyta bazowa pokrywa zarówno rdzeń jak i pamięci znajdujące się na awersie karty. Zwiększenie powierzchni oddawania ciepła realizowane jest przez dolutowane blaszki tworzące prostokątne tuneliki. Pamięci na rewersie chłodzi dodatkowa, miedziana, profilowana blaszka. Asymetrycznie położony, siedmiocentymetrowy, wąski wentylator o dużej liczbie łopatek podłączony jest za pomocą trzech przewodów. Na śledziu gniazda VGA, DVI oraz TV-Out. Na karcie dodatkowe gniazdo zasilania (Molex) oraz mikroprzełącznik (m.in. wybór standardu TV-Out).

Bezpośrednio po włączeniu wentylator rusza z pełną prędkością i odgłosem "huraganu". Po ok. 2s cichnie całkowicie, dzięki dużemu spowolnieniu prędkości obrotowej. Niestety radość użytkownika trwa tylko kilka minut. Po tym czasie karta rozgrzewa się do temperatury, która powoduje zwiększenie obrotów w obszar głośnego szumu. Dla wrażliwych posiadaczy cichych pecetów, pomimo, że w dźwięku nie ma wyższych, denerwujących tonów, będzie zdecydowanie za głośny. Jakość obrazu bez zastrzeżeń w całym sprawdzanym zakresie (do 1600x1200 @ 85Hz). W czasie pracy laminat karty rozgrzewa się do temperatury ok. 60 stopni natomiast radiatory do ok. 50 stopni. W czasie intensywnych testów 3D karta pobierała z sieci do około 65W mocy.

Próby nadtaktowania karty, w zasadzie nie powiodły się. Z domyślnego taktowania 412/365MHz udało się podnieść zegary jedynie do 420/375MHz.

Abit R9800XT dostępny jest w sklepach w cenie około 2450 PLN wraz z dwuletnią gwarancją.



Opis karty Sapphire RX800P

Radeon X800 Pro. Przechodzimy do opisu postaci pierwszoplanowych recenzji. Pierwszym przedstawicielem nowej generacji kart, którego miałem szansę przetestować, jest Sapphire Radeon X800 Pro. Karta została udostępniona do testów przez producenta - Sapphire Inc. Jest to produkt w docelowej konfiguracji sprzętowej i z wyposażeniem takim, z jakim trafia do sprzedaży detalicznej.


Sapphire Radeon X800 Pro (kliknij, aby powiększyć)

Firma Sapphire Inc. jest największym producentem kart z układami Radeon i najważniejszym partnerem ATI. Produkuje karty zarówno pod własną nazwą, jak i niemal wszystkie te, które dostępne są pudełkach sygnowanych przez ATI (tzw. Build by ATI). To właśnie firma Sapphire jest twórcą referencyjnych projektów kart Radeon, które w niemal niezmienionej postaci wykorzystują również inni producenci.

Radeon X800 Pro używa 12-ście z 16-stu potoków R420. W stosunku do pełnej architektury, zablokowano działanie jednego z czterech tzw. Quad'ów (czteropotokowe bloki funkcjonalne ze wspólnym cache L2). Pozostałe części architektury nie zostały zmienione. Referencyjne taktowanie wynosi 475MHz dla rdzenia i 450MHz dla pamięci.


Sapphire Radeon X800 Pro (kliknij, aby powiększyć)

Sapphire Radeon X800 Pro zapakowany jest w średniej wielkości pudełko z wizerunkiem obcego. Ciemna tonacja, wytłoczenia, metalizowany kolor czcionek, uchylna zakładka, okienko z podglądem karty. Sporą ilość informacji związanych zarówno z wyposażeniem jak i dostępną technologią przedstawiono tak, aby nie zdominowała szaty graficznej. Staranność przygotowania projektu opakowania wskazuje na spore zaangażowanie producenta w dopieszczenie szczegółów oferty.

Na "piętrową" zawartość pudełka, oprócz samej karty, wpływ mają:
  • Instrukcja instalacji karty w sześciu językach (bez polskiego, ok. 10 stron na język)
  • Płyta CD z odtwarzaczem CyberLink PowerDVD 5.0 w wersji 2-kanałowej
  • Płyta CD z tweakerem RedLine v1.9
  • Płyta CD ze sterownikami (Catalyst v4.4)
  • Dwie płyty CD z pełną wersją gry Tomb Raider : The Angel of Darkness.
  • Przejściówka DVI -> VGA do podłączenia drugiego monitora z wejściem analogowym
  • Rozgałęźnik zasilania przydatny, gdy nie mamy wolnych gniazd Molex z zasilacza
  • Kabelek TV-Out do podłączenia wyświetlaczy (telewizor, rzutnik itd.) z wejściem YPrPb (YUV, Component), miniDIN 7-pin -> 3x Cinch
  • Przejściówka TV-Out do podłączenia telewizora sygnałem zespolonym (Composite) miniDIN 7-pin -> Cinch
  • Kabel S-Video (Y/C), 2x miniDIN 4-piny
  • Kabel Composite, 2x Cinch
  • Firmowa nalepka na komputer
Wyposażenie jest kompletne. Dołączona, dwupłytowa gra należy do generacji Dx9, komplet okablowania i przejściówek, odtwarzacz DVD w najnowszej wersji (szkoda, że w wersji dwukanałowej). Nowością jest kabelek wyprowadzający z TV-Out sygnał komponentowy (YPrPb). Standard umożliwia przesyłanie obrazów telewizyjnych w trybach HDTV, ale takie wejście spotkać można również w projektorach, a nawet niektórych klasycznych telewizorach.

Płytka wyglądem przypomina konstrukcję Radeona 9800 XT choć oczywiście są różnice w elementach. Na przykład, wygląda na to, że stabilizator został nieco "uproszczony". Po raz pierwszy w testach mam kartę z pamięciami GDDR3. Po obu stronach płytki rozmieszczono osiem modułów BGA Samsung 2.0ns. Pamięci nie wymagają radiatorów do poprawnego działania. Chłodzeniem układu zajmuje się odchudzona wersja konstrukcji znanej z R9800XT. Różnica polega na odcięciu części, której przeznaczeniem było chłodzenie pamięci. Wąski, podłączany trzeba kabelkami, 7-mio centymetrowy wentylator o dużej liczbie charakterystycznych łopatek nie zmienił się. Karta waży ok. 320g czyli o 100g mniej niż R9800XT. Różnica wynika nie tylko ze zmniejszenia radiatora pokrywającego układ graficzny, ale również z usunięcia miedzianej blaszki pokrywającej pamięci na rewersie.


Sapphire Radeon X800 Pro (kliknij, aby powiększyć)

Na śledziu typowy zestaw wyjść: VGA, TV-Out i DVI. Na karcie dodatkowo mikroprzełącznik PAL/NTSC (oraz przełącznik wejścia w modelach VIVO) i gniazdo zasilania (Molex). Jeśli nie podepniemy go do odpowiedniej wtyczki zasilacza, to zamiast startu systemu, zobaczymy następujący komunikat:

Pomimo zastosowania tego samego wentylatora co w R9800XT "kultura" pracy karty jest diametralnie różna. Początek działania jest taki sam. Po włączeniu peceta wentylator atakuje nas huraganem, a po dwóch sekundach cichnie tak, że przestajemy go słyszeć. Różnica jest taka, że RX800Pro pozostawia wiatrak na tych samych, niskich obrotach. Próbowałem wygrzewać przez całą noc. Podkręcałem. Zamykałem w słabo chłodzonej obudowie. Wciąż cisza. Łopatki obracają się tak "leniwie", że po zatrzymaniu palcem wirnik sam nie podejmie pracy (trzeba go popchnąć). Przy takim trybie działania wysoce pożądane jest okresowe odkurzanie wnętrza obudowy, bo mam wrażenie, że kurz jest w stanie go skutecznie zablokować, jeśli przy restarcie sam się nie przedmucha wysokimi obrotami, które są serwowane jedynie parę sekund. Muszę przyznać, że dawno nie testowałem tak cichej karty, a da się to jedynie porównać z konstrukcjami z pasywnym chłodzeniem (np. Sapphire Ultimate). W przypadku referencyjnego chłodzenia RX800Pro (oczywiście inni producenci mogą wprowadzić własne patenty) jego wymiana na systemy np. Zalmana czy Arctica, moim zdaniem, mija się z celem.


Sapphire Radeon X800 Pro (kliknij, aby powiększyć)

W czasie pracy laminat i radiator nagrzewały się do ok. 60 stopni natomiast najcieplejsze były same kości pamięci, których temperatura dochodziła, przy obciążeniu, do ok. 75 stopni. Nic jednak nie wskazuje na to, aby sprawiało to karcie jakiś problem, bo próby podkręcania zegarów wskazują na całkiem przyzwoity potencjał w tym zakresie. Z domyślnych 475/450MHz (rdzeń/pamięć) udało mi się nadtaktować do wartości 560/570MHz. Jako, że zarówno temperatura jak i możliwości podkręcenia pamięci były wyższe niż w wielu testach, jakie miałem okazję czytać, to możliwe, że w badanej karcie działają one na nieco wyższym napięciu. Otwarte pozostaje pytanie, czy będzie tak samo również w kartach Sapphire, które pojawiają się w sklepach. Podobnie otwarta jest kwestia nadtaktowania rdzenia. Badany egzemplarz był wcześniej wykorzystywany w innych testach i jeśli któryś z recenzentów zdecydował się na zdjęcie chłodzenia to mógł je założyć staranniej, niż w statystycznym produkcie wychodzącym z fabryki. Faktem jednak jest to, że w porównaniu do R9800XT możliwości dla nałogowego overclockera są znacznie większe.


Sapphire Radeon X800 Pro (kliknij, aby powiększyć)

Przy domyślnym taktowaniu, karta pobierała z sieci energetycznej moc dochodzącą przy obciążeniu, do wartości 45W. W porównaniu do 65W R9800XT (a tym bardziej 95W FX5950U) jest to bardzo umiarkowana "konsumpcja". Po podkręceniu (proszę zwrócić uwagę na to, że wentylator nie zwiększył swoich obrotów) do 560/570MHz było to już 60W. Różnica jest spora i pokazuje jak istotna jest dla producenta kwestia doboru optymalnej klasy chłodzenia i możliwości "produkcyjnego" taktowania kart.

W sklepach pojawiły się pierwsze informacje cenowe. Aktualnie sugerowany koszt zakupu tych kart wynosi ok. 2300 zł. Gwarancja 2 lata.



Opis karty MSI GF6800U

GeForce 6800 Ultra. Drugą z pierwszoplanowych postaci recenzji, która dotarła do redakcji, jest najmocniejszy przedstawiciel nowej generacji kart nVidia. Karta została udostępniona do testów przez MSI-Polska, przedstawiciela producenta, firmy Microstar International. Jest to egzemplarz testowy produktu finalnego, a dostarczony został w opakowaniu zastępczym wraz z niekompletnym wyposażeniem.

Firma Microstar International (w skrócie: MSI) jest największym producentem kart graficznych na świecie i oczywiście zdecydowanie przewodzi we wszelkich rankingach ilościowych, wśród wytwórców serii GeForce.


(kliknij, aby powiększyć)

GeForce 6800 Ultra to 16-sto potokowe "monstrum", oparte na rdzeniu NV40. Testowana karta MSI nosi nazwę własną producenta: NX6800 Ultra-T2D256. Pełna architektura i maksymalne taktowanie. Próby wprowadzenia na rynek mocniejszej wersji Extreme Edition nie zakończyły się sukcesem ze względu na zbyt małą ilość rdzeni, osiągających zakładane taktowanie 450MHz, więc Ultra pozostaje najsilniejszą kartą w ofercie nVidia. W związku z tym, jest to jeden z pretendentów do tronu wydajności wśród wszystkich kart nowej generacji, zasługuje na szczególnie królewskie traktowanie. Referencyjne taktowanie wynosi 400MHz dla rdzenia i 550MHz dla pamięci.


(kliknij, aby powiększyć)

Odnotujmy co, oprócz karty, tworzyło zawartość opakowania zastępczego:
  • Kabel S-Video (Y/C), 2x miniDIN 4-piny
  • Rozbudowana instrukcja instalacji i użytkowania karty w języku angielskim wraz z elementami konfiguracji sterownika
  • Płyta CD ze sterownikami (WinXP v60.85) oraz oprogramowaniem narzędziowym: 3DTurbo Experience, Live Update, GoodMem, LockBox, WMIInfo, Secure Doc, E-Color, Trend Micro PC-Cillin, D.O.T, BeTwin, Media Ring Dialer
  • Płyta CD z odtwarzaczem filmów InterVideo WinDVD 5.1 Channel oraz Supreme Foreign Language Learning Machine
  • Płyta CD z programem do tworzenia filmów InterVideo WinDVD Creator Plus
  • Płyta CD z programami Farstone : VirtualDrive Pro oraz RestoreIt! Pro
  • Płyta CD z demonstracjami czternastu gier
  • Płyta CD z oprogramowaniem multimedialnym Media Center Deluxe II
  • Płyta CD z programami Photoshop Album SE oraz 3D-Album
  • Płyta CD z pełną wersją gry URU: Ages Beyond Myst
  • Płyty CD z pełną wersją gry XIII
  • Płyty CD z pełną wersją gry Prince of Persia 3D
  • Ulotka z materiałami licencyjnymi oprogramowania
Opis pełnej zawartości pudełka znaleźć możemy na stronie producenta. Według potwierdzonej przez MSI-Polska informacji, na nasz rynek produkt trafi z tym samym wyposażeniem. Oprócz opisanych elementów dojdą:
  • Przejściówka DVI-VGA do podłączenia monitora z wejściem analogowym
  • Kabelek umożliwiający podłączenie wentylatora bezpośrednio do zasilacza
  • Płyta CD z programem MSI 3D Desktop
Jak widać, również i tym razem, MSI zdecydowanie wybija się ponad przeciętność bogactwem wyposażenia. Szczegółnie w kwestii dodatków na płytach CD. Już same gry stanowią konkretną wartość dodaną, a przecież dostajemy również sporo innych, ciekawych programów. Jedynym minusem jest dla mnie brak drugiej przejściówki DVI, bez której nie można podłączyć dwóch monitorów analogowych. Na szczęście można ją dokupić oddzielnie, a jej koszt nie jest wysoki. Trochę mnie jednak dziwi, dlaczego producent nie zdecydował się na taki "gest", w stosunku do topowej karty.

Przyjrzyjmy się samej karcie. Sądzę, że Ci, którzy mieli wcześniej do czynienia z high-end'owymi produktami graficznymi ze "stajni" nVidia nie powinni być zszokowani. Potężnych rozmiarów karta, oparta na zielonym laminacie, wyposażona została w monstrualnej wielkości chłodzenie. Strumień powietrza chłodzącego wymusza wysoki, turbinowy wentylator, który w odróżnieniu od referencyjnych modeli FX5800U oraz FX5950U zasysa je, podobnie jak FX5900U, z wnętrza komputera i kieruje na szpaler blaszek mocowanych do płyty bazowej radiatora. Ich wysokość sprawia, że takie rozwiązanie charakteryzuje się wręcz gigantyczną, jak na karty graficzne, powierzchnią oddawania ciepła. Całość pokryta jest obudową z tworzywa, zapewniającą odpowiedni kierunek przepływu powietrza. Wentylator podłączony jest do płytki dwużyłowym kabelkiem. Bardziej niż wielkość karty zdziwiła mnie jednak jej waga. Pomimo budzących respekt rozmiarów, MSI GF6800U waży 420g, czyli tyle samo co znacznie mniejszy Abit R9800XT, a nieco mniej niż np. Gainward GFFX5950U. Oczywiście to nie są czary. W odróżnieniu od ciężkiej miedzi konkurentów, radiator wykonany jest z aluminium. Materiał ten ma słabsze przewodzenie ciepła, ale dzięki jego wykorzystaniu zachowano klasyczny ciężar karty i jak widać, jego możliwości są wystarczające dla poprawnej pracy układu graficznego.


(kliknij, aby powiększyć)


(kliknij, aby powiększyć)


(kliknij, aby powiększyć)

Oprócz rdzenia, radiator pokrywa również pamięci. Osiem kostek BGA GDDR3 Samsung 2.0ns (te same co w RX800P) umieszczono na awersie karty. Na rewersie brak jakichkolwiek elementów wymagających dodatkowego chłodzenia. Powietrze opuszczające pokrywę chłodzenia pada na dodatkowy radiator pokrywający, umieszczone w linii, układy mocy stabilizatora, zajmującego sporą część laminatu. W jego pobliżu znajdziemy niewielki "buzzer", którego znaczenie odkryłem już po chwili testów. Od strony wyjść zastosowano podwójny śledź. Ze zrozumiałych względów chłodzenie uniemożliwia użycie karty PCI znajdującej się bezpośrednio pod AGP natomiast producent mógłby jednak wykorzystać klasyczne połączenie z obudową. Piszę o tym bo mam obudowę zaopatrzoną w dodatkowe "wypustki" stabilizujące i w zasadzie nie jestem w stanie prawidłowo docisnąć takiej karty. Nie zastanawiając się długo odkręciłem śledzia i dopiero wtedy włożyłem kartę do AGP.


(kliknij, aby powiększyć)

Zdecydowanie najwięcej uwag i kontrowersji wywołuje podwójne gniazdo dodatkowego zasilania (2x Molex). Może objaśnię krótko skąd się ono wzięło. Klasyczne sloty AGP przystosowane są do zasilania kart o poborze mocy nie przekraczającym 25W. W celu zasilenia bardziej "łakomych" w energię urządzeń, przewidziano rozszerzenie standardu, w postaci złączy AGP Pro50 i Pro110 (cyferki oznaczają dopuszczalną moc), ale rozwiązanie to przyjęło się jedynie w konstrukcjach stacji graficznych, a producenci płyt dla masowego odbiorcy niechętnie je stosują, ze względu na dodatkowe koszty. W związku z powyższym oraz z faktem znacznego przekroczenia, przewidywanego dla zwykłego AGP, poboru mocy przez karty przeznaczone na rynek "domowy", zostały one wyposażone w dodatkowe gniazda zasilania, umożliwiające podanie energii bezpośrednio z zasilacza. Jak każde gniazdo elektryczne mają one jednak ograniczenie w postaci maksymalnego, dopuszczalnego prądu płynącego przez jedno złącze. W gniazdach wyprowadzonych z zasilacza jest to wartość 6A. Teoretycznie można sobie wyobrazić kartę, która z płyty pobiera 25W oraz po 6A z linii 5V i 12V złącza Molex co razem daje 127W. Jeśli jednak ograniczymy pobór prądu z linii 12V zasilacza (tej samej, z której spora część płyt pobiera moc dla procesora; przy okazji warto zwrócić uwagę na ograniczenia stawiane przez zasilacz) do 3A tak, aby każda z linii przenosiła zbliżoną moc, to już robi się z tego 91W i zbliżamy się do wymogów najmocniejszych kart graficznych. Ominięciem bariery specyfikacji prądowej złącza jest oczywiście jego zwielokrotnienie.

nVidia w przypadku GF6800U postanowiła zaopatrzyć karty w podwójne gniazdo, aby uzyskać większą swobodę w obciążaniu linii zasilacza. Z tego samego powodu nie powinno się stosować rozgałęźnika Molex (pojedyncze złącze rozgałęźnika ma takie same ograniczenia), ale należy faktycznie wpiąć do karty gniazda prowadzące bezpośrednio (jedynie łączenie lutownicze) do zasilacza (najlepiej z niezależnych kabli co daje lepsze rozłożenie mocy). Oczywiście jak ktoś jest pewny styku swojego nowiutkiego rozgałęźnika to może spróbować go przeciążyć (pewnie w większości przypadków zniesie dużo więcej niż opisuje standard). Na własną odpowiedzialność.

Do poprawnej pracy karty potrzeba podłączyć oba gniazda zasilające. Jeśli nie wepniemy tego bardziej oddalonego od złącza AGP to zamiast startu peceta możemy sycić uszy piekielnym wyciem syreny, serwowanej przez zainstalowany na karcie "buzzer". Jeśli natomiast nie podłączymy drugiego gniazda to system uruchomi się, a sterownik poinformuje o zaistniałej sytuacji. Co jednak ważniejsze, każda próba wejścia w tryb 3D (np. włączenie gry), przy odłączonym kablu, kończyła się u mnie zwisem systemu. Na śledziu znajdziemy dwa gniazda DVI oraz wyjście telewizyjne (miniDIN 4-piny). Takie rozwiązanie daje najszerszy zakres możliwości współpracy z monitorami, bo w odróżnieniu od większości kart na rynku (2 lata temu testowałem podobnie wyposażonego Gainwarda GF4Ti4600), możemy do niej podpiąć dwa monitory LCD złączem cyfrowym. W celu zapewnienie możliwości współpracy z monitorami z wejściem analogowym należy użyć specjalnych przejściówek.


(kliknij, aby powiększyć)

Po uruchomieniu karta atakuje nasze uszy hałasem proporcjonalnym do wielkości chłodzenia. Podobnie jak głośna syrena natychmiast skłaniała nas do podpięcia zasilania tak szum wentylatora powinien zdecydowanie przyspieszyć nasze działanie zmierzające do zainstalowania sterowników. Po ich wgraniu (+reboot) wentylator wydatnie zmniejsza swoje obroty. Wprawdzie generowany hałas prawdopodobnie mieści się w przyjętych, przez ogół użytkowników normach, ale w związku z tym, że był zbliżony do tego, czym traktował mnie Gainward GFFX5950U oraz Abit R9800XT, to nie mogę go zaliczyć do cichych. Minimalnie wyższe tony powodują, że bardziej przypominał kartę Gainwarda. Zdecydowanie odradzam wszystkie te trzy karty, jeśli marzeniem użytkownika jest posiadanie cichego peceta. Jakość obrazu bez zarzutu. Karta nie miała najmniejszych problemów z osiągnięciem 1600x1200@85Hz a i prawdopodobnie nie był to kres jej możliwości (był to kres moich możliwości). W całym zakresie trybów obraz, pomimo zastosowania przejściówki z DVI, był ostry i dobrze nasycony kolorami. W zasadzie większych różnic, w stosunku do Radeonów, nie wykryłem, a jedynie minimalną przewagę w ostrości, w stosunku do Gainwarda FX5950U.

Dobrze rozgrzana i obciążona grafiką karta potrafiła czerpać z sieci do 85W mocy. Jest to mniej niż wartość 95W, którą podałem w stosunku do FX5950U, ale warto zauważyć, że w większości przypadków koszt jej eksploatacji będzie nieco wyższy. Wynika to z faktu, że taki pobór mocy jest osiągany przez kartę niemal w każdych warunkach pracy 3D natomiast FX najczęściej dochodził do 75W, a "udary" 95W były sporadyczne i krótkotrwałe (tym nie mniej to one są właśnie godne odnotowania ze względu na dobór zasilacza). Ze standardowego taktowania 400/550MHz udało mi się uzyskać przetaktowanie (PowerStrip) do wartości 455/620MHz, co spowodowało zwiększenie do 90W mocy pobieranej przez kartę z sieci. Dwie uwagi. Po pierwsze był to egzemplarz testowy producenta, który mógł być oczywiście wyselekcjonowany pod kątem podkręcania, a dodatkowo niejeden z recenzentów mógł solidnie poprawić styk radiatora z pamięciami i układem graficznych. Po drugie, nie jest proste określenie maksymalnego taktowania rdzenia, bo kartę wyposażono w zabezpieczenia przed przegrzaniem i znalezienie taktowania, przy którym nie następowałoby automatyczne zmniejszenie częstotliwości pracy przy dłuższym obciążeniu, byłoby bardzo czasochłonne. W związku z ograniczeniem czasu na testy uznałem za stabilną częstotliwość, którą karta utrzymywała pod solidnym obciążeniem przez nieco ponad pół godziny. W czasie intensywnej eksploatacji laminat rozgrzewał się do ok. 55 stopni, radiator do 50 stopni, a najcieplejszym miejscem były okolice stabilizatora - 60 stopni.

Podsumowując opis najmocniejszej karty nVidia nie mogę się powstrzymać od pewnej konkluzji. Jeśli ktoś spodziewał się, że to monstrum zdewastuje naszego peceta to muszę go rozczarować. Nic takiego się nie dzieje. Karta nie pobiera znacząco większej mocy, nie jest ani cięższa, ani głośniejsza, ani gorętsza, czy większa od poprzednich "topowych" (fakt, że raczej w ujemnym tego słowa znaczeniu) produktów nVidia w tych zakresach funkcjonalności.

Sugerowana dla MSI GF6800U cena detaliczna wynosi ok. 2699 zł. Produkt objęty jest 3-letnią gwarancją.



Opis karty nVidia GF6800GT

Karta GeForce 6800 GT, którą dostałem do laboratorium TwojePC była referencyjnym egzemplarzem testowym, wypożyczonym przez firmę nVidia. Trudno rozpatrywać kwestię wyposażenia, bo wraz z kartą dostałem tylko ulotkę i pudełko z grą Splinter Cell : Pandora Tommorow. Oczywiście kwestia dodatków zależy od tego, kto firmuję daną kartę i przygotowuje zestaw do sprzedaży. W kwestii hardware producenci powielają najczęściej rozwiązania referencyjne i pewnie zdecydowana większość kart (jeśli nie wszystkie) będzie wyglądała podobnie. Drobne różnice najczęściej dotyczą kwestii chłodzenia, zastosowanych pamięci oraz zestawu wyjść.


nVidia GF6800GT (kliknij, aby powiększyć)

  
(kliknij, aby powiększyć)

     
(kliknij, aby powiększyć)

nVidia GeForce 6800 GT oparty został na tym samym, zielonym laminacie co karta MSI 6800U. Modyfikacji uległo chłodzenie, a blok zasilania został odchudzony z części elementów. Na śledziu, zamiast 2x DVI z wersji Ultra, mamy standardowy zestaw VGA, DVI oraz TV-out (miniDIN 4-piny). Wentylator, choć również kształtu "turbinowego" (strumień odśrodkowy), został zmniejszony o połowę wraz z całym radiatorem (wysokość). Dzięki temu karta nie zajmuje dodatkowego slotu PCI. Radiator "główny" przykrywa również pamięci. Dodatkowy, umożliwia lepsze odprowadzanie ciepła z elementów mocy stabilizatora. Kartę wyposażono w pojedyncze gniazdo zasilania (Molex). Bez podłączonej wtyczki z zasilacza uaktywnia się brzęczyk i głośnym piskiem informuje nas o zaistniałej sytuacji. Osiem kości Samsung GDDR3 2.0 ns, takich samych jak w wersji Ultra, umieszczono na awersie wokół układu graficznego. Karta waży 310g.

     
(kliknij, aby powiększyć)

Wentylator, bezpośrednio po włączeniu komputera, uderza nas w uszy niezłym hałasem, który wyraźnie przycicha po wrzuceniu sterowników. Chłodzenie jest nieco cichsze niż te, którym charakteryzuje się MSI GF6800Ultra, choć nadal mnie osobiście nieco drażniło. Rozwiązania chłodzenia o zbliżonym poziomie hałasu ma wiele kart i pewnie ta w sam raz nawet nie należała do najgłośniejszych. Tym nie mniej, zainteresowany stworzeniem cichego peceta, użytkownik będzie musiał przemyśleć jakieś konkretne modyfikacje. Jakość obrazu na pulpicie była znakomita. Brak zastrzeżeń do 1600x1200 @ 85Hz. Powyżej nie sprawdzałem.

W czasie intensywnej pracy laminat rozgrzewał się do temperatury 55 stopni, natomiast okolice stabilizatora do 60 stopni. Pobór mocy z sieci energetycznej sięgał 80W. Z domyślnego taktowania 350/500MHz (rdzeń/pamięć) udało mi się podkręcić kartę do wartości 420/590MHz. Jak na referencyjny egzemplarz testowy, to dosyć mizerny wynik.

Najniższe ceny kart GeForce 6800 GT, jakie widziałem w ofercie sklepów internetowych, wynosiły ok. 2150 zł.



Opis karty PoV GF6800

Karta Point of View GeForce 6800 dotarła do mnie dzięki uprzejmości sklepu internetowego Barwkomp.pl (specjalne podziękowania dla Mateusza). Warto zauważyć, że Point of View pierwszy rozpoczął sprzedaż tych kart w Europie i w śladowych ilościach pojawiły się również w Polsce. GeForce 6800 jest aktualnie najsłabszym przedstawicielem rodziny NV40. Wyróżnikiem jest 12-potokowa architektura (zablokowany jeden Quad), 128MB pamięci lokalnej, taktowanie 325/350MHz (rdzeń/pamięć) i oczywiście cena. Najniższa wśród kart nowej generacji.


PoV GF6800 (kliknij, aby powiększyć)

     
(kliknij, aby powiększyć)

Duże pudełko o kolorystyce raczej mało chwytliwej. Typowe azjatyckie jasne barwy. Do tego prościutki wizerunek kolorowego gada, który pewnie ma przedstawiać kameleona, maskotkę firmy. W sumie nic specjalnego. Natomiast to, co można znaleźć w środku, oprócz karty, już może, a nawet powinno, wzbudzić respekt:
  • Instrukcja instalacji karty w pięciu językach (bez polskiego, ok. 20 stron na język)
  • Płyta CD z odtwarzaczem CyberLink PowerDVD 5.0
  • Płyta CD ze sterownikami (Detonator v61.21)
  • Dwie płyty CD z pełną wersją gry Tomb Raider : The Angel of Darkness
  • Trzy płyty CD z pełną wersją gry Commandos 3 : Destination Berlin
  • Rozgałęźnik zasilania przydatny, gdy nie mamy wolnych gniazd Molex z zasilacza
  • Kabelek Composite do podłączenia telewizora (2x Cinch)
  • Przejściówka DVI->VGA do podłączenia drugiego monitora sygnałem analogowym
  • Przejściówka S-Video -> Composite (miniDIN->Cinch)
  • Gadżet, który po naciśnięciu przycisku zachęca kobiecym głosem do gry z Point of View
Jak widać, nie można powiedzieć, że producent ograniczył wyposażenie. Dwie "duże" gry, najnowsza wersja PowerDVD, kompletne okablowanie. Zestaw bez trudu wybija się ponad przeciętność.

Niebieski laminat o długości takiej samej, jak w przypadku pozostałych kart serii GeForce 6800. Podstawowe różnice to kwestia chłodzenia oraz blok zasilania. Zamiast potężnego radiatora z turbinowym wentylatorem, mamy aluminiową konstrukcję zbliżoną do "bocznowydmuchowców", które chłodziły np. GF4Ti 4200. Niewielki wentylator z dwupinowym podłączeniem. Żeberka radiatora kierują powietrze tak, aby jednocześnie odprowadzało ciepło z kości pamięci. Zamocowanie na dwóch bolcach. Brak stabilizującego "krzyżaka", który na rewersie mocował chłodzenie silniejszych odmian GF6800. 128MB pamięci w postaci ośmiu, łączonych parami, klasycznych kości BGA DDR Hynix 2.8 ns otacza rdzeń graficzny na awersie. Brak dodatkowych radiatorów.

  
(kliknij, aby powiększyć)

Uproszczony stabilizator nie został wyposażony w dedykowany radiator układów mocy. Oczywiście, podobnie jak w przypadku modelu GT, jest tylko jedno gniazdo zasilania (Molex), a karta nie zajmuje dodatkowego slotu PCI. Nie zrezygnowano natomiast z alarmowego brzęczyka, który uaktywnia się przy braku podłączenia wtyczki z zasilacza. Na śledziu gniazda VGA, DVI oraz TV-Out (miniDIN 4-piny). Karta jest stosunkowo lekka: 240g. Nowością jest metalowa, usztywniająca konstrukcję "belka", która biegnie wzdłuż krawędzi laminatu.

  
(kliknij, aby powiększyć)

Podobnie jak w innych kartach serii 6800 wentylator działa dwubiegowo. Do momentu zainstalowania i uruchomienia sterowników oraz przy ewentualnym przegrzaniu kręci się szybciej, natomiast w pozostałych przypadkach mamy do czynienia z mniejszymi obrotami. Na wyższych obrotach hałas jest dosyć duży, choć chyba nie większy niż w poprzednio testowanych kartach 6800 na niższym biegu. Po spowolnieniu obrotów, pomimo tego, że karta była u mnie bardzo dobrze słyszalna, to jednak nie denerwowała hałasem. Poziom, który mógłbym określić jako średnio-głośny. Akceptowalny, choć nie nadający się do konstrukcji cichych pecetów. Jakość obrazu bardzo dobra. Kolejna karta, do której nie można mieć zastrzeżeń w tej kwestii. W zasadzie, jak tak dalej pójdzie, to będę pisał o jakości obrazu tylko wtedy, gdy będzie wyraźnie słabsza od ogółu nowych kart, zarówno ze stajni nVidia, jak i ATI.

Próby podkręcania zakończyły się z zupełnie przyzwoitym rezultatem 400/410MHz (rdzeń/pamięć). W stosunku do domyślnych 325/350MHz jest to spora różnica. Pobór mocy z sieci energetycznej sięgał 65W.

W sklepie internetowym Barwkomp.pl karta dostępna jest w cenie 1448 zł. Gwarancja 3 lata.



Opis karty Sapphire Radeon X800 XT PE

Ostatni dotarł do mnie Radeon X800 XT Platinium Edition. Podobnie jak testowany wcześniej RX800Pro, wypożyczony został przez Sapphire Inc., producenta karty.


Sapphire Radeon X800 XT PE (kliknij, aby powiększyć)

Radeon X800XTPE jest najmocniejszą i oczywiście najdroższą kartą ATI nowej generacji. 16-potoków, taktowanie 520MHz dla rdzenia i 560MHz dla pamięci.

  
(kliknij, aby powiększyć)

Karta zapakowana jest w średniej wielkości pudełko, podobne do tego, które kryło wersję dwunastopotokową. Również i tym razem do zakupu zachęca wizerunek obcego. Metalizowane czcionki, wytłoczenia, okienko z podglądem karty, uchylna zapadka. Staranność przygotowania szaty graficznej widoczna w każdym detalu. W pudełku znalazłem, oprócz karty, następujące wyposażenie:
  • Instrukcja instalacji karty w sześciu językach (bez polskiego, ok. 10 stron na język)
  • Płyta CD z odtwarzaczem CyberLink PowerDVD 5.0 w wersji 2-kanałowej
  • Płyta CD z tweakerem RedLine v1.93
  • Płyta CD ze sterownikami (Catalyst v4.5)
  • Dwie płyty CD z pełną wersją gry Prince of Persja : The Sands of Time
  • Płyta CD z pełną wersją gry Splinter Cell : Pandora Tomorrow
  • Rozgałęźnik zasilania przydatny, gdy nie mamy wolnych gniazd Molex z zasilacza
  • Kabelek TV-Out do podłączenia wyświetlaczy (telewizor, rzutnik itd.) z wejściem YPrPb (YUV, Component), miniDIN 7-pin -> 3x Cinch
  • Kabelek VIVO (miniDIN 9-pinów -> 2x Cinch + 2x miniDIN 4-piny) zapewniający wejście i wyjście wizyjne w standardach Composite i S-Video.
  • Firmowa nalepka na komputer
W stosunku do karty X800Pro nie było w zestawie ani przejściówki DVI->VGA, ani kabelków Composite i S-Video. Mam nadzieję, wynika to jedynie z faktu, że jest to egzemplarz, który już był wcześniej testowany i część wyposażenia, przez nieuwagę, mogła "opuścić" pudełko. Oczywiście poproszę producenta o zweryfikowanie tej kwestii. Poza tym, wyposażenie oceniam bardzo dobrze. Dwie nowe, uznane gry, odtwarzacz DVD w najnowszej wersji (niestety dwukanałowej), kabelek komponentowy YPrPb (nowość, o której wspominałem w opisie karty X800Pro) do wyprowadzenia standardu HDTV, wejście i wyjście wizyjne (VIVO).

  
(kliknij, aby powiększyć)

Karta oparta jest na laminacie takim samym jak X800Pro. Podstawową różnicą, która rzuca się w oczy, jest zastąpienie koloru czerwonego niebieskim. W drugiej kolejności, można zwrócić uwagę na układ ATI Rage Theater, odpowiedzialny za funkcję "VideoIn", wlutowany na rewersie oraz wewnętrzne, żółte, czteropinowe gniazdo, będące dodatkowym wejściem wizyjnym. Można sobie wyobrazić wyprowadzenie odpowiednich gniazd dla sygnału Composite i S-Video, umieszczonych na frontowej ściance komputera. Podwójny mikroprzełącznik na rewersie zmienia standard PAL-NTSC oraz zapewnia wybór gniazda wejściowego wizji.

  
(kliknij, aby powiększyć)

Trzecim elementem, który wyróżnia karty X800XTPE, są zastosowane pamięci. Tym razem są to kości GDDR3 Samsunga o nominale 1.6ns. Osiem modułów rozmieszczono po obu stronach laminatu. Pamięci nie zostały wyposażone w dodatkowe radiatory. Chłodzenie niczym nie różni się od poprzednio testowanej karty X800. Miedziana płyta, kanaliki z blaszek, pokrywka, 7-centymetrowy wentylator o dużej liczbie łopatek podłączony trzema kabelkami. Nawet nalepka na pokrywce jest identyczna. Karta waży 340g. Na śledziu gniazda VGA, DVI oraz VIVO (miniDIN 9-pinów).

  
(kliknij, aby powiększyć)

Niezbędne jest dostarczenie karcie dodatkowej mocy bezpośrednio z zasilacza, poprzez gniazdo Molex. Bez podłączenia wtyczki zobaczymy komunikat:

Wentylator działa równie cicho jak w słabszej wersji X800. Na początku wita nas huraganem, a po dwóch sekundach cichnie poniżej granicy słyszalności. Choć w czasie testów nie zmieniła się jego prędkość obrotowa to oczywiście nie mogę wykluczyć, że przy długotrwałym obciążeniu grafiką 3D i w nieco gorzej wentylowanej obudowie, nie "wskoczy" na wyższy bieg obrotów. Nic takiego jednak w czasie moich badań nie nastąpiło. Wentylator działa niemal bezgłośnie. Biorąc pod uwagę fakt, że jest to jeden z pretendentów do tronu dla najwydajniejszej karty graficznej, jest to wynik wręcz zdumiewający, a jednocześnie jeden z ważniejszych parametrów użytkowych. Oczywiście dla tych, którzy cenią sobie ciszę działania peceta. Żadne dodatkowe, specjalne konstrukcje, kupowane w celu zmniejszenia poziomu hałasu, nie są potrzebne. Jakość obrazu bez zarzutu w zakresie do 1600x1200@85Hz. Żadnych zmian w stosunku do X800Pro, czy innych topowych kart Radeon.


(kliknij, aby powiększyć)

W czasie pracy laminat i radiator nagrzewały się do ok. 65 stopni natomiast kości pamięci potrafiły dochodzić do ok. 75 stopni. Nie wywoływało to jednak żadnych zakłóceń w działaniu karty. Z domyślnych 520/560MHz (rdzeń/pamięć) udało mi się osiągnąć niewielkie przetaktowania do wartości 550/600MHz. Słabe możliwości nadtaktowania 16-stopotokowego rdzenia wydają się naturalne przy kartach z najwyższej półki, natomiast spodziewałem się nieco lepszych osiągów pamięci 1.6ns (teoretycznie do 625MHz). Być może wymagałoby to zwiększenia napięcia, a tym samym znaczące zwiększenie poboru mocy i konieczność zastosowania radiatorów. W związku z niewielkim przyrostem mocy karty raczej nie widzę sensowności podkręcania zegarów.

Po wygrzaniu, obciążona karta pobierała z sieci energetycznej około 65W mocy. Znacznie więcej niż domyślnie taktowany X800Pro, ale i mniej od konkurencji. Odradzałbym jednak próby połączenia tej konstrukcji ze słabej klasy zasilaczem.

Karta pojawiła się w sklepach w cenie od 2500 zł. Gwarancja 2 lata.



Opis Gainward GeForce 6800 Ultra

Pełna jej nazwa to Gainward PowerPack! Ultra/2600 TV-DVI-DVI Golden Sample. Karta pożyczona została przez firmę Multimedia Vision - dystrybutora Gainward w Polsce. Duże pudło w typowej dla tego producenta szacie graficznej kryło oprócz karty:

  
(kliknij, aby powiększyć)

  • 2x płyta CD z pełną wersją gry Chrome
  • Obszerna, kolorowa instrukcja instalacji i obsługi karty w języku polskim. 64 strony z opisem instalacji, podłączeń ekranów, ustawień sterownika, dodatkowego oprogramowania i słowniczkiem pojęć. Wzór do naśladowania dla innych dystrybutorów.
  • Uproszczona instrukcja instalacji w języku angielskim
  • Płyta CD z oprogramowaniem WinDVD 4 w wersji wielokanałowej
  • Płyta CD z oprogramowaniem muvee autoProducer 3 do automatycznego tworzenia filmów
  • Voucher uprawniający do zakupu wybranych elementów wyposażenia peceta po preferencyjnych cenach
  • 2x rozgałęźnik zasilania Molex
  • Przejściówka S-Video (miniDIN 4-piny) -> Composite (Cinch)
  • 2x przejściówka DVI -> VGA
  • Płyta CD ze sterownikami (v61.72) i oprogramowaniem narzędziowym EXPERTool (v3.17)
Wyposażenie kompletne. W zestawie znajdziemy wszystkie przydatne dodatki sprzętowe. Osobiście wolałbym zamiast autoProducera (karta nie ma wejścia wizyjnego) drugą grę ale to już kwestia gustu. Voucher informuje nas w językach obcych, o możliwości preferencyjnego zakupu zasilacza 550W (dwa wentylatory, czerwony kolor) wraz z kartą USB2.0/FireWire oraz oprogramowaniem Intervideo WinCinema w cenie 99 Euro. Zainteresowany musiałby zgłosić chęć skorzystania z oferty w niemieckiej centrali Gainward'a. Szczerze mówiąc nie wiedzę specjalnego przeboju, a i sama procedura nie nastraja optymizmem. Przy okazji można z tej ulotki dowiedzieć się, że karta wymaga ok. 120W do prawidłowego działania i Gainward poleca stosowanie jej z zasilaczami 480W, a przynajmniej większymi niż 350W.

  
(kliknij, aby powiększyć)

Sama karta wygląda na referencyjny produkt ze zmodyfikowanym chłodzeniem. Zielony, duży laminat nosi oznaczenia nVidia. Tym razem jednak użyto pamięci GDDR3 1.6ns Samsung, w ośmiu modułach rozmieszczonych na awersie wokół rdzenia. Układ graficzny przykrywa wręcz gigantyczny miedziany radiator oparty na grubej płycie bazowej oraz szeregu pionowych listków wysokości 1,5cm. Pamięci umieszczone są pod oddzielną wspólną płytką (ok. 2mm) z czterema wysokimi radiatorkami nad każdym "dwupakiem" pamięci. Prawdopodobnie aluminium. Całość pokryta lakierem, w typowym dla Gainwarda kolorze. Radiatory chłodzą dwa 6-centymetrowe wentylatory z dwupinowym podłączeniem umieszczone na stelażu zapewniającym bardziej "kompaktowy" kształt całej konstrukcji, ale który może również utrudniać dostęp do gniazd w niektórych płytach głównych. Wspornik wykonany jest starannie, ma wytłoczenia i dobrze pokrywa go matowy lakier w charakterystycznym kolorze. Pozostałe elementy nie różnią się od konstrukcji referencyjnej. Radiator na elementach stabilizatora, na podwójnym śledziu dwa wyjścia DVI oraz TV-Out (miniDIN 4-piny), brzęczyk, dwa gniazda Molex. Kompletnie wyposażona karta waży aż 545g (standard AGP to 250g) i warto pamiętać o mocnym przykręceniu jej śledzia do obudowy.

  


(kliknij, aby powiększyć)

  
(kliknij, aby powiększyć)

Po uruchomieniu systemu dostajemy w uszy potężną dawkę decybeli, a oba wentylatory rozświetlają nam na czerwono wnętrze peceta. Tandem wirników Gainward'a nie jest być może równie głośny co referencyjna turbina, ale z uwagi na dużą ilość wyższych tonów, równie nieprzyjemny w odbiorze. Nie zwlekając ani chwili zainstalowałem sterowniki. Szum chłodzenia natychmiast zmniejszył się do znacznie spokojniejszych wartości, ale wciąż trudno to nazwać cichym lub nawet średnio głośnym. Dalszym posunięciem jest instalacja dedykowanego tweakera dla kart Gainward o nazwie EXPERTool. Spowodowało to dodatkowe zmniejszenie hałasu, choć już nie tak spektakularne, jak instalacja sterownika. Narzędzie daje nam możliwość ustawienia obrotów na stałym poziomie (oddzielnie dla 2D i 3D) oraz w trybie automatycznym. Karta nie miała problemów ze stabilną pracą przy maksymalnym wyciszeniu (ustawienie 50%) i prawdę mówiąc, biorąc pod uwagę potężny miedziany blok przykrywający rdzeń, być może wytrzymałaby nawet niższe obroty. Nie ulega wątpliwości, że jest to konstrukcja o charakterze "wyczynowym", przeznaczona dla odpowiedniego kręgu odbiorców. Mnie osobiście brzmienie wentylatorów wydaje się męczące i szukałbym innych rozwiązań. Przy takim radiatorze próbowałbym nawet zastosować pojedynczy, duży wentylator na wolnych obrotach. To jednak już zależy od preferencji własnym. Na pewno znajdą się tacy na których brzmienie chłodzenia Gainwarda robi wrażenie zbliżone do warkotu silnika sportowego samochodu. Oczywiście jeśli ktoś jest maniakiem czterech kółek. Bez przeróbek sprzętowych (sam soft) mamy poziom, który określam jako głośny-średni, ze sporą ilością wysokich tonów. Muszę przyznać, że nie do końca rozumiem pomysł z takimi wentylatorami. Dmuchają od góry bez żadnego ukierunkowania strumienia co powoduje spore zawirowania powietrza w obudowie. Efektywność nie wydaje się najlepsza.

  
(kliknij, aby powiększyć)

Instalacja EXPERTool'a automatycznie przetaktowuje kartę do poziomu 430/600MHz. Chyba dla nikogo nie ma już wątpliwości, że karta ma pamięci 1.6ns. Być może znajdą się egzemplarze, które podkręcają się tak samo, lub nawet lepiej, ale warto pamiętać, że w tym przypadku mamy na to gwarancję producenta, już w momencie zakupu karty. To jest właśnie idea dopisku "Golden Sample" w nazwie karty. Dodatkowe testy wykazały możliwości dalszego, niewielkiego przetaktowania do 435/620MHz. Sądzę, że jest to wartość bardziej zbliżona do rzeczywistości sklepowej, niż referencyjna karta którą poprzednio testowałem. W czasie intensywnej pracy, domyślnie taktowana karta pobierała z sieci ok. 85W mocy i rozgrzewała się do 50-55 stopni. Najcieplejsze były okolice stabilizatora. Jakość obrazu bez zarzutu. Znakomite możliwości do 1600x1200@85Hz włącznie.

Sugerowana cena detaliczna wynosi 2795 zł. Gwarancja 3 lata w systemie S.O.S (serwis odbiera sprzęt).



Opis Gainward GeForce 6800 GT

Kompletne oznaczenie tej karty to Gainward PowerPack! Ultra/2400 TV-DVI-DVI Golden Sample. Ultra/2400 Gainwarda oznacza model GeForce 6800 GT 256MB. Karta pożyczona została przez firmę Multimedia Vision - dystrybutora Gainward w Polsce. W takim samym pudełku, jak wersja Ultra, znajdziemy niemal identyczne wyposażenie (oprócz samej karty):

  
(kliknij, aby powiększyć)

  • 2x płyta CD z pełną wersją gry Chrome
  • Obszerna, kolorowa instrukcja instalacji i obsługi karty w języku polskim. 64 strony z opisem instalacji, podłączeń ekranów, ustawień sterownika, dodatkowego oprogramowania i słowniczkiem pojęć. Wzór do naśladowania dla innych dystrybutorów.
  • Uproszczona instrukcja instalacji w języku angielskim
  • Płyta CD z oprogramowaniem WinDVD 4 w wersji wielokanałowej
  • Płyta CD z oprogramowaniem muvee autoProducer 3 do automatycznego tworzenia filmów
  • Voucher uprawniający do zakupu wybranych elementów wyposażenia peceta po preferencyjnych cenach
  • Rozgałęźnik zasilania Molex
  • Przejściówka S-Video (miniDIN 4-piny) -> Composite (Cinch)
  • 2x przejściówka DVI -> VGA
  • Płyta CD ze sterownikami (v61.45) i oprogramowaniem narzędziowym EXPERTool (v3.17)
W zasadzie jedyną różnicą w stosunku do Ultra/2600 jest brak drugiego rozgałęźnika zasilania. Oczywiście związane jest to z pojedynczym gniazdem Molex, dostarczającym karcie energię prosto z zasilacza. Kompletne wyposażenie. Opis może co do słowa pokrywać się z droższą wersją.

Dodatkowo uzyskałem informację, że producent zamierza niedługo dodać do karty Ultra/2400 pełną wersję gry Doom3 (Chrome niezależnie dorzuca dystrybutor - firma Multimedia Vision). W oczywisty sposób podniesie to atrakcyjność oferty.

  
(kliknij, aby powiększyć)

Tym razem mamy do czynienia z konstrukcją wykonaną samodzielnie przez Gainwarda. Do tego różniącą się funkcjonalnie, od wersji referencyjnej. Karta oparta jest na laminacie w czerwonym kolorze i nosi oznaczenia producenta. Oczywiście znacznie lepiej prezentuje się w połączeniu z własnych chłodzeniem. Przynajmniej kolorystycznie. Osiem pamięci BGA GDDR3 Samsung 2.0ns umieszczono parami dookoła rdzenia. Chłodzenie jest identyczne jak w wersji Ultra. Również i tutaj mamy do czynienia z dużym blokiem miedzianym i dwoma, podświetlanymi na czerwono wentylatorami 6cm na specjalnym stelażu. Śledź jest pojedynczy, ale konstrukcja uniemożliwia wykorzystanie najbliższego, w stosunku do AGP, slotu PCI podobnie, jak w droższej wersji. Tym nie mniej sama instalacja w przypadku węższego śledzia jest wygodniejsza. W odróżnieniu do wersji referencyjnej Gainward 6800GT ma dwa wyjścia DVI, czyli najbardziej elastyczne z rozwiązań znanych z kart dwuekranowych. Dodatkowo, na śledziu jest również wyjście TV-Out (miniDIN 4-piny). Wygodniejsze jest również podłączenie zasilania, które w przypadku tej karty opiera się na pojedynczym gnieździe Molex. Moim zdaniem pomysł z dwoma, w przypadku kart Ultra, był niepotrzebny. Karta waży niemal tyle samo, co mocniejsza wersja. Waga wskazała 520g. Przypominam o fakcie znaczącego przeciążenia specyfikacji mechanicznej AGP (250g) i konieczności solidnego przykręcenia karty do obudowy. Niepokojący jest również fakt, że stelaż powoduje, że karta jest bardzo szeroka na całej swojej długości, a ta jest przecież nie mała. Mam nadzieję, że nie utrudni to dostępu do gniazd w niektórych płytach głównych.

  
(kliknij, aby powiększyć)

  
(kliknij, aby powiększyć)

W kwestii walorów użytkowych w stosunku do jakości obrazu, czy głośności chłodzenia, różnic w stosunku do konstrukcji Gainward Ultra/2600 w zasadzie nie ma. Mogę jedynie powtórzyć, że nie do końca rozumiem pomysł z takimi wentylatorami. Dmuchają od góry bez żadnego ukierunkowania strumienia, co powoduje spore zawirowania powietrza w obudowie. Jak dla mnie efektywność chłodzenia nie jest najmocniejszą stroną tego rozwiązania. Jedyna zmiana jaką zaobserwowałem to fakt braku spowalniania wentylatorów przez same sterowniki. EXPERTool jest absolutnie niezbędny. Spory hałas pomimo zmniejszenia obrotów o 50%. Obraz bez zarzutu. W czasie gry, po dłuższym wygrzaniu, pobór mocy sięgał 80W, a temperatura cieplejszych elementów karty zawierała się w przedziale 50-55 stopni (najcieplejszy był stabilizator). Pomiary dokonywałem przy domyślnym taktowaniu z bios (350/500MHz).

  
(kliknij, aby powiększyć)

EXPERTool podwyższa taktowanie do poziomu gwarantowanego przez "Golden Sample", czyli 400/550MHz. Jest to dokładnie taktowanie wersji 6800 Ultra i kupując tą kartę na pewno nie będziemy mieć słabszych "osiągów". Dalsze podkręcanie doprowadziło mnie to taktowania 415/590MHz, czyli tylko 5% mniej (rdzeń i pamięć) od droższego o ok. 450 zł modelu Ultra. Tego nie da się "poczuć" w żadnej grze, a jedynie drobiazgowe testy wykażą różnicę. Warto o tym pamiętać. Nie będę ukrywał, że model 6800GT jest dla mnie znacznie ciekawszą propozycją, niż wersja Gainward Ultra/2600. Praktycznie nic nie tracimy, a nawet zyskujemy w kwestii podłączenia zasilania, pojedynczego śledzia i lepiej dobranej kolorystyki.

Sugerowana cena detaliczna wynosi 2345 zł. Gwarancja 3 lata w systemie S.O.S (serwis odbiera sprzęt).



Wydajność (teoria, opis metod)

Zanim przejdę do wyników testów najpierw uproszczona tabelka wydajności teoretycznej, zawierająca wszystkie sprawdzone modele kart.

W związku z tym, że prawidłowe przetestowanie kart nowej generacji stanowi jednak dla mnie pewne wyzwanie, to muszę napisać kilka słów wprowadzenia.

Od dłuższego czasu, do benchmarków używamy testów opartych na badaniu średniego (głównie) framerate po przetworzeniu przez kartę ustalonego fragmentu ruchomej grafiki trójwymiarowej renderowanej w czasie rzeczywistym. Aby wynik testów stanowił o różnicach wydajności kart graficznych powinny być spełnione przynajmniej trzy podstawowe warunki. Po pierwsze, układy powinny generować ten sam obraz, po drugie, to ich działanie powinno być bazą powstania tego wyniku, a po trzecie, silnik 3D wykorzystany w teście nie powinien w żaden sposób ograniczać wzrostu framerate. Idealne spełnienie tych trzech warunków jest utopią. Drobne różnice w obrazie 3D występują, na średni framerate zawsze ma pewien stopień wpływu platforma testowa (użyty procesor, ilość pamięci itd.), a ograniczenia silnika w zakresie szybkości generowania ramek są naturalną cechę wykorzystywanych algorytmów. Jedynie co może próbować robić recenzent, to dążyć do minimalizacji tych niedoskonałości badawczych. Sprawdzać czy nie ma, przynajmniej rażących, różnic w wyświetlanym obrazie, minimalizować wpływ platformy testowej, zarówno przez wzmocnienie jej mocy, jak i przez taki dobór testów i ustawień, aby maksymalnie dociążyć samą kartę oraz wybierać takie testy, aby ograniczenia użytych w nich algorytmów nie ujawniały się w badanym zakresie framerate.

Tak się składa, że moment wejścia nowej generacji układów graficznych, które przede wszystkim są znacząco wydajniejsze od swoich poprzedników, jest szczególnie niekorzystny dla recenzenta. Pojawia się hardware, który przekracza swoimi możliwościami wymagania aktualnych gier i programów testowych w ustawieniach, które zwykle uważane są za optymalne połączenie jakości obrazu i framerate. Już wstępne porównania bezlitośnie odsłoniły słabość części moich procedur testowych i zmuszony byłem do kilku dosyć drastycznych posunięć. Zdecydowałem, że podstawowym trybem testowym będzie rozdzielczość 1600x1200 z dodatkiem antyaliasingu na czterech próbkach oraz filtrowania anizotropowego. Oczywiście zdaję sobie sprawę z tego, że są to ustawienia zupełnie oderwane od rzeczywistości. Nie widzę najmniejszego sensu, aby grać w takich trybach natomiast w celach testowych jest to jak najbardziej uzasadnione. Po raz kolejny przypominam, że nie testuję gier, ale karty graficzne. Nie odpowiadam na pytania jak będzie się grało w danej grze przy pomocy konkretnej karty. Framerate ma obrazować faktyczne różnice ich wydajności, a nie jest ona proporcjonalna do różnicy średniego poziomu fps w trybach 1024x768. Te karty są po prostu zbyt silne w stosunku do testów opartych na silnikach większości dzisiejszych gier. Wydajność karty graficznej to zawsze jest dla mnie potencjał umożliwiający osiągnięcie jak najlepszej jakości płynnego obrazu. Jeśli najmocniejsze karty poprzedniej generacji nie mają z tym problemu w typowych trybach, to trzeba rzucić im większą "kłodę pod nogi" zamiast łaskotać. Dlaczego właśnie 1600x1200 AF (domyślnie jako AF oznaczam FSAA 4x / Anizo 8x)? Powyżej tego trybu, niewspółmierne dla najnowszych silników gier znaczenie miałaby dla kart kwestia przepustowości pamięci. Natomiast dodatek FSAA/Anizo jest ważny dla dociążenie kart tak, aby średni framerate nie przekraczał kilkudziesięciu fps, co najczęściej świadczy o wystarczającym wyeliminowaniu wpływu platformy testowej. Antyaliasing na czterech próbkach jest wspólnym dla kart, najwyższym ustawieniem metody multisamplingowej. Również w związku z tym, że nowe karty mają po 256MB lokalnej pamięci, pomimo wysokiego trybu, obciążenie AGP nie powinno wpływać na wynik.

Oprócz kwestii trybu postanowiłem również zrezygnować z kilku testów. Jest to związane głównie z brakiem możliwości zwiększenia trybu. Sprawa dotyczy między innymi Aquamark3 (wersja darmowa działa tylko w 1024x768) czy Final Fantasy XI. Nie będzie również testu UT2004. Jedyny, jak dla mnie, prawidłowo reagujący test "botmatch" opracowany przez 3DCenter we współpracy z programistą gry osiągnął kres średniego framerate i przestał odzwierciedlać różnice wydajności. Muszę spróbować innej metody, a nie ukrywam, że wbudowany w grę test nie sprawdza się najlepiej (niezależność ruchu botów zbyt mocno wpływa na wyniki). Zrezygnowałem również z mojej ulubionej "motocyklówki" MotoGP2, bo gra osiągnęła maksymalny "dozwolony" framerate (60 fps) niezależnie od ustawień. Resztę zmian będę opisywał na bieżąco. Pojawi się też kilka nowych testów.

Na koniec mała, aczkolwiek dosyć istotna informacja. W przypadku kart GeForce, po dłuższych przemyśleniach, postanowiłem pozostawić domyślne ustawienia sterownika (oprócz VSynch). W tym, włączone obie optymalizacje: filtrowania trzyliniowego i (co ważniejsze) anizotropowego. Kwestia filtrowania stanowić będzie oddzielny rozdział recenzji i tam dopiero znajdzie się informacja zarówno o wpływie optymalizacji na obraz i framerate, jak i spróbuję uzasadnić fakt konkretnych ustawień testowych. Dla zachęty powiem tylko, że wiara w to, że wyłączenie w sterowniku opcji związanych z optymalizacją filtrowania spowoduje ich całkowity brak, jest dużą naiwnością.

Po tym przydługim wstępie czas przejść do konkretów.



Wydajność (testy)

Na rozgrzewkę dwa teściki bez znaczenia strategicznego. D3DRightMark (v1.0.5.0) jest syntetykiem umożliwiającym określenie teoretycznych możliwości przetwarzania efektów, udostępnionych przez DirectX 9.

Spośród szerokiej gamy testów wybrałem dwa najważniejsze: Pixel i Vertex Shader 2.0. W przypadku GeForce'ów można testować tryby o różnej precyzji obliczeń zmiennoprzecinkowych. Z wcześniejszych testów można było przekonać się o słabości GeForceFX w tym zakresie. Już słabszy Radeon nowej generacji prezentuje potężny skok framerate, ale najciekawsze jest zachowanie NV40. Jak widać produkt nVidia zachowuje się zupełnie inaczej niż jego poprzednik. Sześciokrotny wzrost wyniku wyraźnie świadczy o fakcie uporania się z problemami, które "prześladowały" linie NV3x. Oczywiście to tylko syntetyk. W realnych silnikach 3D znaczenie pojedynczych efektów jest dużo mniejsze. Niestety na starszych sterownikach nie udało mi się sprawdzić wydajności Vertex Shadera GF6. Dopiero 61.77 umożliwiły uzyskanie prawidłowego wyniku.

Drugi dla rozgrzewki jest test, do którego wykorzystałem nowe demo ATI z postacią agentki o imieniu Ruby. W zasadzie przeprowadziłem go tylko dla zaspokojenia własnej ciekawości. Demo wykorzystuje wsparcie sprzętowe Dx9.0b i odpalenie go na kartach innych niż X800 nie jest możliwe. Pod względem długości kodu shaderów jest absolutnym rekordzistą. Znalazł się jednak sympatyczny programista, który przerobił shadery tak, aby mogły być realizowane przez układy R3x0 w trybie multipass.

Porównanie w Radeonów w multipass pokazuje realne różnice wydajności natomiast wyniki X800 w singlepass miały posłużyć do porównania różnych kart Radeon nowej generacji. Ciekawostką jest, że testowany na nowszym sterowniku X800XTPE wyraźnie stracił w porównaniu do swojej zubożonej odmiany.

Przechodzimy do testu właściwego. Kolejność alfabetyczna. Przypominam o domyślnym trybie 1600x1200 AF.

Skoro nie ma MotoGP2 to wykorzystałem inną symulację motoryzacyjną. Colin McRae Rally 04 jest najnowszą odsłoną znanej serii Codemasters. Gra Dx9. Spory zasób nowych efektów. Pomiar za pomocą Fraps.

FX'owi wyraźnie zaszkodziły wyraźnie nowe shadery natomiast 16-stopotokowe GF6 wystartowały jak z armaty. 12-potokowy GF6 nie zabłysł być może ze względu na mniejszą ilość pamięci (wysoki tryb + FSAA potrafią zapchać 128MB pamięci lokalnej) natomiast GT bez problemu "rozprawił" się z X800Pro. Niewielka przewaga wyników X800XTPE ale trzeba przyznać, że w samej grze można ją wyczuć.

Leciwy, "przyrodniczy" teścik CodeCreatures wciąż zaskakuje stabilnością wyników i niezłym odzwierciedleniem wydajności. Jedynym zakłóceniem jest fakt podstawiania własnego shadera przez sterowniki nVidia, ale jak widać, nie powoduje to specjalnego zdominowania wyników (porównanie FX, 9800XT).

Kolejność kart podobna jak w poprzednich testach. Pomiędzy dwoma X800 duża różnica wyników. Jeden z najważniejszych testów. FarCry przebojem wdarł się do niemal każdej aktualnej recenzji kart graficznych, choć nie został jeszcze wyposażony w dobre narzędzia benchmarkowe. Tym nie mniej wykorzystam to co jest. Nagrałem fragment własnej gry na mapie Research i badam średni i minimalny framerate przy użyciu polecenia "demo". Ustawienia FSAA 4x ("medium") oraz Anizo 8x (polecenie konsoli) z poziomu gry. Jakość obrazu powalająca. Gra w wersji 1.1.

Tym razem X800Pro przed 6800GT. Karcie 6800 znowu wyraźnie zaszkodziła mniejsza od konkurencji ilość pamięci. 1280x1024 wydaje się dla nich bardziej optymalnym trybem. RX800XT bez trudu "odskoczył" konkurencji.

W związku z tym, że pojawił się (na krótko) również patch 1.2 to skorzystałem z okazji wykonania kilku dodatkowych testów. Muszę przyznać, że cała otoczka marketingowa związana z tą grą osiągnęła w tym miejscu swoje apogeum. Już od dnia premiery NV40, FarCry jest ważnym elementem promocyjnym nowych kart nVidia. Za pomocą tej gry próbuje się nam udowodnić wiele różnych tez. Niekoniecznie prawdziwych i jak dotąd raczej bez powodzenia. Jeszcze przed oficjalnym pojawieniem się wersji 1.2, nVidia przygotowała dla recenzentów płytę CD z poprawką 1.2 opisaną jako "finalna" (Build 1318), dedykowaną wersją sterownika oraz instrukcją jak uruchomić i przetestować specjalną ścieżkę SM3.0, dzięki której oraz specjalnym funkcjom kart NV40, wydajność miała być znacząco większa. Ku mojemu (i być może również nVidia) zdumieniu, oficjalny patch 1.2 miał Build 1325 i oprócz zapowiadanego z pompą (i szeroko przedstawianego w recenzjach) SM3.0 miał również ścieżkę SM2.0b, która opierała się na tej samej optymalizacji wybranych shaderów, ale mogła być stosowana przez nowe karty ATI. Marketing chciał udowodnić klientom, że pojawia się gra z górnolotnie brzmiącym wsparciem SM3.0, które daje spory skok framerate. Zamiast tego dostaliśmy pod tą nazwą typową optymalizację, która w zasadzie krąży wokół bardziej zaawansowanych funkcji starszego modelu shaderów. I do tego nawet nie została ona zastrzeżona dla kart NV40. Dodatkową, a moim zdaniem nawet ważniejszą poprawką, jest zmiana uproszczonego modelu shaderów na pełny. Jak już wcześniej wykazałem za pomocą wrappera, NV40 znakomicie sobie z nimi radzi natomiast posiadacze FX'ów muszą się liczyć z konkretnym spadkiem framerate.

Aby łatwiej było sprawdzić możliwości nowych ścieżek SM3.0 i SM2.0b CryTek przygotował demka testowe. Wykazują one sporą zwyżkę framerate (szczególnie ten na mapie Research), ale przedstawiają one jedynie fragment gry rozgrywający się wokół obiektów które dotyczy optymalizacja. Z drugiej strony poprawka opiera się na jednoprzebiegowym przetwarzaniu wielu źródeł oświetlenia i pomaga szczególnie w zamkniętych, nafaszerowanych shaderami pomieszczeniach.

Do testów użyłem zarówno własnego dema, które zawiera sporą część mapy Research (łącznie z kawałkiem w jaskiniach) jak i tego , które przygotował CryTek. Dodatkowo zapisałem również chwilowy framerate w okolicy optymalizowanej. Dzięki temu można również zobaczyć jaki wpływ ma dodatkowe światło latarki (aktualna procedura testowa na demkach uniemożliwia jej zastosowanie).

W całym zakresie przejścia własnego demka większych różnic nie odnajdziemy. Jest ona natomiast w miejscu gdzie zastosowano optymalizację. Szczególnie widać to w wartości chwilowej, w świetle latarki. 12-potokowy NV40 bardziej skorzystał na ścieżce SM3.0 niż RX800XT na SM2.0b. Nie zdążyłem przetestować GF6800GT/Ultra, ale z informacji dostępnych w Internecie wynika, że skok jest już mniejszy. Wszystko to ładnie wygląda w tabelce ale muszę przyznać, że specjalnego zachwytu nie ma. Uruchomienie SM3.0/2.0b powoduje, że wyświetla się dodatkowa, dosyć denerwująca informacja o działaniu silnika, a oprócz tych kilku wybranych miejsc różnic w zasadzie nie ma.

Gun Metal 2 Benchmark to starszy test, ale wciąż nie widzę przeszkód, aby go stosować. W przeważającej części, wynik oparty jest na możliwościach przetwarzania shaderów Vertex. Głównie Dx8. Framerate niski bo to specjalna testowa wersja silnika, a i tryb bardzo wymagający.

GeForceFX radzi sobie nieco lepiej niż Radeon 9800XT, ale musi uznać wyższość kart nowej generacji. Niestety nie dało się przetestować GF6, bo po wejściu w tryb 3D następowało zawieszenie się gry. Prawdopodobnie problem ze sterownikami. Duża różnica pomiędzy kartami X800.

Gra Halo aspiruje do zestawu gier Dx9 choć generowany obraz przypomina mi raczej starszą wersję Unreal. Do tego, z bliżej nieznanych przyczyn, poziom framerate jest stosunkowo niski, nawet w niezbyt wymagających trybach. Takie uroki silnika.

Powtórka testów CodeCreatures. Ładny pokaz różnic pomiędzy generacjami. Wydajność nowych kart jest wręcz zaskakująca. 6800GT znowu wyraźnie lepszy od X800Pro.

Half Life 2 to gra wyczekiwana od dłuższego czasu. Czas do jej wydania można sobie umilić wersją pokazaną na targach Expo 2003. Silnik, który bez wątpienia należy do nowej generacji i wszystko wskazuje, że będzie się czuł na nowych kartach jak ryba w wodzie.

Setki shaderów 2.0 zarzynają skutecznie FX'a mimo, że ponoć programiści starali się zoptymalizować jego działanie. Totalna klapa. Dla X800P tryb wydaje się wręcz idealny do gry. Mam nadzieję, że przynajmniej w przypadku starszego GeForce sytuacja się nieco poprawi wraz z pojawieniem się finalnej wersji gry. Jeśli to nie nastąpi to zawsze można wymusić tryb Dx8, który przynajmniej w przypadku tej wersji wygląda niewiele gorzej, natomiast FX dostaje solidnego przyspieszenia. Testowa wersja gry wyraźnie lepiej działa na kartach ATI. Nawet 6800U uległ X800Pro. Ciekawe czy wersja finalna również będzie zachowywała się podobnie. Z dostępnych informacji wynika, że tak będzie.

LockOn - Modern Air Combat to znany "morderca" sprzętu komputerowego. Symulacja lotnicza należąca do klasyki dla miłośników gatunku. W poprzednich recenzjach ustawiałem wszystkie zmienne w grze na maksymalną jakość obrazu co powodowało zejście średniego framerate poniżej 10 fps. Po zmianie platformy sprzętowej i po testach nowych kart okazało się, że ograniczeniem wyniku nie był układ graficzny i musiałem zmienić parametry gry. Znacznie lepiej test zachowuje się na predefiniowanych ustawieniach HIGH, choć nadal płynnością trudno to nazwać. Przynajmniej w przypadku kart starszej generacji. Tym razem tryb 1024x768.

W tej grze, podobnie jak w innych symulacjach lotniczych, stosowanie antyaliasingu jest bardzo pożądane. Schodki są dobrze widoczne na rantach samolotów widocznych na tle nieba. Jakość filtrowania FX'ów pozostawia wiele do życzenia. Wprowadzenie metody "rotated grid" w GF6800 było właściwym posunięciem, co mam nadzieję pokazać w kolejnych odsłonach recenzji. Tym razem dosyć spektakularne zwycięstwo serii X800. W grze daje się to nawet odczuć.

Z ciekawości postanowiłem użyć do testu również Painkillera. Nowa gra 3D rodzimej produkcji wprowadza w wersji 1.1 możliwość benchmarkowania w trybie flyby. Nie jest to może najszczęśliwszy rodzaj testu samej gry, bo brak atakującej hordy wrogów powoduje, że wyniki nijak nie odzwierciedlają faktycznego zachowania gry. Również nie jest to dobry test samych kart bo framerate swobodnie przekracza 50 fps i wpływ platformy daje się odczuć.

Zbliżone możliwości starszej generacji i zupełnie inna klasa nowych kart. Oprócz GF6800, których chyba znowu ucierpiał na mniejszej ilości pamięci lokalnej.

Splinter Cell opiera się na modyfikowanej wersji silnika wykorzystywanego w Unreal'ach. Niektóre z efektów realizowane są za pomocą próbek, więc stosowanie poprawek obrazu typu FSAA/Anizo jest wysoce niewskazane, o czym z resztą informuje nas opis gry. Oczywiście rezygnuję z tych dodatków. Test dostępny w wersji 1.2b.

Kolejna gra, która wyraźnie nie "leży" FX'owi. Z przyczyn bliżej mi nieznanych. Na R9800XT działa niemal płynnie w 1600x1200, ale w tym trybie czuć wyraźnie siłę nowych kart. GT po raz kolejny przed X800Pro.

Przedostatnia gra w zestawieniu. Tomb Raider - Angel of Darkness. Programiści uraczyli nas niemałą dawką nowych efektów. Niektóre są wręcz niespotykane, w stosunku do innych gier. Mimo tego obraz nie powala jakością grafiki, choć różnica do starszych wersji serii Tomb Raider jest duża. Ustawienia wysokiej jakości zaczerpnąłem z artykułu 3DCenter. Gra w wersji 0.49 wyposażona jest w benchmark.

Szersze zastosowanie Pixel Shadera 2.0 oraz zmiennoprzecinkowego filtrowania tekstur to niemal pewność potknięcia się starego GeForce. Po raz kolejny rzeczywistość potwierdza rozważania teoretyczne. FX wypada fatalnie w porównaniu na tych ustawieniach. Oczywiście gracze muszą zrezygnować z kilku efektów, aby mieć płynny obraz. Gra, oprócz kwestii przetwarzania shaderów bardzo dobrze wykorzystuje architekturę potoków. GF6800 GT/Ultra czy X800Pro rozwijają skrzydła bez problemu. X800XT gromi konkurencję. Gra odmówiła uruchomienia testu na GF6800 z powodu zbyt małej ilości pamięci lokalnej.

Ostatnią alfabetycznie grą wykorzystaną w teście jest kosmiczna symulacja X2 - The Threat. Spora ilość programów dla VS2.0 brak PS2.0. Jedna z nielicznych gier wykorzystujących technikę UltraShadow, opracowaną przez nVidia.

FX wyraźnie dominuje nad R9800XT. Tym razem, przewaga nowej generacji nie rzuca na kolana. Karty ATI wypadają w tym teście nieco słabiej.

W związku z tym, że GF6800 różni się od pozostałych testowanych kart ilością pamięci to postanowiłem go uhonorować dodatkowym, dedykowanym testem. Aby było ciekawiej, jako konkurenta wystawiłem mu kartę Radeon 9800Pro. Wprawdzie, po ostatnich obniżkach można już spotkać te karty w cenach ponad 40% niższych niż GF6800 i nie można pisać o tym samym segmencie rynku, ale wiele osób prosiło mnie właśnie o takie porównanie.

W testach wykorzystałem również grę Doom3, która właśnie ukazała się na rynku i niewątpliwie trafi do mojego standardowego zestawu testowego. Na razie będzie to jednak tylko "przymiarka". Niestety nie miałem możliwości wykonania w tej grze testów wszystkich kart występujących w recenzji, bo większość z nich musiałem wcześniej zwrócić. Pomiar dokonany był po drugim przejściu testowego dema demo1.demo, zawartego w grze. Ustawienia jakości "High". Wszystkie efekty włączone. Filtrowanie anizotropowe oraz FSAA włączone w samej grze (Anizo ręcznie w pliku konfiguracyjnym). Karty ATI działały na sterowniku 4.9 beta.

Wszystkie testy wykonałem w trybie 1024x768. Dzięki temu nie może być mowy o problemie z ilością pamięci lokalnej, ale w kilku przypadkach powoduje to zwiększenie wpływu platformy oraz optymalizacji prostych do generacji ramek, w samym sterowniku.

Jak widać, w znakomitej większości przypadków, GF6800 gromi przeciwnika. W kilku grach różnica jest wręcz kolosalna. Są i takie gdzie niewielką przewagę ma karta ATI. W rozdziale "Uczta numerologa" określę sumaryczną wielkość tych różnic i odniosę ją do ceny zakupu kart.

W przypadku gry Doom3 (warto zwrócić uwagę, że po okresie przerwy znowu do mojego kanonu testowego wejdzie gra OpenGL) karty nVidia zachowują się lepiej niż odpowiedniki cenowe ze stajni ATI. Dodam tylko, że w ustawieniach testowych Radeon X800XTPE uzyskał wynik 59,7 fps.



Jakość obrazu: FSAA

Jednym z wielu aspektów rozważań związanych z analizą jakości obrazu jest opis zastosowanych przez karty metod "pełnoekranowego" antyaliasingu (FSAA). W związku z szeregiem różnic związanych zarówno z wpływem efektu na framerate, jak i na generowany obraz, warto bliżej przyjrzeć się temu zagadnieniu. Wstępne informacje (w tym kwestia różnic pomiędzy maskami "Rotated" i "Ordered") podałem w rozdziale opisującym teorię budowy i działania układów, a teraz przyszedł czas na rozwinięcie niektórych zagadnień i konkretne przykłady.

Zacznę od "Temporal FSAA". Jest to nowa koncepcja antyaliasingu, zaproponowana przez ATI, przy okazji prezentacji układów R420. Na czym rzecz polega? Generujemy ramkę obrazu stosując klasyczny model multisamplingowy FSAA (w skrócie: MS FSAA). Kolor pikseli rantów obiektu wyznaczony jest na podstawie próbek pobranych z zestawu kilku innych pikseli, które go otaczają. Ich położenie zawsze określane jest względem obliczanego punktu. Koordynaty wyznacza tzw. maska, która jest stałą dla danej metody i trybu antyaliasingowego. Pomysł ATI jest niemal genialny w swojej prostocie, choć niestety ma kilka poważnych wad. Idea polega na tym, aby do obliczeń użyć dwie, odpowiednio dobrane maski, oparte na tej samej ilości punktów pomiarowych, i stosować je naprzemiennie, zmieniając po każdej wyświetlonej ramce obrazu 3D. Jeśli czas generowania jednej ramki jest wystarczająco krótki to, dzięki bezwładności oka, obraz uzyskany z dwóch masek nałoży się na siebie. Maski uzupełniają się tak, aby po złożeniu obrazów dwóch ramek dać efekt taki sam, jak przy użyciu dwukrotnie większej ilości punktów do obliczeń. Jeśli dla kogoś nie jest to zrozumiałe to może poniższy rysunek przybliży zasadę działania Temporal FSAA.

W podanym przykładzie, za pomocą multisamplingu 2x oraz zmiany ramek "w locie" uzyskujemy obraz taki sam, jak przy FSAA 4x. Inaczej mówiąc, mamy obraz wygładzony tak samo, jak w wyższym trybie, ze stratą framerate typową dla trybu niższego. Piękne, ale są pewne konkretne wady, o których nie należy zapominać. Po pierwsze, jeśli czas przygotowania ramki nie jest wystarczająco krótki, to zobaczymy nieprzyjemne migotanie rantów obiektów, czyli miejsc gdzie działa multisampling. Po drugie, rozważania zakładają nieruchomość obiektów. Jeśli jednocześnie ze zmianą maski nastąpi przesunięcie obiektu to nakładające się obrazy nie uzupełniają się i efekt jest mniej widoczny. W celu eliminacji zjawiska migotania sterownik wyłącza zmianę maski, jeśli ramka jest generowana zbyt długo. Doświadczalnie stwierdzono, że dopiero powyżej 60 fps można mieć pewność, że migotanie nie będzie widoczne.

Aktualne sterowniki są w stanie stosować efekt Temporal FSAA, natomiast wciąż nie jest on dostępny z poziomu zakładek opcji sterownika i aby go włączyć, trzeba posiłkować się tweakerami. Docelowo będzie można go wykorzystać w każdej karcie ATI wyposażonej w multisampling FSAA (praktycznie każda powyżej R9200). Mnie osobiście efekt specjalnie nie zainteresował. Można go stosować jedynie w przypadku mało wymagających gier (kwestia min. 60 fps) i jako element uzupełniający. Natomiast jeśli mamy łatwość w przygotowaniu ramek, to nie widzę przeciwwskazań, aby użyć klasyczny multisampling 4x lub nawet 6x. Niezależny od dynamiki ruchu obiektów, ani od framerate. Tym bardziej, że tryby powyżej 4x nie dają już istotnych zmian w obrazie.

Aktualne sterowniki udostępniają następujące tryby FSAA:

Nad odchodzącym do historii trybem 2xQ, polegającym na wykorzystaniu układu Ramdac w celu uzyskania większego filtrowania "schodków", kosztem ostrości obrazu, nie będę się rozpisywał. Pomysł opracowany jeszcze przez inżynierów firmy 3dfx.

Supersampling (SS FSAA) jest metodą antyalisingową polegającą na niejawnym renderowaniu ramki w rozdzielczości wyższej od wymaganej, dzięki czemu możliwe jest uzyskanie danych do obliczenia "wygładzonego" obrazu w trybie domyślnym. Jest to najstarsza znana metoda FSAA i praktycznie najprostsza do uzyskania. Sprzętowo można jedynie realizować część obliczeń przeliczających tryby, ale zdecydowanie największym kosztem jest sama rozdzielczość generowanych "próbek". Tryb ten, wbrew powszechnej opinii, ma szereg zalet, które są na tyle istotne dla niektórych użytkowników, że została przedstawiona ATI petycja o ponowne wprowadzenie go do aktualnych sterowników, dla układów Dx9. Podstawową zaletą SS FSAA jest fakt, że w odróżnieniu od MS FSAA działa on faktycznie pełnoekranowo. Oznacza to, że nie tylko filtruje ranty samych obiektów sceny 3D, ale również krawędzie, które pojawiają się w samych teksturach. Aby to zobrazować zastosowałem różne tryby FSAA do pojedynczej tekstury przedstawiającej klasyczną szachownicę:

Niezależnie jaki tryb multisamplingowy zastosujemy to różnicy w obrazie nie zobaczymy. Natomiast SS FSAA nie ma najmniejszych problemów z filtrowaniem schodków. Podstawową wadą tej metody jest bardzo poważny spadek framerate, związany z wyższym trybem generowania całej ramki obrazu. Dodatkowo, jak widać na powyższym obrazku, występuje efekt zmniejszenia poziomu detali samych tekstur.

nVidia udostępnia w sterownikach metodę mieszaną, polegającą na jednoczesnym połączeniu SS i MS FSAA. Efektem jest minimalna poprawa rantów obiektów (w stosunku do samego multisamplingu) wraz z możliwością wygładzania samych tekstur. W zależności od wielkości i zawartości tekstur różnica w obrazie, może być zarówno niewidoczna, jak i bardzo znacząca. Niestety poważne obciążenie układu graficznego jest w tej metodzie nieuniknione.

Spróbujmy porównać obraz w zależności od trybu:

Oczywiście zdaje sobie sprawę z tego, że takie zrzuty wywołują u wielu raczej uśmiech politowania. No cóż. Nic innego nie wymyślę. Sądzę, że nieco lepiej ściągnąć wszystkie obrazki na dysk lokalny i przewijać je kolejno w tym samym oknie. Nic jednak nie zastąpi obserwacji efektu w ruchu.

Jako, że obrazki nie są specjalnie czytelne to niezbędny jest dodatkowy komentarz. FSAA 2x wygląda podobnie na wszystkich kartach. Różnice ujawniają się w wyższych trybach. W przypadku Radeonów i GF6 można pisać o zbliżeniu obrazu FSAA 4x natomiast to, co prezentuje GFFX, w nieznacznym tylko stopniu różni się od FSAA 2x. Porównywalną z FSAA 4x jakość filtrowania rantów GFFX osiąga w trybie 6xS. Dodatkowo, w niektórych przypadkach skorzysta na wygładzeniu zawartości tekstur dzięki SS FSAA. Najlepsze filtrowanie brzegów obiektów występuje w trybie 6x ATI oraz 8xS NV40. Z dodatkową korzyścią płynącą z SS FSAA w przypadku układu nVidia. Co do trybu 8xS GFFX to, proszę nie "regulować odbiorników". I nie korzystać z niego.

Skoro wiemy już, jak wygląda obraz to sprawdźmy, jaki jest koszt uzyskania wyższych trybów filtrowania (stosowanie FSAA 2x w kartach tej klasy jest co najmniej nietaktem):

Mam nadzieję, że dane są wystarczająco "czytelne". Włączenie FSAA 4x to, w tym teście, spadek framerate rzędu 50% na starszych kartach i ok. 40% na nowszych. Wyższe tryby już ściśle zależą od użytej metody antyaliasingu. W przypadku nVidia (SS FSAA) jest to 75-80% natomiast ATI (MS FSAA) 50-60%. Oczywiście większy spadek odnotowują karty starszej generacji.

Biorąc pod uwagę zarówno jakość obrazu, jak i spadek framerate najciekawszymi trybami są (jak dla mnie): dla GFFX - 2x, 6xS; dla ATI - 4x, 6x; dla GF6 - 4x, 8xS. Pozostałe nie są specjalnie interesujące z punktu widzenia użytkownika. W przypadku układów nVidia, SS FSAA ma zastosowanie raczej do niższych trybów lub mniej wymagających gier. Przy okazji tego zestawienia mam nadzieję, że niektórzy zrozumieli dlaczego, z pewnym niesmakiem, odnosiłem się do bezpośredniego porównania framerate Radeonów Dx9 i GFFX w trybie 4x. W przypadku testów ATI i GF6 obraz jest już na tyle zbliżony, że ich wyniki są jak najbardziej "kompatybilne".



Jakość obrazu: Filtrowanie tekstur

Na jakość renderowanego obrazu 3D wpływ ma kwestia filtrowania tekstur. Z założenia, trójwymiarowy obraz ma w jak największym stopniu oddawać rzeczywistość, która nas otacza. Większy realizm wymaga większej mocy obliczeniowej od kart graficznych. Optymalizacja jest w tym przypadku metodą na uzyskanie lepszej jakości obrazu niż wynikałoby to z możliwości wydajnościowych konkretnego układu graficznego. Tekstury pokrywające obiekty znajdujące się w pewnym oddaleniu od punktu obserwacji nie muszą mieć tej samej rozdzielczości co te, które oglądamy z bliska, bo nie zobaczymy różnicy. Wystarczy przygotować kilka wersji danej tekstury i stosować je w zależności od położenie względem obserwatora. Problemem natomiast staje się odwzorowanie styku różnych tekstur, gdyż skokowa różnica ich jakości wygląda nienaturalnie. Najlepiej widać to w ruchomej grafice, gdzie na obrazie tworzy się linia będąca granicą tekstur. Aby korzystać z dobrodziejstw oszczędności mocy układu dzięki przetwarzaniu mniejszych tekstur, a jednocześnie nie powodować zakłóceń w obrazie, opracowano szereg algorytmów, które umożliwiają "rozmycie" styku tekstur, a tym samym pozbycie się efektu ubocznego optymalizacji. Najlepsze efekty daje najbardziej kosztowna metoda filtrowania trzyliniowego (trilinear). Ideą kolejnej optymalizacji jest użycie algorytmu, który jest w stanie wskazać miejsca w generowanej ramce, które nie wymagają najwyższej jakości filtrowania, a tym samym pozwalają na kolejne oszczędności mocy układu graficznego. Niestety nie ma idealnych algorytmów optymalizacyjnych i wielokrotnie zdarza się, że stworzony w ten sposób obraz różni się od tego, który nie ma optymalizacji.

W rozdziale opisującym ustawienia testowe zwróciłem uwagę na fakt pozostawienia w stanie domyślnym ustawień sterownika nVidia w zakresie optymalizacji filtrowania tekstur. W stosunku do kart ATI nie mogłem tego napisać nie dlatego, że producent nie optymalizuje filtrowania, ale dlatego, że nie dał możliwości zmiany tego parametru, bezpośrednio w sterowniku. Osobiście jestem bardzo daleki od piętnowania idei samej optymalizacji. Co najwyżej powinno się zwracać uwagę na fakty nieprawidłowego działania tych algorytmów. Również uważam, że najlepiej aby sam użytkownik mógł decydować o użyciu tego "efektu" i dlatego bardziej podoba mi się podejście nVidia. Powiedzmy, że jest to jedynie kwestia pewnej kultury podejścia do użytkownika. ATI natomiast naraziła się ostatnio (fakt, że głównie testującym sprzęt) stosowaniem nieładnej zagrywki. Do zbadania jakości filtrowania (oraz jakości jego optymalizacji) recenzenci używali specjalnych ustawień silnika 3D, które za pomocą różnych kolorów rozdzielały tekstury o różnej jakości. Coś jak swoisty "kontrast" przy zdjęciach rentgenowskich. Sztuczka polegała na tym, że sterownik reagował na włączenie "kontrastu" wyłączeniem optymalizacji i testujący mógł jedynie badać samą jakość filtrowania zamiast filtrowania wraz z optymalizacją. Innymi słowy nie miał szans na szybkie wykrycie błędów w algorytmie optymalizacyjnym.

Nie należy natomiast podchodzić do kwestii samej optymalizacji z negatywnym nastawieniem. Oczywiście, nie można wykluczyć faktu, że producenci układów, pod płaszczykiem błędów optymalizacji będą świadomie zmniejszali jakość filtrowania, aby osiągnąć wyższy framerate w benchmarkach. Sam raczej nie jestem zwolennikiem tak spiskowej teorii. Generalnie w większości przypadków optymalizacja działa poprawnie i końcowy efekt nie różni się od tego, który byśmy osiągnęli bez niej, a ramki są renderowanej wyraźnie szybciej. Faktem jest również to, że można znaleźć sporo przypadków, gdzie obraz faktycznie jest gorszy. Ja bym jednak tego nie demonizował.

W związku z tym, że są metody aby wyłączyć optymalizację filtrowania również na kartach ATI mógłbym testować karty i bez niej, ale nie robię tego z dwóch powodów. Po pierwsze uważam, że algorytmy optymalizacji służą również (lub przede wszystkim) samym użytkownikom, a po drugie, ani ustawienie sterownika nVidia, ani wpisy do rejestrów ATI, które mają mieć ten sam skutek nie gwarantują całkowitego braku optymalizacji filtrowania. Dlatego wolę pozostawić je włączone.

Oczywiście nic nie stoi na przeszkodzie, aby sprawdzić jaki mają one wpływ na framerate. Przykładowe wyniki testów pokazuje poniższa tabela.

Jak widać różnica potrafi być spora i zależy od konkretnej gry. W testowych przypadkach nie zauważyłem negatywnego wpływu optymalizacji na obraz. Po prostu jej wyłączenie zmniejsza framerate.

Drugą kwestią jest sprawa jakości filtrowania anizotropowego oraz obciążenia układu, jakie on powoduje. Filtrowanie anizotropowe umożliwia dokładniejsze przestawienie tekstur znajdujących się w większym oddaleniu od "obserwatora". Algorytm opiera się na metodzie próbek. Karty ATI oraz GF6 umożliwiają włączenie filtrowania anizotropowego 2/4/8/16x, natomiast GeForceFX 2/4/8x. Warto zwrócić uwagę na to, że od dłuższego czasu stosuje się optymalizowane metody filtrowania, których działanie ma się ograniczać jedynie do obszarów gdzie wystąpi "widzialny" efekt jego działania. Tak jak można wyłączyć (przynajmniej mam taką nadzieję) optymalizację przejść pomiędzy teksturami filtrowanymi anizotropowo, tak nie można ograniczyć "wybiórczego" działania samego efektu. Jest to niezmiernie ważne, bo wystarczy sobie wyobrazić, że filtrowanie anizotropowe x16 (wraz z trzyliniowym) wymaga zastosowania do obliczeń 128-miu próbek. Gdyby nie optymalizacja to liniowy przyrost ilości próbek musiałby powodować liniowy spadek framerate. Nic takiego jednak nie występuje w nowoczesnych układach graficznych.

Im wyższy tryb tym mniejszy jest spadek framerate. Jak widać na przykładzie FarCry algorytm ATI wydaje się nieco wydajniejszy. Trzeba również zdawać sobie sprawę z tego, że dzięki różnym procedurom optymalizacji nie można spodziewać się takiego samego obrazu na różnych kartach. Zawsze będą jakieś różnice.

Najładniej wygląda filtrowanie anizotropowe na kartach GeForceFX (oczywiście kosztem framerate). Nie występuje tu znane zjawisko zaniku filtrowania w niektórych położeniach tekstury. W nowej generacji GeForce nVidia zmieniła nieco algorytm upodabniając go do "dokonań" konkurencji, choć jak pokazują przykłady, nadal w kwestii wydajności efektu palmę pierwszeństwa zachowuje ATI. Natomiast jakość stała się bardzo zbliżona i raczej trudno nam będzie znaleźć większe różnice pomiędzy nimi.

Na koniec, dla zainteresowanych, seria zrzutów z programu generującego obraz testowy poddany efektowi filtrowania anizotropowego (duże zrzuty w pliku .zip).


(kliknij, aby powiększyć)





Podkręcanie

Przyszedł czas na sprawdzenie możliwości nadtaktowania testowanych kart. Oczywiście najważniejsza jest, nie sama różnica częstotliwości zegarów, ale wpływ jakie mają one na wzrost średniego framerate. Wyznaczam go za pomocą testów Tomb Raider AOD oraz Splinter Cell. Pierwszy doskonale reaguje na zmiany taktowania rdzenia natomiast drugi, na różnicę w przepustowości kanału pamięci.

Średnia z tych dwóch przyrostów wyznacza możliwość maksymalnego, spodziewanego poprawienia wyników po podkręceniu kart. Przypominam, że dotyczy to konkretnych modeli i egzemplarzy danych kart.

Ujmę to tak: Abit Radeon 9800 XT i Sapphire Radeon X800XT PE praktycznie się nie podkręcają, MSI/Gainward GF6800U oraz Gainward GFFX 5950U bardzo słabo, nVidia/Gainward GF6800GT i Sapphire Radeon X800 Pro przeciętnie, a PoV GF6800 w miarę nieźle. Zachwytu nie ma, choć w przypadku testowanego GF6800 sprawa jest już na pewno godna rozważenia.

Sądzę, że w tym miejscu warto napisać kilka słów na temat możliwości odblokowania Quad'ów w słabszych wersjach kart nowej generacji. Jeśli chodzi o GF6800 to jak na razie nikt (oprócz producenta) nie wie jak można to zrobić, choć parę osób "pracuje nad tym" (ostatnio powiało optymizmem w tej kwestii, ale na razie brak konkretów). Oczywiście nie można ani wykluczyć ani mieć pewności, że będzie to możliwe. Niewątpliwie byłby to znaczący element w decyzji o wyborze karty gdyż kwestia ilości potoków pikseli ma bardzo istotny wpływ na przetwarzanie nowych gier 3D. W przypadku RX800Pro sprawa sprowadza się do połączenia dwóch punktów wyprowadzonych na obudowę układu graficznego i zmiany biosa. Niestety punkty pokryte są lakierem i bez fizycznej ingerencji (zdrapanie warstwy ochronnej), a tym samym utraty gwarancji, nie można się obejść. Trzeba również pamiętać o sprawie taktowania. Klasyczny 12-topotokowiec ma słabsze (przynajmniej teoretycznie) pamięci, a i rdzeń może nie być w stanie osiągać taktowania wersji XT PE. O tym, że nikt nie zagwarantuje poprawnej pracy wszystkich Quad'ów, w konkretnym egzemplarzu chyba nie muszę wspominać (część układów jest fizycznie uszkodzona). Z drugiej strony warto zwrócić uwagę na fakt pojawienia się na rynku nieco droższych X800Pro w wersji VIVO. Okazało się, że nie tylko mają one połączony mostek na rdzeniu, ale także wyposażono je w pamięci 1.6ns. W takim układzie, do odblokowania karty wystarczy zmiana biosa, a przeróbka nie niesie za sobą utraty gwarancji.

Trzeba jednak pamiętać, że taka sytuacja może mieć charakter czasowy i następne partie wersji VIVO równie dobrze mogą mieć przecięty mostek czy słabsze pamięci. Pomimo, że w teście nie występuje taka karta (X800Pro VIVO) to niniejszym chciałbym na nią zwrócić uwagę potencjalnych nabywców. Moim zdaniem zasługuje na zainteresowanie.



Uczta numerologa

Mam nadzieję, że ilość testów jest wystarczająca dla właściwego określenia możliwości kart. Proponuję trochę matematyki systematyzującej wyniki osiągane w benchmarkach. W związku z brakiem wyników Gun Metal 2 dla wszystkich kart, nie bierze on, podobnie jak testy typowo syntetyczne, udziału w porównaniu.

Już w poprzednich recenzjach opisywałem swoją metodę zestawiania wyników. W skrócie, jest to przeliczenie różnic wyników na skalę punktową 0-10 (najlepszy wynik dostaje 10 punktów, a reszta proporcjonalnie), wyciągnięcie średniej i porównanie jej w skali procentowej. Przypominam, że jest to konkurs wyników, a nie wydajności.

Końcowe zestawienie wygląda następująco:

Najpierw kilka słów należy się karcie GF6800. Jako, że nie przeszła jednego testu to wynik jest średnią tylko tych, które "zaliczyła". Oczywiście ktoś mógłby twierdzić, że skoro tym testem była gra, która gorzej działa na kartach nVidia niż ATI, to w ten sposób pozycja karty wzrosła "sztucznie". To prawda, ale z drugiej strony cały zakres testów przygotowany był dla kart wyposażonych w 256MB pamięci lokalnej i w zasadzie GF6800 osiągnął wynik, który faktycznie nieco go krzywdzi. Warto o tym pamiętać.

Zwycięzcą porównania wyników testów została karta Radeon X800XTPE, osiągając prawie 10-procentową przewagę nad drugą w kolejności GeForce 6800 Ultra. Trzeci uplasował się GF6800 GT, wyprzedzając RX800Pro o 5%. Następny jest, z dużą stratą, GF6800, który osiągnął niewielką przewagę nad R9800XT. Stawkę zamyka FX5950. Dodatkowo warto zauważyć, że X800XTPE osiąga 2x wyższe wyniki od leadera poprzedniej generacji. To bardzo duży skok. Jeszcze większa jest różnica pomiędzy generacjami nVidia. Gratulujemy ATI, gratulujemy nVidia. Nowe produkty wręcz rozgramiają swoich poprzedników.

Jak zwykle, interesujące jest również to, jak przekłada się to na cenę, jaką musimy tą punktację opłacić. Przybliżone, minimalne ceny kart opartych na danym układzie zostały porównane do wyników "uczty numerologa".

Również i w tym porównaniu warto spojrzeć na GF6800 nieco łagodniej, niż wynikałoby to z tabeli. Praktycznie, jak dla mnie X800Pro, X800XT, GF6800 oraz GF6800GT mają dobrze określoną cenę w stosunku do wyników testów z recenzji. Nieco słabiej wypada w tym zestawieniu GF6800Ultra, natomiast R9800XT czy FX5950 wydają się zdecydowanie za drogie, w stosunku do swoich możliwości.

Jako, że zrobiłem dodatkowe porównanie kart Radeon 9800 Pro i GeForce 6800 (obie wyposażone w 128MB pamięci lokalnej) to nic nie stoi na przeszkodzie, aby stworzyć dla nich oddzielne tabele "uczty numerologa". W związku z tym, że ustawienia testów były już inne, to tym razem GF6800 nie może mieć żadnej taryfy ulgowej.

Wnioski są następujące. GF6800 jest oczywiście wyraźnie mocniejszy od R9800Pro, ale w związku z dużą różnicą w cenie jego "opłacalność" jest już nieco niższa. Przyrost mocy jest konkretny, ale "dusigrosz" musi się liczyć z tym, że nie do końca pokryje on dodatkowy koszt zakupu.



Podsumowanie

W końcu nadszedł upragniony czas próby podsumowania możliwości kart nowej generacji. Dawno nie miałem tyle pytań o wybór kart spośród nowości. Sam jestem zdziwiony, że tak wiele osób jest w stanie wydać tak znaczną kwotę, aby cieszyć się tymi zabawkami.

Karty poprzedniej generacji wprawdzie osiągały kwoty zbliżone do tych, które musimy wydać na nowości, ale dostępne były również niżej taktowane wersje, oparte na tej samej architekturze potoków, wyposażone w 128MB pamięci lokalnej (256-bitów), w cenach poniżej 1000 zł. Chodzi oczywiście o R9800Pro i GFFX5900XT. Zainteresowani dodatkowym zastrzykiem wydajności mogli oczywiście zdecydować się na wydanie niemal dwukrotnie większej kwoty za wyżej taktowane wersje 256MB, ale różnica w realnym działaniu gier nie pokrywała dopłaty, nawet w niewielkim procencie. Dlatego też użytkownicy mogli cieszyć się niemal pełnią wydajności poprzedniej generacji przy kartach ze średniej półki cenowej. Taka sytuacja jest typowa dla zmierzchu generacji układów graficznych. Po niej niestety przychodzi czas wyboru. Albo płacimy znacznie więcej i mamy prawdziwą nowość, albo czekamy aż produkty stanieją.

W przypadku poprzedniej generacji kart, w zdecydowanej ilości przypadków, osobiście raczej wskazywałem, w konkretnych przedziałach cenowych, na karty oparte na układach ATI. Wynikało to z faktu, że moim zdaniem seria GeForceFX nie była specjalnie udanym produktem nVidia, w porównaniu do konkurencji. Pomimo, że nafaszerowano go całą serią ciekawych rozszerzeń standardu Dx9 to wydajność przetwarzania najnowszych shaderów wyraźnie "kulała", a do tego zabrakło kilku istotnych elementów tworzenia wysokiej jakości obrazu 3D z poziomu hardware. Czy coś się zmieniło od tego czasu? Nie będę ukrywał, że sporo.

Nowe układy, zarówno od ATI, jak i od nVidia przede wszystkim cechuje bajeczny wręcz skok możliwości w dziedzinie wydajności przetwarzania 3D. Aby to osiągnąć, musiał nastąpić niemal trzykrotny wzrost fillrate, zastosowano najnowsze rodzaje pamięci, wzmocniono jednostki arytmetycznie, zastosowano szereg optymalizacji. Rdzenie rozrosły się do niespotykanych dotychczas wielkości, a do karmienia ich energią potrzeba było przebudować układy zasilania. Projektanci wykonali potężną robotę "pichcąc" nam te potwory. Zdecydowanie więcej pracy wykonali inżynierowie nVidia, ale też oni mieli więcej do zrobienia. Pomimo, że marketing próbował utwierdzać klientów w przekonaniu o świetności serii NV30, to oczywiście doskonale zdawano sobie sprawę ze wszystkich niedociągnięć architektonicznych. Najnowsze dziecko bezwstydnie odrzuciło dopisek FX, aby odciąć się od jakichkolwiek powiązań z niezbyt udanym poprzednikiem, choć oczywiście był on bazą do projektu nowego układu.

Nie ukrywam, że seria GeForce 6800 zaprezentowała się znakomicie. Wszystko wskazuje na to, że nVidia dokonała zmian, które niemal całkowicie uzdrowiły rdzeń pierwotnej architektury FX. Wraz ze wzrostem skuteczności jednostek arytmetycznych zniknęły dodatkowe hamulce w postaci niedostatecznej ilości rejestrów, pojawiło się bardzo ważne filtrowanie tekstur z precyzją zmiennoprzecinkową, czy możliwość obsługi wielu obszarów renderowania. Najprościej ujmując nastąpił potężny skok efektywności działania pojedynczego potoku. Oczywiście większość miłośników kart graficznych na pierwszy plan wysunie kwestię modelu shaderów, określonych cyfrą "3". Jest to o tyle naturalne, że taki właśnie obraz narzuca nam marketing producenta. To, co w zasadzie jest najważniejsze, niekoniecznie musi być chwytliwe dla potencjalnego klienta, więc lansuje się proste hasła, które mają najlepszy wpływ na sprzedaż. Przykładów można znaleźć wiele. Znakomicie brzmi uwypuklanie jakości FP32, a prawdziwa siła precyzji obliczeń układu nVidia tkwi tak naprawdę w tym, że jest to układ 2x16 i można łatwo uzyskać realny przyrost mocy kosztem tak nieznacznej różnicy w jakości obrazu w grach, że w zasadzie nie jest potrzebna graczom. Łatwiej jednak "sprzedawać" jakość FP32 niż wydajność FP16, bo zawsze znajdzie się szereg krzykaczy, którzy będą próbowali udowadniać, jakie to wielkie straty ponosi generowany w ten sposób obraz.

Mnie osobiście takie podejście zupełnie nie odpowiada, więc niezmordowanie próbuję wyciągać i uwypuklać to, co jest faktycznie ważne, zamiast sloganów marketingowych. SM3 nie zrobiło na mnie żadnego większego wrażenia. Kosztem sporej ilości tranzystorów, wprowadzono kilka dodatków, które zapewniają zgodność z wcześniej ustalonym standardem i możliwość uzyskania laurki w postaci odpowiedniej nazwy i pozbycia się kilku ograniczeń ze strony API. Cześć z dodatków została wprowadzona w wersji tak minimalistycznej, że nie sądzę aby sam producent wierzył w realną możliwość ich wykorzystania, część może mieć istotny wpływ na przetwarzanie nowych gier, ale w sam raz konkurencja również je oferuje, a pozostała część to kilka elementów, które przy odpowiednim wsparciu ze strony producentów oprogramowania mogą ewentualnie dać pewne, dodatkowe korzyści wydajnościowe. Przykładem tego ostatniego jest na przykład rozsławiona przez FarCry sprawa jednoprzebiegowego przetwarzania kilku źródeł światła (SM2 = 2 źródła, SM2B = 3 źródła, SM3 = 4 źródła światła). Wszystko to razem tworzy dumnie brzmiącą nazwę modelu shaderów, której najistotniejszym elementem jest cyferka, wyższa niż u konkurencji. Nie ważne, że w zasadzie realnie oznacza niewiele. Numerologia działa zawsze najskuteczniej, a marketing nawet z jednego dodatkowego włoska potrafi zrobić linę okrętową.

Przy projektowaniu nowych układów oczywiście zawsze trzeba ponieść pewne ryzyko. W przypadku nVidia jest to kwestia kosztów wprowadzenia zgodności z nowszym standardem. Dodatkowe tranzystory to większy problem energetyczny i w efekcie nieco niższy niż u konkurencji fillrate, wynikający z trudności uzyskania pożądanego taktowania przy klasycznych konstrukcjach chłodzenia. Efektem jest (średnio) nieco niższa wydajność w typowych silnikach 3D. Jednak na nieporównanie większe ryzyko marketingowe zdecydowała się firma ATI. Zamiast podążyć tropem rozszerzenia funkcji przetwarzania, wprowadzone jedynie optymalizację dotychczasowej architektury pojedynczego potoku pikseli. Dzięki temu układ jest nieco mocniejszy niż u konkurencji, i do tego ma mniejsze zapotrzebowanie na energię. To wszystko jest jednak w zasadzie zasługą jego poprzednika. Już samo to, że zdecydowano się, w obliczu kroków konkurencji, na następną (prawdopodobnie ostatnią) reinkarnację potoku R300, chyba najlepiej świadczy o tym, jak bardzo był on rewolucyjny w momencie swojego wejścia na rynek. ATI dotychczas nie skonsumowała zysku związanego z przejściem na technologię krzemu 0.13um, co w połączeniu z materiałem low-k umożliwiło minimalizację kosztów wydania układu nowej generacji. Z drugiej strony, wobec rozwinięcia możliwości konkurenta stracili cały impet marketingowy. Jak wcześniej wspomniałem, nastały czasy, gdy zdecydowanie łatwiej "sprzedać" jakość niż wydajność. Niezależnie od tego czy są to wielkości prawdziwe, czy wirtualne. Skoro jednak zasugerowałem wcześniej, że NV40 w kwestii swoich możliwości raczej realnie dopadł, czy przebił w niewielkim stopniu przeciwnika, więc gdzie tkwi prawdziwa siła nowych kart nVidia, w odniesieniu do konkurencji?

Po pierwsze, w końcu nVidia dorobiła się układu, który nie ma ewidentnie słabych punktów, w stosunku do Radeonów. Wyłuskano i zniwelowano niemal wszystkie "wąskie gardła" własnej architektury. Nawet jeśli w kilku fragmentach przetwarzania NV40 pozostaje w tyle, to nie jest to już różnica klas i nie powinno stanowić to realnego problemu. Po drugie, pomimo mniej lub bardziej pozornych wysiłków ATI w dążeniu do stworzenia idealnych sterowników, wciąż można mieć do nich szereg zastrzeżeń. W tej kwestii nVidia pozostaje liderem. Ostatnio, szczególnie głośno zrobiło się na temat OpenGL, ze względu na pojawienie się na rynku silnika nowej generacji, stworzonego przez IDSoftware, co zawsze jest wydarzeniem wśród miłośników gier komputerowych. Nie jest tajemnicą, że aktualny sterownik OpenGL nie jest najmocniejszym punktem programistów ATI, o czym świadczy choćby fakt obietnicy (i to już ze dwa lata temu) jego napisania praktycznie od nowa. Jak dotąd jednak, jedynie skończyło się na samych obietnicach. Po trzecie nVidia zdecydowanie prowadzi bardziej praktyczną dla swoich klientów (choć oczywiście kosztowną dla siebie) działalność w zakresie wspierania producentów oprogramowania i skłaniania ich do jak największej optymalizacji silników 3D, w stosunku do swoich produktów. Przykładami tego typu działań może być wspomniany Doom3 czy FarCry. W przypadku tego pierwszego ATI wyraźnie zlekceważyło wpływ IDSoftware i dalszy rozwój OpenGL, natomiast nVidia rozegrała to wręcz pokazowo. Swoją drogą to raczej należy pisać o tym, że GeForce został zoptymalizowany pod silnik Doom3 niż odwrotnie. Potencjalny klient zawsze będzie utożsamiał wydajność karty z jej zachowaniem na danym silniku 3D. Im gra jest lepsza tym większe znaczenie ma wynik "zawodów" w tym konkretnym "zastosowaniu". Na koniec trzeba dodać, że choć nie obyło się bez kilku ewidentnych wpadek, to jednak w porównaniu działań marketingowych aktywność nVidia wydaje mi się zdecydowanie wyższa. I nie tylko chodzi o sam fakt stworzenia i wylansowania kilku chwytliwych haseł.

Czy nowa generacja ATI jest wobec tego od razu na przegranej pozycji? Niekoniecznie. Karty serii X800 też mają swoje zalety. Po pierwsze mają znakomitą wydajność. Na Doom3 świat gier się nie kończy. Testy wykazują, że nowe karty ATI mają nieco większą wydajność w większości pozostałych gier, a architektura przetwarzania nie wymaga daleko idących optymalizacji ze strony oprogramowania, aby karty rozwijały "skrzydła". Do tego, według najświeższych informacji, kolejna z długo oczekiwanych gier, które mogą stać się przebojem zdecydowanie lepiej działa na kartach ATI. Chodzi oczywiście o Half-Life2. Warto jednak zwrócić uwagę na to, że nie należy za pomocą jednej gry wysnuwać zbyt daleko idących wniosków, na temat potencjału konkretnych kart. Rozbieżności zawsze były i w ogólnych porównaniach trzeba posługiwać się uśrednieniem wyników, jak największej ilości testów. Kolejnym mocnym punktem ATI są znakomite własności użytkowe nowych kart. Niemal bezszmerowa praca układu chłodzenia, niewielkie gabaryty, niższy od konkurencji pobór mocy. Jako, że coraz więcej użytkowników zwraca uwagę na te kwestie oraz biorąc pod uwagę fakt sukcesu rynkowego małych pecetów, wyposażonych w słabsze zasilacze, może mieć to konkretne znaczenie.

Osobiście daleki jestem od uznania zdecydowanej wyższości zarówno nowych kart GeForce nad Radeonami jak i odwrotnie. Społeczność entuzjastów sprzętu siłowo stara się, za wszelką cenę, udowodnić jakąś wyższość danych rozwiązań nad innymi, często podświadomie posługując się orężem dostarczonym przez żądny krwi marketing producentów (takie "wojenki" znakomicie wpływają na sprzedaż). Dla mnie, wybierając dowolne z testowanych rozwiązań nowej generacji nie popełnia się błędu pod warunkiem wiedzy o realnych wadach i zaletach każdego z nich.

Karty serii GeForce 6800 proponowałbym tym, którzy:
  • Mają zaufanie do kart GeForce
  • Zależy im na najwyższej wydajności w Doom3
  • Chcą mieć kartę o największej ilości funkcji 3D
Karty serii Radeon X800 proponowałbym tym, którzy:
  • Mają zaufanie do kart Radeon
  • Zależy im na najwyższej wydajności w HL2
  • Cenią sobie ciszę działania peceta
Wiele osób pyta mnie wprost, co wybrałem dla siebie, spośród testowanych kart nowej generacji. Zgodnie z prawdą odpowiadam: żadnej. Po prostu z założenia nie kupuję kart droższych niż 1000 zł. Tym bardziej, że sytuacja związana z pojawiającym się na rynku oprogramowaniem nie zmusza mnie do takich wydatków. Z Doom3 włącznie. Gdybym jednak nie miał takich oporów to byłby to albo GeForce 6800 GT pod warunkiem znalezienia do niego cichego chłodzenia, albo Radeon X800 Pro VIVO pod warunkiem wersji z połączonym mostkiem i z pamięciami 1.6ns. Po testach Doom3, a przed wydaniem Half-Life2, jak na razie ze wskazaniem na tego pierwszego.


PoV (Point of View)
GeForce 6800

nVidia
GeForce 6800 GT

MSI NX6800 Ultra-T2D256
GeForce 6800 Ultra

Sapphire Radeon
X800 Pro

Sapphire Radeon
X800 XT Platinium Edition

?
?

Na koniec laurki dla kart biorących udział w tym porównaniu. Oczywiście wszystkie nowe karty zachwycają swoją wydajnością oraz jakością obrazu. Każdą z kart mogę z czystym sumieniem polecić. Nikt, kto zdecyduje się na ich zakup nie powinien być rozczarowany (pomijając kwestię finansową). Natomiast w związku z tym, że moim zdaniem ceny (również z uwagi na wciąż ograniczoną dostępność) nie są jeszcze całkowicie stabilne, to nie mogę specjalnie wyróżniać żadnej z nich ze względu na koszt zakupu. Nie mogę się jednak powstrzymać przed przyznaniem dwóch wyróżnień. Bezapelacyjnie zasługują na nie dwie najmocniejsze karty obydwu producentów. To właśnie one są okrętami flagowymi ciągnącymi całą flotyllę nowej generacji i producentom należą się wielkie brawa za ich stworzenie. Dodatkowo chciałbym wyróżnić wersję GT Gainwarda za znaczące uatrakcyjnienie projektu referencyjnego. Te wspaniałe, szesnastopotokowe potwory zasługują na najwyższy szacunek. Po dwóch latach na rynek wchodzi nowa generacja kart, których możliwości, a przede wszystkim wydajność mają szansę zaowocować powstaniem gier o zupełnie nowej klasie realizmu w przedstawianiu wirtualnej rzeczywistości. Mam nadzieję, że programiści szybko wykorzystają furtkę otwartą przez nową generację kart ATI i nVidia, bo bez tego, tym znakomitym produktom pozostaje jedynie rola ekstrawaganckiej grzałki i "młotka" do okładania się wysokimi wynikami testów fps w grach, które znakomicie działają na starszym i znacznie tańszym sprzęcie.

TwojePC - OK!
Gainward GeForceFX 5950 Ultra : Średnia wydajność, bardzo dobra jakość obrazu, bardzo bogate wyposażenie, głośne chłodzenie, słaba podkręcalność, bardzo duże obciążenie zasilacza


TwojePC - OK!
Abit Radeon 9800 XT : Średnia wydajność, bardzo dobra jakość obrazu, kompletne wyposażenie, głośne chłodzenie, bardzo słaba podkręcalność, spore obciążenie zasilacza


TwojePC - OK!
Sapphire Radeon X800 Pro : Wysoka wydajność, bardzo dobra jakość obrazu, kompletne wyposażenie, bardzo ciche chłodzenie, przeciętna podkręcalność, stosunkowo małe obciążenie zasilacza


TwojePC - WYRÓŻNIENIE! TwojePC - OK!
MSI GeForce 6800 Ultra : Najwyższa wydajność, bardzo dobra jakość obrazu, bardzo bogate wyposażenie, głośne chłodzenie, słaba podkręcalność, bardzo duże obciążenie zasilacza


TwojePC - OK!
nVidia GeForce 6800 GT : Bardzo wysoka wydajność, bardzo dobra jakość obrazu, głośne chłodzenie, przeciętna podkręcalność, duże obciążenie zasilacza


TwojePC - OK!
PoV GeForce 6800 : Dobra wydajność, bardzo dobra jakość obrazu, ponadprzeciętne wyposażenie, średnia głośność chłodzenia, dobra podkręcalność, spore obciążenie zasilacza


TwojePC - WYRÓŻNIENIE! TwojePC - OK!
Sapphire Radeon X800 XT Platinium Edition : Najwyższa wydajność, bardzo dobra jakość obrazu, bogate wyposażenie, bardzo ciche chłodzenie, bardzo słaba podkręcalność, spore obciążenie zasilacza


TwojePC - OK!
Gainward GeForce 6800 Ultra : Najwyższa wydajność, bardzo dobra jakość obrazu, głośne chłodzenie, słaba podkręcalność, bardzo duże obciążenie zasilacza, bardzo dobre warunki serwisowe


TwojePC - WYRÓŻNIENIE! TwojePC - OK!
Gainward GeForce 6800 GT : Najwyższa wydajność (gwarantowane o/c do poziomu GF6800 Ultra), bardzo dobra jakość obrazu, głośne chłodzenie, przeciętna podkręcalność, bardzo duże obciążenie zasilacza, bardzo dobre warunki serwisowe




  Sprzęt do testów dostarczyły firmy:

Multimedia Vision      Multimedia Vision

MSI Polska      MSI Polska

ABIT Polska      ABIT Polska

Sapphire, Inc.      Sapphire, Inc.

Barwkomp      Barwkomp
    • ul. Jeżycka 29
    • 60-864 Poznań
    • tel. 0-61 (prefix) 8472130
    • 0-61 (prefix) 8439296