Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
RECENZJE | Radeon X1800 XT - nowa architektura ATI
    

 

Radeon X1800 XT - nowa architektura ATI


 Autor: Kris | Data: 17/01/06

Bajery technologiczne

Zmiany w strukturze krzemowej powinny pociągać za sobą konkretne korzyści dla użytkownika. Zdecydowaną większość z nich stanowi od dawna stosunkowo słabo "sprzedająca" się sucha informacja o zwiększeniu wydajności. W związku z tym producenci bombardują nas materiałami reklamującymi szereg bardziej lub mniej innowacyjnych technologii o wysoce chwytliwych nazwach. Niektóre z tych informacji są istotne natomiast inne zdecydowanie zaliczam do przerostu formy nad treścią. Najważniejsze słowa w nowym słowniczku ATI brzmią następująco (w oryginale):

Ultra-Threaded Shader Engine

Nowa architektura 3D musi mieć swoją nazwę. Nasuwają się skojarzenia z HT Intela i być może w jakimś stopniu mają pokrycie w funkcjonalności. Nie można się pochwalić ani ilością TMU, ani ilością shaderów bo konkurencja ma ich więcej (o potokach, które w zasadzie przestały istnieć, nawet nie wspominam) więc naturalnie eksponowana jest nowa zasada dystrybucji zasobów "silnika" pikseli. Oczywiście sukces zależy od realnych możliwości lepszego ich wykorzystania, czyli faktycznej różnicy wydajności w stosunku do poprzednika. Tym nie mniej jest to realna nowość i niezła baza w procesie tworzenia kolejnych produktów.

Shader Model 3.0

Pieśn przyszłości, którą już dziś wyśpiewuje nam marketing. Do znudzenia. Kilka realnie mało istotnych (z punktu widzenia użytkownika) dodatków do poprzednich modeli shaderów, ale za to szum medialny godny stadionu olimpijskiego. W związku z tym, że poprzednie produkty ATI nie wspierały tej specyfikacji stał się on najważniejszym orężem reklamowym poprzednich produktów nVidia. Niestety producentom chyba udało się zrobić nam wodę z mózgu, bo faktycznie przynajmniej część klientów zaczęła głośno dopominać się o SM3.0. Najważniejszą różnicą jest możliwość implementacji dynamicznej kontroli przebiegu programu shadera i eliminacja zbędnego powtarzania tych samych fragmentów kodu. Problem w tym, że aby to miało realne znaczenie dla sprawności procesu to trzeba chcieć wykorzystać faktycznie duży program operujący na pikselach. Do tego potrzeba mieć odpowiednią moc układu bo kogo ucieszy np. dwukrotnie większy framerate skoro wciąż nie ma płynnej grafiki. Do tego testy wykazały, że obsługa dynamicznych rozgałęzień shadera idzie GeForce'om wyjątkowo niesprawnie i potrafi zjeść cały zysk z ich zastosowania. Być może w przypadku RX1800XT, dzięki dedykowanym jednostkom arytmetycznym procesora shaderów, stosowanie SM3.0 nabierze większego sensu ale osobiście specjalnie bym się na tym nie koncentrował. Jak dla mnie główną zaletą wprowadzenia przez ATI SM3.0 do nowych układów jest kwestia ujednolicenia standardu. Skoro główni gracze na rynku dysponują zgodnym hardware, i to zarówno w postaci kart do pecetów, jak i konsol do gier, to już nic nie powinno przeszkodzić programistom w przystosowaniu się do nowych warunków.

HDR (High Dynamic Range)

Rewelacją tego skądinąd ładnego efektu wizualnego jest fakt udanego ogłupienia przez marketing nieświadomych użytkowników, w stopniu przekraczającym moje możliwości wytłumaczenia tego zjawiska. HDR to techniki obliczeń kolorów pikseli pozwalające na symulowania reakcji ludzkiego oka na zmiany natężenia oświetlenia. Sprzętowy HDR może być realizowany wieloma metodami związanymi z możliwościami konkretnych układów graficznych, prowadzącymi do zróżnicowania jakości obrazu wynikowego w zależności od modelu implementacji efektu. Nieźle wyglądające i całkiem sprawnie obliczane efekty HDR można już było oglądać na starszych kartach ATI, ale programiści specjalnie się nie kwapili do ich realizacji w silnikach gier. Zainteresowanie efektem wróciło wraz pojawieniem się układu NV40. nVidia postanowiła sprzętowo wesprzeć znany z produkcji najnowszych filmów format zapisu obrazów HDR o nazwie OpenEXR, opracowany przez firmę ILM (Industrial Light & Magic). A konkretnie jeden z formatów OpenEXR wykorzystujący 16-bitową zmiennoprzecinkową reprezentację koloru (są również formaty stałoprzecinkowe oraz FP32).

Bez tradycyjnej dygresji chyba się tym razem nie obejdzie. Jako, że jest to poważny slogan marketingowy nowszych kart GeForce to wokół tematu namnożyło się wiele przedziwnych tez. Można usłyszeć m.in. o konieczności wsparcia SM3.0 dla HDR, braku HDR na Radeonach czy o podziałach na "pseudo" i "prawdziwy" HDR. Nic z tych rzeczy. Oczywiście można w tym miejscu dać rozbudowany opis możliwych do implementacji metod HDR w zależności od hardware, ale chciałbym zwrócić uwagę na nieco inny aspekt. Kwestia HDR faktycznie pomogła w sprzedaży GF6, a najprostszym dowodem na to jest właśnie R520. Z mojego (mam nadzieję, że nie tylko ja mam takie odczucia) punktu widzienia wygląda to nieco dziwnie. Mam aktualnie zainstalowane w domu trzy gry umożliwiające HDR rendering: FarCry, HL2 i SCCT. Z tego jedynie ta pierwsza wykorzystuje format OpenEXR, oczywiście w trybie zgodnym z metodą nVidia i do tego wsparcie jest w stadium beta. W efekcie jego działania nie można włączyć FSAA, framerate "siada" w sposób uniemożliwiający użycie wyższych trybów graficznych a bywa, że i obraz kompletnie mi się "rozjeżdża" po kilku minutach grania (jakby ktoś mi wlał różowego budyniu do monitora). Dla przeciwwagi jest SCCT i HL2 z implementacją działającą również na Radeonach, z mniejszym spadkiem framerate, a w przypadku HL2 również z działającym FSAA. Można oczywiście wnikać w kwestie techniczne realnych możliwości skojarzenia obsługi FP framebuffera z multisamplingiem, różnic wydajności pomiędzy filtrowaniem tekstur FP w TMU i PS, zastąpienia FP framebuffera przez renderowanie do tekstur FP, czy posiłkować się całą serią podobnie trudnych wyrażeń. Tylko po co? Z mojego punktu widzienia wygląda to na wielkie zamieszanie wprowadzone przez jedną grę i do tego w wysoce nieefektywny sposób. Jak mam uwierzyć, że format HDR FP16 (nie tylko w zapisie OpenEXR) zostanie przyjęty i do tego jeszcze nie spowoduje takich strat ubocznych (framerate, FSAA) jak w FarCry?

Sam HDR jest bardzo interesującym efektem, ale nie chcę dać się zwariować. W kwestii implementacji interesowałoby mnie mnie jaka jest realna różnica w obrazie w zależności od rodzaju reprezentacji koloru i odpowiadający mu koszt framerate, wielkość wparcia w ciągu roku, możliwość ujednolicenia formatu zapisu itp. Tego niestety nie wiem, ale za to mam agresywny marketing związany z wejściem kolejnej karty, który sprzedaje mi informacje o tym, że nie tylko wspiera HDR z formatem koloru FP16, ale jeszcze dopali do tego multisampling. Czy mam to rozumieć, że muszę ją mieć bo za pół roku pojawi się kolejny beta-paczyk do FarCry, który da równie ślamazarną implementację, którą jeszcze z sukcesem obłożę wygładzaniem krawędzi? Albo będzie jeszcze gorzej, bo w zasadzie nie wiem jak poradzi sobie R520 z filtrowaniem FP i tone mappingiem na shaderach (nie ma filtrowania FP w TMU, ani przeliczania na format RGBA w RAMDAC jak GeForce). Być może się mylę (chciałbym), ale dla mnie to brzmi tak samo pusto i marketingowo jak osławiony HDR w NV40. nVidia na tym zyskała, to i ATI idzie tą ścieżką. Oni nam HDR OpenEXR FP16 to my im tym samym, ale z multisamplingiem. Na forach wrze, sprzedaż idzie, a ja bym tylko nieśmiało prosił o realniejszy płynny obraz w grach. Wiem. Za dużo wymagam. A może to wszystko tylko ściema, aby odwrócić uwagę od być może cenniejszej realnie informacji o wsparciu HDR na INT32 (10:10:10:2)? Specyfikacja OpenEXR zawiera i taki format. Dobra. Wystarczy tych dygresji. Oczywiście sam fakt możliwości jednoczesnego stosowania multisamplingu i blendingu na teksturach FP należy odnotować aczkolwiek bez konkretów wydajnościowych specjalnie bym go nie uwypuklał.

Adaptive Antyaliasing / HQ Anisotropic Filtering / 3Dc+ / CrossFire / Catalyst

Adaptive Antyaliasing to metoda pozwalająca na poprawienie obrazu częściowo przezroczystych tekstur, poddanych działaniu pełnoekranowego antyaliasingu. W przypadkach przeróżnych siatek ogrodzeń i tym podobnych obiektów obraz faktycznie zyskuje przy akceptowalnym spadku framerate. Problem w tym, że pokazywałem go już wcześniej przy wykorzystaniu starszych generacji ATI, więc bajer nieco sztucznie przylepiono do nowych Radeonów. Generalnie rzecz miła aczkolwiek o mniejszym znaczeniu "strategicznym". Głównie chodzi o zneutralizowanie konkurencja, która dysponuje podobnymi, wcześniej szeroko nagłośnionymi technologiami.


Adaptive Antyaliasing (kliknij, aby powiększyć)

Pod jak zwykle obiecującą nazwą High Quality Anisotropic Filtering zawarto informację o kolejnych ulepszeniach algorytmów filtrowania anizotropowego. Wprowadzono w sterowniku dodatkową opcję High Quality do wcześniejszych trybów. Tryb HQ minimalizuje wpływ kąta obrotu tekstury na jakość filtrowania. W związku z tym, że już w przypadku starszych kart trudno dostrzec różnicę pomiędzy najwyższymi trybami w czasie gry, to nie sądzę, aby dalsze wzbogacanie obrazu łatwo będzie dostrzec.

Kolejnym elementem, który może mieć wpływ na jakość obrazu jest 3Dc+. W poprzedniej generacji ATI zaimplementował techniki kompresji map normalnych o nazwie 3Dc. R520 rozszerza zakres stosowania tego standardu do innych typów tekstur mapowania (HDR, lighting & shadow itd.). Zysk zależy oczywiście od chęci wsparcia tej technologii przez programistów gier. Przy okazji warto dodać, że R520 przechowuje wszystkie dane związane z procesem przetwarzania 3D w pamięciach podręcznych, w postaci skompresowanej.

CrossFire to technologia łączenia kart ATI w jednym pececie, w celu uzyskania większej mocy przetwarzania wraz z dodatkiem w postaci dedykowanych trybów antyaliasingu. Wprawdzie możliwość łączenia kart występuje już w poprzednich produktach ATI, ale w związku z metodą jej implementacji w najsilniejszych produktach (dedykowana karta łączona przez DVI) występowały dosyć uciążliwe problemy (np. ograniczenie trybu) spowodowane słabą przepustowością układów TMDS. W R520 zastosowano standard Dual-Link dzięki czemu możliwe było ich wyeliminowanie.

Do podstawowych "ficzerów" swoich kart ATI zalicza zestaw sterowników i oprogramowania o nazwie Catalyst. W zasadzie nie ma się z czego śmiać. Szczerze mówiąc klasa sterowników jest elementem zdecydowanie istotniejszym niż wypunktowane wyżej bajery. Choć oczywiście jest to moje własne, subiektywne zdanie, ale jak dla mnie faktycznie jest się czym chwalić, bo skok jaki się dokonał w jakości sterowników ATI może budzić respekt i dawna daleki jestem od stwierdzeń, że ustępują one w tym względzie produktom nVidia. Tym nie mniej optymalne oprogramowanie nowej architektury 3D musi trochę potrwać i nie będę specjalnie zdziwiony, jeśli stopień jej dostosowania do aktualnych silników gier nie osiągnął jeszcze najwyższych poziomów.







Polub TwojePC.pl na Facebooku

Rozdziały: Radeon X1800 XT - nowa architektura ATI
 
 » Rys historyczny
 » Co w krzemie piszczy?
 » Kontroler pamięci
 » Przetwarzanie obrazu
 » Bajery technologiczne
 » AVIVO
 » Zawodnicy
 » Sapphire Radeon X1800 XT
 » Asus Extreme N7800GTX TOP
 » Pojedynek
 » Uczta numerologa
 » Podkręcanie
 » Przekodowanie filmów
 » Podsumowanie
 » Kliknij, aby zobaczyć cały artykuł na jednej stronie
Wyświetl komentarze do artykułu »