Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
RECENZJE | Radeon 9800 Pro vs GeForceFX 5900
    

 

Radeon 9800 Pro vs GeForceFX 5900


 Autor: Kris | Data: 10/07/03

Dylematy testującego

Skoro Radeon 9800 Pro oraz GeForceFX 5900 powstały głównie po to, aby osiągnąć pozycję lidera wydajności to podstawową częścią recenzji musi być bezpośrednie porównanie tych karty ze sobą oraz z poprzednikami przy użyciu testów 3D. Oczywiście ktoś mógłby polemizować w kwestii, kto dotychczas stał na czele rankingu i jaka karta posiadała ten zupełnie umowny, choć górnolotnie brzmiący tytuł. Nie ma to jednak w tej chwili większego znaczenia, bo są już następcy.

Nigdy nie ukrywałem swojej niechęci do większości metod pomiarowych stosowanych przy kartach graficznych. Od lat prawdziwym zwycięzcą wszelkich porównań stał się sam benchmark. Różnice pomiędzy kartami często nie są tak spektakularne, że łatwo jest jednoznacznie wyłonić jakiegoś przodownika już po chwili grania w dowolną grę. Co ważniejsze przy porównaniach różnych układów trzeba się liczyć z tym, że zarówno wielkość przewagi jak i w ogóle kwestia kto ją ma zależy ściśle od konkretnej aplikacji, którą wykorzystujemy przy wsparciu danych kart. Jeśli różnice są małe to wspomagamy się benchmarkami. Idea wstępnie wydaje się dobra. Dajemy konkurentom do przetworzenia ustalony, powtarzalny fragment ruchomej grafiki i mierzymy czasy generacji poszczególnych ramek. Wydajniejsza karta powinna szybciej uporać się z zadaniem. Aby łatwiej przyswoić sobie różnicę to wynik zawodów sprowadzamy do jednej liczby będącej średnią ilością ramek przygotowanych przez kartę w czasie jednej sekundy (FPS). Tak oto mamy piękną, jednoznaczną i bezdyskusyjną LICZBĘ. Uwielbiamy liczby, bo można je porównać, można wykonać na nich dodatkowe operacje i co ważniejsze mają znamiona obiektywizmu.

Czy jest w tym jakiś haczyk? Oczywiście. I to nie jeden. Nie chcę się rozpisywać (a mógłbym o tym napisać i całą książkę), ale weźmy pod uwagę tylko kilka kwestii. Po pierwsze, aby taki pomiar był porównywalny to musimy zakładać, że karty zawsze przygotują nam taki sam obraz 3D. Jeśli któraś z kart np. generuje obraz bardziej szczegółowy, to tym samym musi więcej swoich zasobów poświęcić zadaniu. To tak jak mierzyć czas przygotowania przez rysowników dwóch obrazków, z których jeden rysowany jest w kolorach a drugi przy użyciu jednej kredki. Co nam da porównanie tych czasów? Niewiele.

Druga sprawa to kwestia uśrednienia wyników. Ramki mają zmienny stopień skomplikowania grafiki i zawierają różne techniki tworzenia efektów 3D. Może się zdarzyć, że trafimy na zestaw ramek, z którym jedna karta radzi sobie zdecydowanie słabiej niż inna. Z jednej strony może mieć to niewielki wpływ na średnią w czasie całego testu, ale z drugiej strony w czasie gry wyraźnie odczujemy dyskomfort spowodowany chwilową utratą płynności ruchu. Co nam z wysokiej średniej w teście skoro gra się fatalnie?

Kolejna kwestia to właściwy dobór testu. Chcemy jak najdłużej sprawdzać kolejne generacje kart przy wykorzystaniu tej samej aplikacji. Kwestia przyzwyczajenia oraz poczucie praktycznej wiedzy na temat odniesienie wydajności do konkretnych, porównywanych liczb. Problem w tym, że w pewnym momencie okazuje się, że dla nowych, znacznie wydajniejszych kart przygotowanie większości ramek zajmuje tak mało czasu, że na wynik średni dominujący wpływ zaczyna mieć wydajność samej platformy oraz optymalizacja pod nią sterowników. Jeśli już znacząco słabsza z dwóch porównywanych kart jest na tyle mocna, że wynik opiera na procesorze to nijak nie możemy określić, w jakim stopniu ta mocniejsza jest od niej lepsza, bo wyniki niewiele się różnią. Mało tego. Może się okazać, że ta słabsza ma lepszą optymalizację wykorzystania konkretnego procesora i uzyska nawet wyższy wynik. Interpretacja prowadzi na manowce, bo po zakończeniu testów uruchomimy nową grę ustawiając tak parametry, aby wydusić maksymalną jakość obrazu na danej karcie a tym samym w końcu zmusimy ją do prawdziwej "pracy". W tym momencie przestaje mieć większe znaczenie, jaki mamy procesor czy jak on jest wykorzystany przez sterownik. Oczywiście zakładając, że jest on na tyle mocny, aby zapewnić wsparcie samej grze oraz pozostałym elementom peceta (sterowanie wirtualnymi przeciwnikami, wsparcie obliczenia dźwięku 3D itd.). Nagle okazuje się, że wprowadzeni w błąd wynikami testów źle dostosowanej aplikacji przeinwestowaliśmy procesor czy pamięć zamiast postawić na mocniejszą kartę graficzną.

Z przyzwyczajeniem do konkretnej aplikacji testowej oraz naszą głęboką wiarą w skuteczność danej metodologii pomiarów wydajności wiąże się kolejny problem. Producent karty świadomy wpływu, jaki mają wyniki najchętniej stosowanych testów na sprzedaż danego produktu może się pokusić o takie dostosowanie działania sterownika, aby uzyskać jak najlepszy wynik nawet, jeśli ta zmiana nie jest możliwa do wdrożenia w realnych grach lub, jeśli wiąże się to z brakiem zachowania tego samego obrazu 3D. Takie praktyki stosowane są od lat i wielokrotnie już o tym pisałem. Nie kryję jednocześnie swojego zadowolenia, że temat w końcu doczekał się szerszej dyskusji i mam nadzieję, że przynajmniej część potencjalnych nabywców zacznie patrzeć na benchmarki kart graficznych w sposób nieco bardziej zachowawczy.







Polub TwojePC.pl na Facebooku

Rozdziały: Radeon 9800 Pro vs GeForceFX 5900
 
 » Ewolucja
 » Bohater ATI
 » Bohater nVidia
 » Dylematy testującego
 » Klasyczne testy
 » Klasyczne testy (c.d.)
 » Shadery 2.0
 » FSAA i filtrowanie anizotropowe
 » Podkręcanie
 » Podsumowanie
 » Kliknij, aby zobaczyć cały artykuł na jednej stronie
Wyświetl komentarze do artykułu »