Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Wtorek 13 maja 2003 
    

Premiera GeForce FX 5900


Autor: Pawel | 11:08
(6)
Wczoraj Nvidia oficjalnie zaprezentowała nowy układ graficzny o kodowej nazwie NV35. Nowe karty - GeForce FX 5900 i GeForce FX 5900 Ultra zastąpią GeForce’a FX 5800 i GeForce’a FX 5800 Ultra. Specyfikacje kart opisaliśmy już wcześniej. Dla przypomnienia, będą dostępne trzy wersje kart. Wszystkie będą posiadały złącza DVI-I, D-Sub oraz VIVO. Model GeForce FX 5900 Ultra będzie posiadał 256-megabajtów 256-bitowej pamięci DDR taktowanej zegarem 850MHz. Taktowanie rdzenia to 450MHz. Dwie pozostałe karty - GeForce FX 5900 i GeForce FX 5900 Value mają posiadać 128MB pamięci. Taktowanie GPU i pamięci ma być niższe niż w przypadku wersji Ultra. Karty pojawią się na rynku w czerwcu w cenie 499 dolarów za model „Ultra”, 399 za wersję pośrednią i 299 dolarów za wersję „Value”.

Produkcję kart opartych na NV35 zapowiedzieli już tacy producenci jak AOpen, ASUS Computer International, BFG Technologies, Creative Labs, eVGA.com Corporation, Gainward, Leadtek Research, MSI, PNY Technologies oraz Terratec. Serwis X-Bit Labs przetestował już najmocniejszą wersję karty tj. GeForce FX 5900 Ultra. Z tekstu wynika, że jest to obecnie najbardziej wydajny układ graficzny. W większości testów karta wygrywała z produktem kanadyjskiej firmy ATI - RADEON 9800 Pro.






 
    
K O M E N T A R Z E
    

  1. a więc (autor: flako | data: 13/05/03 | godz.: 12:17)
    nVidia w końcu wypuściła dobry produkt. Na benchmark.pl przedstawiono wydajność 5900 i konkurencji w grze DooM III. Zastanawia mnie natomiast wysoka pozycja w owym zestawieniu kart fx 5600. Z dostępnych w internecie testów bez AA karta ta nie dorównuje nawet ti 4200. 299 $ za wersję value to chyba będzie... jakieś 1500 zł w polskich sklepach. Zapowiada się ciekawa walka z R 9700. oby tylko z korzyścią dla nabywców:)

  2. flako (autor: prezesmaks | data: 13/05/03 | godz.: 12:54)
    zauważyłeś to samo co i naprędce szybko przeszukałem sieć w poszukiwaniu testów fx5600, gdyż jak wynika z owego zestawienia na benchmark-u karta ta wydawała się dla mnie alternatywą dla 9500pro.Ależ zgrzeszyłem myślą... :)

  3. I tak będzie się trzeć (autor: Scorn | data: 13/05/03 | godz.: 13:52)
    Nie wiem czy to możliwe do wykonania, ale grafa powinna sama dostosowywać jakość wyświetlanej sceny, tak by FPS nigdy nie spadał poniżej 30 (czy innego ustawionego, wedle upodobań). Co z tego że średnie fps wynosi 60, 70, czy 120 i tak w każdej grze momentami spada poniżej płynności, w takich sytuacjach grafa powinna samoczynnie rezygnować z FSAA i anizo dla zachowania grywalności. Gdy wyświetlana scena nie jest obciążająca korzystać z pełnej jakości, a gdy trzeba "inteligentnie" przyciąć to czy tamto.
    Mam GeForce 4 4200 i doprowadza mnie do szału, mogę zrezygnować z dodatkowych efektów i gra chodzi płynnie i mam niewiedzieć po co fps powyżej możliwości odświeżania monitora (tylko po to żeby w krytycznych momentach nie spadła poniżej 30), gdy uruchomię grę na najlepszej jakości to nie ma bata żeby się od czasu do czasu nie przytarła, a powinna w takich momentach samoczynnie rezygnować z "wodotrysków".


  4. hmm (autor: housik | data: 13/05/03 | godz.: 14:35)
    Samoczynnie wyłączyć efekt w czasie gry? Rozumiem dostosować ustawienia grafiki do możliwości karty i potem odpalić grę. Myślę że to będzie trochę skomplikowane. Zacięcia gry mogą być spowodowane brakiem przepustowości pamieci, nie wyrobieniem się pixela , vertexa, zbyt małej ilości jednostek teksturujących , a w najprostszym przypadku nie wyrobi procesor dysk lub ilość pamięci okaże się zbyt mała. Jestem laikiem w tych sprawach, ale algorytm śledzenia takich operacji na grafice z jednoczesnym obcinaniem efektów ( np. w danej chwili odciążymy vertexa ) będzie dosyć skomplikowany i czasochłonny. Fakt można zwyczajnie liczyć fpsy i obciąć wszystko w danym momencie :), ale jakieś to mało eleganckie J.

  5. Scorn (autor: flako | data: 13/05/03 | godz.: 16:20)
    z pewnością nie jestem autorytetem w tej kwestii, ale wydaje mi się, że obraz generowany jest przez kartę graficzną na bieżąco - zauważ, że przecież to TY głównie decydujesz o tym co się dzieje na ekranie. Chodzi mi o to, że karta "nie wie" co będzie za chwilę i jak się na to "przygotować" np. przez czasowe odcięcie danej funkcji. Jak powiedziałem nie mam profesjonalnej wiedzy w tym zakresie, a to co piszę powyżej to moje "logiczne rozumowanie". Jeżeli ktoś się orientuje dokładnie w temacie chętnie przeczytam...

  6. Odpowiedź ATi juz w lipcu ;-))) (autor: geordie | data: 13/05/03 | godz.: 17:31)
    R360 i RV360
    http://www.theinquirer.net/?article=9470


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.