Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
RECENZJE | TEST: Nowa technologia GeForce 8800GTX
    

 

TEST: Nowa technologia GeForce 8800GTX


 Autor: DYD | Data: 08/11/06

TEST: Nowa technologia GeForce 8800GTXPoniedziałek, 6 listopada, godzina 15.00 - do redakcji TwojePC przywędrowały dwa pudła - jedno kryje najwydajniejszą obecnie kartę ze stajni ATI (AMD), drugie - absolutną nowość z obozu Nvidii - mowa o GeForce 8800GTX. Czasu do oficjalnej premiery G80 niewiele, trzeba zatem czym prędzej zabrać się do pracy... Środa, 8 listopada, godzina 20.00 - o tej godzinie mija embargo prasowe na G80. Można zatem spokojnie pokazać go szerszej publiczności.

Co technologicznie wnosi ze sobą nowo wprowadzony procesor graficzny G80 oraz jak wypada w testach wydajności w porównaniu do konkurencji, o tym w niniejszej recenzji. Zapraszam na testy dwóch kart: Asus EN8800GTX (oparty na procesorze GeForce 8800GTX) oraz Asus EAX1950XTX (Radeon X1950XTX).


TEST: GeForce 8800GTX vs Radeon X1950XTX - kliknij, aby przejść dalej

     







Polub TwojePC.pl na Facebooku

Rozdziały: TEST: Nowa technologia GeForce 8800GTX
 
 » G80: GeForce 8800
 » Asus EN8800GTX (GeForce 8800GTX)
 » Asus EAX1950XTX (Radeon X1950XTX)
 » Sumaryczne cechy GTS i XTX
 » Testy
 » Podsumowanie
 » Kliknij, aby zobaczyć cały artykuł na jednej stronie
Wyświetl komentarze do artykułu
 
    
K O M E N T A R Z E
    

  1. Nie watpie ze wczesniej czy pozniej karta trafi do naszych kompow... (autor: leonx | data: 8/11/06 | godz.: 20:08)
    Trudno mi jednak dzisiaj sobie wyobrazic zasilacz ktory by pociagnal dwie takie karty + Quad Core :D

  2. GF 8800 prawdziwa moc hmm... (autor: Ceki | data: 8/11/06 | godz.: 20:39)
    Faktycznie potęga, ale do tych kart będą potrzebne elektrownie atomowe w naszym kraju :) strasznie prądożerne zasilacz może być wielkości dzisiejszej obudowy do komputera

  3. mniam (autor: Dygnitarz/Wiche | data: 8/11/06 | godz.: 20:44)
    nie stać mnie na to, ale przynajmniej popatrzę sobie na słupki z dziesiątkami FPSów i 1600*1200 z AA :-D

  4. troche cienka (autor: maciell | data: 8/11/06 | godz.: 20:48)
    ta platforma testowa. Plyta ecs (cienkie plyty)+AMD FX 2,4 + DDR 1 400 MHz i tylko 1 GB pamieci. Jedynie zasilacz sie broni. Na takie potwory to moim skromnym zdaniem jakis C2D+Asus deluxe+ 2x1 GB 800 MHz pamieci. Na tej platformie to te grafy sie dusily i nie pokazaly swojego potencjalu. Wyniki w 3dmarku 2006 tylko o 2,300 tysiaki wiecej niz ja mam na C2D6300+gigabyte s3+ 2x1GB A-data 667+ gainward 7800GT i to w porownaniu z NV 8800, bo z ATI/AMD 1950 to tylko o 800 punktow. Wiec moim zdaniem ten test to o kant tylka bo kto do takiego konfiga bedzie wkladal takie grafy. No offence

  5. maciell... (autor: DYD-Admin | data: 8/11/06 | godz.: 20:56)
    ...wiadomo, że lepszy C2D, niektóre słupki były by większe, ale różnice w wydajności podobne... C2D niestety okupowany przez Lancera :-) więc trzeba było wykorzystać to co było do dyspozycji... aaaaaa w tym przypadku grafiki sie nie dusiły, a Ty pokusił byś sie o szersze porównanie wyników a nie analize tylko ogólnego wyniku jednego 3DMark06, który u Ciebie zyskał tylko w teście procka (stąd wyższy ogólny Score) - porównaj wyniki częstkowe, albo zapodaj sobie FEAR 2048 z AA4 i Anizo16 i zobaczymy kto sie dusi ;-) No offence...

  6. Ale grafika (autor: NimnuL-Redakcja | data: 8/11/06 | godz.: 20:57)
    z dema technologicznego oraz z gry jest n i e s a m o w i t a.
    Coraz bliżej do rzeczywistosci.


  7. no bedzie sie dzialo w demie beta Crysis (autor: bemx2k | data: 8/11/06 | godz.: 21:09)
    No niestety musze przyznac ze test na in4 jest znacznie bardziej przejrzysty :/
    do tego choc sam mam ostro kreconeg o Radka 1900XT to wyczowam tu lekka faworyzacje produktu AMD :)


  8. hgmmm pięknieeee (autor: ulan | data: 8/11/06 | godz.: 21:11)
    tylko cena zabójcza (w tej chwili komputronik śpiewa sobie za to cudo prawie 2800 złociszy....pewnie ceny spadna dopiero po nowym roku, albo jak się pojawi konkurent godny od ati (to znaczy od amd....

  9. DYD (autor: maciell | data: 8/11/06 | godz.: 21:33)
    "Sterowniki dla GeForce 8800GTXto Beta Forceware 96.89. Dla ATI X1950XTX wykorzystałem sterowniki Catalyst 6.10. Testowy system Windows XP SP2. Vsync domyślnie wyłączony. Ustawienia sterowników takie jak po ich zainstalowaniu." i do tego sie odnosilem. Wiadomo, ze przy zwiekszaniu rozdzielczosci + AA+Anizo to te grafy lepiej to obrobia. Odnioslem sie do testu 3dmark 2006 poniewaz tak samo ja testuje. Na AMD Sempron 2800+ z 2x1GB Patriot Cl. 2 mialem 3900 punktow.
    Moja grafa nie jest juz najnowszych lotow. No i nie wmowisz mi, ze ten Sempron jest lepszy od tego FX.
    Nie zmienie mojej opini, te grafy powinno sie testowac na nowszych konfiguracjach.


  10. aaa i zeby nie byc goloslownym (autor: maciell | data: 8/11/06 | godz.: 21:39)
    z jedengo z sitow (nie bede podawal bo konkurencja dla tcp) "Aby potwierdzić słuszność założeń, testy przeprowadziłem na zalecanej platformie z procesorem Core2Duo E6400 podkręconym do 3GHz, wspomaganą zasilaczem BeQuiet 470W 12V - 30A, a więc spełniającym wymagane minimum. Nie było problemów z funkcjonowaniem karty i wszystkie testy przebiegły pomyślnie."

  11. dokladnie (autor: once | data: 8/11/06 | godz.: 21:49)
    ten komputerek - marny, do tego zestaw gier O_o.
    x3 - 2005r
    doom3 - 2004r
    fear - 2005r
    cod2 - 2005r
    lc - 2005r?

    a gdzie g3? obliviony? - cokolwiek bardziej na 'czasie'. Testy innych portali pokazuja - im wieksze obciazenie gra generuje dla systemu, tym bardziej odskakuja wyniki kart 8k od wynikow kart poprzedniej generacji.

    moze nastepnym razem potestujcie na doom 1? Te rozdzialki 12xx to mozna sobie bylo darowac, czasu troche zaoszczedzic.


  12. hmm (autor: KamilM | data: 8/11/06 | godz.: 21:52)
    Jednak platforma ograniczała troszkę wydajność karty, ale i tak widać, że układ ma potencjał, teraz tylko czekać na jakieś gierki obsługujace nowe technologie zawarte w 8800GTX/GTS, etc.

    Dzięki za arta.

    Pozdrawiam.
    KamilM.


  13. oj maciell... (autor: DYD-Admin | data: 8/11/06 | godz.: 21:58)
    coś zakręciłeś... wiadomo, że fajniej by wygladało, jak by najszybsza grafa, była w parze w testach z najszybszych prockiem (np. Quad Core)... ale jakbyś dokładnie porównał wyniki uzyskane na in4 na core 2 duo (np. w Fear 1600x1200 z AAx4 i Anizo x16) - u nich było 80 fps średnio i 40 fps minimun... a u mnie 81 średnio i 43 fps minium... więc chyba ten mój konfig nie taki badziew...

    płyta ECS ten model wcale nie jest cienka, poczytaj sobie o niej, jeszcze raz...

    zajerzyłeś sie jak zobaczyłeś ogólny wynik 3DMark06, który nie jest rewelacyjny, bo właśnie nie dostaje punktów za testy CPU score a nie za cztery testy grafiki... analizuj wyniki cząstkowe w Marku a nie ogólny score... rozumiesz ? :-)


  14. dokładnie (autor: KamilM | data: 8/11/06 | godz.: 22:12)
    Mark06 zbiera kupę punktów za wydajność CPU, dlatego wynik na in4.pl jest tak wysoki.

  15. sorry (autor: maciell | data: 8/11/06 | godz.: 22:18)
    DYD a ty czytasz co ja pisze? Wiec wyjasnilem ci, ze u mnie po zmianie procka z semprona 2800+ na C2D 6300 wynik poprawil mi sie tylko o 500 pkt na tej samej grafice. Wiec nie mozesz wszystkiego zwalic na procka. Poza tym albo ustosunkowujemy sie do wyniku 3dmarka, do ktorego ja sie ustosunkowalem, albo do wynikow fps w grach. Jak juz ktos zauwazyl gry tez juz mocno wczorajsze. Gdzie Carbon, gothic 3, oblivion, albo nawet ta gra co byla dodana do tej grafy Ghost Recon warfighter. Rozumiem, ze bronisz swojej recki bo kosztowala twoj czas i wysilek. No, ale przyjmij moje slowa jako przyjazna podpowiedz na przyszlosc. Nie mozecie robic wiecej takich recek po lebkach . Ja rozumiem ograniczony czas itp. itp. no , ale do takich graf trzeba sie przygotowac z strony technicznej.

  16. maciell... (autor: DYD-Admin | data: 8/11/06 | godz.: 22:35)
    ...nie ma co dalej kruszyć kopii, odpowiadałem Ci w kwestii przez Ciebie poruszonej (słaba platoforma - duszące się testy) - i chyba wyjasniłem wyraźnie, że moja platforma pokazała na co stać GTX-a i że wcale się dławił... oczywiście chętnie bym potestował w innnych tytułach, jednak wyjaśniłem w poprzedniej recenzji czemu nie testuje w Oblivion i Gothic 3... ze swej strony faktycznie mogłem skorzystać z Company of Heroes (stał na półce zafoliowany), który ma wbudowany benchmark, mea culpa... chętnie wysłucham wszelkich uwag i na pewno wezmę je pod rozwagę przy kolejnych recenzjach... zdrówko! :-)

  17. DYD (autor: NimnuL-Redakcja | data: 8/11/06 | godz.: 22:42)
    docierają do Ciebie e-maile ode mnie? :)

  18. NimnuL... (autor: DYD-Admin | data: 8/11/06 | godz.: 22:47)
    ...dotarły, właśnie odpowiedziałem, troszkę łącze sie obciążyło przez reckę GTX-a... ;-)

  19. Gdzie Carbon, gothic 3, oblivion (autor: RusH | data: 8/11/06 | godz.: 23:04)
    carbon - nie jest to gra napisana przez developera, jest to gra WYPRODUKOWANA w FABRYCE SOFTU przez Indyjskie dzieci po kursie MCSD (czy z innym MC)
    tam nawet nie ma opcji skonfigurowania klawisza zmiany kamery .. albo widoku do tylu .... ta "gra" dziala TYLKO na klawiaturze, kto mi nie wierzy niech sprobuje
    -zagrac padem/kierownica bez dotykania myszy/klawiatury :)
    -grac dluzej niz 2h bez przepelnienia pamieci (przecieki pamieci)
    o AI juz nawet nie wspomne :)

    gothic 3- bedzie sie ciac na wszystkim, ponownie winny DEBILNI programisci, optymalizacji sie od nich juz teraz nie wymaga, tylko terminow, dlatego pisza algotytmy O(N^2)

    oblivion - praktycznie ten sam engine co Morrowind + nowe shadery

    wiec po co?

    no i WOW, pierwsza karta na ktorej mozna normalnie zagrac w FEAR :P


  20. Carbon to przestarzaly badziew sprzed 4 lat (autor: komisarz | data: 8/11/06 | godz.: 23:21)
    na tym samym engine. Gothic 3 nie prezentuje nic nowego, engine z 2001 + rozne efekty.

    Polecam Call of Juharez - masa cieni i shaderow. Niby engine nienowy, ale mocno unowoczesniony i widac to w grze. Nie dyskredytowalbym tez obliviona - jak nie patrzec, grafika ladna jest i obciazenie komputera tez niezle. Engine stary, ale w grze tego nie widac.

    Ogolnie - karta masakruje wszystko co sie da i moim zdaniem roznica w wydajnosci bedzie coraz wieksza - w koncu teraz te 128 shaderow glownie sie nudzi.


  21. Zapomnialbym pogratulowac (autor: komisarz | data: 8/11/06 | godz.: 23:26)
    w koncu twojepc prezentuje recenzje w dzien premiery, rzecz nieslychana dawniej. Tym niemniej przydaloby sie obszerne uzupelnienie, kilka gier nowej generacji, jakies analizy czy szybszy procesr do poronania - artykul podobny do wzorowego tekstu Lancera o C2D... Domyslam sie, ze nie mozna bylo z tym zdazyc w jeden dzien, ale z drugiej strony liczba odslon artykulu o C2D mowi sama za siebie.

  22. mam zamiar ja kupic (autor: kubazzz | data: 8/11/06 | godz.: 23:28)
    po pierwszej obnizce.
    znaczy sie tego gtx, albo nawet 2 - w sli.
    bo kurde musi sie dac uzyskac plynnosc i ladne detale jednoczesine w fsx...


  23. Ten test (autor: Grave | data: 8/11/06 | godz.: 23:55)
    tylko utwierdza mnie w przekonaniu, że warto poczekać na R600 od AMD/ATI.

    Przy takiej mocy renderingu (128 jednostek pixel/vortex shader) powiększonej o połowę pamięci i o 50% szybszej szynie karta teoretycznie powinna zmasakrować produkty poprzedniej generacji.

    Rzeczywistość jak widać inna. Nie wiem skąd te zachwyty. 7 klatek (sic!) przewagi w CoD2, 10 klatek w X3, minimalna przewaga w testach składowych 3D Marka.

    Jeżeli to ma być ta rewolucja Nvidii to ja podziękuję. Toż to przy wprowadzaniu GF 6800 mieliśmy 100% wzrost wydajności względem FX-ów i Radeonów 9xxx - i to rzeczywiście był milowy krok, a tutaj nawet 50% więcej nie ma. Jaka rewolucja? Właściwie tylko w F.E.A.R konkretna przewaga. Reszta wypada bardzo słabo.

    Sam mam przygotowane środki na zakup topowej karty DX10. Po tym teście szansa na to że wybiorę tę od Nvidii drastycznie spadła.

    Poczekam na R600 - może być tylko lepsze, bo żeby pobić mierne wyniki 8800GTX ATI nie będzie musiało się nawet specjalnie wysilać.

    No i ATI będzie z 512 bitową szyną....


  24. @Grave (autor: komisarz | data: 9/11/06 | godz.: 00:46)
    coz, niemal 100% wzrost jest, chociaz go nie widzisz w tym tescie. Wczytaj sie w komentarze - co za gry byly testowane - sprzed 2-3 lat, oparte na teksturach i wielokatach, AAx4... Ta karta nawet nie zdazyla sie rozpedzic. X3 to gra siedzaca na procesorze, CoD2 po dx8 czyli to samo.

    Pisze to, bo widzialem wyniki z AAx16 (nie AF) w nowych grach i tam widac, ze karta ma olbrzymi potencjal. Tyle, ze nia ma w czym go pokazac, oprocz wlasnie takich extremalnych przypadkow, jak napakowany cieniami i shaderami Call of Juharez, ktory bez aa wykancza kazda obecna karte, a na serii 8800 chodzi bez zajakniecia w kosmicznych rozdzielczosciach z AA. Podobnie jest z Oblivionem.

    Przypomnij sobie, czy widziales wielkie roznice miedzy gf4200 i radeonem 9700pro w quake3. Masakra istnieje, ale sama karta tez nic nie zdziala bez silnej reszty. Athlon 2,4Ghz to procesor za 350zl - low-end.

    Prawda jest taka, ze karta ta przenaczona jest dla graczy, ktorzy graja na 24'' monitorach i chca miec plynnosc ze wszystkimi HDR'ami wlaczonymi. I oni maja c2d@Xghz. Zreszta, tylko oni kupia takie karty, chcociazby ze wzgledu na cene.

    Napisze inaczej - 3dmark2001 i radeon 9800pro + p4 3Ghz - mialem ok 13tys pkt. Zmiana na x800pro i skoczylo do 16tys. Zmiana na e6400 i mam 35tys. Podobnie teraz nie ma wielkich roznic w archaicznym 3dmarku 2003, za to w 2006 roznica do najszybszego radeona to 80-90% (11+tys na 8800 vs. 6000+ na x1950xtx). Przejrzyj rozne testy i wyrob sobie opinie.

    Mozliwe, ze r600 faktycznie bedzie lepszy. Im dluzsze opoznienie (na razie ok. 4 miesiace), tym bardziej to mozliwe. Gdyby r600 mial premiere za 2 lata, powiadzialbym, ze to nawet pewne;)


  25. dokladnie (autor: once | data: 9/11/06 | godz.: 02:06)
    Gdyby test byl miarodajny, pokazywal pelny potencjal karty, to nie byloby takich opini jak pana "Grava" ktory zauwazyl ze w jakims smiesznym x3 jest roznica (w najgorszym przypadku) 1 klatki. Panowie, w Wordzie roznica pewnie bedzie jeszcze mniejsza.
    Nie testowano tu przeciez gier, wiec niech sobie beda napisane (z punktu widzenia optymalizacji kodu) nawet i tragicznie, grunt ze korzystaja z technologii i obciazaja system.
    Wiec dokladnie 24cale, efekty na 'full' i rozdzielczosc rzedu 2k.


  26. g80 vs r 600 (autor: once | data: 9/11/06 | godz.: 02:18)
    Nie czas na takie porownania. Wyjdzie - sie zobaczy. Zreszta Nv nie bedzie spala przez te min. 4 miesiace (dane za komisarzem ;p) Wyjdzie r600 to nv pewnie wyskoczy z 8900gtcostam, dorzuci jakis lepszy proces technologiczny, pare usprawnien, pamiatki ddr4. Potem, za jakis czas, 8900 gto do podkrecania za 1000 zl ;p. No dobra, czas wracac na ziemie.

  27. Do Grave (autor: Raptor99 | data: 9/11/06 | godz.: 02:33)
    Dokładnie tak jak powyżej koledzy piszą. Różnica wynosi ponad 100% na korzyść 8800GTX ale przy konkretnym obciążeniu graficznym i odpowiednio szybkim procesorze. Tylko wtedy mozna obiektywnie porównywać.

  28. kolejna fajna karta (autor: Marecki® | data: 9/11/06 | godz.: 04:07)
    Srodki na kompa niby mam. Tylko checi na zakupy coraz mniejsze. Kiedys checi mialem duze a nie mialem srodkow ehhh :/ . Nowe gry wogole mi sie wydaja jakies takie nijakie i wtorne. Zapowiedzi gier pod dx10 screeny/filmy pokazuja tylko drobny krok w ewolucji ku realistycznym grom. "Fizyka" z dopalaczem robi odrobine wieksze wrazenie, ale bez przesady. Screeny/filmy z xbox360 i ps3 budza we mnie troche wieksze emocje, bo nie trzeba kupowac drozszych komponentow zeby zobaczyc wszystko plynnie w najlepszych detalach. Tylko gry na konsole wydaja sie jakies takie puste , infantylne i banalne. Sumujac, jak wyjdzie vista sprawie sobie kompa z silnym prockiem, slaba grafika, ramu w sam raz bo drogi jak zboze ale za to z duzym panoramicznym monitorem. Glosniki juz mam niezle. Oprocz filmow i zdjec ktore sobie popstrykalem juz nic mnie nie kreci na dluzsza mete w kompie. W wiekszosci biur wystarczy komp sprzed 5, moze wiecej lat. Kupuje sie nowsze chyba tylko dla prestizu. Nie macie czasem wrazenia , ze gdyby nagle wsztrzymano produkcje wszystkich nowych gier to i tak wystarczyloby zabawy ze starszymi tytulami do konca zycia?

  29. Calkiem fajna karta (autor: speed | data: 9/11/06 | godz.: 05:16)
    przy C2D 3,5Ghz w rozdzielczosci 2560x1600 jest w kazdej grze szybsza i to czasami sporo od duetu 1950 w C.F a jest tansza o 400$ cnd od CF.
    Cena zakupu dzisjaj to raptem 730.00$cnd ,moze wydawac sie wysoka do waszych zarobkow ale powiedzcie sami na cos takiego.; chlopak 14-letni popracuje sobie 8 dni w miesiacu po szesc godzin (n.p unas na gorkach ,przy wyciagach) i ma juz na taka karte i na obiad z dziewczyna , teraz czy te 730$ cnd to rzeczywiscie duzo??? Ogolnie ciekawa propozycja dla graczy a za pol roku ATI z czyms wyskoczy i karawan bedzie jechal dalej:))


  30. TEst spoko (autor: sew123 | data: 9/11/06 | godz.: 07:07)
    ale bez zachwytu..Ja tez sądzę że karta byla testowana na za słabym sprzecie...
    speed wez nas nie osłabiaj !!!: )


  31. RusH i komisarz to powinni gry pisac - to dopiero (autor: leonx | data: 9/11/06 | godz.: 08:24)
    mielibysmy same cud miodzio produkcje wykorzystujace karty, ktore sie jeszcze nie pojawily i dzialajace z 60fps na sprzecie sprzed 2 lat. A tak mamy tylko narzekania na kazdy nowy produkt jaki sie pojawi na rynku... Bo oczywiscie wiedza lepiej na jakim engine i kiedy byl pisany kod do Obliviona czy Gothica...

  32. Artykuł spoko (autor: Tomaszochyd | data: 9/11/06 | godz.: 08:26)
    jak ktoś chce zobaczyć testy najnowszego dziecka nvidii na procku konroł to jest recka w benchmarku i możecie się podniecać smarkami bo nowa karta ma ich całkiem sporo w porównaniu do radka. Weźcie tylko pod uwagę fakt ilość jednostek rop i tmu nvidii i porównajcie go z radkiem. Nie dziwota że nvidia ma przewagę. Moim zdaniem dobrze, że przeprowadzono testy na takim procku. Reasumując, skok jest, musimy czekać na gry pod dx10.

  33. Super, juz lecę kupić (autor: sebtar | data: 9/11/06 | godz.: 09:18)
    kartę za 3000 zł dla 4 gier.

  34. leonx - Rush ma sporo racji, (autor: sebtar | data: 9/11/06 | godz.: 09:23)
    nie trzeba być programistą żeby widzieć że optymalizacja softu na PC kuleje jak diabli :-P
    Marecki&reg - pisałem już kiedyś o tym, na PC mało w co już można pograć ;-)


  35. śmieszna sytuacja. Jest sprzęt do DX10 (autor: Vetch | data: 9/11/06 | godz.: 09:31)
    a nie ma gier dx10 :-) Żeby się potem nie okazało, że M$ coś zmieni i nagle ta karta stanie się "kompatybilna inaczej"...

  36. słaba platforma testowa i tyle... (autor: VANT | data: 9/11/06 | godz.: 09:58)
    i nie zmienią tego żadne tłumaczenia......Karta na poążdnym klocku jest szybsza nawet o 120% od reszty swiata.....

  37. Zanim zobaczymy te wszystkie cuda oferowane (autor: muerte | data: 9/11/06 | godz.: 10:07)
    przez tą kartę w grach, te wszystki fps-y i rozdzielczości, zanim wyjdzie gra która to wszystko będzie miała, to ja wam mówię - będzie trzeba kupić nowszy model, bo ta karta nie pociągnie tego reality na monitorze ! ZAWSZE się tak dzieje. Wychodzi potwór wydajności przy którym wszyscy sikają z zazdrości że ich na to nie stać, potem wychodzi GRA. i ta GRA do płynności działania potrzebuje potwora. Ale nowego modelu, bo ten jest za słaby.

  38. Muerte - ostatnio same takie GRY (autor: sebtar | data: 9/11/06 | godz.: 10:11)
    wychodzą. Dobrze że ja w takie gry nie gram ;-) Uważam że w tym tekście KONIECZNIE powinny być testy GF8800 w grach Morrowind i Gothic 3 bo chyba tylko po to takie gry piszą żeby tego typu karty się sprzedawały.

  39. Polecam test z (autor: Andrius | data: 9/11/06 | godz.: 11:09)
    QuadCore Intel Core 2 Extreme QX6700. Tam różnice wydajności (8800GTX i X1950XTX) w 3dMarkach wahają się około 100%, a w grach 100-400%).

  40. @sebtar (m.in.) (autor: leonx | data: 9/11/06 | godz.: 11:32)
    Bardzo fajnie sie optymalizuje soft na sprzet ktory sie nie zmienia od 5 lat (np. PS2), tylko co z tego widziales NFS MW na PS2 - cudow nie ma. W przypadku PC nie ma praktycznie dwoch takich samych konfiguracji - rozne karty, procesory, plyty, pamieci, dyski - oczywiscie - wszystko zgodne ze standardem, tylko na ile mozna zoptymalizowac soft na... no wlasnie - na co konkretnie? Jak optymalizowac gre skoro nie wiadomo - ile pamieci bedzie miala karta graficzna, ile PS shader (i jakie), ile vertex shader, ile TMU - mozna tak wymieniac w nieskonczonosc. A potem ktos to odpala na kompie sprzed roku czy dwoch i mowi - ee tam - slabo chodzi...

    A odnosnie karty. Poczytajcie test tutaj:
    http://enthusiast.hardocp.com/...saGVudGh1c2lhc3Q=
    Na 8800GTX wszystkie gry mozna odpalic do rozdz 2500x1200 w max detalach (i Anizox16), a w rozdz 1600x1200 mozna ustawic wszystko max + max aa + max anizo.
    Ta karta to zupelnie nowa klasa. A czy za rok - dwa dalej tak bedzie? A jak dzisiaj sie sprawuja karty sprzed 2 lat?


  41. Sorry, pomylilem rozdzielczosc... (autor: leonx | data: 9/11/06 | godz.: 11:36)
    Wszystkie tytuly grywalne w rozdz 2560x1600!
    To nie jest przelom? Ta karta wymiata DZISIAJ.


  42. Jak to często bywa.. hardware wyprzedza software (autor: Michał_72 | data: 9/11/06 | godz.: 11:59)
    Ta masakrująca karta na razie nie ma gdzie rozwinąć skrzydeł. A jak te skrzydła będą.. to stanieje o 2/3 i wtedy będzie można ją kupić z drugiej ręki.. jako klasę średnią. W nowych giercach jest z reguły wszystko... bajery shadery HDRy.. brakuje tylko tego czegoś co nazywamy grywalnością.. a co powoduje że spędzamy z grą długie godziny z wypiekami na twarzy. Stare pomysły ubierane są w nowe efekty.. ale film oglądany z VHSa z DVD czy Blue Raya ciągle jest tym samym filmem.. dochodzą smaczki.
    Brakuje nowych pomysłów.. w FPP ostatni przełom to był Gravity Gun.. czy gierca Painkiller..
    Te wszystkie RTSy w krainach nigdy przenigdy.. są IMHO doś podobne do siebie.. ostatni kręcił mnie Warcraft 3..

    Wiem, jestem malkontentem. Okazuje się ze można napisac grę fajnie chodząca na słabszym sprzęcie (vide HL2), a efekty mogą być elementem fabuły /gry a nie czymś ZAMIAST.


  43. Mimo uzytego procesora i gier test mi sie podoba (autor: komisarz | data: 9/11/06 | godz.: 12:30)
    Owszem, dalej twierdze, ze gry sa stare a procesor slaby, ale z drugiej strony taki sprzet (+/-) jest obecnie standardem. Co prawda nie wierze, zeby klienci masowo rzucili sie do sklepow, ale kazdy moze zobaczyc, jak spisywalaby sie karta na ich komputerze. Dzieki temu spojrza na obecne karty laskawszym okiem i nie beda meczyli babci, zeby dorzucila na karte pod choinke;)

  44. re:Vetch wcale bym się nie zdziwił (autor: ulan | data: 9/11/06 | godz.: 12:50)
    jak by to się stało...

  45. komisarz (autor: Grave | data: 9/11/06 | godz.: 13:31)
    istotnie mój błąd, a raczej kiepski test na TPC. Na zagranicznych serwisach wygląda to już tak jak powino i różnica jest ponad 100%.

    Co do X3 - gier których wydajność mocno zależy od procesora jest więcej. Pierwszy, najlepszy przykład - Oblivion. Tak więc testy takich gier też są potrzebne.

    X3 pod względem obciążenia sprzętu trochę mi przypomina Comanche 4, który swego czasu także osiągał marne wyniki nawet na bardzo szybkich kartach.


  46. gadanie, (autor: once | data: 9/11/06 | godz.: 18:11)
    Spojrzcie na tytul tego "testu"
    pozwole sobie zacytowac :

    "TEST: Nowa technologia GeForce 8800GTX"

    no i potem wrzucono tego paro letniego procka, paro letnie gry...no i gdzie te nowe technologie? ja ich nie widze. Testowano same stare.
    Mysle ze coraz wiecej gier bedzie zawieralo algorytmy ktore beda losowac pewne elementy krajobrazu, wystroju, etc. Inne portale sobie z tym poradzily - odpowiednie miejsce w Obivione, pare testow, wyciagniecie srednich i wynik powie znacznie wiecej niz ten Word, tfu, znaczy X3.

    Co do wypowiedzi RusH`a o stosowanych metodach pracy i sposobach optymalizacji nowych gier - to nie bardzo jest co wchodzic w dyskusje. To tylko zwkle, wyssane z palca wymysly dzieci-neo, podlapywane i powtarzane przez innyc, ktorzy o temacie rownie niewielkie pojecie maja. Na dodatek to oftopik w stosunku do omawianego tu newsa.


  47. nVidia penetruje (autor: Kosiarz | data: 9/11/06 | godz.: 18:46)
    tym procesorem nowe obszary rynku (wiem papuguje bylo przy recce core quad)

    ale chodzilo mi tutaj o slowo penetruje. popatrzcie na te screeny przedstawiajace twarze (bo do tego z pociagiem mozna sie juz troche czepic realizmu). Nic tylko zaczac juz robic gry porno - albo chociaz jakies demka, cos takiego czego aktorzy nigdy nie zrobia (realistyczny obraz + elementy fantasy albo nadludzkich mocy <lol2> )

    Ciekawe czy ktos sie zajmie takim stuffem bo ta karta juz jest do tego zdolna.

    BTW ciekawe czy jakby to bylo puszczane w TV to tez z czerwonym kwadracikiem <rotfl>

    @DYD - Recka spoko, co mialo byc to w niej jest, aczkolwiek jestem kolejnym ktory sie przyczepi do platformy testowej ale to przeciez nie Twoja wina ze Ci zabrali C2D. Pozdro oby tak dalej i przede wszystkim w tym tempie.


  48. screeny przedstawiajace twarze (autor: RusH | data: 9/11/06 | godz.: 20:53)
    ale te sdcreeny byly zrobione ZANIM powstal 8800 :)) na zwyklym DX9/OGL ...

  49. @RusH (autor: Kosiarz | data: 9/11/06 | godz.: 21:52)
    Ale moze teraz sa w stanie chodzic szybciej niz 3FPS :)

  50. @sebtar (autor: beef | data: 9/11/06 | godz.: 23:02)
    "nie trzeba być programistą żeby widzieć że optymalizacja softu na PC kuleje jak diabli :-P"

    No jasne, nie szkiełko i oko prawdę Ci powie, jeno serce i spojrzenie jasne! BTW. Słyszałem, że ostatnio fajnie wyrywa się laski na stwierdzenie "Osobiście uważam, że w obecnym czasie programiści nie potrafią optymalizować kodu. Mój kumplel ma kumpla, który napisał Windowsa w assemblerze, ale go nikomu nie pokazał, bo gardzi komerchą. Czy wiesz, że niektórzy potrafią napisać nawet alorytm O-EN-KWADRAT, HAHAHAHAHAHA!".

    <głosem naiwnej blondyny> "Seeeebtaaar, a coo to jeeest algooorytm OOO-EN-KWADRAT?"

    Oops, wpadka. (Hint: żeby uniknąć takiej wpadki, zaptaj RusHa, napisał w życiu cały jeden sterownik do czegoś tam, to się zna na kodowaniu jak nikt inny).


  51. Hehe beef - moze jeszcze Sebtar dolaczy (autor: leonx | data: 9/11/06 | godz.: 23:07)
    do RusHa i komisarza - wprawdzie skoro "nie jest programista" to im za bardzo nie pomoze w kodowaniu, ale przynajmniej bedzie podpowiadal co trzeba jeszcze zoptymalizowac... ;)
    Czekamy na pierwsza produkcje...


  52. OMG 8o (autor: beef | data: 9/11/06 | godz.: 23:16)
    wyjątek z tekstu: "cieniowanie fizyki"

    Mój osobisty kandydat do tytułu "najbardziej absurdalny potworek językowy ever". Chyba zapytam przy okazji znajomego fizyka: "a słyszał Pan o najnowszych dokonaniach w dziedzinie cieniowania fizyki"? Chciałbym zobaczyć jego konsternację pt: "co tu powiedzieć, żeby nie wyszło, że jestem do tyłu, jeśli to prawda, ale i żeby nie wyjść na głupa, jeśli to podpucha :)"


  53. @Marecki&reg; (autor: beef | data: 9/11/06 | godz.: 23:26)
    Co Ty tam napisałeś? Aha, "jestem już dorosły, gry wydają mi się infantylne, poza tym nie mam na nie czasu". Nic odkrywczego, stary. Odwieczny dylemat pt "gdy już mam wreszcie kasę na sprzęt, przestaje mnie on kręcić". Tak jest ZE WSZYSTKIM. Problem nie jest w grach, tylko w nas. Jak nie wierzysz, spytaj dzieciaków, czy podzielają Twoją opinię ;) Welcome in the REAL world.

    A potem będziemy palić cygara w skórzanych fotelach ze szklaneczką whisky i ulubionym dalmatyńczykiem obok. I odpalimy sobie na naszym 100'' telewizorku jakąś gierę dla takich pryków jak my. I już niczym nie będziemy się przejmować. Teraz to taki etap przejściowy - "oj, a gdzie się podziało moje dzieciństwo?". Ano poszło w rurę, jak mawia mój kumpel. I w sumie też fajnie, są inne rozrywki niż gry :)


  54. @nimnul (autor: beef | data: 9/11/06 | godz.: 23:42)
    "Ale grafika z dema technologicznego oraz z gry jest n i e s a m o w i t a.
    Coraz bliżej do rzeczywistosci."

    Eeee no stary, od razu widasz, że nie jesteś w temacie. Wręcz paruje od Ciebie niezdrowe podniecenie, godne raczej nieobytego fanboja. Ludzie "w temacie" nie dają się ponosić emocjom. Ludzie w temacie mówią: "teraz to się nie optymalizuje jak dawniej, prawdziwi programiści dawno już wymarli". Ludzie w temacie mówią: "Kiedyś karty pobierały 0.1W i też działały, niedługo trzeba będzie obok mieszkania stawiać elektrownię, skandal". Ludzie w temacie mówią: "Co mi po grafice, jeśli nie ma fabuły. Za czasów Pac-Mana na automatach, to były fabuły!"

    Przykro mi, nie zasługujesz na odznakę "kewl-haxxor-hrd-soft-geeky-sceptic-mastah". Ale podobno poprzez noszenie koszulki z napisem "m$_is_evil" (w heksadycymalnych kodach ascii of course) można się trochę zrehabilitować ;)


  55. @beef (autor: MS3 | data: 10/11/06 | godz.: 01:34)
    kapitalne wpisy

    Pozdrawiam


  56. dobre beef:))) (autor: speed | data: 10/11/06 | godz.: 02:34)
    zreszta najwiecej maja do powiedzenia ci co najmniej wiedza ale juz my tego nie zmienimy.

  57. what's the beef?! (-; (autor: Icing | data: 10/11/06 | godz.: 03:07)
    prawda, prawda na rabina sie nadajesz (-; Mądrze prawisz (-:

  58. HAHAHAHAHAHAHA (autor: Kosiarz | data: 10/11/06 | godz.: 14:24)
    @beef

    czemu nie dorzuciles nic o moich cyber pornoskach, az jestem zdziwiony i do tego jeszcze smutny. :P

    BTW masz gadane <rotfl> nie myslales o zostaniu dziennikarzem? ciekaw jestem co bys powiedzial o zachowaniach naszych politykow :)))

    Pozdro


  59. hmmm... (autor: neolos | data: 10/11/06 | godz.: 14:30)
    ...nie wiem czy sie to juz przewinelo w komentach ale polecam arta na guru3d.com jak ktos chce zobaczyc jak to wyglada na naprawde mocnym sprzecie test ;) .

  60. nie ładnie (autor: buliwwwo | data: 10/11/06 | godz.: 16:49)
    MAM wytłumaczenie na wasze rozterki poprostu gostek od tego testu. wyciągnoł swojego ukochanego redeona z kompa i wsadził tego oto g80 do swojej małej zarośniętej pajęczynami skrzyneczki wiem można być fanem redeonów ale to jest przesada widziałem inny test w którym G80 PRZERASTA DWA REDEONY X1950XTX W CROSIE
    NO ALE TU JEST INACZEJ NO CUŻ GOSTEK WSADZŁ SWOJEGO RADKA SPOWROTEM I DALEJ STRUGA PINOKIA


  61. wow, wow - buliwwwo - zrozumialbym jakas jedna (autor: leonx | data: 10/11/06 | godz.: 18:31)
    literowke czy blad, ale u Ciebie...
    Goraco polecam lekture slownika ortograficznego - nie sama klawiatura zyje czlowiek...


  62. Na KONIEC !!! (autor: Running Wild | data: 16/11/06 | godz.: 12:49)
    Warto poczekać do nowego roku, na nowe karty !!!

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.

    
All rights reserved ® Copyright and Design 2001-2019, TwojePC.PL