Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 23 maja 2008 
    

Nvidia GT200: Nowe informacje i zdjęcia


Autor: Zbyszek | źródło: TechConnect/VR-Zone | 08:40
(66)
W sieci pojawiły się już kolejne informacje na temat przyszłych kart graficznych z serii GeForce GTX 280/260 oraz układu GT200, który zostanie ich sercem. Rdzeń układu składa się z około 1.3 miliarda tranzystorów i ma powierzchnię 576mm2 - o blisko 100 milimetrów kwadratowych więcej od powierzchni G80 składającego się z 681 milionów tranzystorów. Koszt produkcji w przeliczeniu na jeden układ ma wynosić aż 100-110 USD, wobec czego najpóźniej za kilka miesięcy produkcja GT200 zostanie przeniesiona do wymiaru 55nm, co powinno zaowocować spadkiem kosztów produkcji do około 80$ za sztukę. Pojawiają się już pierwsze informacje na temat cen nowych kart. Nieoficjalnie mówi się o sumie 499-599 USD za model GTX 280, oraz 349-399 USD za GTX 260. W dalszej części aktualności prezentujemy nowe zdjęcia kart.


 


    
K O M E N T A R Z E
    

  1. 599$ (autor: antrax | data: 23/05/08 | godz.: 09:50)
    to prawe 3 razy tyle co kosztuje GTS 512 (209,99$) i 2 razy tyle co kosztuje 9800GTX(294,99$) w Stanach.
    Pytanie czy będzie opłacalny przy takiej cenie


  2. No i fajnie :) (autor: D@r3k | data: 23/05/08 | godz.: 10:38)
    Przy założeniu cena/wydajność HD4000 to kupić 2xHD4870 i bedzie ta sama moc tej parki, jak nowego GTX280 (w klatkach i w amperach ;p ) i to mi pasuje, hehe

  3. antrax (autor: morgi | data: 23/05/08 | godz.: 11:36)
    A jaką cene chcialbys zobaczyc za karte do 3 razy wydajniejsza niz radeon hd 3k?

  4. morgi... na boga (autor: DAWIDUS | data: 23/05/08 | godz.: 11:47)
    a jaka wydajność bedzie miała ta karta?? testowałeś ją??
    pamietasz matrox parhelia 512 na papierze była wielka w praktyce okazała się słaba...


  5. DAWIDUS (autor: morgi | data: 23/05/08 | godz.: 11:54)
    Dobrze, ze przypomniales flagowy produkt firmy kanadyjskiej, jest jeszcze pozostalosc w nazwach takiej innej, tez kanadyjskiej. Nvidia udowodnila, ze wielkie rdzenie mozna zrobic tez potezne w wydajnosci, snij dalej.

  6. Przepraszam Cie (autor: maximality | data: 23/05/08 | godz.: 12:14)
    @morgi, nie zebym cos do Ciebie mial ale troche denerwuje mnie w Tobie cala ta fantazja, a wrecz fanatyczne upodobanie do monopolistycznych firm typu Intel i Nvidia. Dlatego bardzo bym prosil o admina o usuniecie Twojego konta nawet gdyby ta prosba teraz przyczynila sie do usuniecia mojego... powod jest prosty strasznie jedziesz mniejszosc ze czasami ma sie wrazenie jakby Ci kolesie z AMD Ati zabili Tobie chomika gdy byles maly. Mysle ze moje zdanie podzieli duza grupa ludzi na TPC.

  7. DAWIDUS (autor: Grave | data: 23/05/08 | godz.: 12:29)
    Przykład Parhelii w odniesieniu do produktów Nvidii jest kompletnie nietrafiony.

    Począwszy od Rivy TNT JEDYNĄ kartą Nvidii która miała wydajność nieprzystającą do specyfikacji był GeForce FX, ale to było 3 lata temu i Nvidia pokazała, że potrafi uczyć się na błędach i więcej już takiej wpadki nie zaliczyła. Nawet chłodzenie mają od tego czasu bardzo dopracowane i zawsze ciche czego nie można powiedzieć o wyjących turbinach montowanych na kartach ATI.

    Jeżeli komuś bliżej do Mount Everestu nieudacznictwa inżynieryjnego czyli dzieła Matroxa, to zdecydowanie jest to ATI, ze swoim R600, które na papierze wyglądało świetnie a w praktyce okazało się potwornie wolne, w niektórych testach nawet wolniejsze od R580!

    Cross Fire podobnie jak SLI daje Ci wzrost wydajności mocno niepewny i nierówny. Może się trafić gra w której odnotujesz zysk niemal 2x FPS, ale równie dobrze duet SLI/CF może okazać się WOLNIEJSZY od karty pojedynczej co już się wielokrotnie zdażało tak w przypadku ATI jak i Nvidii.

    Co więcej w grach trzymających wysoki frame rate także zdażąją się okazjonalne przycięcia animacji ze względu na CF/SLI.

    Przykładowo takie szparnięcia zalicza 9800GX2 w Crysisie czy DIRT-cie. W przypadku 3870X2 trudno nawet mówić o dropach bo obie gry tną się na karcie ATI równo....

    Co więcej SLI/CF może załączać się w niektórych miejscach w grze a w innych nie działać, co jest wyjątkowo irytujące, bo frame rate leci na pysk.

    Nvidia ma świadomość słabości rozwiązań wieloprocesorowych i stąd stawia na duże układy monolityczne które potrafi robić świetnie.

    ATI z kolei trzyma się mniejszych i wolniejszych GPU i łączy je potem w CF, ale czyni tak głównie z braku pieniędzy i umiejętności na stworzenie pojedynczego wydajnego chipa.

    Wiadomo że CF/SLI to droga do nikąd a już na pewno nie do równej wysokiej wydajności we wszystkich grach. ATI tylko to pozostało bo ich pojedyncze GPU nie są w stanie nawiązać walki z topowymi układami Nvidii.

    Starają się jak mogą, ale nawet nie mają kasy na stworzenie chipa nowej generacji. Więc pozostało im klejenie tego co mają na jednej płytce....

    Dla porządku wypada dodać że choć zarówno CF jak i SLI mają swoje wady to z dwojga złego SLI i tak działa o niebo lepiej od CF ze względu na bardziej dopracowane sterowniki Nvidii.


  8. Errata (autor: Grave | data: 23/05/08 | godz.: 12:34)
    Oczywiście GeForce FX miał premierę nie 3, a 5 lat temu (2003).

  9. Grave... morgi (autor: DAWIDUS | data: 23/05/08 | godz.: 12:47)
    nie porównuje GTX2xx do parheli... mnie chodziło o papierowe potwory jakim był pomysł matroxa... poczekajmy na testy i dopiero ocenimy...
    nie potraficie tego zrozumieć?? czy ja niewyraźnie pisze??
    szczegolnie do morgiego... popieram prośbe maxymality


  10. DAWIDUS (autor: Grave | data: 23/05/08 | godz.: 13:06)
    Chodziło o to że zasugerowałeś z góry, że GT200 może okazać się właśnie takim papierowym potworem, tymczasem nie ma ku temu podstaw, jako że Nvidia od 5 lat takiej wpadki nie zaliczyła, a i przed FX-em układy od Rivy TNT do Ge-Force 4 były niezmiennie udane i bardzo wydajne.

  11. Grave (autor: DAWIDUS | data: 23/05/08 | godz.: 13:36)
    masz manie prześladowczą... myslisz ze wszyscy piszący komentarze mają za celu tylko jechać po kims albo po czymś... ?? to jakaś pandemia... wczesniej to forum takie nie bylo.. ale momentu jak pojawił sie morgii i inni jemu podobni poplecznicy każdy kto tylko nie popiera ich fantyzmu od razu jest wrogiem. po raz kolejny pisze ze POCZEKAJMY na testy i dopiero toczmy wojny....

  12. pier****** hipolicie (autor: piobzo | data: 23/05/08 | godz.: 13:42)
    morgi kto ci powiedział że będzie 3 razy szybsza:/... znowu był u ciebe wcześniej święty mikołaj i powiedzał: "masz tu najnowszą karte nv przetestuj"... jak dla mnie nv ani ati nie przesadza z zapowiedziami co do skoku wydajności... a wszystki informacje ponad to, to plotki (które między innymi tworzą tacy jak ty).. ja słyszałem że ma być 50% szybsza od tych na g80 (czyli 150% wydajności g80) biorąc pod uwage, że g80 jest tylko <i to nie zawsze> ciut szybszy od rv670 to nie ma takiej opcji żeby była 3 razy szybsza (jak na innformacje o niej.. to można spekulować że nie będzie nawet 2 razy szybsza od 3870).. więc morgi pomyśl czasem zanim coś powiesz

  13. DAWIDUS (autor: Grave | data: 23/05/08 | godz.: 13:54)
    Gdyby zakładać że wypowiadać się można tylko po oficjalnych testach to w ogóle 90% tematów na boardzie trzebaby zamknąć.

    Wiadomo, że pisząc przed premierą jedynie przewidujemy. Ja opierając się na dotychczasowych osiągnięciach Nvidii i ATI, ich sukcesach i porażkach, a także podanej specyfikacji RV770 i GT200 zakładam że GT200 będzie kartą o bardzo wysokiej wydajności, przystającej do specyfikacji i znacznie wyższej niż RV770.

    Ty poddajesz taką opinię w wątpliwość do czego masz prawo, a ja jedynie nadmieniłem, że twoja wątpliwość jest nieuzasadniona.

    Dla mnie to normalne, jeżeli firma od 5 lat wypuszcza same bardzo szybkie, nowoczesne i wydajne układy, o wydajności zgodnej z teoretyczną specyfikacją, to czemu mam przypuszczać, że kolejny GPU będzie nagle słaby?

    Nie wiem gdzie widzisz tu manie prześladowczą.

    Przy czym bardzo bym chciał żeby dla ożywienia sytuacji na rynku to ATI (czy też AMD na rynku CPU) w końcu było na topie, ale racjonalnie rzecz ujmując nie mam złudzeń, że nastąpi to w najbliższej przyszłości, o ile w ogóle.


  14. Przyłączam się (autor: zibi25 | data: 23/05/08 | godz.: 14:17)
    Przyłączam się do prośby do admina o zablokowanie konta dla morgiego. W zasadzie nigdy nie pisałem postów tylko czytałem ale przez morgiego zacząłem już unikać tego portalu. Poprostu załamka jak się czyta takie bzdury. Jakby się go pozbyć moze dyskusja zaczęła być jak dawniej merytoryczna a nie 90% postów albo o morgim albo przez niego bzdury pisane ma.

  15. Był już ten wątek poruszany... (autor: Sienki | data: 23/05/08 | godz.: 14:25)
    na boardzie. Lwia część boardowiczów opowiedziała się za nieblokowaniem mu konta w imię wolności słowa i w ogóle... Raczej postulat upadnie...

    A karta jaka będzie, to się dopiero okaże... O 3-krotnie większej wydajności raczej nie ma mowy. Będzie to karta mocna, ale ATI też czai się ze swoim nowy dzieckiem... Niech się biją między sobą - tylko na tym skorzystamy.


  16. Wracając do tematu (autor: Jacek_2004 | data: 23/05/08 | godz.: 14:27)
    Jak wygląda sprawa pamięci. Cos mało jej jest na

  17. urwało się :) (autor: Jacek_2004 | data: 23/05/08 | godz.: 14:28)
    Coś mało jest jej na karcie. Czyżby ma być na dwóch stronach PCB ?

  18. 3 krotnie wyższa wydajność to mocna przesada (autor: Grave | data: 23/05/08 | godz.: 14:30)
    Ale 2 krotny wzrost GTX 280 względem 9800GTX można spokojnie założyć z dużą dozą prawdopodobieństwa.

    2x więcej ROP, ponad 2x więcej TMU, 2x więcej SPU, 2x szersza szyna pamięci + 2x więcej pamięci.

    Jak dołożymy do tego usprawnienie samych shaderów to cała karta realnie powinna być 2x szybsza od poprzedniczki i przynajmniej 50% szybsza od Radeona 4870 o ile specyfikacje tak karty ATI jak i NV się potwierdzą.


  19. Sytuacja sie powtarza jak za czasow G80 (autor: morgi | data: 23/05/08 | godz.: 14:47)
    nikt nie wierzyl w unifikacje shader i tak wysokie taktowania, a co za tym idzie mocarne osiagi, az do czasu kiedy nastapila premiera...dlugo panowal szok i cisza, a potem rozlegl sie aplauz.

  20. piobzo (autor: morgi | data: 23/05/08 | godz.: 14:51)
    50% skad jak, od czego, zacznijmy od tego.

  21. Morgi (autor: antrax | data: 23/05/08 | godz.: 15:27)
    Fanatyku daj spokój, jak patrze na twoje opisy to zaczynam rozumieć Islamskich zamachowców

  22. "ponad 2x więcej TMU" (autor: Zbyszek.J | data: 23/05/08 | godz.: 15:37)
    nie, G80/G92 ma 64TMU, GT200 ma 80

    W testach w Folding@Home wydajność GT200 jest blisko 3 razy większa od RV670, więc realnie można zakładać 60-70% przyrost wydajności GT200 w stosunku do 8800GTX/Ultra i 9800GTX.


  23. Zbyszek.J (autor: Grave | data: 23/05/08 | godz.: 16:11)
    A skąd w F@H wziął się GT200 skoro jeszcze nawet premiery nie miał?

  24. Sienki (autor: DAWIDUS | data: 23/05/08 | godz.: 16:55)
    sam byłem przeciwnikiem bana dla morgiego... ale im wiecej czytam tym bardzie zaczyna się przekonywać ze tak prewencyjnie to by się mały ban przydał dla niego. Jestem w stanie zrozumiec wiele ale tak ślepe zapatrzenie w te firme lub te firmy jest żałosne.
    Trzymajmy jakiś poziom... juz dosyc długo przebywam na tpc i jestem z tego powodu dumny ale od kiedy pojawił się morgi i inni znani nam i mu poplecznicy tpc schodzi na psy... jesli nie ban to moze jakaś moderacja albo chociaz tytuł "fanatyk roku" zaraz za nickiem. Nie wiem...


  25. Grave (autor: morgi | data: 23/05/08 | godz.: 16:56)
    Premiery nie, ale Nvidia udostepnila informacje wspolnie z projektodawcami, wiec nie widze problemu.

  26. DAWIDUS (autor: morgi | data: 23/05/08 | godz.: 16:58)
    Gdzie tu widzisz fanatyzm, jeszcze mowie o konkurencji w stosunku do GeForcow, a firma, ktore je produkuje juz przestala mowic o nich jako o konkurencji.

  27. Przy okazji komentarza obecnej sytuacji ATI i Nvidii (autor: Grave | data: 23/05/08 | godz.: 17:35)
    należy wspomnieć, że Nvidia pojawiła się na rynku później niż ATI. Pojawiła się też w momencie kiedy konkurencja na polu układów graficznych była największa w historii - 3dfx, S3, 3dfx, Randition, Sis, PowerVR.

    Sam 3DFX rządził wtedy niepodzielnie na rynku akceleratorów 3d.

    Zatem łatwo nie było i początkowe układy Nvidii były dalekie od doskonałości. Ale jednak Nvidia uczyła się na własnych błędach bardzo szybko i przebijała się mozolnie do przodu kolejnymi coraz lepszymi bardziej zaawansowanymi technologicznie produktami, z których każdy kolejny stanowił istotny krok w rozwoju układów graficznych i naprawiał ewentualne błędy poprzedników.

    W pewnym momencie okazało się że konkurencja takiego tempa nie jest w stanie wytrzymać, ale czy to wina Nvidii?

    Do wszystkiego doszli sami i wygrali w uczciwej wolnorynkowej walce dzięki obiektywnie najlepszym produktom.

    I co by nie mówić w ogromnym stopniu pchnęli rozwój grafiki w grach i nie tylko w grach.

    Konkurencja nie wytrzymała i mamy właściwie monopol. Ale z drugiej strony czy 3dfx zostawiony sam sobie lepiej by służył konsumentom?

    Śmiem twierdzić że nie. Mielibyśmy wolne tempo rozwoju, wypuszczane co 2 lata karty nie różniące się znacząco od poprzedników do tego kosztuące kosmiczne wręcz pieniądze.

    Wygrał najlepszy, z najlepszymi produktami. I z punktu widzenia konsumenta oczekującego innowacji technologicznej jak największej wydajności i jakości przetwarzania grafiki - dobrze się stało.


  28. morgi, ucz się pisać od Grave'a (autor: bwana | data: 23/05/08 | godz.: 17:55)
    ogólnie macie podobne podglądy czy racje, ale zobacz, jak Grave pisze: jego wypowiedzi są pozbawione chaosu, ładnie podzielone na paragrafy, sposób wypowiadania się wyważony i choć stanowczy, to jednocześnie nieofensywny (chciałoby się powiedzieć po prostu: grzeczny). Co więcej, sprawia wrażenie osoby, która pisze po zastanowieniu się, w sposób adekwatny do kwestii podniesionych przez przedmówców (słowem - na temat) i mimo różnic zdania - bez bicia piany.

    Grave, szacunek.

    PS. Pisownię nicków z wielkiej lub małej litery dostosowuję do pisowni, jaką zastosował właściciel nicka, dlatego Ciebie, morgi piszę z małej, a Grave'a z wielkiej. Żeby nie było nieporozumień:-D


  29. @Grave: zbliżasz się niebezpiecznie do poziomu morgiego ;-) (autor: zartie | data: 23/05/08 | godz.: 20:15)
    Ta laurka dla nVidii jest mocno przesadzona i naciągana. Najlepsze produkty? GF4MX obsługujący DX7? GF4Ti z PS 1.3? GF FX 5200 czyli karta graficzna w wersji demo? Cała seria FX? Oszustwa z jakością grafiki i kombinowanie w sterownikach, gdy ich karty dostawały baty w testach ???

  30. Ośmielę się zakrzyknąć (autor: Dabrow | data: 23/05/08 | godz.: 20:30)
    RĘCE PRECZ OD MORGIEGO. Żadnego banowania. Pisać się nauczy i będzie jeszcze z pożytek. A na razie - czasem jest trochę ubawu.

    Grave - z tą uczciwą wolnorynkową walką - hmm - jak dobrze wiemy każda firma ma jakieś plamy na honorze (-;

    Morgi - ja to sobie myślę że jednak ponosi Cię fantazja, ale - pożywiom uwidim.


  31. hmm (autor: macol | data: 23/05/08 | godz.: 23:53)
    i ja jestem za banem dla morgiego. O ile wczesniej czytalem wszystkie newsy i wiekszosc komentarzy pod nimi to teraz praktycznie przestalem zagladac tu w ogole. Newsy czytam gdzie indziej a do tego watka zajrzalem aby zobaczyc czy morgi nadal pier*oli jak potluczony. Jak widze, niestety nic sie nie zmienilo. Nie rozumiem postawy Dabrowa, bo imho morgi tylko i wylacznie troluje rozbijajac wiekszosc sensownych dyskusji i niszczac tym samym TPC.

  32. no to ja sie (autor: pit808 | data: 24/05/08 | godz.: 01:50)
    dołącze.

    Co do karty, to jak już pisałem w poprzednim SUPER NEWSIE o czymś czego jeszcze nie ma , trzeba poczekać aż będzie ;) Potem protestuje kilka redakcji, na SUPER BRZYDKIM 3D MARKU V i ocenimy - co ta karta jest warta.

    Co do @Moegiego (napisze z Dużej litery, nie na przekór, ale dlatego że tak wypada). Ja już bez niego żyć nie mogę ;) Serio ! Kiedyś doprowadził mnie do furii, właśnie z tym jego nieubłaganym fanatyzmem. Dzięki niemu nauczyłem się liczyć w myślach i czekać jak mi krew z mózgu odpłynie ;) Postanowiłem też być wstrzemięźliwy w wypowiedziach (ile ich pokasowałem), ograniczając się do kilku istotnych postów. Więc nie usuwajmy MORGIEGO pod żadnym pozorem (5 poprawka w K USA i takie tam pierdoły ;). Proponuje poczekać chwile po odczytaniu kontrowersyjnego posta, wrócić do kompa za 10 min. i dopiero coś wysmarować. Ja Morgiego chcę bo śmiesznie jest czytać to co pisze z dystansu.

    @GRAVE - widzę, że znasz historie rynku GPU i dużo w tym jest prawdy co piszesz. Wyidealizowałeś nVIDIE bardzo (tutaj @Zatrie ma racje - właśnie przez GF4MX wolałem przesiąść sie na ATI). Tak jak ATI, tak i nVIDIA miała kilka wtop. Teraz na rynku zostało 3 graczy + 1 ukryty pod szyldem S3. Z tych 3 (tutaj dodam, że myślę o INTELU), tylko 2 naprawdę prowadzi wyrównaną wale - ATI i nVIDIA. Na pewno jest tak, że żadna z tych firm nie czeka na laurkę za dotychczasowe osiągnięcia tylko próbuje coś robić nowego. Na 100% ATI działa teraz pod presją, bo wie że ich karty są słabsze. Ale często jest też tak, że to ten słabszy wpada na jakieś rewolucyjne rozwiązanie. Wiec pozostanie man poczekać na nowy produkt ATI i wreszcie na tego GT200. A potem możemy się albo zachwycać albo szkalować produkt.

    Najgorsze co nas, użytkowników może spotkać to monopol. @Grave wie ile kosztował VOODOO, w tamtych czasach i na pewno nie uśmiecha mu się zobaczyć znowu karty za 4000 PLN i dookoła pustki, NIE ?! ;). (DO CENY DOLICZYŁEM INFLACJE Z TYCH 10 LAT ;)


  33. zartie (autor: Grave | data: 24/05/08 | godz.: 02:20)
    Z całą serią FX zaliczyli fatalną wpadkę, głównie poprzez błędną implementację DX9 które boleśnie odbiła się na wydajności w grach pisanych pod to nowe API.

    Ale nigdy przedtem i nigdy potem (jak dotąd oczywiście;) taki błąd im się nie zdarzył, a to nakazywałoby rozpatrywać FX-a w charakterze "wypadku przy pracy". :)

    Wymienione przez Ciebie oszustwa z obrazem i sama karta 5200 oczywiście podchodzi też pod ten jeden punkt, chociaż rozbiłeś go na kilka żeby mieć więcej argumentów ;)

    W późniejszych seriach GeForce-y batów już nie dostawały i nie było powodu nawet żeby kombinować coś z obrazem żeby uzyskiwać zawyżone wyniki.

    GF4MX zawinił głównie nazwą, nazwaliby go GF2 Titanium 500 (przykładowo) i problemu by nie było.

    Zwłaszcza, że pozostałe modele z serii 4 już w pełni zasługiwały na swoją cyferkę i oferowały najwyższą wydajność na rynku.

    Osobiście Nvidii tego modelu za wpadkę nie uznaję, bo patrzę co kupuję. Aczkolwiek w pełni rozumiem, że jak ktoś nie patrzył na specyfikację i testy tylko w ciemno brał to istotnie mógł się poczuć oszukany GeForcem 4 który z serią 4 miał niewiele wspólnego.

    Tak więc na upartego można to uznać za potknięcie Nvidii - razem z FX mamy zatem 2 wpadki.

    Jednak z drugiej strony ATI takich manewrów z nazwami nie oddającymi realnej wydajności także ma przynajmniej kilka na koncie.

    Że wspomnę Radeona 9000 wolniejszego od modelu 8500, Radeona 9800SE wolniejszego od Radeona 9600PRO i ostatniego wymienionego wolniejszego od Radeona 9500 PRO ;)

    Odnośnie PS 1.4 w Radeonie 8500 to jego uzycie w grach było raczej znikome jeżeli nie zerowe, żadnych realnych korzyści w praktyce nie przyniósł, a GeForce 4 ti ze swoim PS 1.3 był i tak znacznie szybszy.

    Żeby nie było - moim zdaniem uczciwie rzecz ujmując ATI dzielnie dorównywało Nvidii od Rage 128 do Radeona X1900 i za to im się brawa należą jednak.... na nieszczęście kosumentów i konkurencji nie wytrzymali tempa a i kasa się skończyła a wraz z nią GPU od ATI mogące dotrzymać kroku tym od Nvidii.

    W efekcie mamy teraz to co mamy - czyli Nvidię na przedzie z udziałem w rynku prawie 3/4, i ATI w ogonie.

    Może jakby AMD znalazło jakieś wsparcie finansowe ATI mogłoby się wygrzebać z kryzysu, ale bez kasy to czarno widzę konkurencyjność ich kolejnych GPU.

    Już teraz odpuścili sobie rywalizację w segmencie hi-end. Oficjalnie dlatego, że uważają ją za najmniej istotną, nieoficjalnie - bo nie są wstanie w tym segmencie dorównać Nvidii z braku funduszy na opracowanie nowego wydajnego układu z prawdziwego zdarzenia.

    To samo jest z CPU AMD czyli strategia robienia dobrej miny do złej gry i dorabianie coraz to nowszych teorii wyjaśniąjących niby to logicznie kiepską sytuację firmy, tak aby wyszło na to że wszystko oczywiście jest super a będzie jeszcze lepiej..... (tylko nie wiadomo kiedy...)


  34. pit808 (autor: Grave | data: 24/05/08 | godz.: 02:27)
    Nikomu się monopol Nvidii czy jakiejkolwiek firmy nie uśmiecha.

    Z kartami 3dfx było różnie. Voodoo 1 i Vodoo 2 były koszmarnie wręcz drogie zwłaszcza jak komuś się jeszcze SLI zamarzyło.

    Z drugiej strony taki Voodoo 3 2000 czy nawet 3000 kosztował relatywnie niewiele.

    Ostatni Voodoo 5 to ponownie cena wywindowana do kosmicznego poziomu i przypieczętowanie ostatecznej porażki 3dfx-a.

    I isotnie - patrząc na ceny kart 3dfx-a i ich znikomą innowacyjność z wersji na wersję nie żałuję ani przez chwilę że Nvidia ich przejęła.

    Zawsze istnieje obawa że Nvidia bez konkurencji zacznie robić to samo co 3dfx, ale ja mam nadzieję, że jednak do tego nie dojdzie.....


  35. @all (autor: vasc | data: 24/05/08 | godz.: 02:30)
    "http://forums.vr-zone.com/...d.php?t=279485".
    Morgi czyta różne rzeczy na internecie. Niestety brak mu za grosz mu krytycyzmu. Potem wyciąga sobie wnioski pasujące pod jego tezę. No cóż ale taki przywilej młodego wieku:)


  36. bwana, Grave (autor: DAWIDUS | data: 24/05/08 | godz.: 08:12)
    W odniesieniu komentarza bwana zgadzam się z nim. Grave ma swój styl i zgadzam się z nim, z jego tezami i zdaniem
    szacunek...


  37. ja bym zwrucil uwage na (autor: Markizy | data: 24/05/08 | godz.: 09:58)
    układ ATI ma wymiary 256mm^2 i moc TDP oszacowaną na 157W co daje 0,61W na mm^2, z kolei układ Nvidi ma 576mm^2 przy TDP (według niektórych pogłosek) 250W, co na 1 mm^2 daje 0,43W.

    Czyli teoretycznie układ Nvidi jest chłodniejszy jednak układ o TDP 250W znacznie przebija procesory, których najwysze TDP to 140W, więc głównym problemem układu Nvidi będzie nie tyle koszty produkcji co sama żywotność układu, bo tak czy siak chłodzenie będzie ogromne.

    Z kolejni układ ATI też nie błyszczy ale podejrzewam że jego żywotność będzie trochę dłuższa od układu Nvidi. Ciepło generowane przez obydwie karty na pewno nie pozostanie bez wpływy na wszystko co w kompie.

    Tylko trzeba pamiętać że mam namyśli komputer pod obciążeniem, bo do 2d czy prymitywnego 3d, nikt tych kart nie kupi (normalnie myślący)

    Tak wiec podejrzewam że karta GTX280 i GTX260 będą niedługo gościć na runku, nawet po zmianie wymiaru technologicznego układ nvidi zmniejszy sie do około 412mm^2, a to nadal całkiem sporo.

    Z kolei ATI robi według mnie jedna słuszna rzecz, chociaż chwilowo z miernym skutkiem próbuje łączyć po dwa układy na karcie, (oczywiście wymaga to jeszcze sporego dopracowania), ale ten sposób daje większe pole manewru.

    A bez testów i opierając się na domysłach czy też spekulacjach daleko sie nie zajdzie, przykład Phenona, pierwsze p4, GF FX, R600 i wiele innych.


  38. ok @Grawe (autor: pit808 | data: 24/05/08 | godz.: 12:41)
    zgadzam się z tobą, poza jedną tezą. Że ATI/AMD "poluzowali". Jak napisałem powyżej oni wiedzą, że są z tyłu, ale dopóki piłka w grze jest o co walczyć.
    My tu gadu gadu, a inżynierowie zapewne mają kilka zagwozdek do rozwiązania.
    Taka sama sytuacja była z AMD po K6. Każdy po rezygnacji IBM z Cyrixa czekał tylko na to że AMD zostanie pogrzebany. No i pojawił sie znakomity ATHLON. Jak wiesz historia ma dużo takich nagłych zwrotów.
    Jedna kartą nic się nie zmieni. Może nazywać się ona TOTAL HYPERION 10000. AMD/ATI potrzebny jest świeży pomysł na technologiczną rewolucje.
    SLI/CF to lekkie mamienie klientów, że kiedyś może sobie coś dokupi i będzie miał fajny sprzęt. To bujda, bo co rok-dwa postęp wydajności jest taki, że przeważnie wymienia sie kartę i tyle.
    Więc nie grzebmy AMD/ATI tylko obserwujmy rynek bo może się dziać. Może nawet jakieś fuzje się pojawią, kto wie


  39. aaaa (autor: pit808 | data: 24/05/08 | godz.: 12:50)
    jeszcze jedno - GF4MX nVIDIA w tamtych czasach nie miała największych problemów z wydajnością a z jakością obrazu. Można ją było zobaczyć jeszcze obok MATROXA czy ATI 8500, to można się było popłakać.
    Ja pamiętam jak próbowałem nVIDIE to tyle firm zmieniałem (POWERCOLOR, PALIT, GB i coś tam jeszcze), że skończyło się to tym że wziąłem ATI.
    Były to czasy certyfikowania produktów przez ATI co dawało wymierny efekt w postaci jakości obrazu.


  40. pit808 (autor: Grave | data: 24/05/08 | godz.: 13:33)
    Ano właśnie - fuzje. W tym tylko upatruje szansy AMD na wyjście z tarapatów.

    Do tej pory na drodze technologicznego postępu to AMD wykupywało kolejne firmy chcąc zapewnić sobie nową architekturę CPU bez konieczności prowadzenia kosztownych badań.

    I tak zarówno K6 jak i K7 (jego pochodne mamy do dzisiaj) to projekty firm trzecich które AMD zwyczajnie przejęło.

    Obecnie to AMD również potrzebuje "na gwałt" nowej architektury, ale.... tym razem nie ma pieniędzy aby przejąć cokolwiek gotowego, a też nie bardzo wiadomo co mieliby przejąć.

    Zatem pozostaje wariant przejęcia AMD przez inną firmę czy też bardziej dyplomatycznie rzecz ujmując fuzji jakiejś firmy z AMD.

    Spowodowałoby to dopływ wyjątkowo potrzebnej gotówki jak i być może nowych gotowych technologii, co mogłoby zaowocować projektem CPU nowej generacji mogącym konkurować z ofertą Intela.

    Te same uwagi tyczą się rzecz jasna działu ATI, któremu jak nigdy brak pieniędzy i ten brak pieniędzy wyraża się w niemożności stworzenia nowej wydajnej architektury.

    Bo jak inaczej nazwać sytuację kiedy po 2 latach jakie mineły pomiędzy premierami architektury R520/580, a R600 prezentuje się produkt co najmniej nieprzemyślany i niedopracowany konstrukcyjnie, a dla umiarkowanych zwolenników czy też przeciwników ATI - wręcz zupełnie nieudany.

    Notabene owo R600 także zostało opracowane znacznie wcześniej na potrzeby XBOX-a 360 i pomimo 2 lat różnicy w premierach Xenosa i Radeona HD 2900XT układ praktycznie nie uległ żadnym zmianom - dołożono trochę SPU, 8 dodatkowych ROP-ów i poszerzono szynę pamięci do 512bit - właściwie tyle.

    XBOX 360 pojawił się w roku 2005, R600 w 2006, teraz mamy 2008, a u ATI ciągle postawę nowych konstrukcji (RV770) stanowi ta sama architektura, która zadebiutowała w konsoli 3 lata temu.

    Żeby ona była dobra - nie miałbym nic przeciwko trzymaniu się udanych rozwiązań. Problem w tym że wieloktronie udowadniała swoją słabość względem G80 Nvidii i z tego względu ATI powinno dążyć do zastąpienia jej nowym projektem.

    Podobne dążenia powinny towarzyszyć AMD w unowocześnieniu ich K10, które nie spełniło pokładanych w nim oczekiwań.

    Na koniec w kontekście problemów AMD możnaby przytoczyć wypowiedź przedstawiciela Nvidii, która choć pochodzi od konkurencji i z tego względu nie musi być do końca obiektywna, to imho ma sens i rzuca pewne światło na obecną sytuację AMD jak i przyszłość tej firmy:

    AMD has been declining because it hasn&#8217;t built a competitive graphics architecture for almost two years now&#8212;ever since the AMD/ATI merger. They&#8217;ve been pulling engineers [from the GPU teams] to Fusion, which integrates GPU technology onto the CPU. They have to do four things to survive, but I don&#8217;t think they have enough money to do one thing.

    &#8220;The first thing they have to do to compete with Intel is the process technology &#8211; they have to build the new fabs. The second thing is the next-generation CPU technology. The third one is the next generation GPU technology&#8212;we&#8217;re going to invest one billion dollars in here this year and they need to invest on the same level to keep up with us. And then the fourth thing is they say the future is going to be this integrated CPU/GPU thing called Fusion, which there&#8217;s no evidence to suggest this is true but they just said it. They believe it and they&#8217;re now doing it.

    &#8220;So they have to do these four multi-billion dollar projects, they&#8217;re currently losing half a billion dollars per quarter and they owe eight billion dollars. Their market cap is about three billion, so it&#8217;s hard to see where the future is in that picture. Really speaking, they&#8217;re going to have to pull not one, but several rabbits out of the hat.&#8221;

    I chciałbym bardzo żeby ten pogląd był jedynie pesymistyczną wizją przedstawiciela konkurencji chcącego poprawić wizerunek własnej firmy kosztem konkurencji.

    Ale imho niestety to co Kirk mówi z ogromnym prawdopodobieństwem zgodne jest z rzeczywistością.


  41. Grave (autor: Markizy | data: 24/05/08 | godz.: 15:56)
    architektury procesorów jak i czego kolwiek powstają średnio 5-6 lat wcześniej(rozpoczęcie planowania układu itp) . Co do ATI i to że maja architekturę taką samo od 3 lat to wynika z tego że jest ona zgodna z DX 10. Inna za bardzo nie wchodzi w grę ze względu na możliwy brak zgodności, nowe architektury zobaczysz przy DX 11.

    Co do badań i ładowanie w nich kasy, to niekoniecznie więcej znaczy lepiej. Wszystko zależy od zdolności inżynierów ich pomysłowości i managerów który zatwierdzają dany pomysł lub nie. Przykładem jest wydanie x milionów dolarów przez NASA na długopis co będzie pisał w kosmosie (a może pod woda, nie pamiętam tego dokładnie), a Rosjanie użyli do tego celu ołówka.

    Jedyne co tym filmom jest potrzebne to jest co jakiś czas wymiana kilkudziesięciu osób, na młodszych wiekiem, albo z innym doświadczeniem.

    A tak nawiasem mówiąc wątek sie tyczy układu GT200, a nie przyszłości lub jej braku u AMD-ATI.


  42. Markizy (autor: Grave | data: 24/05/08 | godz.: 16:37)
    W kontekście newsa traktującego o nowym produkcie Nvidii, naturalnym jest także poruszanie wątku firmy konkurencyjnej i jej oferty.

    Nigdy nowy produkt nie pojawia się w próżni, a jest rozpatrywany w kontekśćie podobnych produktów obecnych na rynku, z którymi porównań nie da sie uniknąć. Czy to mówimy o układach graficznych, procesorach, monitorach, grach, samochodach lub czymkolwiek innym.

    Oferta ATi jest ściśle determinowana przez ogólny stan samej firmy stąd też ten problem także został przeze mnie poruszony w jednym z postów jako związany z tematem.


  43. Grave (autor: Dabrow | data: 24/05/08 | godz.: 19:04)
    ta wypowiedź ma sens, potwierdza jedynie co już dawno "uznałem" za przyczynę - durne posunięcie ze strony ATi, że się oddało AMD. Wyssali moc i kupa - nie ma komu projektować GPU. Tak sobie myślę, że gdyby jakiś czas temu ATi poszło za pierwszymi chipsetami pod intela dalej, może gdyby się z niebieskimi dogadali - to coś mi mówi że nV by miało ogromne problemy - bo jednak kanadyjczycy mieliby za sobą zdecydowanie większe zaplecze i możliwości finansowe...
    A tak - z 2 akurat słabszych firm powstała jedna, wciąż za słaba...


  44. Dabrow (autor: Markizy | data: 24/05/08 | godz.: 21:06)
    w sumie ATI nie produkuje chipów pod intela, ale za to każdy intel wspiera CrossFire oficjalnie i czasem nieoficjalnie SLI. A co do projektowania układów to R600 był czystym tworem jeszcze ATI. Tylko AMD sie pod nim później podpisała jak właściciel ATI.

  45. Grave (autor: Dabrow | data: 24/05/08 | godz.: 23:54)
    ATi miało chipy pod intela. I wtedy się baaardzo cieszyłem bo sobie ubzdurałem że może to być jaskółka jakiejś współpracy - zwłaszcza że intelowskie chipsety obsłużyły CF - jak piszesz oficjalnie...
    Zdecydowanie lepsza by to była - dla ATi - perspektywa - zastrzyk od intela niż AMD...
    Tyle że mogłoby się też skończyć monopolem bo nVidia chyba by parcia ze strony giganta nie wytrzymała - co jak co ale do intela im daleko w funduszach....


  46. vasc (autor: morgi | data: 25/05/08 | godz.: 12:04)
    Gdybys slyszal i widzial co sie szykuje, to moglbys byc w szoku, ale skoro to Nvidia i jej mocny i przesadzony czesto marketing tak glosno krzyczy i eksponuje gt200, to bedzie potega sama w sobie. Pomimo wielu niedogodnosci w uzywaniu mocarnych chipow, przeciez nikt nie kupuje tego tylko do ogrzewania pokoju, ale zeby pograc w najnowsze gry na najwyzszych detalach w najwyzszych rozdzielczosciach, a nowy GeForce te kryteria spelni.

  47. karty (autor: antrax | data: 25/05/08 | godz.: 12:13)
    ATI tez

  48. Grave (autor: zartie | data: 25/05/08 | godz.: 12:15)
    1) GF FX 5200 jest w osobnym punkcie, bo czym innym była fatalna wydajność serii FX, a czym innym wciskanie ludziom karty DX9, która wyświetlała obraz z prędkością 2 fps. Po wałku z 4MX było to już totalne przegięcie.
    2) Zgadza się, GF4MX zawinił tylko, a może aż nazwą, niemniej jednak było to oszustwo wobec mniej świadomych klientów.
    3) PS 1.4 zbyt wiele gier nie wykorzystywało, ale w jednej, dosyć znanej, brak obsługi tej wersji był bardzo widoczny. Mała zagadka: w jakiej?
    4) >Że wspomnę Radeona 9000 wolniejszego od modelu 8500 (...)
    No popatrz, a GF 9600 jest wolniejszy od 8800, GF 6800 LE był wolniejszy od 6600 GT, 7600 GS wolniejszy od 6800 ...
    :-D


  49. zartie (autor: Grave | data: 25/05/08 | godz.: 14:09)
    3) Nie przypominam sobie żadnej znanej która ukazała się między premierą Radeona 8500, a GeForce FX (ten wsparcie dla PS 1.4 już miał), a która czerpałaby jakieś korzyści z PS 1.4 lub też PS 1,4 wymagała do działania.

    Zatem czekam na rozwiązanie zagadki, bo sam do niego nie dojdę ;)

    Notabene wszystkie efekty tworzone przy wykorzystaniu PS 1,4 kosztem spadku wydajności, obsługiwały także karty zgodne z PS 1.3.

    Dysponujący ponad 2x większą mocą przetwarzania shaderów GeForce 4 Ti nawet przeliczając scenę w dwóch przejściach wykazywał swoją wyższość nad Radeonem 8500, co czyniło obsługę PS 1.4 przez kartę ATI przewagą czysto iluzoryczną.


  50. ktoś tu chyba się pomylił:P (autor: mikuś | data: 25/05/08 | godz.: 17:46)
    kto był konkurentem radeona 8500? Chyba gf3 z tego co pamiętam:) Więc udowadnianie wyższości gf4Ti nad radeonem 8500 jest trochę nie na miejscu bo niedługo po nim ati odpowiedziało radeonem 9700 a co on zrobił z gf4 to wszyscy pamiętają:)

  51. antrax (autor: morgi | data: 25/05/08 | godz.: 17:50)
    Karty ati po dlugim zastanowieniu to swietne grzejniki pomieszczen, a dobrze sprawuja sie tylko w obsludze video. Jesli chcesz zagrac, to czeka ciebie spore rozczarowanie, bo albo bedzie problem ze sterownikami, albo zobaczymy nizsze fps niz zaplacone za podobny sprzet konkurencji. Moze to komus akurat wystarczac, ale na Boga komu potrzebna dobra karta graficzna w PC, zeby nie wymagac przede wszystkim dobrej i szybkiej obslugi gier.

  52. morgi (autor: mikuś | data: 25/05/08 | godz.: 18:08)
    masz tu kolejny argument przemawiający na kożyść nv: GT200 w kategorii na najlepszy grzejnik przebija całą ofertę ati , a także co mniejsze PRAWDZIWE grzejniki. A na serio, dla dobra TPC lepiej się nie odzywaj bo nie widziałem ŻADNEGO Twojego sensownego komentarza

  53. Grave (autor: zartie | data: 25/05/08 | godz.: 19:25)
    Rozwiązanie zagadki: Max Payne 2. Ta gra wymagała PS 1.4 do wyświetlania odbić lustrzanych, na GF4Ti odbić nie było, najbardziej raziło to w przypadku luster - widać było puste ramy.

  54. mikuś - dla swojego dobra (autor: Dabrow | data: 25/05/08 | godz.: 21:19)
    zainwestuj w słownik - skoRZystasz na tym (-;

    Obie firmy robią grzejniki i chłodniejsze układy.

    Morgi - ja. Nie potrzebuję karty graficznej do gier tylko do modelowania. I akurat mam sobie HD2600XT i jestem całkiem zadowolony - radzi sobie ok, jest chłodny w miarę, ma niezłe wsparcie video - podpięty 26" i TV 27" - póki co nie potrzebuję nic więcej - bo jak już mam zagrać - to w FarCry i HL2 spokojnie daje radę w 1920x1200 (-;


  55. Dabrow (autor: mikuś | data: 25/05/08 | godz.: 21:45)
    każdemu może się zdarzyć ortograf:)

  56. zartie (autor: Grave | data: 26/05/08 | godz.: 00:08)
    Max Payne 2 zadebiutował w pażdzierniku 2003 - 2 lata po premierze Radeona 8500.

    W między czasie zarówno ATI jak i Nvidia zdążyły wypuścić nową generację GPU.

    Zatem trudno rozpatrywać przewagę PS 1.4 w Radeonie 8500 w kontekście Max Payne'a 2 skoro pół roku przed premierą gry Nvidia dysponowała nowym GeForcem FX obsługującym zarówno DX8 jak i (kiepsko bo kiepsko ale zawsze) DX9.

    Tymi samymi argumentami z czystym sumieniem mógłbym bronić ATI przed zarzutem przestarzałości ich serii X800 względem GeForce 6.

    W momencie premiery obu kart gier czerpiących realne korzyści z SM 3.0 nie było, a kiedy takowe się pojawiły, ATI miało już w swojej ofercie nowego Radeona X1800 obsługującego SM 3.0.

    W obu przypadkach względną korzyść z zakupu teoretycznie nowocześniejszego urządzenia mogły odczuć osoby rzadko zmieniające GPU.

    Tyle, że w mojej ocenie korzyść to jedynie teoretyczna skoro nie wykażą jej gry obecne na rynku w momencie premiery karty, a te przyszłe wykorzystujące nowe technologie i tak postawią staremu GPU zbyt wysokie wymagania do płynnej komfortowej gry.


  57. @morgi (autor: antrax | data: 26/05/08 | godz.: 00:23)
    A GF-y się nie grzeją?
    7800GT musiałem wymienić chłodzenie na Artic cooling
    8800GT grzał się tak, że czuć było plastik
    9600GT który miałem grzał się ale w granicach przyzwoitości
    3870 nie grzeje się za bardzo przynajmniej wersja od Gigabite i Saphire które miałem w swoich rękach
    Więc nie pisz bzdur jak nie masz pojęcia

    Aha jedne z lepszych chłodzeń jakie widziałem miał GF6800GT od leadtec kilo miedzi i można go było nieźle podkręcić


  58. mikuś (autor: morgi | data: 26/05/08 | godz.: 12:46)
    Byly i beda gorace, ale sa o niebo wydajniejsze i to cieplo nie idzie na marne. Co ciekawe gt200 bedzie mial jest lepsze osiagi i te waty nie ida na marne. Co do grzenia HD3870 to pudlo, to strasznie gorace uklady, porownywalnie pobieraja wiecej energii niz GF8800GT, bedac przy tym nawet do 30% mniej wydajne - pomijam tu mozliwosci OC. Nie ma szans na poprawe sytuacji Radeonow, bo Nvidia wydala fortune na rozwoj nowych GForcow, a amd baaardzo mocno oszczedza, by nie wtapiac calkowicie.

  59. morgi (autor: mikuś | data: 26/05/08 | godz.: 13:14)
    słów brak... Z ciekawości spytam tylko, jakiego masz kompa?:)

  60. mikuś nie wiesz? (autor: piobzo | data: 26/05/08 | godz.: 17:09)
    najlepszego na świecie... bo z procesorem najlepszego na świecie producenta i z kartą najlepszego producenta... Intel pentium4 3GHz HT i gf660 512ram i 1024 MB operacyjnej

  61. piobzo (autor: mikuś | data: 26/05/08 | godz.: 17:49)
    wielce prawdopodobne:) Chociarz nie zdziwiłbym się przy core2extreme i quad SLI. Być może taka jest nagroda dla morgiego za prowadzenie tej krucjaty:)

  62. Grave (autor: zartie | data: 26/05/08 | godz.: 20:27)
    GF4Ti został wypuszczony w lutym 2002 roku, czyli sporo później niż Radeon 8500 i w momencie premiery MP2 nadal był popularny wśród graczy (nikt nie pchał się w DX9, bo nie był on wykorzystywany przez gry). Ba, OIDP był on pod koniec 2003 roku nadal sprzedawany.

  63. poloniści czy co?! (autor: mandred | data: 26/05/08 | godz.: 23:09)
    przestańcie walić takie wypracowania bo jak się popatrzy ile nabazgroliliście to czytać się nawet tego nie chce. Nie potraficie wysłowić się w kilku linijkach?!

  64. Mandred (autor: Sienki | data: 27/05/08 | godz.: 15:01)
    Nie chcesz czytać - nie musisz. Proste... Dla mnie to właśnie takie rzeczowe dyskusje stanowiły od lat esencję TPC... A właśnie przy okazji premier nowych układów jest okazja powspominać stare czasy :)

    Szkoda, że tak wysoki poziom dyskusji niektórzy potrafią skutecznie sprowadzić na dno...


  65. morgi (autor: mandred | data: 27/05/08 | godz.: 21:41)
    GF8800 wszystkie wersje (oprócz GS) pobierają więcej prądu niż HD3870.

    No ale ty masz lepsze źródła informacji.

    Sienki wypowiedzi powinny być takie jak Twoja ostatnia krótko i na temat .


  66. Mandred (autor: Sienki | data: 28/05/08 | godz.: 11:22)
    Ośmielę się nie zgodzić - po prostu moja wypowiedź była krótka, bo nic więcej do dodania nie miałem. Gdybym miał coś ciekawego do wrzucenia, to wierz mi, że rozpisałbym się na ile wlezie, rzeczowo i w temacie :)

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.