Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 5 marca 2010 
    

Oficjalne testy wydajności Fermi


Autor: Wedelek | źródło: Fudzilla | 21:21
(248)
Tom Petersen, człowiek, który niegdyś przewodził projektowaniu chipsetów w Nvidia, a obecnie pracuje jako Dyrektor Działu Marketingu zaprezentował w swoim poście na kanale You Tube wyniki nowego TOP’owego produktu firmy, czyli karty graficznej GTX 480 opartej na GPU Fermi. Układ został zestawiony z konkurencyjnym Radeonem HD 5870, w benchmarku Unigine Haven, który jest pierwszym oprogramowaniem potrafiącym testować nowe karty graficzne pod względem wydajności w nowym API Microsoftu, czyli DirectX 11. W teście nowy GTX480 potrafił znacznie wyprzedzić układ konkurencji w miejscach, gdzie była stosowana tesselacja oraz urządzenia musiały wygenerować bardzo dużo szczegółów. W pozostałych testach wydajność Radeona była niewiele mniejsza. Oczywiście należy pamiętać, że benchmark nie odzwierciedla wydajności w prawdziwych grach, obecnych na eynku a jedynie powinien być traktowany poglądowo.

Oprócz tego Nvidia zaprezentowała również konkurencyjną w stosunku do Eyefinity technologię, czyli 3D surround gaming, która pozwala na podłączenie trzech monitorów. Technologia powinna być dostępna w układach wyposażonych w GPU Fermi. Wideo z prezentacji możecie obejrzeć tutaj.

Zobacz także:

5.3.2010 | 21:21 | Oficjalne testy wydajności Fermi
1.3.2010 | 7:04 | Fermi dla "ludu" w drugiej połowie roku
22.2.2010 | 19:14 | Nvidia podała datę oficjalnej premiery GeForce GTX 480 i 470
26.1.2010 | 19:47 | Wyniki sprzedaży GPU i IGP w 4 kwartale 2009
21.1.2010 | 22:38 | Fermi nie pokona Radeona HD 5970?
19.1.2010 | 8:33 | Architektura Nvidia GF100 (Fermi) w szczegółach
7.1.2010 | 12:11 | Dwa miliony kart ATI z DirectX 11
29.12.2009 | 8:12 | Pierwsze dostawy Fermi dopiero w marcu
8.12.2009 | 13:50 | Intel oficjalnie rezygnuje z Larrabee
6.11.2009 | 17:15 | Nvidia Fermi - premiera w styczniu, dostępność w lutym?
6.10.2009 | 20:45 | Prezes Nvidii będzie pracował za (prawie) darmo
30.09.2009 | 21:04 | Nvidia Fermi - konkurent dla Larrabe?
23.09.2009 | 15:35 | Oficjalna premiera kart ATI Radeon HD 5870 i 5850 z DirectX 11
31.7.2009 | 23:35 | Nvidia GT300 - premiera w listopadzie, dostępność w styczniu?
3.6.2009 | 12:15 | Computex: AMD prezentuje działające 40nm układy z DirectX 11 [video]



 


    
K O M E N T A R Z E
    

  1. łał (autor: Promilus | data: 5/03/10 | godz.: 21:36)
    W miejscach z największym wykorzystaniem tesselacji mamy imponujące 25 vs 40 fps, a w pozostałych różnic brak - GREAT!!!!

    hahahaha


  2. .:. (autor: Shneider | data: 5/03/10 | godz.: 21:39)
    "człowiek, który niegdyś przewodził projektowaniu chipsetów w Nvidia, a obecnie pracuje jako Dyrektor Działu Marketingu zaprezentował w swoim poście na kanale You Tube wyniki nowego TOP’owego produktu"

    wyniki tak obiektywne jak komentarze morgi'ego i Grave'a.


  3. .:. (autor: Shneider | data: 5/03/10 | godz.: 21:53)
    ogolnie fajna prezentacja. na biurku troche mu poprzestawiali rzeczy i biedaczek z telefonu nie moze korzystac, ale zdjecie corki/zony/kochanki ladnie jest wyeksponowane ;-)

    szkoda tylko ze maja tak fajna karte niechca jej przekazac dalej. czyzby martwili sie ze wyniki wyjda gorsze?


  4. Jak w nVidii czołowi niegdyś... (autor: agnus | data: 5/03/10 | godz.: 21:53)
    projektanci chipów dzisiaj zajmują się marketingiem (kotlety?) to nie ma się co dziwić że ta firma tak zeszła na pieski ostatnio. No ale miejmy nadzieję że Fermi pokaże pazurki.

  5. ups (autor: morgi | data: 5/03/10 | godz.: 22:05)
    To teraz prosze o wytlumaczenie dlaczego radeonek wpada w takie wyboje po minucie tego bencha, to sprawa na komisje sledcza, podobnie jak wydajnosc w grach gdzie tez nagle po aktywacji dx11 'cos' kradnie wiele klatek, a tego nie widac, czyzby zawiodla optymalizacja, czy w sprzecie jest nieuleczalny babol.

  6. heh :/ (autor: Mario2k | data: 5/03/10 | godz.: 22:12)
    Czyms musza uzasadniac znacznie wieksza cene GTX480 +/- 40% drozej niz za radka 5870.

  7. zobaczymy co będzie jak oddadzą do testów (autor: Smołek | data: 5/03/10 | godz.: 22:20)
    najważniejsze jest to że właśnie w trudniejszych scenach karta sobie lepiej radzi, bo ważny jest nie wzrost z 70 klatek na 100 tylko z 20 na 50...
    poza tym literówki w tekście:
    obecnych na eynku
    pozwala nap odłączenie


  8. ..... (autor: Marek1981 | data: 5/03/10 | godz.: 22:23)
    Wypowiedź kolesia z innego portalu:
    "Ktoś na forum już wspominał że Benchmark NVIDI był robiony na nowszej wersji Hevena która jest na razie nie dostępna publicznie więc nie wiadomo jakie zaszły zmiany w tym Benchmarku a więc porównanie może nie być miarodajne z kartami ATI które były testowane na wersji starszej."

    Jak zwykle głupek zobaczy kawałek marketingu i we wszystko uwierzy. Ja spokojnie poczekam i porównam jak wyjdą na półki sklepowe.


  9. trzeba uzbroic sie w cierpliwosc (autor: Mario2k | data: 5/03/10 | godz.: 23:05)
    Minimum 3 tygodnie potrzeba zeby bylo wiadomo co i jak z tymi potworkami od NVidi .
    Za miesiac musze podjac decyzje co zastapie mojego starego GF'a 8800GT


  10. do Morgiego (autor: lolo_64xxx | data: 5/03/10 | godz.: 23:59)
    Słuchaj Morgi, my dobrze wiemy, że masz fobie na punkcie spalenizny NV. Skąd wiesz jaka jest faktyczna wydajność GeForce 480 skoro test przerowadzili ludzie z NV. Pisać mogą co chcą, a ty wierzysz w każde słowo jak dziecko. No to powodzenia. Prawda jest taka, że AMD jest sporo przez NV i nawet jeśli zieloni zmontują coś wydajniejszego, to będzie to chwilowe. Jeszcze w tym roku AMD zaprezentuje nową serię Radeonów. Ja jestem osobiście za tym, aby obie firmy mocno rywalizowały, spuszczając z ceny. Tymczasem AMD porponuje spore ceny za swoje Radeony, a NVIDIA wyskoczy z cenami z kosmosu. Mamy taką super możliwość, że się rzygać chce. I to przed twoich zielonych nieudolnych ludzików Panie Morgi.

  11. Tu wisi od rana (autor: yantar | data: 6/03/10 | godz.: 00:27)
    http://www.heise-online.pl/...-GTX-470-947007.html

    Trochę bardziej rozbudowane. Ogólnie na razie do delikatnie mówiąc "źle się dzieje w państwie duńskim". Jak na zapowiedzi itp to jest słabo. Zobaczymy 27 marca.


  12. lolo_64xxx (autor: Elektron | data: 6/03/10 | godz.: 00:42)
    Grzecznie się zapytam: po kiego wuja TROLLUJESZ do TROLLA?

  13. Lolo (autor: vipergti | data: 6/03/10 | godz.: 00:56)
    Ale wypociny sadzisz, zarzucasz chlopakowi, ze sie jara nVidia, bajdurzysz, ze wolisz niskie ceny, a bronisz ATI jak niemowlak. Puknij sie w czaszke kilka razy zamiast pukac w klawisze. Ja tak samo czekam na jakies "realne" miarodajne testy.

  14. @yantar - Uuuuuuu... Czyli nawet jeśli zarzucić (autor: Mcmumin | data: 6/03/10 | godz.: 02:46)
    wynoszoną przez morgiego na piedestał teselację + AA8 to Fermi klęka przed 5870 :D Zobaczymy za 3 tyg ale JEŚLI GTX 480 NIE BĘDZIE MINIMUM 30% szybszy od 5870 to po takiej ilości zaserwowanych nam marketingowych piardów i zaciskania zwieraczy będzie dla mnie KOMPLETNĄ PORAŻKĄ!

  15. literówka (autor: Migimax | data: 6/03/10 | godz.: 07:50)
    3D surround gaming, która pozwala nap odłączenie trzech monitorów.

    Do poprawienia miejsce odstępu między słowami... pozdroo...


  16. @UP (autor: Saturn64 | data: 6/03/10 | godz.: 08:17)
    Na razie i tak niewiele wiadomo na temat FERMIEGO. Trzeba poczekać do premiery i większej ilości testów. I tak wszystko rozbije się o wycenę karty przez Nvidię. Teselacja bardzo pożądana w grach wykorzystujących DX11, jednak dzisiaj nie ma jeszcze takiego znaczenia gdyż sceny wykorzystujące teselację w obecnych grach to mniej niż 5% w całości gry. Owszem za rok może osiągnąć już przyzwoite 20-30% i wtedy Fermi pokaże klasę. Chociaż nie wiadomo czy ATI do tego czasu nie odrobi lekcji z Teselacji w HD6000.

  17. @UP (autor: Saturn64 | data: 6/03/10 | godz.: 08:32)
    Chociaż patrząc na ten wykres spodziewałem się więcej po FERMIM. Zakładając, że FERMI ma 512 jednostek CUDA vs 320SP w HD5870 i 384bit szynę pamięci vs 256 bit, to architektura ta jest mało wydajna. Przecież różnica potencjałów specyfikacji to 50% na korzyść Fermiego.

  18. Dziwne te wyniki (autor: pawel.xxx | data: 6/03/10 | godz.: 09:58)
    We wcześniejszych "przeciekach" nt wydajności fermii także benchamrk o smokach był w robocie, także porównano do HD 5870, a wyniki dawały zupełnie inny obraz
    http://fwd4.me/1cJ
    http://fwd4.me/1cG


  19. Saturn64 (autor: Grave | data: 6/03/10 | godz.: 10:06)
    Architektura sama w sobie może być bardzo wydajna, natomiast moim zdaniem wszystko rozbija się o zegary taktujące.

    Przy tak ogromnym chipie MOŻLIWE (bo nic na razie nie wiadomo), że Nvidii nie udało się uzyskać odpowiednio wysokiego taktowania.

    I tak cóż po 48ROP-ach 512SPU czy 64TMU jeżeli chip jest (załóżmy) taktowany zegarem 600MHz vs 850-1000MHz dla HD 5870?

    Przewaga wtedy topnieje. Pozostaje natomiast przewaga w teselacji tak duża że nawet niski zegar jej nie zniweluje.


  20. Inna sprawa że ATI do pokonania Fermi (autor: Grave | data: 6/03/10 | godz.: 10:10)
    będzie potrzebować jeszcze większego chipa (przynajmniej łącznie)

    Fermi ma 3mld tranzystorów, tymczasem 5970 który prawdopodobnie z nim wygra ma łącznie ponad 4mld i także żłopie prąd równo.


  21. inny test (autor: Rajq | data: 6/03/10 | godz.: 10:26)
    Farcry2 2560 x 1600 Ultra 8xAA Max

    5870: 17/32/55
    GTX4x0: 30/40/67
    Jesli radko nie zabraklo ramu to wynik Fermi jest na poziomie 5970


  22. @up (autor: Rajq | data: 6/03/10 | godz.: 10:27)
    mialo byc Radkowi - sorrki. Czemu nie ma tu edycji ;/

  23. @Grave (autor: Saturn64 | data: 6/03/10 | godz.: 10:38)
    1. Na razie nie ma oficjalnych testów poboru mocy FERMI-ego (GTX480) jednak spekulacje mówią o ok 300W więc podobnie do Radeona HD5970.
    2. Zegar taktujący może i jest 600mhz ale już wiadomo, że SP taktowane są w nvidii innym zegarem, gdzie w nieoficjalnych informacjach przewija się liczba 1200-1400mhz.
    Więc tu akurat część GPU pracuje na plus i część na minus w stosunku do stałego taktowania ATI.
    Jednak w tym przypadku liczą się suche i realne fakty dotyczące architektury a one mówią o 50% większym układzie który jest realnie produkowany.
    3. Jeśli jeden układ FERMI ma wielkość ok 500mm2 a GPU HD5870 ma 334mm2. Natomiast wafle mają taką samą średnicę, to przy tej samej stracie powierzchni w produkcji 2 GPU FERMI można wyprodukować 3 układy ATI. Czyli do walki pomiędzy najwydajniejszym FERMI na przeciw 2 układom GTX480 staje 1xHD5870 i 1xHD5970 w tej samej cenie produkcji dla obu producentów.
    4. Zakładając, że z większym układem są większe problemy w produkcji (ok 20% sprawnych układów FERMI) (ATI ok 80%) to ta rozbieżność jest jeszcze większa na korzyść ATI.


  24. hehe (autor: morgi | data: 6/03/10 | godz.: 11:11)
    Po premierze wyjdzie ze tam gdzie wygra Fermi to Nvidia zmanipulowala, tak samo jak benchmark powyzszy, na specjalne zamowienie niedojd ati, promujac swoje tuzy w dx11 teraz beda musieli promowac tylko wydajnosc w grach dx9 i eyeshity, bo w dx11 beda miec lagi i wyboje, a chodzi o rowny poziom fps, a u nich jak zwykle gory i kotliny, czyli to jest efekt nieudolnosci, pospiechu i ogolnego nierobstwa, braku inwencji.

  25. ..... (autor: Marek1981 | data: 6/03/10 | godz.: 11:33)
    Kto jest większym niedorajdą w rozwijaniu architektury:
    NV: 8800--> 285
    ATI: 2900 --> 5870
    Jak widać wydajnościowo jak i technologicznie ogromna przewaga na korzyść ATI.


  26. Marku (autor: omi | data: 6/03/10 | godz.: 12:00)
    Co za bzdury. To nvidia odgrzewa kotlety bo ATI do serji 5000 nie bylo w stanie przeskoczyc wydajnoscia starego 8800 gtx. I tak lekko podgrzany kotlecik królowal na tronie wydajnosci czasem tulko ustepujac HD 4870. Zastanow sie teraz ile lat potrzebowl radeonik zeby dogonic gforce. Juz niebawem prewdziwy entuzjasta przekona sie jaki papierowy jest sukces serji 5000 kiedy tylko pokarza sie pierwsze gry w dx11.

  27. Marek1981 (autor: Rajq | data: 6/03/10 | godz.: 12:25)
    Wiesz jak sie wydaje mega gniota 2900 to sie nie dziw ze zarzad inzynierow przycisnal do rozwijania architektury. Ring bus polecial do smieci, zmalala rola shaderow ktore w nowszych kartach juz nie obrabialy tyle. Powrocono do korzeni. Ja odwroce pileczke. Jaka to trzeba byc dobra firma z wizja i swietnymi inzynierami ze tworzy sie karte ponadczasowa G80 ktora daje poczatke calej serii kart. A g92 zmasakrowal AMD R600 dopiero w trzeciej odslonie czyli radki 48xx daly rade powalczyc a wczesniej 38xx o 2900 nie mowie zostaly polkniete przez nV.

  28. uuuuuu, wydajnosc w tesselacji !!! (autor: zeek | data: 6/03/10 | godz.: 12:27)
    juz biegne po fermii !!!!

    LOL !!! :))))))))


  29. @all (autor: antrax | data: 6/03/10 | godz.: 12:41)
    Sprzeczacie się kto będzie szybszy, kto ma lepszą architekturę, a ja mimo tego że siedzę na radkach od serii 3000 trzymam kciuki za fermiego, niech namiesza, może wtedy ceny radków 5000 polecą w dół. Z resztą to było oczywiste że nowa karta NV będzie szybsza zawsze tak był tzn. albo jedni byli najszybsi albo drudzy tak wygląda wyścig zbrojeń

  30. Czyli to co zwykle:) (autor: Borat | data: 6/03/10 | godz.: 12:47)
    Atrapy, zapowiedzi, kolorowe plansze i wykresy.

    A układów jak nie było tak nie ma.


  31. nie bardzo wiem co ma piernik do wiatraka (autor: zeek | data: 6/03/10 | godz.: 12:55)
    dlaczego ceny radkow maja poleciec na szyje ? chyba tylko HD5870 i HD5970, bo mniejsi bracia fermii to melodia przyszlosci.

    niestety takie sa fakty ;/


  32. ... (autor: omi | data: 6/03/10 | godz.: 13:18)
    nie chce sie spierac ktory uklad byl w stanie nawiazac walke wydajnosciowa w danym tytule. Biorac pod uwage ogol, uklady od nvidia zawsze oferuja klijentowi wiecej niz ati. Physx, SLI, a teraz chocby teselacja. To inzynierowie nvidia sa prekursorami.

  33. ...... (autor: Marek1981 | data: 6/03/10 | godz.: 13:38)
    @omni - ja mam hd4870 i 8800 to możesz sobie porównywać co najwyżej do 4850.
    http://www.in4.pl/...id=468&rectr_str_numer=17
    Przejrzyj wszystkie strony a zrozumiesz.
    A tu dla porównania hd4870
    http://www.in4.pl/...d=473&rectr_str_numer=14.

    Zanim napiszesz kolejne bzdury zastanów się


  34. @omi (autor: Marek1981 | data: 6/03/10 | godz.: 13:43)
    1) pomyliłem nick - mój błąd
    2) jesteś takim samym .... jak morgi
    3) " To inzynierowie nvidia sa prekursorami." i co jeszcze
    4) " teselacja" była w radeonie 8500... pewnie nawet o tym nie słyszałeś
    5) Physx nie został stworzony przez NV, ba nawet nie jest porządnie wstawiony do ich grafik. Poczytaj zanim napiszesz coś


  35. STOP TROLOM AMD (autor: emu@mailplus.pl | data: 6/03/10 | godz.: 14:03)
    Marek1981 czyli co? NV to zło a AMD to dobro?

  36. ... (autor: omi | data: 6/03/10 | godz.: 14:03)
    odgrzany kotlecik 8800 to juz GTS250 ale to wciaz ta sama technologia, natomiast HD4870 sam pewno wiesz lepiej kiedy sie narodzil.
    http://twojepc.pl/..._geforce_gts_250&strona=5
    Moze teraz masz jasnosc o czym mowie.


  37. Marek1981 (autor: Grave | data: 6/03/10 | godz.: 14:06)
    Jakby porównać topowe karty to w ostatnich generacjach zwycięstwa należały do Nvidii:

    8800GTX vs HD 2900XT - GeForce znacznie szybszy
    9800GX2 vs 3870X2 - ponownie zdecydowanie Nvidia wygrywa
    GTX 280 vs HD 4870 - Nvidia szybsza
    GTX 295 vs HD 4870X2 - także Nvidia górą

    no i teraz...

    GTX 480 vs HD 5870 - nie wiadomo, ale na pewno Nvidia zrobi wszystko żeby w tym porównaniu wygrać.

    HD 5970 - na razie bez konkurencji, ale ze wszystkimi wadami Cross Fire, więc wcale nie jest taką super propozycją właśnie z tego względu nawet jeżeli jest najszybszy (tylko tam gdzie CF zadziała).


  38. Grave raz sie nie zgodze (autor: MacLeod | data: 6/03/10 | godz.: 14:15)
    Odpowiednikiem 4870 jest 260gtx a nie 280.
    Odpowiedzia na 8800 bylo 3870, i faktycznie lekko odstawalo.
    275/280 nalezalo by bardziej porownywac z 4890.


  39. MacLeod (autor: Grave | data: 6/03/10 | godz.: 14:22)
    Porównywałem topowe karty, po prostu ATI nic mocniejszego nie miało.

    A GTX 285 z 4890 wygrywał.


  40. Grave (autor: MacLeod | data: 6/03/10 | godz.: 14:25)
    Wygrywal, ale nie w kategorii cena/wydajnosc.
    Dwa razy wieksza cena...


  41. @Grave (autor: Saturn64 | data: 6/03/10 | godz.: 14:30)
    O jakiej konkurencji dla HD5xxx mówisz?

    Czy o zapowiadanym GT100???
    Czy o zapowiadanym GTX 380???
    Czy o zapowiadanym GTX480???

    W sklepach takich kart nie ma i wogóle nie wiadomo czy kiedykolwiek będą.

    Więc HD5xxx bez konkurencji pół roku lub jeszcze więcej.


  42. @Grave (autor: Saturn64 | data: 6/03/10 | godz.: 14:37)
    Jeśli Nvidia będzie się tak streszczać jak do tej pory to Fermi będzie konkurencją dla HD6xxx. Sam czekam na wyjscie Fermiego od listopada ubiegłego roku. Chciałem kupić jego okrojoną wersję (GTX470) albo Radosława HD5870 myśląc, że jak się pojawi to ceny obu spadną. I do dziś uważam, że zrobiłem największy błąd (mogłem kupić i przez pół roku lub więcej cieszyć się najszybszą jednoukładową kartą na rynku), ale nie chciałem poczekać na spadek cen ale widząc wysiłki Nvidii we wprowadzaniu Fermiego to mogę się zaczekać do usranej śmierci na konkurencję dla HD5870. Wkurza mnie taki stan rzeczy bo brak konkurencji to wysokie ceny.

  43. Saturn64 (autor: Grave | data: 6/03/10 | godz.: 14:39)
    Do premiery GTX480 zostały 3 tygodnie.... :) Co daje równe pół roku opóźnienia za ATI, ale i tak mniejsze opóźnienie niż zaliczyło ATI z R600.

  44. grave (autor: zeek | data: 6/03/10 | godz.: 14:41)
    to wez kup 9800GX2 <lol> bedziesz mial wypas nowoczesna karte

  45. A co do zakupów (autor: Grave | data: 6/03/10 | godz.: 14:42)
    to z GPU czy CPU zawsze tak jest że czego byś wspaniałego i szybkiego nie kupił to i tak za pół roku wyjdzie coś szybszego/lepszego.

    Jakby tak na to patrzeć to można rzeczywiście czekać do śmierci.

    Zasada jest prosta - jeżeli istotnie masz w czym wykorzystać nowy sprzęt, a stary Ci do tego nie starcza to kupujesz.


  46. zeek coś z głową nie tak u Ciebie? (autor: Grave | data: 6/03/10 | godz.: 14:44)
    9800GX2 jest już starą kartą. W momencie kiedy się pojawił kosił wszystko łącznie z konkurencją ze strony ATI. Wiadomo, że z czasem sprzęt się starzeje.

    To ja Ci polecam Radeona HD 2900XT do zakupu też będziesz mieć wypas nowoczesną kartę. I też LOL oczywiście.


  47. I jeszcze jedno (autor: Grave | data: 6/03/10 | godz.: 14:47)
    Nie wiem ile masz lat, ale po Twoich postach wnioskuję, że mam do czynienia w najlepszym razie z gimnazjalistą, albo kimś jeszcze młodszym....

  48. .... (autor: omi | data: 6/03/10 | godz.: 14:47)
    mysle ze sytuacja sie powtorzy i nvidia ponownie zepchnie ati na droga pozycje, choc spektakularny sukces jakim jest wprowadzenie na rynek calej gamy produktow obslugojacych dx11 powino wzbudzic niepokoj wsrod vnvidia.

  49. @Saturn64 (autor: rainy | data: 6/03/10 | godz.: 14:47)
    Jak Nvidia zażyczy sobie za GTX470 z 1600 złotych a za GTX480 2200-2300 złotych, to AMD nie będzie pod żadną presją cenową - najtańsze 5870 spadły poniżej 1350 złotych.

    http://www.skapiec.pl/site/cat/14/comp/801061
    http://www.skapiec.pl/site/cat/14/comp/710416


  50. saturn (autor: omi | data: 6/03/10 | godz.: 14:50)
    Wez sie w garsc. Nie ma jeszcze odpowiednika 5000...

  51. @Up (autor: Saturn64 | data: 6/03/10 | godz.: 14:53)
    Uwierzyłem w te brednie jak pewnie każdy z Was przy tych szumnych zapowiedziach marketingowców od NV o zmiażdzeniu radków z serii 5xxx nie chciałem kupować kart które miały okazać się niczym (mam na myśli HD5xxx) i miały cieszyć się tylko jednomiesięczną (październikową) przewagą nad konkurencją. Nie pamietam takich czasów by konkurent tak dlugo nie odpowiedział na oferte konkurecncji nie wspominając, o tym, że cały czas wprowadza swoich fanów w błąd z domniemaną premierą i owianą wydajnością która to w początkowym okresie oscylowała na poziomie 80% szybszym od Radeona 5870 by teraz po pół roku okazać się tylko o 10% wyższa.

  52. ...... (autor: Marek1981 | data: 6/03/10 | godz.: 15:00)
    Popis ignorancji - porównujmy w danym przedziale cenowym.
    GeForce 9800 GX2 - 1320 zł
    - GeForce GTX 280 - 1310 zł
    - GeForce GTX 260 - 900 zł
    - Radeon HD 4870 - 760 zł
    - Radeon HD 3870 X2 - 720 zł
    - GeForce 9800GTX - 720 zł
    - GeForce 8800 GTS 512MB - 490 zł
    - Radeon HD 4850 - 480 zł
    - GeForce 8800 GT 512MB - 420 zł
    - Radeon HD 3870 512 - 370 zł
    - GeForce 9600 GT 512MB - 320 zł
    - Radeon HD 3850 512 - 260 zł


    Całość ładnie pokazane co się opłaca a co nie.
    Jakość górne pozycje zajmowały radeony....


  53. Saturn64 (autor: Grave | data: 6/03/10 | godz.: 15:01)
    A nie pamiętasz historii R600?

    Miał się ukazać w październiku 2006, ukazał się w maju 2007 - 7 miesięcy opóźnienia za Nvidią.

    Co więcej nie dość że ukazał się z opóźnieniem to jeszcze bardzo wyraźnie przegrał z najszybszym gpu Nvidii.

    GTX -owi 480 daleko do takiej porażki jaką zanotowało ATI ze swoim R600.

    Żeby była analogia to GTX 480 musiałby mieć wydajność na poziomie HD 5850 (tak jak R600 miał wydajność na poziomie 8800GTS).

    Tymczasem wszystko wskazuje na to, że Fermi będzie najszybszym i najnowocześniejszym GPU jaki kiedykolwiek powstał i jeżeli przegra to tylko z dwuprocesorową kartą obarczoną wieloma wadami i oferującą nierówną niepewną wydajność. `


  54. .... (autor: Marek1981 | data: 6/03/10 | godz.: 15:02)
    A teraz coś z nowszych ocen:
    http://www.in4.pl/...id=609&rectr_str_numer=18


  55. Marek1981 (autor: Grave | data: 6/03/10 | godz.: 15:06)
    up - napisane wyraźnie, że cała seria 5xxx ma słaby współczynnik opłacalności. Jeżeli to miał być argument na rzecz ATI to raczej poświadczył coś zupełnie odmiennego.

  56. ... (autor: omi | data: 6/03/10 | godz.: 15:22)
    To prawda ze cena jest najlepsza strona Radeon.

  57. Fanboye (autor: Rajq | data: 6/03/10 | godz.: 15:24)
    AMD z tego forum z Markiem1981 i Qjanuszem na czele to 26 marca zjedza ze zlosci klawiature. Bo wyjda dwie karty, ktore wg nich nawet nie istnieja. Wystarczy tylko poprzegladac neta i juz widac ze serwisy testuja, pelno przeciekow i obraz wydajnosci. 470-ka bez teselacji goni 5870 a z teselacja odsyla high end AMD do mie end'u. Karta wrecz stworzona do rozdzialek 2560 up.

  58. @UP (autor: Saturn64 | data: 6/03/10 | godz.: 15:31)
    Gadacie o czymś czego jeszcze dziś nie ma oficjalnie zaprezentowanego, chociaż powinno być już od pół roku. Wiadomo o nim tyle, że nic nie wiadomo (nawet nie ma pełnej specyfikacji - nv nie potwierdziła czy GTX480 będzie miał 512 jednostek cuda czy też mniej) nie wiadomo jaki będzie miał zegary, a już mówicie o jego niebywałej wydajności, którą to zaprezentowano dopiero na 2-3 screenach przez pół roku milcząc (prawdopodobnie pierwszy układ FERMI się skompromitował i teraz na prędce robią drugi) nie wiadomo jeszcze jak będzie szybkie w innych grach, równie dobrze możemy pogadać o HD6xxx o którym wiem tylko jedno (ma być ponoć szybszy od HD5xxx) i o przyszłorocznym śniegu którego ma być więcej niż w tym roku... a może będzie mniej (pożyjemy zobaczymy)

  59. .:. (autor: Shneider | data: 6/03/10 | godz.: 15:37)
    Grave - podnieciles sie? Twoje agrumenty niszcza.

    skoro ATI miala 7mcy to wpadka NV jest pikusiem? ;-)

    cos jak "zgwalcil ale nie zabil". jestes debilem.


  60. @rajq (autor: trepcia | data: 6/03/10 | godz.: 15:40)
    Phenom też miał być wydajny. Póki nie powstaną pierwsze niezależne testy wydajności nie ma czym sie podniecać. Jeśli to, co można znaleźć w internecie na temat fermi potwierdzi się, cena będzie konkurencyjna, dostępność bardzo dobra oraz w miarę rozsądne zapotrzebowanie na prąd - czapki z głów. Nie jest szkuką zrobić coś rewolucyjnego, co będzie tylko na papierze bądź w bardzo ograniczonej ilości. Sztuką jest zrobić coś, na co każdy sobie będzie mógł pozwolić a nie tylko oglądać za witryną sklepową :-)

  61. Shneider (autor: Grave | data: 6/03/10 | godz.: 15:49)
    Do żadnych argumentów jakie podałem się nie odniosłeś, natomiast Twój "argument" ("debil") pozostawię bez komentarza....

  62. Pisałem już wcześniej (autor: Grave | data: 6/03/10 | godz.: 15:54)
    że gruntowne zmiany architektury wymagają czasu i mogą wiązać się ze znacznymi opóźnieniami.

    ATI "odpicowało" 4xxx dlatego się wyrobiło na czas, Nvidia ma kompletnie przebudowaną architekturę to i czasu potrzebowała więcej, ale czy ktoś to bierze pod uwagę? Nie. Tylko "ATI super bo o czasie, a NV nie umie nic zrobić".

    Nawet taki R300 ATI pojawił się w terminie, ale tylko dlatego, że ATI odpuściło sobie robienie konkurencji dla GF 4 tylko od razu po 8500 skupili się na 9700.

    Następna gruntowna zmiana - R520 - gigantyczne opóźnienie.

    Kolejna znacząca zmiana - R600 - kolejne jeszcze większe opóźnienie.

    Opóźnienie Fermi bynajmniej nie dziwi i nie jest niczym niezwykłym. Konkurencja z ATI przerabiała ten scenariusz przynajmniej dwa razy!!


  63. .:. (autor: Shneider | data: 6/03/10 | godz.: 15:55)
    Grave - Twoja glupota jest ponadprzecietna. nie rozumiesz swojego fanbojstwa.

    usprawiedliwiasz 6cio miesieczna wpadke nvidii, 7dmio miesiecznym opoznieniem. normalne?


  64. ciekawe czy taki grave czy morgi kupia fermii (autor: zeek | data: 6/03/10 | godz.: 15:56)
    pewnie nie, bo z kieszonkowego ciezko ustukac 2000zl na karte graficzna :)

  65. @zeek (autor: trepcia | data: 6/03/10 | godz.: 16:04)
    Jedni oglądają redtube inni wykresy wydajności kart graficznych ;-) Chyba wiadomo o czym i o kim piszę ;-)

  66. zeek (autor: Grave | data: 6/03/10 | godz.: 16:06)
    Jaki Ty zorientowany - w podstawówce pewnie na nic poza kieszonkowym nie możesz liczyć. Współczuję...:>

  67. @grave (autor: trepcia | data: 6/03/10 | godz.: 16:31)
    Dzisiaj są też jeszcze sponsorzy ;-)

  68. Shneider z Twojego postu wynika (autor: MacLeod | data: 6/03/10 | godz.: 16:38)
    Ze jednak Ty masz braki w rozumieniu:)
    Nvidia klepala chipset calkowicie od nowa, a 5xxx ATi to nic innego jak lekko ulepszony 4xxx w mniejszym procesie, i zapewne o to mu chodzilo.
    Fanbojskie pisanie ze 6xxx bedzie calkowicie nowym (a nie bedzie na pewno bo nie ta skala firmy, zeby w tak krotkim czasie to zrobic, majac na glowie 5xxx) calkowicie dewastujacym konkurencje gpu jest tak samo smieszne jak prorokowanie o wydajnosci/niewydajnosci fermi od paru miesiecy.
    Rownie dobrze moze sie okazac ze wyjdzie kulfon taki jak 5830 czy geforce serii 300. Nikt nie jest w stanie tego przewidziec, nawet spocone pachy Ballmera :)
    Osobiscie mam wrazenie ze obie firmy maja inne strategie - nv wypuszcza raz a porzadnie na pare lat (vide 8800) i potem ciagnie (kotletuje jak to nazywacie) do przodu ogromnym skokiem.
    Ati ulepsza drobnymi kroczkami (3xxx) i tez ciagnie do przodu, mniejszymi ale czesciej. Raz jedna jest pod wozem, raz druga i oby tak bylo dalej.


  69. .:. (autor: Shneider | data: 6/03/10 | godz.: 16:41)
    MacLeod - wybacz ale co chciales mi przedstawic? gdzie pisalem o 5xxx?

  70. wiec (autor: MacLeod | data: 6/03/10 | godz.: 16:53)
    "że gruntowne zmiany architektury wymagają czasu i mogą wiązać się ze znacznymi opóźnieniami. "

    "usprawiedliwiasz 6cio miesieczna wpadke nvidii, 7dmio miesiecznym opoznieniem. normalne?"

    Gruntowne zmiany czasem maja to do siebie, ze produkty z nimi zwiazane maja dileje.
    Dlatego (jak ktos tu kiedys napisal) AMD wywiazuje sie z obietnic terminu i rabie procesor za procesorem - bo nie ma gruntownych zmian od lat... Wiec termin moga sobie okreslic w miare celnie. A robiony od nowa uklad moze takie zaliczyc.


  71. .:. (autor: Shneider | data: 6/03/10 | godz.: 17:02)
    MacLeod - nie rozumiesz. NV niech projektuje Fermi i 10 lat.

    ale niech nie przeciagaja premiery o pol roku.

    czy teraz rozumiesz?


  72. ... (autor: pawel.xxx | data: 6/03/10 | godz.: 17:42)
    skoro ati kupuje z TSMC tylko sprawne układy a nvidia ma umowę na kupno całych wafli. To jasne jest że nvidia nie mogła zrobić premiery kart zanim TSMC nie będzie miało stabilnego procesu 40nm. 6 tygodni temu TSMC ogłosiło że proces 40nm jest w pełni wydajny.
    Wszystkie plotki dotyczące problemów fermii dotyczyły problemów z produkcją, a nie problemów z architekturą.
    Wiele wskazuje na to że opóźnienie fermii spowodowane były problemami z procesem produkcyjnym TSMC. No cóż był kryzys. TSMC najpierw wylało inżynierów, a po kilku miesiącach zatrudniło kilka tysięcy nowych.


  73. @MacLeod (autor: rainy | data: 6/03/10 | godz.: 18:08)
    AMD nie jest tak małą firmą jak ci się wydaje - równloległa praca nad dwoma-trzema projektami nie jest niczym nadzwyczajnym.

    Zapoznaj się z tym artykułem: http://www.anandtech.com/video/showdoc.aspx?i=3740


    @pawel.xxx

    Nvidia ma ostatnio, dość paskudny zwyczaj obwniania innych za własne niedociągnięcia/niedopatrzenia.

    Tak jest zresztą i w tym przypadku: zamiast przetestować 40nm tak jak AMD (4770) postanowili, że wypuszczą duży chip z nową architekturą bez balonu doświadczalnego.

    Efekt widzimy od kliku miesięcy - kolejne przekładania premiery (co bynajmniej niewyklucza problemów z hardwarem).


  74. sa juz wstepne testy fermii (autor: zeek | data: 6/03/10 | godz.: 18:11)
    ta karte doslownie zabija mocne AA, jest bardzo niedobrze, po wlaczeniu AA najszybsze fermi jest wolniejsze od HD5870

  75. hehe (autor: morgi | data: 6/03/10 | godz.: 18:17)
    A to dobre bo podobno Nvidia odpicowala wyzsze poziomy detali i upiekszaczy. Fermi w najwyzszej odmianie ma hulac na najwiekszych monitorkach i to plynnie bez jakania, czy to dx11 czy to dx9 i mnie nie interesuje niz ponizej full HD, bo to nie te czasy o czym i ati plecie i swoim eyeshity, z tymze te sklejane monitory to wyglada ohydnie, moze ultra HD, ale sprzetu brak i dobrych lacz.

  76. @zeek (autor: Promilus | data: 6/03/10 | godz.: 18:18)
    Pokaż gdzie dokładnie, bo widziałem testy, ale nie NAJMOCNIEJSZEGO fermi a GTX470 które jest Fermi, ale dosyć okrojonym. Fermi ma mieć poprawione ROP by móc obrabiać MSAA 32x a w SLI i 64x jak dobrze kojarzę więc wątpię by obrywały od HD5k w tej kwestii.
    @MacLeod - chipu się nie zaczyna projektować po wypuszczeniu poprzedniej serii...a raczej 2-3 serie wstecz. Nie martw się - HD6k wedle zapewnień AMD będzie nową architekturą.


  77. promilus (autor: zeek | data: 6/03/10 | godz.: 18:23)
    test faktycznie 470 ale pokazuje na co stac fermi

    http://www.in4.pl/..._-_pierwsze_wyniki_,20549.htm


  78. @zeek (autor: Promilus | data: 6/03/10 | godz.: 18:46)
    Nie musisz mi podawać linka - ja ten temat czytałem już wcześniej :) A i wpis zostawiłem parę minut zanim Ty mi tu odpisałeś.

  79. ..... (autor: Marek1981 | data: 6/03/10 | godz.: 19:54)
    Nie wiem czy wcześniej dodałem komentarz czy ktoś go usunął.... nic napisze jeszcze raz.
    1) @Rajq - pokazujesz swoją nikłą wiedzę i dziecinne zachowanie
    - to ty jesteś fanboyem
    - nie będę płakał tylko się cieszył:) chyba że oferma będzie porażką to się zmartwię.
    2) grave- zobacz jeszcze raz na opłacalność, są 2 grafiki co znikają z rynku i to nie dziwi.
    3)zeek - czytałem to wcześniej i jak się potwierdzi to można się tylko martwić, bo spadku cen nie będzie.


  80. @morgi (autor: kosa23 | data: 6/03/10 | godz.: 20:11)
    cicho bądz, bo Ty i grave podniecacie się testami i7 w rozdzielczości 800x600 i 1024x768 :D

  81. @nius (autor: Drow | data: 6/03/10 | godz.: 20:24)
    "Tom Petersen, człowiek, który niegdyś przewodził projektowaniu chipsetów w Nvidia, a obecnie pracuje jako Dyrektor Działu Marketingu"

    to duzo mowi.... ;>


  82. kosa23 (autor: Grave | data: 6/03/10 | godz.: 20:39)
    Nie podniecam się takimi testami tylko jestem przeciwny testom CPU, które niezależnie od użytego modelu zwracają takie same lub bardzo zbliżone wyniki, bo są one kompletnie niemiarodajne!

    Zasada jest prosta - w testach GPU używa się benchmarków jak najmniej zależnych od CPU, a jak najmocniej obciążających GPU. A więc rozdzielczości są wysokie i tak ma być.

    W testach CPU odwrotnie - używa się benchmarków które są wrażliwe na wydajność CPU a możliwie obojętne dla poszczególnych podzespołów.

    Błędna metoda testowa prowadzi do błędnych wniosków. Testy które na poziomie zastosowanej metody (w tym doboru aplikacji testowych) wykazują uchybienia są po prostu nierzetelne.


  83. @Grave (autor: Takkyu | data: 6/03/10 | godz.: 21:08)
    No i co z tego, że opóźnienie mniejsze niż R600?
    GTX 285 do R4890 można, a do R5870 to już nie?
    Co z tego, że GTX 285 był mocniejszy od R4890, skoro zużywał więcej prądu i grzał się bardziej? Procesor AMD za to byś zjechał - no ale grafiki nV już nie można.

    @MacLeod:
    a co to k... są dileje? Po polsku nie da się napisać?


  84. Takkyu (autor: Grave | data: 6/03/10 | godz.: 21:25)
    Tylko GTX 285 był najszybszym GPU znacznie szybszym od R4890, natomiast topowe Phenomy II żłopią prąd równo, a do najszybszych i7 im daleko.

    Dlatego CPU AMD się ode mnie dostaje, a GPU Nvidii - nie (jeżeli idzie o pobór prądu).


  85. @Takkyu (autor: Promilus | data: 6/03/10 | godz.: 21:34)
    Z tym większym zużyciem papu przez GTX285 względem HD4890 to chyba przesadziłeś. To samo jeśli chodzi o grzanie się.
    @Grave - to może napisz jak wyglądają i3 na tle Athlonów II - bo chyba kiepsko co?


  86. Promilus (autor: Grave | data: 6/03/10 | godz.: 21:47)
    Nie sprawdzałem, ale szczerze wątpię aby 32nm dwurdzeniowiec Intela żarł więcej prądu niż 45nm AMD.

    Z jednym zastrzeżeniem - po odliczeniu tego co ciągnie IGP, bo AMD IGP zintegrowanego nie ma, Intel ma, zatem jeżeli porównywać uczciwie to bez wliczania IGP po stronie Intela.

    Samo CPU i3 na pewno nie ciągnie więcej niż AII.


  87. @ rainy (autor: pawel.xxx | data: 6/03/10 | godz.: 21:50)
    Samo TSMC przyznało że udało jej się definitywnie rozwiązać problemy z produkcją układów scalonych w 40-nanometrowym. http://fwd4.me/GPZ
    Wychodzi na ot że nvidia nikogo nie obwiniała.

    I po co mieliby testować 40nm proces TSMC , czy wypuszczać "balon próbny" czy od tego ten proces uległby cudownej poprawie?
    Różnice w datach premier wynikają z różnych umów jakie mają obaj producenci z TSMC.
    Już wielokrotnie pisałem że w przypadku nvidii kupującej całe wafle nieopłacalne jest zlecanie produkcji przy niedopracowanym procesie. Za to przy procesie dopracowanym ich duże chipy są pewnie dla nich dostępne w niższej cenie niż mniejsze dla AMD.


  88. :( :( (autor: rookie | data: 6/03/10 | godz.: 21:56)
    Niestety Fermi jest niewiele szybsze od 4890 a będzie kosztować fortunę. Do tego pewnie użyją technoologię Turbocache po ostatnim trzęsieniu na tajwanie.

  89. @Grave (autor: Promilus | data: 6/03/10 | godz.: 22:04)
    Mówiłem o opłacalności, nie żlopaniu prądu. 32nm nie okazało się specjalnie bardziej energooszczedne w porównaniu z 45nm, ale to już temat na całkiem inną rozmowę.

  90. Promilus (autor: Grave | data: 6/03/10 | godz.: 22:26)
    W kwestii opłacalności to Pentiumy E6xxx w zbliżonych cenach oferują znacznie wyższą wydajność niż Athlony II.

    AMD nadrabia kosztami platformy dzięki tanim (i często crapowatym) płytom, oraz IGP, ale same ich CPU radzą sobie z konkurencją Intela co najwyżej jako tako.


  91. @pawel.xxx (autor: rainy | data: 6/03/10 | godz.: 22:45)
    To news jest niektualny - podobno TSMC ma cały czas jeszcze problem z 40nm.

    Co do obwiniania, to ostatnio Nvidia twierdziła, iż to firmy kupujące od nich w OEM-ie są winne częstym zmianom nazw ich kart. Urocze nieprawdaż?

    Znaliby chociażby właściwości tego procesu i łatwiej mogliby poradzić sobie z problemami, ktore się ujawniły (tak jak to miało miejsce w przypadku 4770).

    Przy dopracowanym procesie, mniejsze chipy będą również tańsze chyba, że jeszcze wierzysz w Swiętego Mikołaja.

    Btw, naprawdę nie staraj się udawać osoby bezstronnej bo Twoje sympatie pro-Nvidia są aż nadto widoczne (najwyraźniej, wszystko co robią robią świetnie).


  92. @Grave (autor: Promilus | data: 6/03/10 | godz.: 23:05)
    Pentium dual core E6xxx? A ileż to ich jest w Polsce? Widziałem na komputroniku zaledwie jeden model E6300. Jeden!
    Tymczasem w cenie tego 2x2.8GHz PDC mam X3 Athlona II z 3x2.7GHz (też w komputroniku). Oczywiście w innych hurtowniach zapewne jest taniej :) W obu przypadkach. Nie - nie wydaje mi się, by intel był BARDZO konkurencyjny w lowend :] E5xxx i 6xxx to świetne proce, jak ktoś chce tanie LGA775 to w sam raz :) Ale Athlony II nie są gorsze, a X3 - są nawet lepsze. A cena ta sama.


  93. @rainy (autor: arco2006 | data: 6/03/10 | godz.: 23:18)
    tu masz rację "Przy dopracowanym procesie, mniejsze chipy będą również tańsze chyba, że jeszcze wierzysz w Swiętego Mikołaja. "

    bo myślimy czym mniejszy proces produkcyjny to mniejsze koszta bo więcej jest układów tak jest, ale czym mniejszy proces tym trzeba lepsze stosować środki co są droższe i na jedno wychodzi.

    A NV to jak NV, chciała stworzyć CUDAka to stworzyła, tylko to dopiero w 28nm i tak pod znakiem ?, a nie w 40nm.


  94. @arco2006 (autor: rainy | data: 6/03/10 | godz.: 23:26)
    To o czym pisałem, dotyczyło kosztów wytwarzania układów a nie wdrażania procesu technologicznego (które rzeczywiście rosną wraz z każdym kolejnym niższym procesem).

  95. @promilus (autor: trepcia | data: 7/03/10 | godz.: 00:05)
    Nie masz po co się tak produkować, grave i tak wie swoje. Takim właśnie sposobem stałeś się fanbojem AMD wg. polityki Pana G ;-) Ehh... witki opadają.

  96. ale wy (autor: scoobydoo19911 | data: 7/03/10 | godz.: 00:47)
    sie napinacie o kwałek krzemu zamiast sie cieszyć że wyjdzie nowa karta i będzie w końcu walka cenowa to wy już ją mieszcie z błotem. w kwestii wydajność to jest chyba logiczne że kład który ukazuje się z półrocznym opźnieniem będzie wydajniejszy od swojego konkureta zwłaszcza przy takiej dysproporcji zasobów sprzętowych(wogóle co tu porównywać 2 miliardy do 3 milardów tranzystorów), nie zdziwie się jeżeli hd5970 będzie sporo mocniejszy od nowej nv ale dysproporcja zaobów sprzętowych jest podobna jak w poprzednim porównaniu tylko w tym przypadku pojawia sie zasadnicz różnica 5970 nie skaluje się w 100% przez użycie crossfire( jakby układy mogły się lączyć ze sobą bezpośrednio i korzystać z jednej dużej współdzielnej pamięci wtedy problem skalowania zniknął by prawie całkowicie).

    Zauważyłem jeszcze dzisiaj że jak kto broni intela czy nv albo mówi dobre rzeczy o nich to jest fanboyem. a jak ktoś komentuje ati i amd to jest be, w drugą strone jest ta sama ci którzy jadą po nv i intelu są w porządku podobnie jak ci którzy bronią amd i ati, ludzie wy się opamiętajcie zamiast kłocić się o głupie lawałki krzemu to byście zrobili coś pożytecznego albo coś dla siebie.


  97. .:. (autor: Shneider | data: 7/03/10 | godz.: 01:03)
    scoobydoo19911 - odkryles ameryke, gratulacje.

    przedewszystkim nikt tutaj sie nie spina o kawalek krzemu. tylko toczy sie walka z debilnymi komentarzami. oraz betonowym podejsciem do tematu.
    "w kwestii wydajność to jest chyba logiczne że kład który ukazuje się z półrocznym opźnieniem będzie wydajniejszy od swojego konkureta zwłaszcza przy takiej dysproporcji zasobów sprzętowych(wogóle co tu porównywać 2 miliardy do 3 milardów tranzystorów)," - wrozka? chocby tam bylo i 10mld tranzystorow nie znaczy ze bedzie wydajniejszy. owszem bedzie wiecej oferowac, ale dla szarego kowalskiego liczy sie to jak plynnie bedzie dzialac gra.

    P4 osiagaly 4GHz, a i7 920 ma ledwie 2.6 z tymze jeden rdzen z takim taktowaniem kladzie P4 z HT. wiec prosze nie wrozyc z fusow.

    crossfire - nie skaluje sie w 100%. gratulacje, ameryka poludniowa jest Twoja.

    "Zauważyłem jeszcze dzisiaj że jak kto broni intela czy nv albo mówi dobre rzeczy o nich to jest fanboyem. " - odroznij dwie rzeczy. co innego to logiczna oparta o rzeczywiste fakty dyskusja a co innego szerzenie nieprawdziwej propagandy.

    wiec prosze, oszczedz nam kolejnych swoich wypocin.


  98. a co powiecie na 328W ?? (autor: speed | data: 7/03/10 | godz.: 03:53)
    bloki teselacji wykorzystane w 100% .O wydajnosci dowiecie sie pod koniec miesiaca. Ostrzacym zaby na niewiadomo co proponuje przybastowac bo sie ostro rozczaruja.
    Przy taktowaniu 700Mhz wychodzi prawie 400W :))) Rewizja A3 wczesna produkcja.
    Kto kupuje ciezarowke 20tonowa aby jezdzic po zakupy w niedziele??? To jest moje zdanie o 'ofermie'.
    jednym slowem nvidia dala dupy:(((((((


  99. tesselation - z czym do ludzi (autor: Marucins | data: 7/03/10 | godz.: 07:06)
    Widzę iż sporo z was podnieca się czymś czego nawet nie spróbowało a widziałeś jedynie w syntetykach.

    Toż wyraźnie tam widać i z reszto jak na razie cała teselacja to pomyłka (niedopracowana).
    Jeśli uważacie że tak przejaskrawiony efekt jest czymś super to macie problem z odróżnieniem czegoś dobrego a czegoś rzuconego dla zaspokojenia plebsu.

    Droga brukowa czy łuski smoka. Czy wy w ogóle to widzieliście. A widzieliście jak to wygląda po tesselation - jak jakieś kolce sterczące. To co po takich drogach jeżdżono ?

    Teselacją podniecało się ATI w odpowiedniej chwili...(czytaj kilka miesięcy temu) to że nVidia wydaje swój produkt DOBRZE opóźniony, po tych wszystkich pokazach pierwszej tesalacji na ATI... i co widzimy?

    tesselation i różnicę w wydajności - ciekawe aby opóźnić premierę o kilka miesięcy aby teraz chwalić się przyrostem wydajności w teselacji? To tyle czasu myśleli właśnie nad tym?

    Logiczne będzie to iz osoba wydająca produkt po kimś ma czas aby doszlifować go lepiej ale to co pokazuje nVidia.... to kpina i żal!


  100. @trepcia (autor: Promilus | data: 7/03/10 | godz.: 07:08)
    "Nie masz po co się tak produkować, grave i tak wie swoje. Takim właśnie sposobem stałeś się fanbojem AMD wg. polityki Pana G ;-) Ehh... witki opadają."
    Taa, na labie jestem fanboy amd (zarówno cpu jak i karty graficzne), na in4 też, na ngo dla odmiany amd (Cpu) i nvidii (gpu), tutaj wychodzi że znowu amd...a po prostu jestem obiektywny.
    Nic do procesorów intela nie mam - nawet piszę teraz z Tualatina 1.2, po prostu zazwyczaj (obecnie nie licząc najmocniejszych modeli) ze strony AMD jest alternatywa - tańsza alternatywa.


  101. @UP (autor: Saturn64 | data: 7/03/10 | godz.: 08:31)
    Mnie zastanawia jedno. Skoro Nvidia opracowała swój najnowszy chip FERMI na lata jak to wspominają co niektórzy. I jej rozmiar z 512 jednostkami CUDA ma 550mm2 to niech mi ktoś powie jak można go rozbudować by był conajmniej 2 krotnie szybszy (przynajmniej rok w rok nowe generacje kart były ok 80-100% szybsze od poprzedników). Do 1024 jednostek CUDA potrzebaby chyba procesu 22nm a i tak chip będzie miał wielkość ponad 500mm2. Czyli jeśli opracowanie nowych procesów będzie przebiagało podobnie jak 40' to dla NV szykują się ciężkie czasy. Dla przypomnienia dodam, że nvidia wprowadzając udaną architekturę G80, począwszy od GTS 640M, który zawierał 96SP,20ROP,48TMU a skończywszy na GTX285 (240SP, 32ROP, 80TMU) miała duże możliwości rozbudowy czego nie widać po już kobylastej architekturze FERMI. Gdyby AMD nie wprowadzało nowej architektury w kolejnym rozwiązaniu tylko znowu powiększyło dwukrotnie chip (RV870) to wielkością 666mm2 byłby nieznacznie większy od obecnego rozwiązania od NV. A wydajnością zapewne zyskałby na plus ok 70-90% do obecnego rozwiązania.

  102. @Saturn64 (autor: Promilus | data: 7/03/10 | godz.: 09:01)
    ROPy dużo miejsca zajmują...

  103. zla taktyka (autor: piwo1 | data: 7/03/10 | godz.: 09:06)
    szczerze nie rozumiem czemu przy klopotach z fermim nvidia nie wypuscila gtxa 285 w 40nm z dx10.1 i podniesionymi taktami.zmarnowali przez to pol roku. a tak na spokojnie bez zbednych emocji bez zadnych wyciekow do prasy i glupich zapowiedzi mogli po cichu doprowadzac fermiego do gotowosci.taki gtx 285 z podniesionymi taktami smialoby rywalizopwal z seria hd5800. nawalili

  104. @PiWO1 (autor: Saturn64 | data: 7/03/10 | godz.: 09:26)
    Nie do końca masz rację. Z tego co czytałem na anglojęzycznych portalach to nvidia miała taki zamysł jednak problemy z przejściem na ten proces był nawet z małymi układami. Nie udało się osiągnąć nawet 112SP, który to uzyskano ale z bardzo małym uzyskiem sprawnych układów dlatego brnięcie dalej w tą ścieżkę mogło tylko opóźnić jeszcze bardziej architekturę FERMI. Potwierdzeniem tego jest właśnie tak rozrzucona garmażeria w wykonaniu NV (przykładem są układy GT 220 a w szczególności GT240, który to jest nawet wolniejszy od 9600GT). Druga sprawa to priorytetem w ich wydaniu miał być FERMI i na nim skupili całe siły. Mozliwe, że gdyby nie FERMI to sprowadzenie GTX285 do niższego procesu byłoby prostsze, także mogliby wtedy dołozyć do niego dodatkowe jednostki obliczeniowe i zastosować pamięci GDDR5 to tak odmłodzony GTX285 vel GTX385 mógłby być ogromnym hitem wyprzedzając spokojnie wydajnościowo konkurencję z spod znaku ATI. Ale wybrali taką drogę jak wybrali. Poczekajmy jeszcze 20 dni i dowiemy się co wart jest FERMI. Nie można go przekreślać gdy wiemy o nim mniej niż zero. Zagrywki nvidii mogą być również ukierunkowane na wprowadzenie w błąd i może okazać się, że układ pobije nawet HD5970 i to znacznie.... ale nie ma to jak spekulacje.

  105. piwo1 (autor: Markizy | data: 7/03/10 | godz.: 09:37)
    tylko obniżenie procesu nie koniecznie pozwala na duże podniesienie taktowania. Na pewno wydajność podniosła by się, powiedzmy o około 20% (obniżając lekko TDP w stosunku do 55nm i podbijając takty), ale dalej byli by za AMD.

  106. Saturn64 (autor: piwo1 | data: 7/03/10 | godz.: 09:45)
    ale nei kumam.skoro z gt220 mogli przejsc to czemu nie mogli przjesc z gtx285?co to za roznica.ati moglo nvidia chyba tez mogla.moze fakt mieli priorytet fermi.mozliwe ze to przez nagonke w tamtejszym czasie ze odswierzaja kotlety tylko.nie chcieli robic tego wiecej.ale chyba byl to blad.Markizy te 20% juz by starczylo by rywalizowac na rowni z seria 5800.na epwno bylby to lepszy wybor niz teraz gtx285 :)

  107. @promilus (autor: trepcia | data: 7/03/10 | godz.: 09:45)
    Ja wiem, że jesteś obiektywny. Poprostu, niektórzy lubią przywdziewać innym użytkownikom nieprawdziwe maski.

  108. piwo1 (autor: Markizy | data: 7/03/10 | godz.: 09:49)
    od GTX285 na pewno był by to lepszy wybór, ale czy od 5800 trudno powiedzieć :)

  109. Markizy (autor: piwo1 | data: 7/03/10 | godz.: 09:58)
    ale nie musialby byc lepszy.wazniejsze zeby byl zblizony cenowo i wydajnosciwow.wtedy od razu ceny w dol, ale z drugiej strony nie byloby czego sie czepiac.nvidia mialaby spokoj.nie musialaby raczyc nas jakas marketingowa papka.moim zdaniem nvidia popelnila blad.moze i fermi bedzie super hiper ale moim zdaniem zrazili do siebie wiele osob.zupelnie nie potrzebnie.

  110. hehe (autor: morgi | data: 7/03/10 | godz.: 10:05)
    Wnioski cokolwiek dziwaczne, biorac miare na to co Nvidia dokonala w ostatnich latach. Od G80 wprowadza chipy CUDAcznosci, czyli to juz nie sa tylko male, zreczne i najlepsze w branzy liczydla do grafiki, ale wielkie bydle do liczenia grafiki i innych wydumanych sztuczek, czego do dzisiaj nie potrafi i nie bedzie potrafilo ati, bo tam po prostu jest blad w sztuce i tylko liczydlo do grafiki aspirujace go bycia czyms wiecej, a nie jest. Wielkie chipy kosztuja wiecej czasu i pieniedzy i nie potrzeba wiecej wywodow czy to sie oplaca czy nie bo Nvidia ma tylko taka droge, a amd moze w kazdej chwili skasowac te lipy po wrzuceniu apu i kontynuowaniu x86. Nvidia kosi kase na profesjonalnych klientach, a grafiki dla zadymiarzy i fanow to podle grosze, zwlaszcza kiedy CUDAcznosc to nadal duze halo bez pokrycia, chociaz przerozne dema i papiery moga napawac nadzieja.

  111. @piwo1 (autor: Saturn64 | data: 7/03/10 | godz.: 10:08)
    Poczytaj:
    http://semiaccurate.com/...0-broken-and-unfixable/


  112. @morgi (autor: Saturn64 | data: 7/03/10 | godz.: 10:12)
    Wróć do szkoły proszę Cię. Masz takie problemy ze stylistyką, że jak czyta się Twoje posty to bez różnicy czy bym czytał od końca czy od początku nie widać różnicy, nie mówiąc już o zrozumieniu Twoich wypocin.

  113. @morgi (autor: Promilus | data: 7/03/10 | godz.: 10:27)
    łykasz papke marketingową nvidii lepiej niż koty Whiskas ;)
    GPGPU narodziło się dużo wcześniej niż nv wprowadziła G80 - ogółem połączenie DX9.0 (pierwsze u ATI) oraz HLSL (bazując na cg nvidii) pozwoliło na pierwsze zastosowania GPU do czegoś innego niż wyświetlanie pixeli - głównie transformacje fouriera, jak i realizacja sieci neuronowych. Pierwsze narzędzie dedykowane GPGPU oczywiście zapodało ATI (CAL) we współpracy z uniwersytetem Stanforda (Brook). Więc żryj dalej chorą papkę nvidii i żyj w błogiej nieświadomości - ale na forum się nie wypowiadaj, bo nie wiesz zupełnie nic, a pisać byś chciał eseje.


  114. Saturn64 (autor: piwo1 | data: 7/03/10 | godz.: 10:58)
    mogłbys mi na Polski w skrocie to wytlumaczyc?jakie bledy przy projektowaniu chipu nvidia popelnila a jakich beldow nie popelnilo amd?bo nie do konca rozumiem ten artykul.moze ty bardziej w temacie.tak w punktach jak zbudowany jest fermi a jak byc nie powinien.z gory dzieki.

  115. @piwo1 (autor: Saturn64 | data: 7/03/10 | godz.: 11:04)
    http://translate.google.pl/...r%3Dlang_en%26sa%3DG

  116. saturn64 (autor: piwo1 | data: 7/03/10 | godz.: 11:30)
    tlumaczylem translatorem.nie o to chodzi.przetlumacz mi po swojemu w punktach o co chodzi.jaka ma architure amd a jaka nvidia.roznice w niej zawarte.tak na chlopski rozum co z tego artykulu wynika.bo ja go nie rozumiem.

  117. @PIWO (autor: Saturn64 | data: 7/03/10 | godz.: 11:45)
    Każda architektura jest inna. To nie ulega wątpliwości. Ale mogę napisać co zrozumiałem z tego artykułu.
    1. Proces 40nm jest bardzo niestabilny, znaczy to tyle, że jest więcej nieprzewidywalny i bardzo często w całej jego strukturze znajdują się dziurawe tranzystory.
    Każda z tych architektur jest inna (Nvidia ma bardziej skomplikowaną i złożoną ze względu na cache i inne układy logiczne, nie wspominając już o tym, że część układu NV pracuje na różnych zegarach. To, że w AMD przy 850mhz będzie działało ok nie znaczy już, że układy taktowane w NV na 1200mhz czy więcej bedą działać poprawnie.
    NVidia nie zrobiła próbnego układu i wyciągnęła z tego wniosków. TSMC uruchamiając jedną linię 40nm w maju 2009r i wprowadzając do produkcji ATI HD4770 nie mogło sobie poradzić z ilością uszkodzonych szt. Pamietasz przecież, że dostępność tych kart była jak wygranych 6 w totolotka przynajmniej do sierpnia 2009 a produkowane były conajmniej już 3 miesiące.
    Jeśli ATI do układów bardziej skomplikowanych mam na mysli cypress 2 krotnie większe od 4770 wprowadziło w procesie projektu podwójne układy dublujące (oczywiście te najbardziej wrażliwe) które po uszkodzeniu jednego z nich można było dalej sprzedać układ jako pełnowartościowy lub też jako kastrata ale nadal działający. Nvidia nie wprowadziła takich zmian i jej architektura jest mniej podatna na takie modyfikacje co wiąże się z jeszcze większymi problemami bo wiadomo, że jeśli uszkodzą się jednostki SP czy ROP można układ sprzedać jako mniejszy (kastrat) gdy uszkodzenie dotknie skomplikowaną logikę zarządzającą układem a w FERMI masz także sporo cachu to takich układów nie da się zdublować (zobacz na procesory ile masz odmian a róznią się zwyczajnie cachem) W karcie graficznej musi być całkowicie sprawny by można było wogóle mówić o działającym GPU. Stąd te problemy.


  118. w 3D surround gaming (autor: Dabrow | data: 7/03/10 | godz.: 12:23)
    nie chodzi o samo podpięcie 3 monitorów bo to żadna w sumie nowość, a o synchronizację obrazu z 3 monitorów z okularami 3D. Taka mała różnica (-;

  119. dzieki Saturn64 (autor: piwo1 | data: 7/03/10 | godz.: 12:44)
    faktycznie amd mialo sporo bproblemowi z 4770.widac wyciagneli nauke.a nvidia dopeiro uczy sie na bledach.moze stad to opoznienie bo musieli znacznie przeprojektowac ukald wlasnie dublujac niektore elementy.ciekawe czy amd wypusci najpierw jakis hd z seri 5000 w technologi 28 zanim wypusci serie 6000.widac taki manewr bylby calkiem nieglupi.

  120. Promilus (autor: morgi | data: 7/03/10 | godz.: 12:51)
    Narodzilo sie, ale w glowach teoretykow uczelnianych, dzisiaj jedynie i wylacznie Nvidia walczy o faktycznie dzialajaca kombinacje soft i hard, a jak masz jakies porownywalne przeszle uzasadnienia to poprosze, bo ati to w tej materii czysty belkot, zadnych osiagniec, poza kilkoma zlepionymi nieudolnie wspomagaczami obliczen na xeonach.

  121. ... (autor: Saturn64 | data: 7/03/10 | godz.: 13:02)
    Intel robi kolejne cięcia. :)
    http://pclab.pl/news41249.html


  122. @morgi (autor: Promilus | data: 7/03/10 | godz.: 13:08)
    Nie ma ani JEDNEGO superkomputera budowanego dla celow GPGPU na nvidii, OAK RIGDE INSTITUTE wycofał się z Fermi. Za to Tianhe jest, działa i ma się dobrze. Są tylko malutkie Tesle - nijak temu do superkomputerów, choć nvidia tak to reklamuje. I to są fakty. W naukowych obliczeniach nvidii brakuje precyzji (bo G80 i G92 jest FP32) a jeśli precyzję ma (GT200) to brakuje jej szybkości. Fermi może coś w tym kierunku zmienić, ale nie musi. AMD wspiera otwarty OpenCL, obsługuje też DX compute - i więcej nie potrzeba, bo dla szerokich zastosowań będą wykorzystywane tylko te dwa standardy z naciskiem na ten pierwszy. Zatem CUDA zasadniczo skończyły swoją krótką i błyskotliwą karierę. Będzie to rozwijane dla paru fanatyków jak Ty pewnie, albo jako backend do physx...i nic poza tym. Kto się zainteresuje technologią która działa na sprzęcie jednego producenta, co implikuje że by wykorzystać ten soft konieczny jest zakup sprzętu od tego samego producenta - to tak jakbyś kupował samochód BMW i musiał kupować paliwo na stacjach BMW.

  123. @rainy (autor: pawel.xxx | data: 7/03/10 | godz.: 13:24)
    Ja nie udaje bezstronnego ja jestem bezstronny. Zarzucasz mi brak bezstronności, a sam ma dzwięk słowa nvidia dostajesz piany na pysku, automatycznie wszyskie oświadczenia nvidii taktujesz jako kłamstwo.
    Po tym jak fermi nie miał premiery na cebit faktycznie może tak być że TSMC ma nadal kłopoty z 40nm. Tak czy inaczej okazuje się że nvidia mówiła prawdę, że problemem fermi jest niedopracowany proces 40nm.
    Moim zdaniem to całkiem prawdopodobne że producenci oem chcieli "nowych" produktów. Nie takie rzeczy się widuje w supermarketach. Nie zakładam z góry ze nvidia kłamie - jestem bezstronny.


    "Znaliby chociażby właściwości tego procesu i łatwiej mogliby poradzić sobie z problemami, ktore się ujawniły (tak jak to miało miejsce w przypadku 4770)."

    1. ten proces ulega/ulegał zmianom, z którego okresu wdrażania 40nm powinna ta wiedza pochodizć?
    2. Po co AMD czy nvidii wiedza o właściwościach procesu TSMC na który nie mają żadnego wpływu?
    3. Z problemami z 40nm to poradzić sobie muszą inżynierowie TSMC a nie AMD czy nvidia


    Wcześniejsza dostępność chipów 40nm AMD wynika z tego ze kupują tylko sprawne chipy, ale po wyższych cenach bo ryzyko niskiego uzysku ponosi TSMC. Cena jednostkowa jest stała dla AMD. W początkowym okresie wdrożenia procesu gdy uzysk jest niski np. 4% TSMC dopłaca do produkcji, ale ma na czym doskonalić proces. Jednak TSMC również nie jest Świętym Mikołajem i jak uzysk się poprawi to nie obniżą cen dla AMD tylko będą realizować zysk. AMD płaci za sprawne chipy, więc dla AMD stopień dopracowania procesu nie ma wpływu na ceny.


  124. pawel.xxx (autor: piwo1 | data: 7/03/10 | godz.: 13:40)
    nie zrozumiales.wiedzac ze TSMC ma problemy, uklada sie tak architektore chipa, zeby wykluczyc ewentualne wlasnie bledy w produkcji.podwajasz ilosc tranzystorow a wykorzystujesz z tych dwoch tylko jeden chodzby dzialaly dwa.masz wiecej tranzystorow w chipie ale ilosc dzialajacych ukaldow jest wieksza.

  125. @pawel.xxx (autor: Saturn64 | data: 7/03/10 | godz.: 13:47)
    Proces procesem i błędy zdarzają się zawsze w każdym prcesie i na każdym etapie jego wdrożenia. Różnią się tylko mniejszą ilością występujących błędów. Ale błędy zawsze były i zawsze będą. Jeśli by tak nie było to nie byłoby odpadów w produkcji i 100% by się udawało. Wtedy już na etapie produkcji układ np HD5850 nie miałby 334mm2 jak HD5870 a z 1440SP miałby powiedzmy 300mm2. Dlatego zawsze masz 2-3 inne GPU, które są produkowane na tym samym rdzeniu a które mają poblokowaną część niesprawnego układu.
    Chronisz marketingowców od nv a przecież nie raz pokazali swoją niekompetencję. Wmówili kilka razy dostępność Fermego nie mówiąc już o 2 premierach na których nic nie zaprezentowano. (jeżyki, zwieszające testy itp)
    Rozumiem, że można zrobić papierową premierę i pokazać chociaż jeden działający układ, podeprzeć się testami a karty mogłyby się pojawić miesiąc później na półkach sklepowych. A nie pół roku nic nie mają i w nieskończoność przesuwają terminy.


  126. @pawel.xxx (autor: trepcia | data: 7/03/10 | godz.: 14:07)
    Jednak TSMC oferuje taki a nie inny proces 40nm i to na barkach projektantów układów graficznych spoczywa obowiązek aby ich produkt był możliwie jak najmniej wrażliwy na przypadkowe błędy w układzie. Za to im wkońcu płacą :-)
    No chyba, że jakaś firma chce być w tyle za konkurencją...
    co z tego, że są pomysły i rewelacyjne rozwiązania, skoro nie można ich wyprodukować lub wprowadzić w życie na więszką skalę? Nie pierwszy i nie ostatni raz takie przypadki zna świat.


  127. .:. (autor: Shneider | data: 7/03/10 | godz.: 14:16)
    speed - 328W. ladnie :/

    zastanawia mnie jedynie fakt w jaki sposob doszlo do takiego stanu. przez ostatni czas jedynie odgrzewali kotlety wiec wysilek intelektualny byl stosunkowo niewielki. majac czarnego konia w postaci sprawdzonego ukladu G92, mogli spokojnie przemyslec swoja przyszlosc, moze to zrobili zbyt spokojnnie? ;-)

    nie mniej jednak ciesze sie ze NV dostala za swoje, dzieki temu szanse w przyszlosci sie wyrownaja.


  128. @pawel.xxx (autor: rainy | data: 7/03/10 | godz.: 14:35)
    Przeczytaj sobie tę stronę tego artykuły i następne, a przestaniesz opowiadać bajki, że Nvidia w żaden sposób nie zawiniła opóźnieniu w premierze Fermi.

    http://www.anandtech.com/...oc.aspx?i=3740&p=7

    Odpowiedź na kolejne pytania, znajdziesz również we wspomnianym artykule.

    Widzę pewien problem z logicznym myśleniem: to, że AMD płaci za sprawne układy nie oznacza bynajmniej, iż uzysk z wafla jest dla nich bez znaczenia.

    Jeżeli na skutek poprawy uzysku, liczba sprawnych układów z wafla zwiększy się np. z 90 na 120 to oczywistym jest, że koszt jednostkowy będzie niższy.


    Jak na osobę rzekomo bezstronną, zadziwiająco alergicznie reagujesz na jąkąkolwiek krytykę Nvidii, posuwając się do określeń typu "czerwony fanboy" albo tak jak tutaj "a sam na dzwięk słowa nvidia dostajesz piany na pysku" (brawo za elegancję).

    Nvidia w ostatnim czasie, dostarczyła aż nadto powodów by ich oświadczenia, traktować z dużą dozą sceptycyzmu/podejrzliwości (vide zachowanie w sprawie przegrzewających się układów w laptopach).

    Nie traktuję bynajmniej każdego ich oświadczenia jako automatycznego kłamstwa, co starasz się mi imputować (to pewnie znowu ta Twoja bezstronność).


  129. @Shneider (autor: Promilus | data: 7/03/10 | godz.: 14:37)
    Zasadniczo wystarczyło zrobić to co AMD - ot wziąć G92, pomnożyć wszystko x2, no może SP więcej, DX11 zaimplementować, 256bit GDDR5...i w zasadzie tyle, dużo mniej roboty niż z Fermi a rezultaty z pewnością byłyby (dla graczy) znacznie lepsze. Ale nv skupiła się na tym, by układ świetnie się wpasował w zastosowania naukowe - a tutaj G92 już tak nie błyszczało.

  130. Promilus (autor: piwo1 | data: 7/03/10 | godz.: 15:01)
    to tez nie jest obiektywne.nie znamy jeszcze oficjalnych testow.na pewno w grach ciezko bedzie nvidi( stosunek ceny do wydajnosci oczywiscie, bo moim zdaniem jednak fermi bedzie ciut szybszy od hd5870 o ile ? zobaczymy) o tyle ludzie od softweru rusza do ataku.moge sie zalozyc ze z premiera ukladu zaoferuja nam mnustwo ciekawych aplikacji i wsparc dla roznorakich programow ktore obsluzy tylko fermii.bedzie cos na zasadzie.kup fermii a zobaczysz jak winzip szybko pakuje twoje pliki, albo jak szybko koduje sie film. moim zdaniem skusza wiele osob takim podejsciem, bo na grafike dzisiaj na prawde nie nalezy patrzec juz tylko jako gry.nie bronie tu nvidi ale mozemy sie spodziewac wysypu roznych ciekawych optymalizacji tylko i wylacznie pod fermi.i to bedzie ciekawe z punktu widzenia z zewnatrz ale dla posiadaczy ati juz niekoniecznie ( cos ala physix w grach tylko dla wybrancow z nvidia na pokladzie).

  131. @UP (autor: Saturn64 | data: 7/03/10 | godz.: 15:11)
    Wracając do przedstawionego wykresu i testu przez Tima Petersena (Dyrektora Działu Marketingu NV).
    Na zagranicznych forach internetowych podają, że Fermi testowany był na nowym nie wydanym oficjalne Unigine Heaven 1.1 z 0 AA & AF 1, czyli prawie wszystkie zasoby sprzętowe był dostępne dla tesselacji. Wcześniejszy Unigine Heaven nie miał możliwości zmiany ustawień, które domyślnie były bardziej złozone.


  132. Promilus (autor: morgi | data: 7/03/10 | godz.: 15:16)
    Radze zmienic zrodla, bo to moze sie zle skonczyc, a z Oak Ridge jest wszystko o.k., jak podaja rozne zrodelka. Czekam dalej na komercyjne, a nie akademickie zwlaszcza chinskie uniwerkowe poldarmochy od amd.
    http://www.legitreviews.com/news/6999/
    http://www.techworld.com.au/...graphics_processors


  133. Co do architektury (autor: morgi | data: 7/03/10 | godz.: 15:23)
    to wszyscy wypowiadaja sie w superlatywach jako najbardziej elastyczne gpu do ogolnego programowania i nie jest to do konca bez pokrycia. Jako czysto graficzne Fermi bedzie sprzedawane w niskich cenach, a mniejsze chipy powinny przycisnac wlasnie na korzysc wydajnosci graficznej, bo tam sie walka bedzie toczyc o rynek, czyli sredni segment, ktory ati zazwyczaj olewa i tym razem tez sie machneli mocno tak, ze wyszly im zgnile jablka jakiesik junipery i redwoody, slabsze i drozsze od starej ekipy.

  134. @Shneider (autor: scoobydoo19911 | data: 7/03/10 | godz.: 15:35)
    jakiej propagandy co ty jakiś komunista jesteś? Jakie betonowe podejście do tematu jakoś śledząc różne komentarze na tpc to zauważyłem twoje podejście do tematu i to ono wygląda jak żel betowy kloc.

  135. .:. (autor: Shneider | data: 7/03/10 | godz.: 15:38)
    Promilus - i to jest wlasnie problem. swoim nastawieniem do klienta strzelili sobie w stope.

    ktos w tej firmie zapomnial o graczach. za niecale 2 tyg wychodza nowe opterony 12 rdzeniowe. zamiast kombinowac od nowa wzieli 6 gotowych jajek i pomnozyli x2. a rozwiazania natywne zostawili na przyszlsoc.
    intel stosuje tick tock, amd podobnie ale mniej regularnie, a NV tick tock qpa. chyba NV musi zrobic to co zrobilo AMD, czyli zwolnic dyrektorow marketingu, oraz caly ten burdel.


  136. .:. (autor: Shneider | data: 7/03/10 | godz.: 15:41)
    scoobydoo19911 - moje betonowe podejscie dotyczy betonowych userow: morgi, Grave, komisarz oraz reszta plotek.

    jestes ledwie 13mcy wiec, widzisz tylko to co sie ostatnio dzieje, czyli bezsensowne dyskusje z betonem. nie bronie AMD za wszelka cene, tak samo jak nie bronie Intela czy NV. ale Ty tego nie widzisz, bo jestes zaslepiony. na boardzie polecam zestawy na mocnych intelach jak i ekonommicznych AMD, ale tego rowniez nie widzisz bo nigdy tam nie zagladales, wiec wybacz ale mnie z kims pomyliles.


  137. @Shneider (autor: scoobydoo19911 | data: 7/03/10 | godz.: 15:43)
    Opisz mi betonowoge usera czym się taki charkteryzuje?

  138. .:. (autor: Shneider | data: 7/03/10 | godz.: 16:03)
    scoobydoo19911 - znaczna wiekszosc postow morgiego z ostatnich 12stu miesiecy.

    "Co do architektury to wszyscy wypowiadaja sie w superlatywach jako najbardziej elastyczne gpu do ogolnego programowania i nie jest to do konca bez pokrycia. Jako czysto graficzne Fermi bedzie sprzedawane w niskich cenach, a mniejsze chipy powinny przycisnac wlasnie na korzysc wydajnosci graficznej, bo tam sie walka bedzie toczyc o rynek, czyli sredni segment, ktory ati zazwyczaj olewa i tym razem tez sie machneli mocno tak, ze wyszly im zgnile jablka jakiesik junipery i redwoody, slabsze i drozsze od starej ekipy." - klamstwo

    "Narodzilo sie, ale w glowach teoretykow uczelnianych, dzisiaj jedynie i wylacznie Nvidia walczy o faktycznie dzialajaca kombinacje soft i hard, a jak masz jakies porownywalne przeszle uzasadnienia to poprosze, bo ati to w tej materii czysty belkot, zadnych osiagniec, poza kilkoma zlepionymi nieudolnie wspomagaczami obliczen na xeonach." - klamstwo

    "Wielkie chipy kosztuja wiecej czasu i pieniedzy i nie potrzeba wiecej wywodow czy to sie oplaca czy nie bo Nvidia ma tylko taka droge, a amd moze w kazdej chwili skasowac te lipy po wrzuceniu apu i kontynuowaniu x86. Nvidia kosi kase na profesjonalnych klientach, a grafiki dla zadymiarzy i fanow to podle grosze, zwlaszcza kiedy CUDAcznosc to nadal duze halo bez pokrycia, chociaz przerozne dema i papiery moga napawac nadzieja." - klamstwo

    "W kwestii opłacalności to Pentiumy E6xxx w zbliżonych cenach oferują znacznie wyższą wydajność niż Athlony II. " - klamstwo

    "A to dobre bo podobno Nvidia odpicowala wyzsze poziomy detali i upiekszaczy. Fermi w najwyzszej odmianie ma hulac na najwiekszych monitorkach i to plynnie bez jakania, czy to dx11 czy to dx9 i mnie nie interesuje niz ponizej full HD, bo to nie te czasy o czym i ati plecie i swoim eyeshity, z tymze te sklejane monitory to wyglada ohydnie, moze ultra HD, ale sprzetu brak i dobrych lacz." - klamstwo

    "Po premierze wyjdzie ze tam gdzie wygra Fermi to Nvidia zmanipulowala, tak samo jak benchmark powyzszy, na specjalne zamowienie niedojd ati, promujac swoje tuzy w dx11 teraz beda musieli promowac tylko wydajnosc w grach dx9 i eyeshity, bo w dx11 beda miec lagi i wyboje, a chodzi o rowny poziom fps, a u nich jak zwykle gory i kotliny, czyli to jest efekt nieudolnosci, pospiechu i ogolnego nierobstwa, braku inwencji." - cokolwiek mialo by to znaczyc

    "To teraz prosze o wytlumaczenie dlaczego radeonek wpada w takie wyboje po minucie tego bencha, to sprawa na komisje sledcza, podobnie jak wydajnosc w grach gdzie tez nagle po aktywacji dx11 'cos' kradnie wiele klatek, a tego nie widac, czyzby zawiodla optymalizacja, czy w sprzecie jest nieuleczalny babol." - wyjasnienie sie pojawilo, po czym pan m. napisal dziwacznego posta wyzej wymienionego.

    Grave nawet nie mam ochoty cytowac, bylo tutaj [ http://twojepc.pl/...p?id=20714&komentarze=1#k ]

    rozmowa z betonem wyglada tak:

    stasiek: AMD ma ekonomiczne produkty
    jasiek: ale za niewydajne
    stasiek: sa wydajne z przeliczeniu na cene
    jasiek: AMD sie kiepsko sprzedaje i firma malo zarabia
    stasiek: wyniki finansowe tlumacza co innego
    jasiek: intel i tak ma wiekszy udzial w rynku
    stasiek: co z tego ze ma wiekszy, mnie to nie interesuje
    jasiek: wszyscy kupuja intela bo jest najlepszy
    stasiek: to bzdura, udzial na rynku intela powstal przez nieuczciwe praktyki
    jasiek: AMD moglo robic tak samo, wiec samo sobie sa winni.

    itd itd. mow do slupa slup jak doopa.


  139. @morgi (autor: rookie | data: 7/03/10 | godz.: 16:05)
    W ciągu ostatnich dwóch lat nvidia to tylko papier, niespełnione obietnice, plastiki i pudełka od fermi, niespełnione ambicje dotyczące lipnej technologii cuda, serwowanie kotletów, odpuszczenie nowych directX, niekonkurencyjna oferta w prawie wszystkich segmentach (nie da się wszystkim wepchnąć flagowego 9600gt...), spierdzielone sterowniki powodujące pieczenie się kart graficznych. Po tym wszystkim widać całokształt działań ''zielonego trolla''.

  140. @ piwo1 (autor: pawel.xxx | data: 7/03/10 | godz.: 16:05)
    Nie masz pojęcia o czym piszesz.
    "wiedzac ze TSMC ma problemy" ta wiedza nie jest dostępna w chwili projektowania architektury. Architektura układu powstaje wcześniej niż proces wytwarzania.
    Pomysł z podwajaniem tranzystorów świadczy o bujnej wyobraźni i malej wiedzy oraz inteligencji.


  141. @Saturn64 (autor: pawel.xxx | data: 7/03/10 | godz.: 16:14)
    Najpierw lejesz wodę o rozmiarach i uzysku.
    Potem piszesz że chronię marketingowców nvidii. Owym marketingowcom przypisujesz uczynki których się nie dopuścili.
    Śnij dalej koleś. Jak widać opieranie opinii na faktach racjonalnych przesłankach jest ponad twoje możliwości.


  142. pawel.xxx (autor: piwo1 | data: 7/03/10 | godz.: 16:16)
    tzn?co masz na mysli? wytlumacz mi.

  143. @Shneider (autor: scoobydoo19911 | data: 7/03/10 | godz.: 16:19)
    teraz rozumiem o co ci chodzi z tymi betonami ale nie mogę pojąć po co się z takimi kłócić przecież jak nie chcą przyjąć albo chociaż przemyśleć tego co się do nich mówi to nic tego nie zmieni (nawet jakby postawić przed nimi dalajlamę czy papieża) a jak robią to for fun to ich tylko nakręcacie a oni siedzą i się z was śmieją, nie reagując na te komenty uciszycie ich bardzo szybko bo zauważą że wszyscy mają te ich wypowiedzi głęboko gdzieś

  144. @Shneider (autor: Marek1981 | data: 7/03/10 | godz.: 16:21)
    -popieram wywód.
    -w dodatku według najnowszych przecieków z wydajności G100 nie jest najlepiej po ustawieniu detali na max, a jak wiadomo gracze chcą mieć włączone najlepsze detale.
    - nawet apple zamawia karty od ati ( pierwsze testowe mobilne grafy od ati to 4850 i widać że im się spodobały)
    - ciekawi cena fermi ponieważ prawdopodobnie będzie niewielka ich ilość na rynku, a pamiętając sytuację po 8800gt można się spodziewać najgorszego tzn podwyżkę cen k.g.


  145. @rainy jestes dureń (autor: pawel.xxx | data: 7/03/10 | godz.: 16:22)
    Z logicznym myśleniem to ty masz problem nie ja. Jeśli AMD podpisało umowę na zakup chipa za powiedzmy 200$ to tyle będa one kosztowały niezależnie od uzysku.



    Widzę pewien problem z logicznym myśleniem: to, że AMD płaci za sprawne układy nie oznacza bynajmniej, iż uzysk z wafla jest dla nich bez znaczenia.

    Jeżeli na skutek poprawy uzysku, liczba sprawnych układów z wafla zwiększy się np. z 90 na 120 to oczywistym jest, że koszt jednostkowy będzie niższy.


    Jak na osobę rzekomo bezstronną, zadziwiająco alergicznie reagujesz na jąkąkolwiek krytykę Nvidii, posuwając się do określeń typu "czerwony fanboy" albo tak jak tutaj "a sam na dzwięk słowa nvidia dostajesz piany na pysku" (brawo za elegancję).

    Nvidia w ostatnim czasie, dostarczyła aż nadto powodów by ich oświadczenia, traktować z dużą dozą sceptycyzmu/podejrzliwości (vide zachowanie w sprawie przegrzewających się układów w laptopach).

    Nie traktuję bynajmniej każdego ich oświadczenia jako automatycznego kłamstwa, co starasz się mi imputować (to pewnie znowu ta Twoja bezstronność).


  146. scoobydoo19911 (autor: Markizy | data: 7/03/10 | godz.: 16:23)
    modelowy przykład udzielił się w tym temacie, a jego komentarze noszą numery 5 ,24 ,75 ,120 ,132, 133. W innych tematach znajdziesz go pełno, w sumie obecnie jest bardziej ignorowany, bo nikomu się nie chce jego pseudo polszczyzny czytać, a już prawie nikomu nie chce się z nim dyskutować.

    Jak chcesz poczytać o definicji takiego betona pomocne mogą być takiego linki.
    http://pl.wikipedia.org/wiki/Trollowanie
    http://tuitam.7.forumer.com/...finicja_post22.html
    http://nonsensopedia.wikia.com/...roll_internetowy


  147. @rainy jestes dureń cd (autor: pawel.xxx | data: 7/03/10 | godz.: 16:24)
    i cały idota, albo po prostu jesteś trolem. Nie widzę sensu dyskusji z tobą

  148. .:. (autor: Shneider | data: 7/03/10 | godz.: 16:28)
    scoobydoo19911 - to czy sie smieja czy nie to inna kwestia i jest ona bez znaczenia.

    Poniewaz liczy sie nie to co ja przedstawie tylko jakie bzdury oni napisza. 140 komentarzy, a tylko garstka userow. jednak slad jaki zostaje jest wyrazny, to znaczy od dawna b. duza czesc spoleczenstwa TPC omija komentarze pana morgiego, komisarz poszedl po rozum do glowy i siedzi cicho, Grave niedawno dolaczyl do grona zagorzalych fanatykow. tym samym Ci co najwiecej krzyczeli, stali sie posmiewiskiem. ostatni rok pokazal, ze wszyscy trzej sie mylili i wciaz myla i nic nie zapowiada by taka sytuacja miala sie zmienic.

    "nie reagując na te komenty uciszycie ich bardzo szybko bo zauważą że wszyscy mają te ich wypowiedzi głęboko gdzieś" - latwo napisac, jednak jak juz zwrocilem Ci uwage, Wszyscy o tym doskonale wiedza, jednak nie moga pozostac obojetni szerzeniu klamstw. taka juz natura ludzka. jedni sie zmecza, przyjda nastepni. cale szczescie na TPC jest niewielu oszolomow o ktorych juz pisalem, a za kilka tyg sie i oni ucisza.


  149. ...... (autor: Marek1981 | data: 7/03/10 | godz.: 16:33)
    @pawel.xxx
    "Nvidia w ostatnim czasie, dostarczyła aż nadto powodów by ich oświadczenia, traktować z dużą dozą sceptycyzmu/podejrzliwości (vide zachowanie w sprawie przegrzewających się układów w laptopach)."
    Ja śledzę rynek IT już bardzo długo i pamiętam gorsze wpadki tzn fx5xxx i gf4mmx.

    @Saturn64
    To już pisałem, że test niemiarodajny, z drugiej strony słyszałem o sprawdzaniu wykresu w porównaniu z testem podczas kręcenia filmiku, gdyż się nie zgadzały.

    a i jeszcze 2 ciekawe linki:
    http://www.benchmark.pl/...0-2723/strona/8538.html
    http://pclab.pl/news41249.html


  150. kto (autor: scoobydoo19911 | data: 7/03/10 | godz.: 16:40)
    się myli a kto nie to akurat nie mnie oceniać, ja się z technologicznego wiścigu zbrojeń wyłączyłęm 2 lata temu w zasadzie teraz tylko sprawdzam co może być w przyszłości opłacalne i póki nie pokaże się 28nm nie widze największego sensu kupowania czegoś nowego.

    nie chce ci dopiec czy coś (sam też robie pełno błędów) ale nie mówi się "zwróciłem Ci uwagę" tylko "zwróciłem tobie uwagę"


  151. @pawel.xxx (autor: rainy | data: 7/03/10 | godz.: 16:44)
    Chyba nie jesteś, aż tak naiwny (lub uprzedzony do AMD) by sądzić, iż AMD płaci sztywną cenę za sprawnego chipa bez wzgledu na poziom uzysku z wafla.

    Dalej jest dokładnie tak jak pisałem: konczą się argumenty, zaczynają wyzwiska/obelgi.

    Taka "dyskusja" rzeczywiście nie ma sensu choć pouczające jest, jak się ślicznie odsłoniłeś.


  152. .:. (autor: Shneider | data: 7/03/10 | godz.: 16:46)
    scoobydoo19911 - bede pamietac. ale chyba pisze sie "zwrocilem Tobie uwage" ;-)

    Marek1981 - atrapa pierwsza klasa. widac intel sie przyklada, profil radiatora, hologram, naklejki, tylk po co? ;-)


  153. @rainy (autor: Marek1981 | data: 7/03/10 | godz.: 16:47)
    nie rozumiem troche ciebie:
    "Przeczytaj sobie tę stronę tego artykuły i następne, a przestaniesz opowiadać bajki, że Nvidia w żaden sposób nie zawiniła opóźnieniu w premierze Fermi."

    Czytam i nie wierzę, po raz kolejny NV olewa wszystkich i zwala na kogoś odpowiedzialność.

    1) AMD też zamawia w tych fabrykach
    2) AMD dużo wcześniej wypuszcza testową grafikę w nowszym procesie, ciekawe że NV nie interesował nowy proces technologiczny???
    3) NV miała bardzo dużo czasu przewagi nad Ati w wydajności i miała możliwość przechodzenia w niższy wymiar znacznie szybciej
    4) NV ma dużo więcej kasy i zasobów ludzkich by być liderem
    5) NV bawi się w CUDA i Physx, zamiast iść do przodu to blokują co się da...
    6) NV zamiast porządnie zabrać się do pracy obraża konkurentów..... sarkastyczna stronka jest tego dobitnym przykładem
    7) NV olewa swoich partnerów strategicznych (np w sprawie 8800gt)
    8) NV cały czas traci rynek graczy i to w znacznym stopniu, jeszcze nie byli w takiej sytuacji


  154. @Marek1981 (autor: rainy | data: 7/03/10 | godz.: 16:56)
    Czego Marku nie rozmiesz?
    Przecież to była odpowiedź na post pawel.xxx, ktory twierdził, iż winne opóźnieniu Fermi jest wyłącznie TSMC (zgodnie z logiką Nvidii).

    Natomiast moja odpowiedź była taka, iż Nvidia ma tutaj swoje "zasługi" (nie przetestowali tak jak AMD 40nm) i dopuścili się prawdopodobnie jakiś błędów przy projektowaniu hardwaru.


  155. .:. (autor: Shneider | data: 7/03/10 | godz.: 17:55)
    rainy - zgadzam sie calkowicie.
    AMD w czasach 4770 rowniez miala ogromne problemy z 40nm, jednak nie bylo to zadna przeszkoda aby na poczatku w niewielkich ilosciach sprzedawac uklad.

    nvudia jest sama sobie winna opoznieniom. speed kilka razy wspominal o problemach z uzyskaniem 100% sprawnych ukladow. chcieli 3mld tranzystorow na jednym krzemie to maja. rzucili sie na gleboka wode tylko zapomnieli jak sie plywa.


  156. @Shneider (autor: rainy | data: 7/03/10 | godz.: 18:04)
    Najciekawsze jest to, iż po wpadce z GeForce FX, Nvidia nie próbowała już więcej wypuszczać nowej architektury w niesprawdzonym/nieprzetestowanym procesie technologicznym (przerzucając to na ATI).

    Wygląda na to, iż w przypadku Fermi weszli po raz drugi do tej samej rzeki, popełniając błąd z przeszłości (być może nadmiernie ufając TSMC).


  157. @All (autor: Promilus | data: 7/03/10 | godz.: 18:26)
    Nie wiem co się tak uparliście na morgiego, można w 99% zarzucać mu kłamstwo lub manipulację faktami (bo tianhe stoi od jakiegoś czasu i liczy - bynajmniej nie na 'jakimś' uniwersyteciku - a superkomputera oak rigde national labs na fermi jak nie było tak nie ma), ale dobrze napisał iż nv kasę trzepie na rynku PRO, tak tak - ten sam układ + inny bios i lepszy soft = 10x więcej kasy, a ten sam układ minus DVI plus RAM = 50x więcej kasy. Nvidia to borg - asymiluje cokolwiek jej się może przydać, mnóstwo technologii stosowanych w chipsetach, gpu czy sofcie należała kiedyś do firm od niej niezależnych. AMD wiele lepsze nie jest ;) Tylko mniej inwestuje w soft. I marketing.

    @morgi
    Tak tak tak, komercyjny superkomputer...yhm i co jeszcze wymyślisz?
    Co do drożyzny - nie, produkcja tych chipów jest tania jak barszcz, a że karty są drogie...no cóż, GT220 i 240 to raczej nie cuda cudeńka a są droższe ;) Wiec nie sraj grochem a się zastanów zanim znowu coś namodzisz.


  158. .:. (autor: Shneider | data: 7/03/10 | godz.: 18:49)
    Promilus - zaczepiles agrument ktorego nikt nie podwazal.

    teraz pytanie, co mnie obchodzi jako szarego gracza, jaki udzial na rynku ma dana firma lub ile zarabia na rynku PRO. nie ten temat i nie ta strona do takiej dyskusji.


  159. @ rainy (autor: pawel.xxx | data: 7/03/10 | godz.: 19:26)
    http://fwd4.me/Hgw
    "Warto przy tym przyjrzeć się systemowi sprzedaży TSMC. Firma zajmująca się produkcją chipsetów graficznych dla AMD i NVIDIA oferuje dwie opcje usług. W pierwszej z nich TSMC sprzedaje klientowi całe wafle krzemowe. Choć opcja ta jest bardzo tania, to odbiorca ponosi tu wszelką odpowiedzialność za niski współczynnik działających układów, co w przypadku technologii 40 nm do niedawna było jeszcze poważnym problemem. W drugiej opcji TSMC sprzedaje wyłącznie działające chipsety, jednak po wyższych kosztach. "

    Pierwsze przecieki o uzysku mówiły o 4% ,to by wychodziło ze 6 układów Cypress
    Jaki interes miałoby TSMC w obniżaniu cen po poprawie uzysku, dla klientów którzy wybrali opcje tylko sprawnych chipów? To raczej ty jesteś naiwny sądząc że w TSMC nie potrafią liczyć.


  160. @pawel.xxx (autor: rainy | data: 7/03/10 | godz.: 19:38)
    Skończyłem dyskusję z Tobą po Twoim ostatnim "występie".

    Jeżeli nie potafisz kulturalnie dyskutować z innymi to sobie odpuść.


  161. .:. (autor: Shneider | data: 7/03/10 | godz.: 19:49)
    pawel.xxx - p.....lisz glupoty.

    [ http://twojepc.pl/news19623.html ] - "Potwierdzono natomiast, że premiera pierwszych kart z GT300 odbędzie się na przełomie listopada i grudnia obecnego roku."
    "Zdaniem Nvidii akceleratory będą od 60 do 80% szybsze od GeForce GTX 285."

    [ http://twojepc.pl/news19639.html ] - "W sieci dostępne są informacje, według których podczas listopadowej premiery Nvidia przedstawi trzy karty graficzne bazujące na układzie o nazwie kodowej Fermi"

    [ http://twojepc.pl/news19784.html ] - "Nie w listopadzie jak początkowo planowano, lecz dopiero w grudniu odbędzie się premiera najnowszych kart graficznych firmy Nvidia z układami o nazwie kodowej Fermi."

    [ http://twojepc.pl/news19788.html ] - "TSMC ma nadal problemy z 40nm procesem"
    "Na sytuacji cierpi firma AMD, która powodu małej ilości chipów nie może dostarczyć na rynek w pełni wystarczającej liczby kart ATI Radeon HD 5700 oraz HD 5800. Kłopoty może mieć również Nvidia, która pod koniec obecnego roku zamierza wydać serię nowych, flagowych kart z 40nm układami Fermi." - no patrz. AMD jakos moze sprzedawac 57xx 58xx a Nvidia jakos nie moze.

    [ http://twojepc.pl/news19817.html ] - "Same karty będą natomiast dostępne w sklepach w lutym przyszłego roku. Nieoficjalnie powodami opóźnienia są problemy TSMC z produkcją układów w 40-nanometrowym wymiarze technologicznym, a także duża ilość zamówień na karty." - ehh te duze zamowienia.

    [ http://twojepc.pl/news20074.html ] - "w marcu 2010 roku rozpocznie dostawy swoich najnowszych 40-nanometrowych układów o nazwie kodowej Fermi."

    [ http://twojepc.pl/news20167.html ] - "Jeden z partnerów Nvidii poinformował, że długo zapowiadane układy Fermi trafią do produkcji pod koniec lutego i powinny pojawiać się w ograniczonych ilościach już od połowy marca."

    [ http://twojepc.pl/news20683.html ] - "Firma Nvidia poinformowała że premiera układów graficznych opartych o GPU Fermi dla średniej półki cenowej ma się odbyć w drugiej połowie tego roku."

    ahh te wredne TSMC, normalnie klody pod nogi. TSMC pewnie tez i atrape fermiego zrobilo?


  162. kolejene przecieki; normalnie nvidia ma okres (autor: piwo1 | data: 7/03/10 | godz.: 20:02)
    http://pclab.pl/news41251.html

  163. juz sie pogubilem (autor: piwo1 | data: 7/03/10 | godz.: 20:03)
    a moze juz to bylo :)

  164. piwo1 (autor: Markizy | data: 7/03/10 | godz.: 20:19)
    tutaj nie widziałem tego testu, ale co do testu to wszystko fajnie, ale ile osób ma monitor z rozdzielczością 2560 x 1600. I najlepsze są sterowniki użyte do testu jednej i drugiej karty, bo są to bety (w przypadku radka) tak samo nvidi, wiec pytanie czy nie ucierpiała na tym jakość obrazu.

  165. Promilus (autor: morgi | data: 7/03/10 | godz.: 20:23)
    Ten chinski bubel stoi i nie liczy na gpu, bo nawet go nie ma w rankach spec-u, jak kazdego gpu, a wsadzili tam jeszcze starenkie rv770, ktore tym bardziej sie nie nadaje, bo nie ma kilku istotnych rzeczy, ktore ati zmienilo zeby spelnily w pelni standard opencl. Ja jestem wlasnie ciekawy czy podstawia jakikolwiek komercyjne skladaki jak blade eX5 od ibm, ale uprzedze cie tam leci sam xeon EX, ktory rozwala swiatowa czolowke, a co sie swieci jeszcze to glowka mala.
    Fermi juz zapowiada sie na przelom, postawili vabanq z usuwaniem ograniczen i przylozyli wszystkiego tak duzo, ze trudno im sie z tym pozbierac i to dobrze, szybciej padna gpu dla blacharstwa.


  166. Shneider (autor: Grave | data: 7/03/10 | godz.: 20:24)
    Dobra, a teraz popatrz ile z tych rzekomo ogłaszanych terminów premiery pochodziło z oficjalnego źródła, czyli z ust jakiegoś pracownika Nvidii, bądź pojawiło się na ich stronie, albo też w jakimś oficjalnym dokumencie, wystąpieniu etc??

    Bo moim zdaniem od początku jedyną oficjalnie podaną informacją dotyczącą terminu premiery Fermi dopóki nie podali daty 26 marca był "1 kwartał 2010" i to się zgadza.

    Zresztą popatrz na to:

    http://www.tomshardware.com/...delay-gpu,9326.html

    " Update: Nvidia responded to this report saying that it announced in a previous conference call that Fermi would ship sometime in the first quarter of 2010, meaning that there hasn't been any real delay in release time frame.

    &#8220;We are excited about the attention surrounding GF100 as it forms the foundation for the fastest and most feature rich graphics cards ever designed," said Nvidia's Bryan Del Rizzo. "Great things come to those that wait, and the wait will be over in Q1 as we have said previously. The release date has not changed since our initial comments last November.""

    TO JEST OFICJALNE STANOWISKO.

    I wypadałoby odróżnić to co mówią sami pracownicy Nvidii od tego co sobie wymyślają czy co domniemywają różne serwisy.

    Bo tak to Fudzilla sobie napisze że z jakiegoś tam źródła ma info że Fermi będzie w xxx miesiącu i 20 innych serwisów to przepisze.

    Potem Fudzilla napisze 10 podobnych newsów że niby premiera przesunięta, ale też nic oficjalnego tylko "jakieś źródła".

    Tymczasem zdanie Nvidii jest jasne - "OD PIERWSZYCH ZAPOWIEDZI FERMI PODAWANYM TERMINEM PREMIERY BYŁ PIERWSZY KWARTAŁ 2010".

    Period.


  167. @Markizy (autor: rainy | data: 7/03/10 | godz.: 20:26)
    Pomiajając sterowniki, w przypadku karty AMD mogło również brakować RAM-u w tej rozdzielczości (układ Nvidii ze względu na 384/320 bitową szynę ma go więcej).

  168. .:. (autor: Shneider | data: 7/03/10 | godz.: 20:33)
    Grave - i widzisz jak w piekny sposob wybieliles nvidie.

    a teraz do rzeczy.

    "Podczas trwającej właśnie konferencji GPU Technology Conference Nvidia zaprezentowała pierwsze dane na temat swojego nowego układu graficznego o nazwie kodowej GT300"

    "Potwierdzono natomiast, że premiera pierwszych kart z GT300 odbędzie się na przełomie listopada i grudnia obecnego roku. Zdaniem Nvidii akceleratory będą od 60 do 80% szybsze od GeForce GTX 285."

    widzisz Grave znow dalej dupy. moze to lubisz?


  169. @Grave (autor: rainy | data: 7/03/10 | godz.: 20:37)
    News, który cytujesz pochodzi z czasu, kiedy było jasne, że Fermi nie pojawi się w czwartym kwartale 2009 roku.

    Nie da się ukryć, iż Nvidia twierdziła, iż planowana premiera to czwarty kwartał.

    Dopiero na wskutek problemów, w ktore się ujawniły, wersja zostala zmieniona na I kwartał 2010.

    Btw, koniec marca to ostatni moment by się zmieścić w "terminie".


  170. Shneider (autor: Grave | data: 7/03/10 | godz.: 20:41)
    Bynajmniej to Ty nie czytasz dokładnie źródeł. A niestety przepisywanie i tłumaczenie ma to do siebie że wdzierają się przekłamania. I tak właśnie jest w tym wypadku.

    Zbyszek podany przez Ciebie news napisał na podstawie tego z tech connect magazine.

    Jeżeli zadałby sobie trud i popatrzył co tam zostało napisane to byś zobaczył jak brzmiało w oryginalnym newsie zdanie które u Zbyszka ma postać:

    "Potwierdzono natomiast, że premiera pierwszych kart z GT300 odbędzie się na przełomie listopada i grudnia obecnego roku. "

    "Set to be used for 'next-gen' GeForce, Quadro and Tesla products, Fermi is expected to debut in Q4 (in the form of the first GeForce 300 series cards"

    EXPECTED (!!) To tylko domniemanie a nie stanowisko NV. Zresztą nawet nazwa się nie zgadza (GeForce 300) bo karty otrzymały nazwę GTX 480 i GTX 470.


  171. rainy (autor: Grave | data: 7/03/10 | godz.: 20:43)
    "Nie da się ukryć, iż Nvidia twierdziła, iż planowana premiera to czwarty kwartał."

    Pokaż mi zatem oficjalne źródło, tzn cytujące wypowiedź pracownika Nvidii, lub oficjalny dokument Nvidii, whitepaper cokolwiek byle oficjalne gdzie pada termin 4 kwartał 2009.


  172. .:. (autor: Shneider | data: 7/03/10 | godz.: 20:53)
    Grave - taka z Toba dyskusja.

    nigdy nie obiecywalismy itd itd.

    prezentacje, zapowiedzi, pokazy, obiecanki,60-80%, super hiper, oh ah, pazdziernik, listopad, grudzien, styczen, luty, marzec, kwiecien. pierd0lenie do bolu.

    czlowieku wez se kolo i pierd0lnij sie w czolo.

    Fermi to posmiewisko jakiego swiat IT nie widzial na oczy. Ale dla Ciebie wszystko jest cacy, bo prszeciez niczego nie obiecywali.

    [ http://www.nvidia.com/object/tesla_articles.html ] -> [ http://www.brightsideofnews.com/...-6gb-gddr5.aspx ] -> "In a nutshell, this is just baseline information about what nVidia is going to introduce in the next couple of weeks."

    minelo 5mcy i niczego konkretnego nie zaprezentowali.


  173. @Grave (autor: rainy | data: 7/03/10 | godz.: 21:04)
    Może nie bezpośredni dowód ale popatrz tutaj: http://www.techpowerup.com/...r_Delayed_.html?cp=3
    (choć tu jest mowa o początku I kwartału)

    Wiedząc zresztą, że mają kłopot, unikali jak ognia podawania konkretnego terminu.


  174. @morgi (autor: Promilus | data: 7/03/10 | godz.: 21:08)
    Bubel to powiedział tata w USC jak podpisywali dokumenty zw. z twoim imieniem...ale mamusia sie nie zgodziła...ach te matki, kochaja mimo wszystko. Jakbyś zadał sobie choć ODROBINĘ trudu to wiedziałbyś, że testu lapack na GPU nie ma (oficjalnie uznawanego przez kolesi z top500) i tylko z tego powodu nie widnieje tianhe z taką mocą jaką rzeczywiście posiada. Ale mr bubel tego nie wiedział ;) I dlatego jak zwykle znowu wyszedł na głupka.

  175. @Promilus (autor: rainy | data: 7/03/10 | godz.: 21:16)
    Najlepsze, że nasz ulubieniec na m, deprecjonuje ten superkomputer tylko dlatego, iż są tam GPU AMD(ATI) zapominając najwyraźniej, że są w nim również procesory Intela (ale to przecież niedobra kooperacja).

  176. Shneider (autor: Grave | data: 7/03/10 | godz.: 21:27)
    No to pokaż te 60-80%, październik listopad jako oficjalną informację Nvidii!!!

    A jak nie znajdziesz przestań p....olić że się deklarowali na konkretny termin skoro się nie deklarowali!

    Każdy serwis może sobie napisać co chce, a z oficjalnym stanowiskiem ma to często niewiele wspólnego.

    Rainy --->

    Znowu "SPODZIEWANYM TERMINEM BYŁ 4 KWARTAŁ 2009", tyle że spodziewany (przez niewiadomo kogo) a PODANY przez NV to co innego.

    Wiem że to jest wkurzające, bo wszyscy oczekiwali tych kart znacznie wcześniej, ale opierając się wyłącznie na oficjalnym stanowisku NV żadnych przesunięć premiery nie można im zarzucić bo niczego konkretnego nie deklarowali w tej materii.


  177. .:. (autor: Shneider | data: 7/03/10 | godz.: 21:34)
    Grave - "przestań p....olić że się deklarowali" ze co??? przestan to swinstwo palic.

    oH biedna nvidia padla ofiara plotek i klamstw...


  178. Shneider (autor: Grave | data: 7/03/10 | godz.: 21:41)
    Jak nie masz żadnych argumentów to sobie odpuść pisanie pierdół. Czy Ci się to podoba czy nie NV poza 1 kw. 2010 i 26 marca 2010 w kwestii premiery Fermi niczego nie deklarowała.

    Takie fakty, a co sobie wymyślisz w głowie to już Twoja fantazja.


  179. cóż (autor: scoobydoo19911 | data: 7/03/10 | godz.: 21:42)
    kłótnie kłótniami a mi się marzy połącznie eyefinition od ati z 3dvison nv al to niestety tylko nie realne marzenia

  180. uff, przeczytałem to do konca (autor: ditomek | data: 7/03/10 | godz.: 21:43)
    karta w moim komputerze pamięta początki magistrali PCIe. i w sumie całe to FERMI tak mi wisi jak mało co. Wogóle rozwój PC idzie wg mnie w złą stronę. zamiast wykorzystywać technologie do wytwarzania bardziej ekologicznych produktów tworzy sie potwory pożerające setki watów tylko po to żeby stworzyć nieuchwytną iluzję. Mam jednak nadzieję ze "odpadem" tego wyścigu będą małe, energooszczędne konstrukcje dla użytkowników takich jak ja. wracając do sedna. Czytając wasze komentarze nie sposób wyczuć ogromnej dawki niechęci do osób myślących inaczej.
    Dlaczego tak jest?
    Mam wrażenie ze Wasz kłótnie są bezcelowe dlatego ze nikt z Was tak naprawdę nie wie co jest grane. Do wiadomości publicznej przedostają sie informacje wygodne firmie jej podającej.
    Nikt z Was nie wie nic konkretnego (bo i skąd) na temat rozliczeń z kontrahentami. Byc może jeden produkt jest drogi po to by inny był za pół darmo.
    Może jest inna płaszczyzna porozumienia której nie sposób sobie wyobrazić.
    Zaglądam tutaj codziennie i lektura artykułów w tym temacie uświadamia mnie tylko w jednym: ATI, NV i inne formy robią sobie z nami co chcą a Ci którzy tego nie widzą kłócą się miedzy sobą w wątkach takich jak ten.


  181. ...a wy dalej swoje! (autor: Marucins | data: 7/03/10 | godz.: 21:43)
    Nie dziwcie się jak nVidia pokaże lepsze karty w wydajności mając tyle czasu od ukazania się produktów ATI, nawet gupi wie że tylko nieudacznik wypuściłby coś słabszego.

    Reasumując nie ma co chwalić zielonych za ten ich przyrost wydajności. Zapowiedzieli swój produkt dawno... nie pojawił się (prawdopodobnie okazał się pomyłka, wzieli sie za niego raz jeszcze) no i mamy finał.

    Aż śmiać mi sie chce kiedy to ten żółtek (parę miesięcy temu) pokazywał trzymając w reki "fermi" czytaj atrapa.


  182. .:. (autor: Shneider | data: 7/03/10 | godz.: 21:56)
    Grave - widzisz znalazles sobie agrument braku oficialnego stanowiska nvidii w tej sprawie.

    nawet dzisiaj niema oficialnego stanowiska czy kiedykolwiek fermi bedzie w sprzedazy. to swiadczy jedynie o tej firmie i to niestety negatywnie negatywnie.

    przedstawilem caly zbior zapowiedzi, obiecanek cacanek, ale dla Ciebie to tylko niepotwierdzone plotki, pomimo iz czesc z nich padlo z ust samych pracownikow nvidi na przeroznych prezentacjach. ale nie zostawili odciskow palcow wiec nie moza im tego wypomniec.


  183. .:. (autor: Shneider | data: 7/03/10 | godz.: 22:09)
    Grave - ciolku cos dla ciebie [ http://emulacja.in4.pl/...%9B%C4%87_..._,20446.htm ] i wszyscy zyli dlugo i szczesliwie.

  184. .:. (autor: Shneider | data: 7/03/10 | godz.: 22:15)
    Grave - nasladujesz swoje guru [ http://www.brightsideofnews.com/...n-100-days.aspx ]

    # We don't talk about the competition
    # We don't talk about the future
    # We don't talk about the products until we have it
    # We are a market leader and we are not telling competitors nVidia's secrets
    # "If I don't have a present, I will talk about my future."

    tak samo jak z Twoimi podnietami dotwyczacymi wydajnosci. niema zadnej wydajnosci bo karta wg. nvidii nie istnieje.


  185. Shneider (autor: Grave | data: 7/03/10 | godz.: 23:02)
    http://emulacja.in4.pl/...%9B%C4%87_..._,20446.htm

    I co Ci w tym nie pasuje? Jest napisane, że szersza dostępność kart będzie w 2 kw, co w żadnym wypadku nie wyklucza się z premierą w 1 kw.

    Zresztą zobacz na ATI i dostępność HD 5870 w momencie premiery - bliska zeru...


    http://www.brightsideofnews.com/...n-100-days.aspx ]

    No rzeczywiście oszustwo jak Cię mogę - najpierw nie chciał mówić o przyszłych produktach (do czego ma pełne prawo) a potem chciał. Normalnie kłamstwo w żywe oczy.

    Karta wg. Nvidii jak najbardziej ISTNIEJE i była prezentowana na wielu stoiskach na tegorocznym CEBICIE - jak nie czytałeś - Twoja sprawa.

    Do tej pory nie przytoczyłeś nic oficjalnego jakoby Nvidia deklarowała jakiś termin premiery Fermi poza 1 kwartałem 2010 i 26 marca 2010.

    I jeszcze jedno - jak dopiszesz mi "ciołku" czy inne tego typu określenia i tak nie przykryjesz tym kompletnego braku rzeczowych argumentów z Twojej strony.

    Niestety Twoja teoria o obiecanym i przekładanym terminie premiery Fermi nie ma podstawy w faktach, a próbujesz się bronić czym popadnie.


  186. Shneider (autor: Grave | data: 7/03/10 | godz.: 23:06)
    "nawet dzisiaj niema oficialnego stanowiska czy kiedykolwiek fermi bedzie w sprzedazy"

    bzdura

    http://twitter.com/NVIDIAGeForce/status/9503345711


  187. .:. (autor: Shneider | data: 7/03/10 | godz.: 23:11)
    Grave - "I co Ci w tym nie pasuje?" - mi nic nie pasuje, wszystko jest cacy i tak trzymac.

    "No rzeczywiście oszustwo jak Cię mogę - najpierw nie chciał mówić o przyszłych produktach (do czego ma pełne prawo) a potem chciał. Normalnie kłamstwo w żywe oczy." - jakie klamstwo? nikt tutaj nie klamie, liczy sie tylko prawda.

    prawda jest wg. Ciebie ze nvidia padla ofiara plotek. prawda?

    "Karta wg. Nvidii jak najbardziej ISTNIEJE i była prezentowana na wielu stoiskach na tegorocznym CEBICIE - jak nie czytałeś - Twoja sprawa. " - serio? a ja myslalem ze to fake, bo w oficialnych materialach nv nic o tym niema. nie ma realnej predkosci, nie ma realnego produktu. simple?

    "Do tej pory nie przytoczyłeś nic oficjalnego jakoby Nvidia deklarowała jakiś termin premiery Fermi poza 1 kwartałem 2010 i 26 marca 2010." - a mialem?

    "I jeszcze jedno - jak dopiszesz mi "ciołku" czy inne tego typu określenia i tak nie przykryjesz tym kompletnego braku rzeczowych argumentów z Twojej strony." - moglbym pisac idioto, kretynie, debilku, ciolku itd ty sie ucieszysz a ja bede mial upust na klawiaturze.

    "Niestety Twoja teoria o obiecanym i przekładanym terminie premiery Fermi nie ma podstawy w faktach, a próbujesz się bronić czym popadnie." - juz Ci napisalem. wybieliles nvidie. sa czysciutcy jak lza. R600 rowniez nie mial zadnej obsuwy, idac Twoim tokiem rozumowania, bo wszystko poprzedzajace premiere to byly plotki. i wszyscy zyli dlugo i szczesliwie.

    zielone jest lepsze, bo nie jest czerwone? takie sa Twoje argumenty.


  188. .:. (autor: Shneider | data: 7/03/10 | godz.: 23:17)
    Grave - " http://twitter.com/NVIDIAGeForce/status/9503345711 " -> czyli fermi ma ZEROWE opoznienie. olaboga, gdzie ja zylem do tej pory.

  189. Shneider (autor: Grave | data: 7/03/10 | godz.: 23:55)
    "prawda jest wg. Ciebie ze nvidia padla ofiara plotek. prawda?"

    Prawda jest taka że piszesz bzdury na temat rzekomo przekładanej premiery Fermi.

    "serio? a ja myslalem ze to fake, bo w oficialnych materialach nv nic o tym niema. nie ma realnej predkosci, nie ma realnego produktu. simple?"

    Tak nie ma - karta prezentowana przez pracowników Nvidii na Cebicie, jak najbardziej oficjalna na stoiskach firmowanych przez Nvidię a Twoim zdaniem "wg Nvidii ta karta nie istnieje". Puknij się czoło.

    "a mialem?"

    Tak, bo ciągle miauczysz że Nvidia przekładała 100x premierę tymczasem fakty są takie że niczego nie przekładała, bo niczego w kwestii terminu premiery nie deklarowała.

    "moglbym pisac idioto, kretynie, debilku, ciolku itd ty sie ucieszysz a ja bede mial upust na klawiaturze."

    Upust to na pewno masz, ja się oczywiście z tego bynajmniej nie cieszę, ale skoro musisz to sobie ulżyj.

    "R600 rowniez nie mial zadnej obsuwy, idac Twoim tokiem rozumowania, bo wszystko poprzedzajace premiere to byly plotki. i wszyscy zyli dlugo i szczesliwie."

    Jeżeli weźmiemy pod uwagę wyłącznie zapowiedzi samego ATI to owszem - także niczego nie deklarowali. ALE podobnie jak Fermi obsuwa była nie w sensie rozminięcia się z deklaracjami bo takowych nie było, ale z premierą ze strony konkurencji.

    "zielone jest lepsze, bo nie jest czerwone? takie sa Twoje argumenty."

    To Twoja teoria. Ja ani tak nie pisałem, ani tak nie uważam. Zielone jest lepsze kiedy jest lepsze, czerwone jest także lepsze wtedy kiedy jest lepsze. Obojętny dla mnie kolor liczy się produkt.


  190. .:. (autor: Shneider | data: 8/03/10 | godz.: 01:43)
    Grave - gdzie ja kurffa pisze o przekladaniu premiery? "
    Tak, bo ciągle miauczysz że Nvidia przekładała 100x premierę" ?!?!?!?!?

    "
    .:. (autor: Shneider | data: 6/03/10 | godz.: 17:02)
    MacLeod - nie rozumiesz. NV niech projektuje Fermi i 10 lat.

    ale niech nie przeciagaja premiery o pol roku.
    "

    w tym komentarzu jedynie napislem by nie przeciagali premiery. w zadnym innym nie napisalem o przekladaniu premiery.
    przekladanie pojawia sie w cytowanych tekstach z newsow, ktore pojawialy sie nie tylko na tpc ale i na calym swiecie. takze powtarzam nie pisalem o przekladaniu premiery a przeciaganiu. czy to dla Ciebie jest jasne? wcisnij sobie ctrl+f i wyszukaj wyraz "przekla", pojawia sie glownie w twoich komentarzach.

    "... ale z premierą ze strony konkurencji." - no prosze. wiec wg. tego co piszesz Fermi ma obsuwe juz dzis 5 miesiecy i 2 tygodnie. w stosunku do 5850 i 5870 [ http://twojepc.pl/news19585.html ] BRAWO

    takze pysiu nie popisales sie. ale to nic, jutro cos wymyslisz.

    scoobydoo19911 - tak wlasnie wyglada rozmowa z betonowym Grave. jego prosta jak strzala logika doprowadzila do wniosku ze Fermi nie ma obsuwy, bo przeciez nie bylo oficialnej premiery.


  191. Shneider (autor: Grave | data: 8/03/10 | godz.: 02:21)
    "no prosze. wiec wg. tego co piszesz Fermi ma obsuwe juz dzis 5 miesiecy i 2 tygodnie. w stosunku do 5850 i 5870 [ http://twojepc.pl/news19585.html ] BRAWO"

    Bo ma, braw za napisanie truizmu nie trzeba.

    "ale niech nie przeciagaja premiery o pol roku."

    Żeby przeciągnąć premierę o pół roku najpierw musieliby wyznaczyć jakiś termin od którego te pół roku byłoby liczone. Takiego terminu nie było więc nie było także żadnego przeciągnięcia.


  192. .:. (autor: Shneider | data: 8/03/10 | godz.: 02:23)
    Grave - masz racje. Fermi jest zajebiste, zadnej obsuwy nie bylo. wszyscy sa szczesliwi. tak?

  193. Shneider (autor: Grave | data: 8/03/10 | godz.: 02:28)
    Względem konkurencji obsuwa jest, względem deklaracji Nvidii - nie ma.

    Fermi pojawi się zgodnie z deklaracjami, chociaż opóźniony o pół roku względem ATI. Widocznie wcześniej wypuścić się go nie dało, ale też Nvidia nie mówiła że się da.


  194. .:. (autor: Shneider | data: 8/03/10 | godz.: 02:32)
    Grave - i co to zmienia?

    ATI moglo wypuscic w 23 wrzesnia 2009 uklad z 2mld tranzystorow w 40nm, wyprodukowanym w TSMC. mowa tutaj o terminie kiedy karty trafily do sklepow.
    A nvidia tego nie mogla zrobic. pomimo ze zapowiadali zupelnie co innego.

    biedna nvidia, tylko klody pod nogi rzucaja.


  195. Shneider ,Ty to masz zdrowie:)))))) (autor: speed | data: 8/03/10 | godz.: 03:11)
    Poczekaj te dwa tygodnie to razem ponabijamy sie z tej 'oFermy' , Zre to niemilosiernie duzo produ ,mam nadzieje ze cos poprawia ale wyglada ze zjada z taktowaniami a co za tym idzie wydajnosc bedzie cienka.
    Pamietam rozmowy z przed dwoch lat jak gostek z Nvidii pokazywal ze oferma bedzie (teoretycznie ) od 60- do 120% szybsza od nastepnej generacji ATI , Papier przyjmuje wszytko a wyszlo jak wyszlo .


  196. .:. (autor: Shneider | data: 8/03/10 | godz.: 03:26)
    speed - mialem sie powstrzymac ale nie wyszlo ;-)

    oFerma jak ja nazywasz ;-) sobie wyjdzie a i tak nic nie zmieni. jednak nie moge sie doczekac plyt glownych i samych procesorow na G34.

    PS. tak niesmialo zapytam. czy udalo sie nadac paczuszke? ;-)


  197. 200 komentarzy (autor: Luke Jadi | data: 8/03/10 | godz.: 08:28)
    i nic konstruktywnego nie napisaliście :) Że też wam się chce, a podobno jesteście tacy zajebiści, dorośli i inteligentni. Po 50 komentarzu przerwałem czytanie bo jest tyle innych kreatywnych rzeczy do roboty a troche już mi się robiło niedobrze od 3 zdań powtarzanych w kółko nie tylko pod tym newsem. Ale kurde co pare godzin mnie ciagnie żeby doczytać - a nóż ktoś w końcu może coś mądrego dopisał i rozkwitła nagle miłość wśród czytelników TPC, ale gdzie tam. Non stop to samo wałkowane. Głupi jestem że to czytam, a jeszcze głupszy że odpisuję, ale kurcze, czasami można się wygłupić - chociaż wam nie dorównam :) Buziaki molestatorzy umysłowi :)

  198. jakie 200? (autor: Dabrow | data: 8/03/10 | godz.: 08:56)
    Luku!

  199. no teraz to może (autor: Dabrow | data: 8/03/10 | godz.: 08:56)
    ale jeszcze nie!

  200. Teeeraz! (autor: Dabrow | data: 8/03/10 | godz.: 08:56)
    mówcie mi Statsiarz. Zdetronizuję Nimnula!

  201. speed (autor: Dabrow | data: 8/03/10 | godz.: 09:02)
    2 tygodnie mówisz - wiesz co tu się będzie działo? Dać im noże i TPC będzie sławne - nawet w tvn24 powiedzą o rzezi przez internet ((-;
    A merytorycznie - poczekamy zobaczymy. Nie ukrywam (jest mi obojętne kto dominuje w danym momencie) że liczę na niespodziankę mimo niespecjalnych prognoz. A nawet jak Fermi będzie jakims błędem to może wyciągną wnioski i kolejna generacja da więcej - coś w stylu Intela z ich P4, a potem c2d... Czasem trzeba zrobić krok do tyłu żeby potem pójść dwa do przodu...
    Ale mamy 2 tygodnie. Więc... BTW nawet jak w grach nie będzie to top to wciąż czekam co wniesie ten rdzeń do serii Quadro...


  202. sie gotuje :-) (autor: Qjanusz | data: 8/03/10 | godz.: 09:10)
    a ja sobie spokojnie poczekam na testy.
    Mam nadzieję że nie będą one gorsze od tych, przeprowadzonych przez nVidię.

    I oby 5870 zatrzęsło portkami, natomiast Fermi było dostępne szeroko i w dobrej cenie.


  203. Grave (autor: Markizy | data: 8/03/10 | godz.: 09:35)
    "
    Żeby przeciągnąć premierę o pół roku najpierw musieliby wyznaczyć jakiś termin od którego te pół roku byłoby liczone. Takiego terminu nie było więc nie było także żadnego przeciągnięcia.
    "

    Jak nie było terminu to po jaką cholerę prezentowali atrapę http://www.pcworld.pl/...adem.Fermi.to.atrapa.html i to na konferencji która miała nomen omen pokazać że ofermi teoretycznie będzie lepsze na papierze od radka?

    A najlepszy komentarz przedstawiciela nvidi jest, że nie mogli pokazać kart bo nie były zbyt atrakcyjna? To znaczy że posiadała złącza diagnostyczne i nie mogli jej pokazać, czy po prostu nie mieli nawet prototypu.


  204. @Markizy (autor: Qjanusz | data: 8/03/10 | godz.: 09:40)
    dlatego prezentowali, aby choć w kawałku zniwelować sukces AMD z serią HD5000.

    Na ironię, sami się przez ten pokaz przyczynili do jeszcze większego sukcesu AMD.


  205. @up (autor: Markizy | data: 8/03/10 | godz.: 09:43)
    a jak nowa karta wygląda tak
    http://www.zgapa.pl/...305_jednostka_centralna.jpg

    to po co robić w ogóle konferencje, i pokazywać och ach. Pokazanie odry jako obrazu prototypu fermi jest obrazą dla tego pierwszego.

    a tu dowód na to że prototyp też może być atrakcyjny
    http://obrazki.elektroda.net/88_1204412157.jpg


  206. @Markizy&Qjanusz (autor: Promilus | data: 8/03/10 | godz.: 09:48)
    A ja jestem ciekaw jakie będą wasze miny po premierze Fermi jeśli rzeczywiście okaże się znacząco szybsze niż Cypress ;)
    Przy okazji - w moich argumentach przeciw lekko upośledzonemu rozumowaniu morgiego się pomyliłem (ogłaszam wszem i wobec) - i zamiast test LAPACK powinno być LINPACK. LAPACK działa na GPU (CULA) nvidii.


  207. Promilus (autor: Markizy | data: 8/03/10 | godz.: 09:52)
    jakie miny, normalne, bo okaże się ze ofermi nie będzie klapą na miarę gf FX, bo w wyniku takiej obsuwy jak by coś pokazali gorszego to by była tragedia. Chociaż na dzień dzisiejszy można powiedzieć o postępie, ale to nie jest to co wszyscy się spodziewali. Czyli przewadze 60-80% nad GTX285.

    Ciekawe czy fermi będzie przypominać tą kartę
    http://www.youtube.com/watch?v=WOVjZqC1AE4

    Chociaż niektóre radeony zbliżyły się bardzo do tego wzorca, patrząc na temperaturę i hałas.


  208. @up (autor: Markizy | data: 8/03/10 | godz.: 09:53)
    brak edycji :/

    A jeden radeon nawet zbliżył się do wzorca wydajnością a mianowicie 2900XT czy też XTX mu było.


  209. @Promilus (autor: Qjanusz | data: 8/03/10 | godz.: 10:07)
    weź się człowieku w łeb puknij. Czytać nie potrafisz czy dla zabawy z siebie idiotę robisz?

    Jaką minę może sugerować moja wypowiedź i wcześniejsze:
    "Mam nadzieję że nie będą one gorsze (wyniki) od tych, przeprowadzonych przez nVidię.
    I oby 5870 zatrzęsło portkami, natomiast Fermi było dostępne szeroko i w dobrej cenie."

    Moja mina będzie bardzo uradowana, jeżeli okaże się że Fermi będzie wydajniejsze od 5870 i szeroko dostępne.

    Natomiast będę mocno zmartwiony jeżeli okaże się że w jakikolwiek sposób Fermi nie będzie mógł rywalizować z AMD (dostępność, wydajność, cena)

    Jesteś w stanie w końcu poprawnie przetworzyć to co napisałem, czy zadanie ponad siły?


  210. hehe (autor: morgi | data: 8/03/10 | godz.: 10:14)
    A sukcesem amd jest? Zysk kwartalny sponsorowany przez Intela, aby mogli przez 5 lat miec dostep do zasobow patentowych x86 i najnowszych osiagniec Intela, a takze kieszonkowe na badanie w tym okresie, zeby nie bylo, ze nie dbamy o konkurencje.

  211. @Qjanusz (autor: Promilus | data: 8/03/10 | godz.: 10:41)
    Impulsywny charakter nic Ci nie pomoże, w poprzedniej dyskusji o Fermi byłeś jeszcze bardziej wyśmiewczy - mam prawo biorąc pod uwagę i tamte komentarze napisać co napisałem. I tak, jestem ciekaw Twoich komentarzy jeśli się okaże, że 'oFermi' jak to zwykłeś pseudosatyrycznie nazywać rozłoży HD5k na łopatki. Będzie zwrot o 180 stopni? Hmmm, chorągiewki...
    btw - Twoim sposobem prowadzenia konwersacji - weź sobie koło i pierdolnij się w czoło


  212. @Promilus (autor: Qjanusz | data: 8/03/10 | godz.: 11:04)
    180 stopni? Ty chyba już jesteś po eksperymencie, który mi zaproponowałeś. I to po nie jeden raz przeprowadzonym.

    JEDNA sprawa z której się śmiałem, śmieje i śmiać się nie przestanę, to atrapy, kłamliwe konferencje, efekt "Fermi" który doczekał się w sieci masy żartów, tematu do szydzenia i tego wszystkiego, co wyczyniała nVidia wokół swoich nowych kart. Z "nowymi kartami" serii GF300 włącznie. Napiszę to jeszcze raz: jest to przedni temat do żarów, bo nikt w ten sposób wcześniej nie wypiął się na swoich klientów, akcjonariuszy i cały światek IT.

    DRUGA, zupełnie inna sprawa, to oczekiwana premiera prawdziwych już, dostępnych w sklepach nowych kart od nVidii. Bardzo bym sobie życzył, żeby jak najszybciej były one dostępne w sklepach i wydajnością rozłożyły cała serię HD5000. AMD ceną serii kart HD5000 i wydajnością 5830 pokazało, że konkurencja jest im bardzo potrzebna.

    @Promilus, napisz mi czego nie rozumiesz, co CI przeszkadza w moim podejściu i dlaczego nie potrafisz rozróżnić tych dwóch kwestii?


  213. @Qjanusz (autor: Promilus | data: 8/03/10 | godz.: 12:22)
    "o atrapy, kłamliwe konferencje"
    Atrapy - owszem, kłamliwe konferencje? Gdzie i kiedy.
    "efekt "Fermi" który doczekał się w sieci masy żartów, tematu do szydzenia i tego wszystkiego, co wyczyniała nVidia wokół swoich nowych kart."
    Dla mnie 100x śmieszniejsze są 8800GTS/9800GTX/GTS250 czy 8800GS/9600GSO/GT240 itp. itd. To dopiero jest komedia...
    "bo nikt w ten sposób wcześniej nie wypiął się na swoich klientów, akcjonariuszy i cały światek IT"
    taaa, ATI robiło świetne zamieszanie z HD2900 tylko niektórzy o tym już nie pamiętają...a taki miał być pogromca G80 ;) Tyle ludzi kupowało w przedsprzedaży XT tylko po to by po sprawdzeniu co kupili wrzucić na allegro i kupić sobie GF.
    "zupełnie inna sprawa, to oczekiwana premiera prawdziwych już, dostępnych w sklepach nowych kart od nVidii."
    Tylko kwestia jest taka, że to Fermi z którego się śmiejesz (vide porównania do VooDoo 5 6000) i Fermi którego tak oczekujesz to jest jedno i to samo. I gdzie tu konsekwencja? No właśnie, nigdzie...


  214. Jedziemy na czy setki Panowie :) (autor: Mcmumin | data: 8/03/10 | godz.: 12:35)
    300 this is madness :D

  215. @Promilus (autor: Qjanusz | data: 8/03/10 | godz.: 13:06)
    "kłamliwe konferencje" - chociażby te, kiedy nVidia serwowała wyniki Fermi, których po prostu nie miała, albo wtedy, kiedy ceo pokazywał gotową kartę, która była zwykłą atrapą.

    HD2900 - ATI dostało po tyłku za tę kartę. Sam niewiele później kupiłem GeForca i jechałem po ATI za taką propagandę. Firma mocno przesadziła z odwlekaniem premiery i rysowanymi słupkami wydajności. Czyli zaliczyła ułamek obciachu, którą zaliczyła nVidia. Napisz mi co zarząd ATI zrobił po premierze HD2900, a ja Ci przypomnę co zrobił zarząd nVidii po wyjściu na jaw kłamstwa z atrapą.

    Fermi porównałem do Voodoo i przedstawiłem kilka powodów, dlaczego tak myślę. Nikt za bardzo nie potrafił temu zaprzeczyć, ani podać kontrargumentu. Może przypomnę linka:
    http://twojepc.pl/news20714.html

    Napisz mi bardzo proszę, który z moich argumentów nie pozwala mi mieć nadzieli że najnowsza karta nVidii ma szansę być najwydajniejszą.

    Twój problem polega na tym że pytasz mnie i zaraz za mnie odpowiadasz.
    Oczekujesz że będę bronił firmy, kiedy ja co najwyżej bronię konkretnego produktu (vide atak na 2900, po którym też swego czasu mocno jechałem)

    TAK, mocno czekam na silnego Fermi, z którego TAK mocno sobie żartuję, po tym jaką marketingową oFermę zrobiła z niego nVidia.

    Słucham Promilus, czego jeszcze nie rozumiesz? Może (a może przede wszystkim) tego, jak można śmiać się z jednej firmy, nie będąc jednocześnie fanbojem drugiej? Może dlatego Twoje "argumenty", jak HD2900 są zupełnie nietrafione :-)


  216. THIS IS SPARTAAAAAAAAAAAAA (autor: Luke Jadi | data: 8/03/10 | godz.: 13:23)
    NA PLASTERKI!!!!

  217. Niech intel się cieszy, że wykupił patent amd64 na kilka następnych lat (autor: rookie | data: 8/03/10 | godz.: 13:34)
    Morgi, jedyny rozwinięty standard 64bit to AMD64. Jeśli intel nie podpisałby ostatniej umowy to po długich bataliach kosztowałoby to go dziesięciokrotnie więcej a do czasu rozstrzygnięcia przez sąd nie mógłby implementować standardu 64bit w prockach. Auć! To by bolało! Nie udawaj cwaniaka morgi. Biznes to biznes. Wygrywa oferujący lepsze ceny, a łapownictwo intela nie popłaca.
    Ciekawe co powiesz o oFermie? Jakoś ciągle go nie widzę?? ATI już tylko czeka na jego premierę: http://twojepc.pl/news19641.html


  218. @Qjanusz (autor: Promilus | data: 8/03/10 | godz.: 14:08)
    "kłamliwe konferencje" - chociażby te, kiedy nVidia serwowała wyniki Fermi, których po prostu nie miała, albo wtedy, kiedy ceo pokazywał gotową kartę, która była zwykłą atrapą.
    Jak nie miała wyników Fermi? Konkrety proszę, bo dalej coś gadasz bez żadnego poparcia dowodami. Jen Hsung pokazał atrapę, nie znaczy że wyniki testów były z dupy wzięte. Po prostu egzemplarz testowy nijak się miał do tego jak wyglądać ma egzemplarz sklepowy, premiery nie było, tylko drobny sneak peak - nie wiem czemu niby wg Ciebie POWINNI pokazać jak wyglądał ten egzemplarz testowy. To ONI decydują kiedy, co i jak pokazać. Fanów NV czekających ze skarbonkami na Fermi jest dość i niewielu z nich narzeka. Ja też zasadniczo nie narzekam, czekam na premierę i prawdziwe, rzetelne testy. Jeśli o czymś mogę dyskutować to o specyfikacji architektury o której już wiele wiadomo. A to nie temat do śmiechu...chyba że dla idioty.
    Jeśli jedziesz, jedź po firmie, po ich marketingowcach, ale Ty żartujesz sobie nawet nie tyle z samej nvidii co z tego zapowiedzianego produktu. I tu jest pies pogrzebany. Takie coś mógłbym przypisać morgiemu, cyrixowi, Sajronowi czy paru innym osobnikom z nieco upośledzonym....powiedziałbym obiektywizmem (łagodnie). To, że Fermi będzie walczyło spokojnie z HD5k to ja JUŻ teraz wiem, to że będzie mniej opłacalne w produkcji też już teraz wiem. To, że nvidia ładnie zarobi za Tesle i Quadro też już wiem. A mimo to czytam sobie wasze żarty z Fermi...i to jest imho żałosne. Żartujecie z produktu firmy zarządzanej przez kolesi robiących więcej kasy w miesiac niż my wszyscy razem wzięci w rok - zaiste, jest się z czego śmiać.


  219. Mcmumin (autor: Dabrow | data: 8/03/10 | godz.: 14:42)
    też będą moje. A co!

  220. @Dabrow Ty statsiarzu i kamperze!!! (autor: Mcmumin | data: 8/03/10 | godz.: 14:59)
    ;-)

  221. na co oni czekają...? (autor: Marucins | data: 8/03/10 | godz.: 15:37)
    na co czeka nVidia przed wysłaniem już teraz (bo tego zrobić nie mogła pokazując dotychczasowe atrapy) układów do testów dla ludzie niezależnych z logo "zielonych"

    Co oni ukrywają? Ludzie śmieją się z nich w oczy, są też obrońcy twardo broniący ich (a to błąd gdzie wasza bezstronność).

    Nie ma to jak przeprowadzony rzetelny test przez większy serwis, taki który nie bierze w łapę (pcword i ich pamiętny "Windows 7 kontra reszta świata"). Wtedy sami wyciągniemy wnioski nic nie trzeba ustawiać na 1 czy 2 miejscu!


  222. Shneider . Poleciala 22 lutego (autor: speed | data: 8/03/10 | godz.: 15:39)
    Dabrow i o to chodzi , czasami nie wyjdzie tak jak by sie chcialo ale walczyc tak zawzjecie co to bedzie za cudo to troche przesada. Wyjdzie przekonamy sie ile to bedzie warte i po sprawie.
    Paliwa trzeba podkladac :)), 'chlopcy' napinaja sie jak struny fortepianowe:)))


  223. @Promilus (autor: Saturn64 | data: 8/03/10 | godz.: 15:43)
    Powiedz mi które z zapowiedzi marketingowców z ostatniego roku się sprawdziły? Bo jakoś trudno je znaleźć.
    Nie można mówić, że się coś ma, tzn ma się gotową odpowiedź i że zostanie pokazana w listopadzie, później w grudniu, później w styczniu teraz troche spasowali i powiedzieli, że pod koniec marca. Nie robi się tak ludzi w bambuko. Wiem, że dla nich to interes i chcą by ludzie nie kupowali towarów konkurencji ale bez przesady. Na pewno nie są w żaden sposób wiadygodni co udowodnili już wielokrotnie (między innymi pokazując Fermi w listopadzie). Niekt po firmie Nvidia nie jedzie bo, każdy wie, że produkty mają dobre na tle konkurecji i najprawdopodobniej po premierze FERMI tym razem ATI będzie minimum pół roku gonić za Nvidią.


  224. .:. (autor: Shneider | data: 8/03/10 | godz.: 15:43)
    speed - dzieki ;-)

  225. @Saturn64 (autor: Promilus | data: 8/03/10 | godz.: 15:52)
    "Powiedz mi które z zapowiedzi marketingowców z ostatniego roku się sprawdziły? Bo jakoś trudno je znaleźć. "
    Z racji tego, że marketingowcy zazwyczaj GÓWNO wiedzą o technice, a ich domeną jest mniejsze bądź większe robienie ludzi w bambuko to ja akurat tych osobników NIE słucham ;)


  226. Saturn64 (autor: Grave | data: 8/03/10 | godz.: 16:46)
    "nie można mówić, że się coś ma, tzn ma się gotową odpowiedź i że zostanie pokazana w listopadzie, później w grudniu, później w styczniu teraz troche spasowali i powiedzieli, że pod koniec marca. Nie robi się tak ludzi w bambuko"

    Żadnego terminu premiery Fermi poza 1 kw. 2010 i 26 marca 2010 Nvidia nie deklarowała.

    Jeżeli kogoś winić za zamieszanie to serwisy pokroju Fudzilli które najpierw puszczają w eter jakąś wiadomość którą przepisuje potem 20 innych serwisów, a mają równo gdzieś czy jest ona prawdziwa czy nie, w razie czego się sprostuje po miesiącu, albo nie sprostuje wcale tylko napisze coś innego tak po prostu.


  227. @Promilus (autor: Qjanusz | data: 8/03/10 | godz.: 16:51)
    "czemu niby wg Ciebie POWINNI pokazać jak wyglądał ten egzemplarz testowy" - ja się mogę tylko przyglądać. To "Jen-Hsun Huang, szef koncernu, dumnie prezentował kartę", nie atrapę. To dopiero pod naciskiem oskarżeń przyznali się do OSZUSTWA.
    http://www.pcworld.pl/...adem.Fermi.to.atrapa.html

    Co do wyników, to na tej konferencji nie zaprezentowali nic, co mogłoby być uznane za choć w części wiarygodne.

    Co do wiarygodności nVidii, nie tak dawno Fermi po prostu zrywał czapki z głów:
    http://www.in4.pl/ima_news/2010/1_long_20221.jpg

    teraz już Fermi okazuje się być nie takim kozakiem jak wcześniej:
    http://www.in4.pl/ima_news/2010/1_long_20549.gif

    a jak testy zaczną przeprowadzać niezależne serwisy, to może się okazać że sytuacja wygląda jeszcze gorzej.

    Piszesz że marketingowców nie słuchasz, bo gówno wiedzą. Jak widać sam z apetytem zjadasz owoc ich pracy, i jeszcze przekonujesz że to gówno jest smaczne, a cała reszta się nie zna.

    Smacznego Promilus.


  228. @grave (autor: Saturn64 | data: 8/03/10 | godz.: 17:01)
    Człowieku nie śpij i nie zaglądaj na neta raz na kwartał.
    Potwierdzone było wielokrotnie. Nie chce mi sie już szukać, bo i tak nie zrozumiesz tego co tam pisze. Jesteś takim samym ewenementem jak Żyrinowski albo Prezydent Iranu, którzy to twierdzą, że nie holokaustu nie było.
    Przecież nie uroiłem sobie tego. Wszedzie gdzie się weszło tym pisali. Przykład
    http://www.benchmark.pl/...kuje_nowosci-25844.html


  229. @Grave (autor: Qjanusz | data: 8/03/10 | godz.: 17:02)
    głupoty opowiadasz z tymi "rzekomymi" deklaracjami premiery nVidii:
    "Nvidia itself claims that the card was an &#8220;engineering sample&#8221; and that the first commercial Fermi products will be released in Q4 2009."

    http://www.xbitlabs.com/..._Track_for_Q4_2009.html


  230. @Qjanusz (autor: Promilus | data: 8/03/10 | godz.: 17:37)
    Nie wiem nawet co za obrazki wkleiłeś bo mnie wyswietla 403. Nieważne, pewnie to o ile wyższą wydajność geometryczną ma Fermi i o ile w wewnętrznych testach tesselacji jest szybsze od cypressa. To, że nv w tych testach wyszła dajmy na to 6x większa wydajność TESSELACJI (nie FPS) niż Cypressa nie wyklucza iż w Heaven fermi ma do 80% więcej klatek na sekundę w DX11...
    "Jak widać sam z apetytem zjadasz owoc ich pracy, i jeszcze przekonujesz że to gówno jest smaczne, a cała reszta się nie zna"
    Jeśli już to inżynierów, gdzie specyfikacja została podana już jakiś czas temu na forum CUDA, ale ty pewnie ograniczasz się do in4 więc gówno wiesz.


  231. @Qjanusz (autor: Luke Jadi | data: 8/03/10 | godz.: 18:43)
    po 403 zrób refresh w przeglądarce i już będą.

  232. Te swary sa naprade smieszne... (autor: Jarek84 | data: 8/03/10 | godz.: 18:44)
    A co do poziomu merytorycznego niektorych postow, to pisanie o czyms o czym sie nie ma pojecia tylko po to by pisac powinno byc oznaczane jakimis czapeczkami - stanczykami przez moderacje obok nickow ;)

    Co do Fermi - koncepcja i projekt ciekawy, wg mnie zderzyl sie brutalnie z rzeczywistoscia i problemami natury technicznej.

    Co do GPGPU - dla niektorych (no moze dla jednego niebieskiego chochlika) to może warto wreszcie wbic sobie miedzy niebieskie uszka, ze na CUDA swiat sie nie konczy. Open CL moim skromnym zdaniem wygryzie go w niedlugim czasie, co do optymalnego wykorzystania mocy to i tak najlepiej byloby skrobac w CAL IL badz CUDA PTX, zreszta temat optymalizacji kodu, czy to pod GPU czy CPU oraz profilowanie go wg pewnych zalozen to nie temat na jeden post;)


  233. @Jarek84 (autor: Promilus | data: 8/03/10 | godz.: 18:55)
    Thx
    @Qjanusz - no i dokładnie jest to o czym pisałem
    Wyraźnie na 1 zdjęciu jest Dragon i ROAD - 60s snapshot, a na drugim kilkuminutowy wykres FPS z całego benchmarka...i co? min i max w obu przypadkach sie nie zgadza? Dziwne, bo mnie się zgadza.


  234. @Promilus (autor: Qjanusz | data: 8/03/10 | godz.: 19:27)
    cieszę się że Ci się teoria zgadza.

    Ja sobie spokojnie poczekam na praktykę i powtórzę to, co napisałem na początku:
    "a ja sobie spokojnie poczekam na testy.
    Mam nadzieję że nie będą one gorsze od tych, przeprowadzonych przez nVidię.

    I oby 5870 zatrzęsło portkami, natomiast Fermi było dostępne szeroko i w dobrej cenie."

    :-)


  235. Grave (autor: morgi | data: 8/03/10 | godz.: 19:35)
    Faktycznie byly papiery o takich terminach, na gebe sie slyszy co sie chce i papier serwisow bywa zludny, zwlaszcza przedrukowywany piate przez dziesiate. Tajemna wiedza, jak sie konczy los sprzetu fana.
    http://www.tech-caffe.com/gfx/trashati.jpg


  236. taaa..... (autor: Qjanusz | data: 8/03/10 | godz.: 19:49)
    w przeciwieństwie do:
    http://www.brightsideofnews.com/...bee_PCB_675.jpg


  237. @Grave (autor: rainy | data: 8/03/10 | godz.: 20:09)
    Z tym linkiem, ktory znalazł Qjanusz, będziesz miał pewien problem.

    Pan Luciano Alibrandi, to oficjalny przedstawiciel Nvidii do spraw wizerunku i kontaktu z mediami, więc nie da się ukryć, że jest to ich pracownik.


  238. rainy (autor: Grave | data: 8/03/10 | godz.: 20:50)
    A no będę. Skoro taki argument padł pozostaje mi go uznać. Widocznie w Nvidii nie ustalili jednej wersji :)

    Względem tej deklaracji premiera opóźniona została o 3 m-ce.


  239. @Grave (autor: Qjanusz | data: 8/03/10 | godz.: 21:29)
    to ja w takim razie czekam na źródło, które wg Ciebie jest oficjalną wersją innego terminu.

  240. ? ale jaaaaakto??? (autor: Adii | data: 8/03/10 | godz.: 21:45)
    nie rozumiem.. porownanie NAJWYDAJNIESZEGO i naj, naj, naj, ukladu nvidii do modeloo 5850 zamiast 59xx?? ROTF!

    wszyscy zlapali sie na ten ferment nvidii w ten sposob, ze o tym GADAJA. a przyslowie (przepraszam za wulgaryzm) MARKETINGOW i pokrewnych szczepow brzmi: nie wazne czy zle czy dobrze, wazne zeby o nas MOWILI :DP


  241. Adii (autor: Grave | data: 8/03/10 | godz.: 21:56)
    Tylko że 5970 to nic innego jak 2x 5870. Jednym GPU w tym samym procesie technologicznym ciężko taki duet pokonać w grach w których CF zadziała.

    ALE

    Są też takie gry w których CF nie zadziała, albo nie będzie się dobrze skalować, albo... wręcz wynik z CF będzie GORSZY niż bez CF, względnie gra będzie się ciąć mimo wysokiego średniego FPS (wysokie obciążenie CPU przez CF).

    W takich wypadkach najszybsze pojedyncze GPU weźmie górę. A Fermi ma wszystko żeby takim najszybszym pojedynczym GPU być :)


  242. ati i zmartwienie (autor: Adii | data: 8/03/10 | godz.: 21:56)
    martwi mnie tylko to, ze ati tak slabo wpycha sie w uzywanie gpu do innych niz 'growe' zastwosowan. nie wiem na ile dobre jest oprogramowanie cuda, ale chcialbym to widziec w ati.. video, psd i cale cs4, wspomaganie obliczen, etc.. a tu nawet w win7 nie ma dobrego wsparcia w sterownikach dla akceleracji GUI! WTF!? czasy przed ukladem paradise na ISA? bo ten programik z ccc do enkodowania to aksceza na maxa.... gdzie stery do blendera... 3ds.. maya'i? chyba za szybko sie nowy sprzet pojawia i soft w tyle jest.. to widac nawet po kolejnych wcieleniach programow: wersje parzyste - niby nowe i lepsze, ale dopiero nieparzyste maja te nowinki (parz/nieparz - tylko przyklad). jak z vista i win7.. jak 98 i Me... jak psd 8 i psd9... i taaak daaaaleeej.. :)

    a ja juz kupilem r5770 z "parownikiem" od sapphire'a i cs4 dziala... ale po video encode'rze to sie spodzewalem wiecej niz 1 z 4 rdzeni w pracy i jakiegos udzialu GPU.. ech..


  243. Qjanusz (autor: Grave | data: 8/03/10 | godz.: 21:58)
    http://www.tomshardware.com/...delay-gpu,9326.html

    oraz

    http://twitter.com/NVIDIAGeForce/status/9503345711


  244. @Adii (autor: Promilus | data: 9/03/10 | godz.: 07:04)
    Dziwne, bo u mnie catalystowy video encoder działał na obu rdzeniach ;)

  245. **Grave** (autor: Marucins | data: 9/03/10 | godz.: 09:01)
    Ale zauważ iż tutaj nie chodzi o to że ich karta będzie szybsza. Bo będzie.
    Tylko o to ile to czasu mydlili oczy ludziom. Ile to atrap ile to fake testów i zapowiedzi tego o ile to % będzie ich produkt szybszy.

    Z tego ludzie się śmieją.


  246. @Marucins (autor: Qjanusz | data: 9/03/10 | godz.: 11:38)
    jak na ironię... cały net śmiał i śmieje się z nVidii, podczas gdy ona zamiast zadbać o swój wizerunek, śmiała się (przez łzy) z Intela i AMD.

    Te piękne komiksy... :-)


  247. psychika (autor: piobzo | data: 9/03/10 | godz.: 19:43)
    grave do konca zycia bedziesz uprzedzony do ati za jeden blad? ja nV czy intela nie skreslilem.... zarowno intel jak i nv w swej karieze nieraz popelnialy bledy... a ati sie potknelo na hd2XXX i juz wszystko to syf.... myslisz jak 5 letnie dziecko proste schematy... a argumentu morgiego: ati sa robione z odpadow.... w tych samych fabach je naswietlaja z tych samych wafli powstaja... a producenci kart o reszcie decyduja i watpie zeby taki gigabyte do swojego gV lepsze elementy dawal niz do ati, bo jedna i druga chce sprzedac....

  248. Teraz tylko czekac (autor: morgi2 | data: 12/03/10 | godz.: 19:41)
    aż "obiektywni testerzy " odkryją tylko nieznaczną przewagę NVIDII nad AMD-ati mieszając w teście ustawieniami Antyaliasingu .

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.