Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 26 marca 2010 
    

Oficjalna premiera kart GeForce GTX 480 i 470


Autor: Zbyszek | 23:59
(210)
Nvidia wprowadza na rynek swoje najnowsze karty graficzne GeForce GTX 480 i GeForce GTX 470. Obie karty obsługują biblioteki DirectX 11 oraz technologię 3DVision Surround umożliwiającą jednoczesną pracę na trzech moniotorach i bazują na 40-nanometrowych układach o nazwie kodowej Fermi. Flagowy GeForce GTX 480 wyposażony jest w 480 procesorów strumieniowych (CUDA cores), 60 jednostek TMU i 48 ROP oraz 1536 MB pamięci GDDR5 z 384-bitową magistralą. Częstotliwość taktowania układu graficznego, procesorów strumieniowych i pamięci wynosi kolejno: 700 i 1400 i 3696 MHz. Tańszy GeForce GTX 470 dysponuje 448 procesorami strumieniowymi, 56 jednostkami TMU i 40 ROP oraz 1280 MB pamięci GDDR5 z 320-bitowym interfejsem i taktowany jest zegarami 607 i 1215 i 3348 MHz. Sugerowane ceny detaliczne wynoszą 1999 PLN (GTX 480) oraz 1399 PLN (GTX 470).


 
    
K O M E N T A R Z E
    

  1. jako, ze (autor: Drow | data: 27/03/10 | godz.: 09:50)
    nie chce mi sie kopiowac stosu linkow do testow, pdoaje jeden, w ktorym linki sa zawarte:

    http://www.gry-online.pl/S013.asp?ID=50975


    jak dotad, zapowaida sie na epic fail ze strony zielonych.


  2. Wielkie rozczarowanie (autor: Wujofefer | data: 27/03/10 | godz.: 10:05)
    Pół roku spóźnienia, o połowę wyższa cena i niewiele większa wydajność od Radeona 5870 jeśli w ogóle jest bo czasem zdarza się, że jednak Radek jest szybszy. Co nam po tym, że w teselacji jest 2-3 razy szybszy jak reszta układu ma taką sobie wydajność a gier wykorzystujących teselację tak intensywnie jak w benchmarku Heaven jakoś nie widać.
    Będzie to drugie wielkie rozczarowanie po pamiętnym FX5800.


  3. JAJECZKO (autor: Barbarian | data: 27/03/10 | godz.: 10:08)
    Po testach widać, że mamy niezłe jajeczko. Najdroższy w historii układ graficzny (nie licząc Larrabee) ledwie załapał się na TOP, co świadczy o tym, że nie ma szans na komercyjny sukces. Tylko przeniesienie do 28nm, poprawienie architektury i masowa produkcja może uratować nvidię. Przykre ale prawdziwe.

  4. @UP (autor: Saturn64 | data: 27/03/10 | godz.: 10:10)
    Brawa dla marketingu Nvidii. Pół roku spekulacji i mamy.... wielu uwierzyło i przesunęło się z zakupem. Mam nadzieję, że po premierze nie będą czekać kolejne pół roku na następców obu konstrukcji (ATI i NV) ;)

  5. @Saturn64 (autor: Barbarian | data: 27/03/10 | godz.: 10:14)
    Będą czekać pół roku na produkty w sklepie, gdyż premiera jest jak najbardziej papierowa.

  6. biada nvidii oj biada (autor: zeek | data: 27/03/10 | godz.: 10:16)
    karta po prostu TRAGICZNA

  7. ... (autor: Torwald | data: 27/03/10 | godz.: 10:59)
    To GPU JEST najszybsze na Świecie i tu Nvidia odniosła sukces. Problem w tym, że w tych kartach dali okrojony produkt. Całość nędzy dopełnia fakt, że DX11 używa tylko kilka gier, a tylko w pracy z nim GTX 480/470 pokazuje co potrafi...

  8. Czekalismy (autor: cp_stef | data: 27/03/10 | godz.: 11:00)
    i para poszla w gwizdek. Cena, pobor energii a wydajnosc minimalnie lepsza. Kiepsko

  9. ... (autor: sz4rlej | data: 27/03/10 | godz.: 11:03)
    Z testów wynika, że fermi radzi sobie lepiej w grach z dx 11 niż radki. inna sprawa, że to nikła przewaga. Poza tyy przy tych cenach, to za jednego gtx 480 kupisz 2 5850 i w crossfire zjedzą one nowe cacko nv. Poza tym przy takim grzaniu i prądożerności nie wyobrażam sobie mieć dwóch 480 w obudowie. 100 stopni to jednak ostra przesada.

  10. ... (autor: tompo75 | data: 27/03/10 | godz.: 11:40)
    My to wszystko źle czytamy, widzimy i odbieramy. Przyjdzie Morgi to nam wytłumaczy jak należy na wyniki patrzeć by było tak jak trzeba, czyli NV rulezzzz ;p
    A bardziej serio... no przy tej cenie, taka wydajność, że o poborze mocy i grzaniu nie wspomnę... no kiepsko to niestety wygląda.
    Ale pewnie jestem(śmy) w błędzie i Morgi nas naprostuje, pewnie np że sterowniki (przez pół) roku niedopracowane i że gry teraz masowo patche będą robić żeby było lepiej, a wcale nie jest źle tylko super ;p Czekamy...


  11. 100C i to przy tak rozbudowanym chłodzeniu (autor: Grave | data: 27/03/10 | godz.: 11:49)
    Właściwie jedyna sensowna opcja chłodzenia dla tej karty to WC. W ten sposób likwidujemy dwie poważne wady - temperaturę i głośność pracy.

    EVGA ma takiego GTX480 w ofercie (zegary 750M/1500/3800). Tyle, że za taką wersję trzeba będzie zapłacić jeszcze więcej.

    Karta ponoć rozwija skrzydła w SLI, które lepiej się skaluje od CF i w takiej konfiguracji jest w stanie sobie poradzić z 2x5970.

    Tylko że koszt takiego kompletu jest gigantyczny, podobnie jak ilość prądu jaką 2xGTX480 żłopie. Tylko jacyś zupełnie niepoprawni zapaleńcy i fani "zielonego oka" z bardzo grubymi portfelami mogliby się na coś takiego zdecydować.


  12. .... (autor: Marek1981 | data: 27/03/10 | godz.: 12:01)
    @Grave - nałykałeś się czegoś???
    "Karta ponoć rozwija skrzydła w SLI, które lepiej się skaluje od CF i w takiej konfiguracji jest w stanie sobie poradzić z 2x5970." w testach jakie są dostępne były pokazane w sli i kiepsko to wyglądało, zresztą jakbyś był obiektywny to już byś dawno zauważył że cf jest lepszym rozwiązaniem.

    Tylko jacyś zupełnie niepoprawni zapaleńcy i fani "zielonego oka" - dodałbym głusi:)

    Właściwie jedyna sensowna opcja chłodzenia dla tej karty to WC - zgodzę się z tym

    @all - na razie dx 11 bez znaczenia
    Nie ma gier napisanych pod dx11, tylko są niektóre efekty. Jak do tej pory grafy z dx10, dx10.1 i dx11 powodowały dużo większą wydajność/W i mniejsze zużycie prądu. Tu mamy zaprzeczenie temu trendowi.

    Nawet nie można napisać że to grafa przyszłościowa, ponieważ w tym momencie można kupić lepiej radka 5xxx lub ewentualnie 275/260 (jedyny opłacalny zakup od nv) i poczekać z rok na niższy proces technologiczny NV i AMD


  13. @Grave (autor: Saturn64 | data: 27/03/10 | godz.: 12:11)
    Nie poznaje Cię... nawróciłeś się?

    Nie wiem czy czytales jedyny test GTX480 w Polsce na pclab.
    Zasilacz użyty do testu to:
    Cooler Master UCP 1100 W
    Przy OC do 800mhz przy 1,0V na GPU wyskoczyły zabezpiecznia przeciwprądowe w tak potężnym zasilaczu.
    Piszą również, że na ATI także występuje podobnie ale dopieo przy rdzeniu taktowanym na 1300mhz i przy zwiększonym napięciu do 1,45V na GPU!!!.

    Więc powiedz mi jaki zasilacz będzie wymagany przy tym EVGA (taktowanym 750mhz na GPU???) czy minimum 1000W czy to także będzie za mało?.


  14. Grave (autor: Elektron | data: 27/03/10 | godz.: 12:15)
    WC wcale nie jest konieczne. Wystarczy, że młoty zrobiłyby normalną krateczkę na tych heatpipe'ach i dali 12cm wentyl, a głośność i temperatury byłyby znośne. Ja u siebie na hd4850 mam Scythe Musashi i wentyle ustawione na najniższy poziom na jakim startują - coś koło 200-300 RPM będzie (na Fermi wystarczyłoby po 500-600RPM). Blowery (na dodatek o takiej długości łopatek jak w Fermi) trzeba rozpędzać do kilku tysięcy RPM, żeby było czuć, że coś tam wieje.

  15. Saturn64 (autor: Dzban | data: 27/03/10 | godz.: 12:19)
    Nie w zasilaczu tylko na karcie zabezpieczenia się włączały. Taki mocny zasilacz wytrzymał by dużo więcej. Nie pisz bzdur. Ale ogólnie karta słabo wypada z tym się zgadzam.

  16. Grave (autor: morgi | data: 27/03/10 | godz.: 12:20)
    Jedyna sensowna mozliwosc to szukanie nowej fabryki, ktora nie da ciala z wyprodukowaniem chipu, ktory miazdzy wtedy, kiedy ma pracowac z docelowymi parametrami. dx11, psiks i gpgpu to oczywiste winnery, pogrom i w zasadzie samotna walka, ale pieklo z czajnika jakie leci to ewidentnie porazka fabryki za sprawa i przyczyna tandemu Nvidia i TSMC.

  17. Saturn64 (autor: Grave | data: 27/03/10 | godz.: 12:36)
    Na HARDOCP użyli 1,2kW zasilacza który pociągnął 2x480. Do tej lekko podkręconej wersji EVGA też taki powinien wystarczyć o ile ktoś w ogóle jest w stanie zaakceptować że same GPU biorą tyle co grzejnik elektryczny. Bo to gruba przesada.

    Mnie zastanawia bardzo jedna przypadłość GTX480. Karta znacznie lepiej prezentuje się w niższych rozdzielczościach tymczasem wyraźnie słabnie w najwyższych względem Radeona 5870.

    Jest to co najmniej dziwne, bo GTX480 ma o połowę więcej pamięci niż karta ATI, wyższa jest także przepustowość tejże pamięci, wyższa jest także prędkość wypełniania.

    A mimo tego, coraz wyższe rozdzielczości w większym stopniu spowalniają GTX480 niż HD 5870!!

    Tego nie rozumiem zupełnie.


  18. Niedobrze siędzieje ... (autor: Brauni | data: 27/03/10 | godz.: 12:41)
    Miałem nadzieję, jak pewnie wielu innych, na spadek cen ATI po tej premierze ...
    Wygląda że nie ma co na to liczyć, przynajmniej w najbliższej przyszłości ..

    Co do GTX480 to widać że karta ma potencjał, ale na dzień dzisiejszy nie ma aplikacji które tę moc potrafiłyby wykorzystać...


  19. przytoczę podsumowanie (autor: Marek1981 | data: 27/03/10 | godz.: 12:42)
    "....ale to wszystko składa się do kupy.
    Wcześniej serwowano nam odgrzewane kotlety.
    Teraz dostaliśmy grzałkę, na której to robili."


  20. morgi (autor: sew123 | data: 27/03/10 | godz.: 12:42)
    ale ty pierdolisz :D
    Fajne sa testy głośności coolera .. no o poborze mocy nie wspomne... a wydajność niewiele lepsza niż Radeon hehehehehehehehehehe
    dawaj mori dawaj te cuda psiksy i inne fizyksy :D


  21. .:. (autor: Shneider | data: 27/03/10 | godz.: 12:44)
    Grave - [ http://twojepc.pl/news20869.html ], cytuje
    "2. Bez obaw, na pewno będzie to najszybszy GPU na rynku."

    tyle, liczenia, tyle pierdol, a wyszlo jak wyszlo. mogli puscic rdzenie jeszcze szybciej, doodali by w komplecie agregat chlodniczy a apetyt siegnal by 400W. i gdzie te OHY i AHY?


  22. ... (autor: Marek1981 | data: 27/03/10 | godz.: 12:46)
    dodam tylko że w dx11 nie jest też najklepiej, pomimo metro i ich 40% lepszej wydajności to w Dirt2 już szału nie ma, a w BF:BadCompany 2 pod DX11 GTX480 potrafi nawet być minimalnie słabszy od R5870.
    Pamiętajmy także iż metro jest pisane pod NV więc radeony mogą mieć tam hamulec


  23. @morgi (autor: Wujofefer | data: 27/03/10 | godz.: 12:46)
    To nie TSMC zawaliło sprawę tylko Nvidia. Za dużo tranzystorów na zbyt dużej powierzchni robi swoje. Fizyki nie oszukasz. Nvidia widać nie wyciągnęła wniosków z GTX280 gdzie już miała poważne problemy z przegrzewaniem się wielkiego chipu, teraz jest jeszcze gorzej. Pół roku opóźnienia i niewiele większa wydajność... żal mi ich bo zaczynają przypominać 3Dfx'a.
    ATI nie śpi, jeszcze przed premierą Radeonów 5xxx, było słychać o kolejnej serii 6000, która to ma się pokazać w drugiej połowie tego roku. Jakby tak się stało to Nvidia miałaby jeszcze większe problemy bo nie przygotują w pół roku nowej wydajnej architektury. Obecną mogą dopracować ale ile % zdołają z niej wyciągnąć tego nie wie nikt.


  24. @Shneider (autor: Marek1981 | data: 27/03/10 | godz.: 12:47)
    nie kop leżącego:)

  25. Shneider (autor: Grave | data: 27/03/10 | godz.: 12:47)
    Pomimo wszystkich swoich wad Fermi JEST najszybszym GPU na rynku.

  26. @dzban (autor: Saturn64 | data: 27/03/10 | godz.: 12:48)
    Jakie zabezpieczenia na karcie. Jaka karta ma takie zabezpiecznia. Zerknij w specyfikacje zasilaczy to one wyłaczają się gdy wykryją zbyt duże obciązenie tak by nie spaliła się cała reszta komputera. Bzdury to sam piszesz.

  27. @Wujofefer (autor: Marek1981 | data: 27/03/10 | godz.: 12:49)
    AMD też dostało lekcje z hd2900 i widać przyniosło to pożądany efekt

  28. ... (autor: kubaswielgus | data: 27/03/10 | godz.: 12:53)
    Na forach CG wieje optymizmem - w raytracingu karta jest 4razy szybsza od GTX 280. Dla profesjonalistów to niezły kąsek. Podobno karta w tych zastosowaniach jest 40x szybsza od Core i7 3GHz!!!
    Jeśli idzie o gry to słabo to wygląda. Nawet Metro 2033 karta nie daje rady na płynną grę z pełnymi detalami.


  29. xDxD (autor: MariuschM | data: 27/03/10 | godz.: 12:54)
    nie no jak widziałem testy tego badziewia to aż chciało mi się śmiaćXD ta karta jest beznadziejna... może gdy wyprodukują ją w niższej technologii to będzie wydajniejsza i tańsza... ale trzeba pamiętać że ATI też zmieni technologię więc różnicy nie będzie

    tak czy siak wtopa niezłaXD a tyle zapowiedzi i zachwytu i wszystko na nic


  30. .:. (autor: Shneider | data: 27/03/10 | godz.: 12:55)
    Grave - wiec masz powod do dumy brawo.

    A ja wezme 5870 i puszcze zegary o 10% szybciej i osiagne 200W a fermi mowi papa.

    i wciaz GF100 jest najszybszym GPU?

    w skrocie. nie pierdol ;-)


  31. @up (autor: arco2006 | data: 27/03/10 | godz.: 13:02)
    a z taką kartą? Radeon HD 5870 Gigabyte z taktowaniem 1GHz. Fermi zadyszki dostanie.
    http://twojepc.pl/news20207.html


  32. @grave (autor: sz4rlej | data: 27/03/10 | godz.: 13:04)
    nie jest najszybsza, szybszy jest HD5970 :P
    i nie mów mi, że porównuję karty z 2 gpu z 1, bo nie wierzę, że NV wyda 490 - człowiek by miał pustynię, huragan i elektrownię w domu. Jak ktoś jest bogaty i stać go na taką kartę to raczej ceni sobie komfort grania.


  33. o czym wy w ogóle gadacie (autor: digiter | data: 27/03/10 | godz.: 13:05)
    i tak nikt z was nie kupi karty za ponad 1200zł.

  34. .:. (autor: Shneider | data: 27/03/10 | godz.: 13:07)
    digiter - o dupie maryni. skad wiesz kto ile przeznacza na sprzet? czyzbys byl wrozka?

  35. właśnie - o dupie Maryny (autor: digiter | data: 27/03/10 | godz.: 13:12)
    czyli o wyzszości ferrari 599 nad porsche GT. Pełno postów na boardzie "jaka karta za 1500zł".

  36. .:. (autor: Shneider | data: 27/03/10 | godz.: 13:14)
    digiter - a ty pies ogrodnika?

  37. ... (autor: tompo75 | data: 27/03/10 | godz.: 13:15)
    HAHAHA! No wiedziałem, że na Morgiego będzie można liczyć i już w swoim poprzednim poście (10) czekałem na takie perełki.
    No tak! To wszystko wina fabryki!
    Buahahaha!
    Polonez też był do kitu bo w fabryce nie potrafili z tych części Lambo poskładać!
    To takie oczywiste! Rozbawiłeś mnie do łez!


  38. @Saturn64 (autor: Vitorek | data: 27/03/10 | godz.: 13:15)
    Saturn pieprzysz jak potłuczony... Na PCLAB nic nie piszą o niewyrabiającym zasilaczu! LOL 1100W wysiada... Niema jak to czytać ze zrozumieniem. Wyraźnie jest napisane ze podkręcona karta pobierała 33 czy 35W więcej! Zabezpieczenia włączały się na karcie, a to po to żeby nie doszło do przepięcia... Kolejny WATT-omaniak?

  39. ... (autor: trepcia | data: 27/03/10 | godz.: 13:21)
    I w pizdu, wszystkie marzenia rozpłysny się niczym bańka mydlana. Przyszła kijowa oFerma, która faktycznie jest najwydajniejszym GPU na rynku ale bardziej to sztuka dla sztuki w tej odłosnie niż coś, co mogłoby jak kolwiek zagrozić produktom ATI. Ehh... nie będzie obniżek cen kart graficznych.
    Tak to jest jak się ma przerost ambicji a tych, co nie używają Physics nazywa się głupkami. Później się budzą tacy w ręką w nocniku.
    Jak dla mnie porażka pełną gębą, ani jednej rekomendacji w żadnej recenzji nie widziałem. Ot, Fermi jest bo musiał być i nić poza tym. Produkt rewolucyjny ale jak narazie nie trafiony.


  40. @Vivorek (autor: Saturn64 | data: 27/03/10 | godz.: 13:30)
    Potłuczony to sam jesteś. Zasilacz nawet mający 1100W ma okrśloną wydajność linii 12V która w tym przypadku nie wyrabia. Są zasilacze mające po 4 linie ale w przypadku GTX480 jest potrzbna silna pojedyńcza linia o wydajności 42A (po przetaktowaniu być może sięga ponad 50A) znajdz mi zasilacz, który to spełnia. Sam mam zasilacz be quiet Straight Power E7 580W który ma bardzo słabiutką linię 12V słabszą np od niektórych zasilaczy Anteca ~450W a przez producenta określany jest dumnie 580W. Więc sama moc to nie wszystko.

  41. @dzban i vivorek (autor: Saturn64 | data: 27/03/10 | godz.: 13:35)
    http://www.coolermaster.com/...php?product_id=5218

    Tu macie specyfikacje tego zasilacza

    Wyraźnie pisze ze posiada zabezpieczenia OVP / OCP / OPP / SCP / UVP / OTP

    Więc uczcie się chłopcy i czytajcie ze zrozumieniem.


  42. @Vivorek (autor: arco2006 | data: 27/03/10 | godz.: 13:38)
    "Rdzeń udało nam się podkręcić do 800 MHz. Powyżej tej wartości zaczynało o sobie dawać zabezpieczenie przeciwprądowe, które odcina zasilanie gdy wykryje, że gdy z układu zasilania płynie zbyt duża ilość prądu."

    "z układu zasilania" - jak się nie mylę to się nazywa zasilacz.

    "Niema jak to czytać ze zrozumieniem." - to właśnie widać jak czytasz @ Vivorek @


  43. @Saturn64 (autor: Promilus | data: 27/03/10 | godz.: 13:39)
    Na karcie graficznej jest wielofazowa przetwornica i każdy z tych żółtych przewodzików doprowadzających papu może prowadzić z innej linii +12VDC. Natomiast prawdą jest, że są różnorakie zabezpieczenia na samej karcie, ale dotyczy to głównie modeli highend.

  44. @Grave (autor: Teriusz | data: 27/03/10 | godz.: 13:51)
    "Pomimo wszystkich swoich wad Fermi JEST najszybszym GPU na rynku."
    Weź Radeona 5870 i podkręć go do takiego stopnia, aż zacznie tyle samo pobierać prądu oraz wydzielać ciepła co Fermi i dopiero zweryfikuj sobie, która karta jest szybsza.

    Według mnie Nvidia idzie w dobrą stronę czyli GPGPU. Niestety chcieli to zrobić za szybko i na już. Wyszedł im w ten sposób wielgachny i okropnie grzejący się układ. Starali się w ten sposób zadowolić wszystkich, naukowców jak i graczy, co nie wyszło im najlepiej. Pewnie chcieli dobrze, ale walcząc na dwa fronty jednocześnie z intelem jak i z AMD, pokpili sprawę. Teraz ani nie wygrają z AMD przez opóźnienie, cenę jak i wydajnościowo. Na dodatek intel się ucieszy, bo w serwerach bardziej opłacało będzie się umieszczać jego procki, gdyż będą mniej prądożerne i duuuużo chłodniejsze.


  45. Fajne te dyskusje fanbojów :) (autor: Remek | data: 27/03/10 | godz.: 13:57)
    ...

  46. @Teriusz (autor: kubaswielgus | data: 27/03/10 | godz.: 14:07)
    Tak jak wcześniej pisałem - Fermi daje 40razy większą moc obliczeniową niż Core i7 3GHz. Bardzo wielu profesjonalistów kupi tą kartę. Jakoś nie widzę, żeby Intel wypuścił nagle procesor 160-rdzeniowy. Sam się już zastanawiam nad zakupem do grafiki 3D.

  47. ... (autor: 7eki | data: 27/03/10 | godz.: 14:14)
    GTX480 to chip oparty o tak dużą liczbę tranzystorów w stosunku do mid-endowego hd5870 , że średnio 25 procent przewagi w teście Unigine z włączoną tesselacją jest wręcz przekomiczne. Każda próba obrony nowego produktu nv przy użyciu argumentów dotyczących sprawniejszych obliczeń dotyczących geometrii jest żałosna. Dziwi mnie to, że tylko nieliczni, w tym na szczęście najlepszy tego typu portal - harocp odważyli się wprost przyznać, że jesteśmy wszyscy bardzo zawiedzeni. Ten sprzęt byłby na miejscu gdyby ukazał się pół roku przed serią ATI HD5k. W tej chwili nie wnosi niczego nowego. Jeśli ktokolwiek z nas patrzy na tego typu sprzęt pod kątem wykorzystania go nieco bardziej profesjonalnie to i tak sięgnie po g80. Fermi ma duży potencjał jeśli brać pod uwagę możliwości łatwego i niekonwencjonalnego jego wykorzystania. Następna generacja ATI, która ma ukazać się "niebawem" (czyt. 6 miesięcy - w końcu już do tego przywykliśmy) z pewnością nie przejdzie obojętnie obok kwestii zaprzęgnięcia układu o mocy obliczeniowej ponad 3 teraflopsów do obliczeń innych niż te związane z grafiką. Jednak można spaść na dół nawet kiedy sam w sobie jesteś szczytem.

  48. ... (autor: pawel.xxx | data: 27/03/10 | godz.: 14:35)
    Przeczytajcie chłopcy i dziewczęta choć kilka testów. Nie opierajcie sowich sądów na jednym teście z pclab.
    Moim zdaniem wydajność karty jest OK. Po skalowaniu się wyników ze zmianą rozdzielczości widać różnicę między skalarną architekturą fermi, a super-skalarną/wektorową AMD.
    Pobór energii i hałas rozczarowują.

    Szczerze rozbawił mnie Marek1981 piszący że
    " na razie dx 11 bez znaczenia Nie ma gier napisanych pod dx11"
    Ciekawe czy napisał tak dlatego że w dx11 fermi jest lepszy? Jak rozumiem Marku, skoro dx11 nie ma znaczenia, to akceptujesz i w pełni popierasz stanowisko nvidii które mówi ze z dx11 nie ma się co spieszyć.


  49. a mnie ciekawi (autor: Markizy | data: 27/03/10 | godz.: 14:37)
    jak premiera fermi przyczyni się do sprzedaży radenow, bo sporo osób co na tą kartę czekali jest rozczarowana, i myśli nad szybkim zakupem radeonow bo ich ceny mogą wzrosnąć.

    Teriusz
    W sumie naukowcom stykał by obecny radek lub GF, tylko kwestia odpowiedniego oprogramowania, o ile Nvidia coś nie coś tam jeszcze ma, tak ATI/AMD prawie nic.


  50. ... (autor: kubaswielgus | data: 27/03/10 | godz.: 14:39)
    Film pokazujący znacznie teselacji w grach:

    http://www.youtube.com/watch?v=EfrSaIY0YQA


  51. pawel.xxx (autor: Markizy | data: 27/03/10 | godz.: 14:42)
    problemem jest to że karta miała być super hiper, a wyszła średnio 10-20% lepsza od obecnego pół roku 5870, do tego wcina więcej energii i jest głośniejsza niż 5970, do którego często startu nie ma.

    I to są główne powody dlaczego ta karta jest nie-OK


  52. Shneider (autor: Grave | data: 27/03/10 | godz.: 14:47)
    HD 5870 po OC pójdzie na ~1GHz - tyle udało się uzyskać na in4 w teście MSI 5870 Lighting (ok 17% wyższy zegar od referencyjnego)

    GTX480 po OC pójdzie na ~800MHz - test na labie (ok 14% wyższy zegar od referencyjnego).

    Czy to po OC czy bez GTX480 jest najszybszą kartą z 1 GPU, a Fermi najszybszym GPU.


  53. @pawel.xxx (autor: Saturn64 | data: 27/03/10 | godz.: 14:49)
    Wydajność nie jest adekwatna do wielkosci chipu, poboru prądu i wytwarzanego hałasu. Nikt do tej pory nie zrobił testu z Radeonem HD5870 2GB a także z niereferencyjnymi podkręconymi do 900-1000mhz, które i tak są tańsze od referenta GTX480. Wtedy można będzie mówić o prawdziwym porównaniu możliwości GPU, poboru prądu, hałasu a także będzie wiadomy wpływ dla rozdzelczości 2560x1600 pamięci w ilości 2GB. Ludzie jarają się porównywaniem czegoś co jest w każdym aspekcie o 50% większe od konkurencyjnego radeona (a jednak w wydajności radeon niewiele mu ustępuje) Jeśli coś jest większe to powinno być także wydajniejsze przynajmniej o te 50% w każdym przypdku bo w innym to jest po prostu porażka. A jeśli ktoś powie, dobra GTX też może byc podkręcony to niech zrobią w końcu test maksymalnie podkręconej HD5870 i maksymalnie podkręconego GTX480 i wtedy porównanją ich wydajność.
    Przecież nikt w Nv też głupi nie jest (mieli pół roku opóźnienia więc nie mogli wypuścić karty słabszej od Radeona HD5870. Wypuścili jednak nie jest to to na co wszyscy czekali. Niestety


  54. na wszystkich zagraniczych serwisach (autor: emu@mailplus.pl | data: 27/03/10 | godz.: 14:50)
    fermi ma wieksza wydajność w porównaniu z radeonami niż na polskich. Może oni mają już te karty z nowszym biosem o czym czytałem ze wymieniają.

  55. @Grave (autor: Barbarian | data: 27/03/10 | godz.: 14:54)
    Jak sam widzisz wyszło jak wyszło: ledwie ledwie Radek 5870, strasznie gorąco, głośno i totalnie nieopłacalnie. Do tego brak produktów w sklepach i kastrat zamiast Fermi. Spełniły się zatem czarne wizje, co niestety dla nikogo nie jest dobre.

  56. Barbarian (autor: Grave | data: 27/03/10 | godz.: 15:06)
    To co wyszło to nie "kastrat zamiast fermi" tylko cały czas Fermi.

    Ewidentnie jest szybszy od HD 5870 średnio 15%, a w nielicznych przypadkach potrafi wygrać z HD 5970 jak np. tu w FC2 z AA 8x:

    http://www.hardwarecanucks.com/...0-review-24.html

    Co ciekawe w niższych rozdzielczościach (nawet do 1680x1050) GTX480 potrafi być nawet kilkadziesiąt % szybszy od HD 5870 natomiast w najwyższych ta różnica topnieje do 10-15%. Jest to baaaardzo dziwne, ale tak jest.....

    Na pewno jest to najwydajniejszy GPU na rynku nie ma co do tego wątpliwości.

    Natomiast znaczące wady, którymi ta wydajność została okupiona poddają mocno w wątpliwość sensowność zakupu nowej karty Nvidii.

    No i wspomniany spadek wydajności wraz ze wzrostem rozdzielczości - jak na taką specyfikację ZDECYDOWANIE zbyt duży!


  57. @Grave (autor: Barbarian | data: 27/03/10 | godz.: 15:16)
    Fermi jest obecnie beta-produktem. Nikt rozsądny go nie kupi. Jeśli jednak architktura zostanie dopracowana, to sam go kupię w 28nm.

  58. sorki (autor: scoobydoo19911 | data: 27/03/10 | godz.: 15:17)
    ale jesteście nie poważni
    wpierw jechaliści po nv że nie ma dx11 tessalacji i innych a teraz jak karta wyszła to arudzicie że po co dx11 i tessalacja. metro faktycznie robione było pod karty nv ale stalker(tutaj miłe zaskoczenie) odkąd pamiętam zawsze wolał ati podbnie dirt 2(tu nie ma co się dziwić z przewagi ati). na dzień dzisiejszy fermiego powinniśmy traktować jako pokazówke technologii bez sterowników, casz tej architektury nadejdzie wraz z 28nm.


  59. @scoobydoo19911 (autor: Promilus | data: 27/03/10 | godz.: 15:24)
    "ale stalker(tutaj miłe zaskoczenie) odkąd pamiętam zawsze wolał ati" to źle pamiętasz.

  60. @Shneider (autor: Torwald | data: 27/03/10 | godz.: 15:29)
    Weź matole słownik, sprawdź definicję GPU, wróć i przeproś.
    Teriusz, to samo...
    Serio jesteście takimi debilami ?

    Nvidia MA obecnie NAJWYDAJNIEJSZY GPU na rynku.
    To, że karta oparta na tym GPU grzeje się niemiłosiernie, chłodzenie wyje a zasilacz zdycha - to inna bajka.

    Do wszystkich domorosłych ekspertów:
    karta graficzna =/= GPU

    ...matoły...


  61. @pawel.xxx (autor: Marek1981 | data: 27/03/10 | godz.: 15:31)
    Sam jesteś śmieszny i .....
    1) przeczytaj komentarz nr22, to nie tylko ja zauważyłem - to są wnioski kilku osób
    2) to że nie ma gier napisanych pod dx 10.1 i 11 zawdzięczamy blokowaniu przez NV standardów wcześniej wprowadzonych przez konkurencje.
    3) to że nie ma gier w dx 10 zawdzięczamy MS i NV: MS troszkę spierdzielił samego dx i sztuczna blokada w xp, a poprawkę mogącą rozpowszechnić dx 10 zablokowała NV

    Na razie AMD nie mając pozycji monopolistycznej ( takową ma Intel i bardzo długo NV - tzn ponad 75% rynku) nie blokuje żadnego standardu.


  62. dlaczego GTX480 porownujecie do HD5870 ? (autor: zeek | data: 27/03/10 | godz.: 15:52)
    przeciez konkurentem HD5870 jest GTX470

    GTX480 nalezy porownywac do HD5970


  63. @Markizy &Saturn64 (autor: pawel.xxx | data: 27/03/10 | godz.: 15:55)
    No właśnie czasem jest to 10-20% czasem więcej
    http://fwd4.me/JGB Dlatego wspomniałem o konieczności przejrzenia kilku testów by wyrobić sobie opinię.
    Co do oczekiwań że karta miała być super i hiper - faktycznie takie były oczekiwania wykreowane i umiejętnie podsycane przez marketing nvidii. Czy jednak rozsądne jest oczekiwanie ze dane marketingowe będą miały odzwierciedlenie w rzeczywistości. Czy należało spodziewać się rzeczywiście takiej super i hiper karty, w takiej cenie i mającej określoną konkurencję? Nvidia potrzebowała konkurenta dla 5870 i fermi spełnił to zadanie.
    Moim zdaniem te oczekiwania to zasługa marketingu nvidii i chwała im za to - wykonali dobrą robotę.
    Jak napisałem w poprzednim poście. Podejście do konstrukcji jednostki przetwarzającej jest różne w przypadku nv i AMD. Nvidia ma jednostki skalarne, AMD wektorowe, niesłusznie nazywane przez amd supersklarnymi. Różne właściwości tych jednostek ujawniają się przy skalowaniu rozdzielczości w grach.
    Jednostki skalarne można zawsze obciążyć w 100% a wektorowe nie zawsze, j. skalarna jest większa od wektorowej.
    To dlatego fermii jest większy od cypress, równocześnie cypress ma o 70% większą moc obliczeniową (szczytową) , a mimo to fermii jest szybszy.
    Różne koncepcje podejścia do budowy jednostki przetwarzającej skutkują różnymi rozmiarami, różnym zużyciem energii, różną mocą obliczeniową, i różnymi obszarami/klasami algorytmów w których tę moc obliczeniową można efektywnie wykorzystać. To ostatnie może być przyczyną różnej popularności GPGPU


  64. fajna wydajnosc (autor: piwo1 | data: 27/03/10 | godz.: 16:05)
    bardzo ciekawy uklad.ale fermi wyszedl za wczesnie.nadaje sie moze na proces 28 ale nie na 40.ale nvidia ma juz gotowy uklad nastepnej generacji.czyli ta sama karte z wyzszymi taktami i z pelnymi blokami.czyli podsumowujac prawdziwa rywalizacja bedzie dopeiro w 28nm czyli fermi kontra 6tka.na dzien dzisiejszy chyba przesadzili z tym klocem.

  65. @Marek1981 (autor: pawel.xxx | data: 27/03/10 | godz.: 16:07)
    Dlatego to jest tak bardzo śmieszne. Gdy nvidia nie miała karty dx 11 to zapowietrzeni fanboye ów brak uznawali za wadę, stękali że nvidia serwuje im kotlety i przestarzałą technologię z zaledwie dx 10.
    Natomiast gdy nvidia wydała karte z dx11 i ten tryb okazal się wydajniejszy niz w przypadku amd. To co sami ludzie piszą że dx11 im nie jest potrzebne, że wystarczy im dx10, słowem twierdza że kotlety są OK :)

    ad2 i 3 to jakieś brednie. Jak coś jest standardem to nie bardo można to blokować. Natomiast jak jakieś rozwiązanie standardem nie jest, a jakaś instytucja/firma chciałaby standardem się stało czy to de facto czy de jure to ta instytucja powinna to rozwiązanie promować, lobbować na rzecz jego, a nie stękać że inni z entuzjazmem nie przyklaskują


  66. Potwierdziło się. (autor: Sandacz | data: 27/03/10 | godz.: 16:18)
    Już pisałem że w tym biznesie architekci i technolodzy muszą iść krok w krok. Niestety Nvidia architektów ma doskonałych ale brakuje tej drugiej nogi.

  67. Grave (autor: morgi | data: 27/03/10 | godz.: 16:20)
    Zakup jest sensowny bo to highend a tu wydajnosc i mozliwosci sa bezcenne. Nvidii w tej architekturze udalo sie niemal wszystko, jedynie co zabraklo to ubicie z 50W na zuzyciu pradu i to sprawa do naprawy czy poprawy, bo dzieki temu moga przypakowac na zegarach i jednostkach. ati nie ma co sie przejmowac maja karty ktore sa na przyszlosc lipne, wydajnosc dx11 kijowa, brak fizyki, prawie zero gpGPU i wydajnosc OpenCL do pupy, wiec faktycznie Nvidia ma potencjal, ale musza poprawic fabryke.
    http://www.anandtech.com/...oc.aspx?i=3783&p=6


  68. @Torwald (autor: Teriusz | data: 27/03/10 | godz.: 16:22)
    Zachowujesz się jak dziecko, bo prawdopodobnie nim jesteś. Naucz się wypowiadać kulturalnie bez wyzwisk i epitetów, a zacznij merytorycznie oraz nie zapomnij odrobić lekcji na poniedziałek.

    kubaswielgus
    Tesla Nvidii jako GPGPU rzeczywiście jest dużo szybsze w obliczeniach zmiennoprzecinkowych, ale niestety zawęża to rodzaj obliczeń gdzie można je zastosować. Plusem dla Nvidii jest zwiększenie wydajności w obliczeniach o podwójnej precyzji i zastosowanie ECC. Jednak nadal programy wykorzystujące CUDA, OpenCL czy DirectCompute są w powijakach i trzeba jeszcze na to czasu. Dlatego CPU na chwilę obecną rządzą w superkomputerach i przez jeszcze jakiś czas tak będzie. Nadzieją dla GPGPU jest produkcja tych układów w procesie 28nm z High-K Metal Gate.


  69. @morgi (autor: Barbarian | data: 27/03/10 | godz.: 16:25)
    "Zakup jest sensowny" - sorry morgi, ale chyba jesteś trochę potłuczony po tej wspaniałej premierze. Tylko świry kupią coś tak niedopracowanego.
    "Nvidii w tej architekturze udalo sie niemal wszystko"
    Najwięcej to udało się Intelowi z Larrabee, ale nvidia może zajmie II miejsce.


  70. Wbrew pozorom to Fermi jest rewelacją: (autor: Sandacz | data: 27/03/10 | godz.: 16:26)
    Przynajmniej według "testów" Wybiórczej:
    http://technologie.gazeta.pl/...X480_i_GTX470.html


  71. ... (autor: tompo75 | data: 27/03/10 | godz.: 16:35)
    Widocznie Morgopodobnych tam zatrudniają.
    Sorry ale przy takim stosunku ceny do wydajności, do niedopracowania, poboru prądu, grzałki itd... to trzeba być Morgim żeby to kupić, upierać się że jest super i przekonywać samego siebie i innych że to był dobry zakup.


  72. @Grave #56 (autor: pawel.xxx | data: 27/03/10 | godz.: 16:41)
    "Co ciekawe w niższych rozdzielczościach (nawet do 1680x1050) GTX480 potrafi być nawet kilkadziesiąt % szybszy od HD 5870 natomiast w najwyższych ta różnica topnieje do 10-15%. Jest to baaaardzo dziwne, ale tak jest....."

    Jeśli weźmiesz pod uwagę że nv ma jednostki skalarne a amd wektorowe to te różnice przestaną być dziwne, a okażą się właściwością architektury jednostek przetwarzających.
    Duże rozdzielczości -> duże ilości przetwarzanych danych, na których robi się podobne operacje, przez co udaje się w większym stopniu wykorzystać jednostki AMD - wzrasta efektywność. U nv efektywność jest zawsze 100%.
    Na którymś serwisie jest test temperatury w zależności od tego czym są karty obciążane. U nvidi temp prawie niezależna od softu bo 100% efektywności. U AMD temp. zależna od softu bo efektywność różna w zależności co liczy


  73. @Saturn64 (autor: kosa23 | data: 27/03/10 | godz.: 16:46)
    "Potłuczony to sam jesteś. Zasilacz nawet mający 1100W ma okrśloną wydajność linii 12V która w tym przypadku nie wyrabia. Są zasilacze mające po 4 linie ale w przypadku GTX480 jest potrzbna silna pojedyńcza linia o wydajności 42A (po przetaktowaniu być może sięga ponad 50A) znajdz mi zasilacz, który to spełnia. Sam mam zasilacz be quiet Straight Power E7 580W który ma bardzo słabiutką linię 12V słabszą np od niektórych zasilaczy Anteca ~450W a przez producenta określany jest dumnie 580W. Więc sama moc to nie wszystko."


    tu masz test maksymalnej mocy 45 zasilaczy:
    http://nvision.pl/...Articles-157-ndetails-51.html


  74. ... (autor: kosa23 | data: 27/03/10 | godz.: 16:48)
    ja mam be quite E5-550W moc deklarowana 550W moc rzeczywista 614W!!!

  75. Można by rzec,,, (autor: szpak3 | data: 27/03/10 | godz.: 16:51)
    ,,,chcesz wk. zapalonego ekologa, podaruj mu nowego GTXa 480,,,
    a na poważnie,,,taki pobór i takie temperatury to już nie jest śmieszna sprawa, i do tego droga, głośna karta,,,aż strach pomyśleć gdy nv wyda znów sterowniki w stylu 196.75 ta karta poszła by do kosza błyskawicznie,
    i najgorsze jak dla mnie, ceny radżów zostają jak były :(


  76. a ktos pomyslal jak beda sie prezentowac nowe GTS nvidii ? (autor: zeek | data: 27/03/10 | godz.: 16:58)
    obawiam sie, ze bedzie taka sama padaczka i zenada jak z fermii ;/

  77. tyle pitolenia zeby opisac wydanie szybkiego gowna... (autor: Okota | data: 27/03/10 | godz.: 17:01)
    a szybkie gowno zwie sie sraczka panowie.
    miejmy nadzieje ze nvidia nie splajtuje i wyda cos cholernie wydajnego inaczej utkniemy z ati .
    a potem juz tylko komea rypnie i karaluchy zawladna swiatem...


  78. ... (autor: kosa23 | data: 27/03/10 | godz.: 17:01)
    Jak jest wymagany zasilacz o lini 42 ampery to z wzoru wynika że karta bierze 12V*42A=504W!!! Wniosek jest taki, że podane specyfikacje karty graf. 480 są uśrednione 300W.

    maksymalny pobór karty to 504W
    w stanie spoczynku ok. 100W

    504W+100W=604W:2= 302W <--średnia moc


  79. Proponuje cos takiego, (autor: speed | data: 27/03/10 | godz.: 17:12)
    Wiekszosc z was gra w max rozdzielczosci 1920x1200 lub 1920x1080.Praktycznie te dwie rozdzielczosci powinny was interesowac.
    Jest w sieci ponad 25 testow, wybierzcie 6-8-10 gier ktore was interesuja sprawdzcie jak sie spisuja dane karty i wyjdzie ze nowy knot jest srednio okolo 5% szybszy . W gry ktore ja gram jest wolniejszy od mojej prawie dwuletniej karty:))). I zadajcie sobie pytanie ktory z was majac do dyspozycji 2200zl kupi 480??? Zwroccie uwage na jakich procesorach byly robione testy (kto lub ilu z was ma te 'bydlaki' w budzie lub kto wyda kilka tys na cpu???
    Patrzac na wyniki roznice sa tak kolosalne ze wyrobic sobie zdanie ze 480 jest dobry do grania to troche nie 'tego'.
    Ponad pol miliarda ludzi chce karte do grania
    z tanim szybkim chipem a nie kombajn do nie wiadomo czego.
    Karta 480GTX jako rozrywkowa alternatywa dla 5870 to wielka wtopa, a mowienie co bedzie za rok lub dwa (bo to przyszlosciowa karta ) ta takie samo pieprzenie jak przez ostatnie pol roku Nvidii na temat ofermy.
    Znajda sie tacy co peda piac w nieboglosy jaki to cud techniki ale zapytajcie sie czy kupil ten cud techniki ??:)))) Najwiecej krzycza Ci ktorzy tego nigdy nie kupia:))

    Sporo ludzi narzeka na zasilacze ze linia 12v hoho. Paniwie zasilacze z przed 2-3-4 lat mialy linie 60-64A ale trzeba kupic raz a dobrze i potem nie wydziwiac . W mojm dziadku linia 12v ma 62A zasilacz bardzo dobry a kosztowal w tamtym czasie okolo 280zl. ogolnej ciaglej mocy ma 750W a szczytowa moc 890W sprawnosc minimalna 85% .Tak ze nie jest zle wystarczy ruszyc makowka:)))


  80. @speed (autor: Teriusz | data: 27/03/10 | godz.: 17:31)
    hehehehe. Racja. Cud techniki na najbliższe 6 miesięcy. Może krócej, bo pewnie z papierową premierą i dla nielicznych. Przecież Geforce 480GTX będzie aż tyle, że zaleje rynek ;P

  81. podobno fermi miał zmaskarować ati, (autor: Vetch | data: 27/03/10 | godz.: 17:59)
    wg fanów nV, jakieś 2 do 5 razy.

    Rzeczywistość pokazała że reklamy kłamią :D


  82. .:. (autor: Shneider | data: 27/03/10 | godz.: 18:13)
    Grave - brawo. ja mam pytanie gdzie tu logika?
    HD5870 vs GTX480
    GTX480 jest 10% szybszy, 57% drozszy ma TDP o 60% wieksze. trzeba byc chorym na umysle aby kupic Fermi do grania.

    speed - nvidia zapomniala ze wlasnie dzieki graczom zdobyla taka pozycje na rynku.

    no nic, pozostaje w takim razie pogratulowac po raz kolejny ATI za doskonala strategie, chip oraz skutecznosc w rozwiazywaniu problemow.


  83. @speed (autor: antrax | data: 27/03/10 | godz.: 19:00)
    z czystej ciekawości; jaki posiadasz zasilacz?

  84. ... (autor: tompo75 | data: 27/03/10 | godz.: 19:02)
    Teraz się pocieszają, że jest szybsze od 5870 ale to przecież (sam Morgi to tak nazywa) TOP i Hiend więc czemu nie porównujecie tego z 5890?
    TOP nv jest super bo jest na równi / przegrywa z nie TOP ATI? No to gratuluję dużych klapek na oczach.


  85. @up (autor: tompo75 | data: 27/03/10 | godz.: 19:09)
    oczywiście porównywać do 5970, mój błąd

  86. Speed, a jak zasilacz ma 4 linie po 18A? To one się sumują dla (autor: SebaSTS | data: 27/03/10 | godz.: 19:18)
    takiego prądożernego bydlaka? Co sądzisz o marce zasilaczy Huntkey, od modelu 750W, srawność 85%?

  87. @Saturn64 (autor: Vitorek | data: 27/03/10 | godz.: 19:21)
    Saturn64... czy ty naprawdę chcesz nam wmówić że zasilacz 1100W nie da sobie rady z podkręconym GTX480?

    Zerknij tutaj ile cała platforma bierze w stresie... i to zapewne ze ściany! Czyli jeszcze mniej realnej mocy z zasilacza...

    A czy mi się wydaje czy pisali o 35W więcej pobranych przez kartę podkręconą???

    @arco2006.. ciekawe wnioski... ja jako układ zasilania, określił bym układ zasilania... ten na karcie graficznej:D

    Watomaniacy do domu...

    Moja platforma z i7 860 8GB Ram, 8x HDD, i HD5870 w spoczynku ze ściany bierze 150W... w stresie niech weźmie 350-400W... Platforma z fermi niech weźmie ze ściany w porywach 550... ciągle połowa drogi do 1100W... zejdźcie na ziemię...


  88. @up (autor: Vitorek | data: 27/03/10 | godz.: 19:22)
    http://hardocp.com/...rmi_gtx_470_480_sli_review/7

  89. @pawel.xxx (autor: Marek1981 | data: 27/03/10 | godz.: 19:23)
    chyba nie masz zielonego pojęcia co piszesz.
    physx był otwartym standardem a teraz już nie jest. może nie ma blokowania możliwości połączenia z radeonem??? przestan pierdolić głupoty bo za mało pewnie jeszcze widziałeś.

    Nowe dziecko NV bije na głowę radeona tylko tesselacją, tym co było już w radeonie 8500. (ach ten cs)


  90. PC Power&Cooling 750W (autor: speed | data: 27/03/10 | godz.: 19:46)
    stary juz jest ale daje rade. Q9650 4,3Ghz, 4GB pamieci 8 dyskow SCSI, 4870 X2 i jeszcze zostaje sopro zapasu.

    SebaSTS te linie to sa virtualne wszystkie wychodza z jednego miejsca i nie mozna sumowac ze majac cztery linie 18A masz wsumie 72A ,Popatrz na tabliczke ile max daje 12v przypuszczam ze okolo 40A
    Zasilacze z prawdziwimi (fizycznymi) kilkoma liniami sa drogie (bo to nic innego jak kilka mniejszych zasilaczy w jednym.
    Osobiscie przerobilem kilkanascie typow zasilaczy i od prawie dziesieciu lat jade na PC Power ,Antki,Enermax i inne padaly PC Pawer ciagnie jak przyslowiowy kon Podolskiego.
    OCZ kilka lat temu kupilo PC Power i na ich projektach robja swoje zasilacze ,dosc dobre ale ja bym nie kupil.
    Jezeli ma sie do wydania okolo 120$ ( dzisjaj) to na nic innego niespojrze oprocz PC Power.
    Ja za swoje(te ostatnie) dalem z tax i przesylka cos okolo 95$ cnd ,pamietam ze wychodzilo okolo 270zl w tamtym czasie.
    Dobry zasilacz 650W z linia 12v okolo 55-60A pocjagnie praktycznie wszystko (oprocz C.F i SLI.) Tak ze worto popatrzec na takie zasilacze.


  91. @Saturn64 i arco2006... (autor: Vitorek | data: 27/03/10 | godz.: 19:51)
    Sami siebie kasujecie na wzajem... arco podałeś linka który... tak, wskazuje na zabezpieczenia. Tylko co z tego? Linia 12V wskazana w linku... to tylko 1000W, co kasuje Saturna:D
    A do uaktywnienia twoich zabezpieczeń ciągle połowa drogi...:D


  92. @speed (autor: Marek1981 | data: 27/03/10 | godz.: 19:59)
    a co powiesz o tym zasilaczu:
    http://www.newegg.com/...aspx?item=N82E16817128001


  93. @speed (autor: kosa23 | data: 27/03/10 | godz.: 20:11)
    PCPower&Cooling to marka nabyta w maju 2007 roku przez OCZ Technology!!!

    żródło: PCPower&Cooling to marka nabyta w maju tego roku przez OCZ Technology


  94. ... (autor: kosa23 | data: 27/03/10 | godz.: 20:12)
    żródło: http://zenlabs.pl/zasilacze/23-ocz-pcpowercooling/

  95. Saturn64 (autor: Dzban | data: 27/03/10 | godz.: 20:20)
    Idź jeszcze raz PRZECZYTAJ tamten test debilu nikt nie pisał że uruchomiły się zabezpieczenia przeciwprądowe w zasilaczu. Chodziło o układ zasilania na karcie ale trzeba wyczytać z kontekstu bo nikt tam nie napisał wprost a tobie to nie wyszło.
    Według twojej teorii w teście na pclabie jeden Fermi przeciążył zasilacz 110W a na annandtechu na podobnym zestawie i zasilaczu 1200W testowano 480 SLI


  96. Skad ta dyskusja o zasilaczach (autor: morgi | data: 27/03/10 | godz.: 20:36)
    owszem gtx 480 bierze o 50W wiecej niz 285, ale to nie jest kompletny kosmos. Jedynie chlodzenie to piekielna lipa, a tak karta hit, dla fanow i entuzjastow jedyna opcja.

    # NVIDIA SuperSonic-Demo: 262,70 Watt
    # 3DMark06: 283,16 Watt
    # Heaven 2: 242,6 Watt
    # Stalker CoP: 239,86 Watt


  97. A gdzie OpenGL 4.0? (autor: morgl | data: 27/03/10 | godz.: 20:38)
    Na stronach NV przy Fermim stoi tylko 3.2 (nawet nie 3.3!). Gdzie ci kozacy co twierdzili jak to super NV wspiera OpenGL i o ile wyprzedza AMD?

  98. Marek1981, zasilacz bardzo bardzo przecietny (autor: speed | data: 27/03/10 | godz.: 21:04)
    ma fatalna gwarancje co za tym idzie nie licz ze to cos dobrego.Dobry zasilacz ma minimum 5 lat gwarancji i to takiej ze wymieniaja od reki jak cos nawali a nie naprawianie i inne bajki.
    Nie wiem jak jest w PL z zasilaczami ale u mnie bez problemu mozna kupic naprawde dobry zasilacz za okolo 60$cnd
    Jak wybierasz zasilacz to mysl nie tylko o mocy ale o koncowkach tak ze jak za dwa lata wymienisz karte graficzna ktora ma gniazdo 8 -pinowe to abys nie byl zaskoczony ze Twoj zasilacz tego nie ma .

    kosa23 ,napisalem ze OCZ kipil PCPower z tym ze marka pozostala i robi a o OCZ pod swoja marka sprzedaje troche inne .


    Morgi 250na karte i 130 dla proca i masz juz prawie 400 :))))) dolicz reszte i masz lekko ponad 500. moja buda ciegnie max 658W normalnie lekko ponad 400. Tak ze zasilacz w takich zabawkach liczy sie i to bardzo


  99. @pawel.xxx (autor: Promilus | data: 27/03/10 | godz.: 21:10)
    "Duże rozdzielczości -> duże ilości przetwarzanych danych, na których robi się podobne operacje, przez co udaje się w większym stopniu wykorzystać jednostki AMD - wzrasta efektywność. U nv efektywność jest zawsze 100%."
    Nie. To, że jest więcej pikseli nie oznacza, że x,y będą liczyć dla jednego pixela a z,w dla kolejnego. Mylisz się w samych założeniach. Co do efektywności u NV - mylisz się również. Dual issue z GT200 też w nielicznych sytuacjach działało efektywnie - tzn jednocześnie mogło w SFU robić FP MAD i MUL - a tylko to gwarantowało 100% efektywności. Ale nawet konstrukcja single issue scalar nie gwarantuje, że w danym momencie wszystkie SP będą pracowały.


  100. ... (autor: tompo75 | data: 27/03/10 | godz.: 21:16)
    http://hardocp.com/...rmi_gtx_470_480_sli_review/7
    Morgi... dokup do 480 od razu słuchawki albo po odszkodowanie do NV prawnika weź od razu ;p


  101. Sorki ze tu spytam, jak jest możliwość zamówienia przez znajomego z Kanady.. (autor: SebaSTS | data: 27/03/10 | godz.: 21:34)
    Może ktoś już to przerabiał? Jak z cłem, doliczają czy nie jeśli odpowiednio opisana przesyłka (materiały reklamowe:)? Duża jest prowizja za przelewy na konta kanadyjskie? Przyznam się że zaciekawiła mnie ta marka PCpower&cooling, dają 5 a nawet 7 lat gwarancji na topowe modele. Tylko gdzie to u nas kupić?

  102. morgi (autor: Quarrel | data: 27/03/10 | godz.: 21:54)
    "tak karta hit, dla fanow i entuzjastow jedyna opcja"
    Brawo! błąd merytoryczny i logiczny w jednym zdaniu.

    Szkoda ,że nikt z recenzentów nie odważył się wystawić rekomendacj GTX480 ale z dopiskiem "dla niesłyszących"


  103. @morgi (autor: trepcia | data: 27/03/10 | godz.: 22:41)
    Trudno, by dali jakieś większe chłodzenie na Fermi, zajmowałoby to wtedy 3 sloty. I tak radiator ma 5 ciepłowodów o średnicy 8mm co dla kart graficznych jest ewenementem i potęgą! Tak cholernie grzejącego się układu jeszcze nigdy nie było wśród GPU, okolice 300Wat to dla dwuukładowych kart jest wartością wręcz astronomiczną a tutaj mamy jeden układ, który po pół roku powstawania w bólu wydajnością z trudem wygrywa z 3 letnią ewolucją porażki, jaką był 2900XT. Totalna porażka NV, dno i metr mułu.
    Może kiedyś, ale teraz "sorry NVidia, not this time. Green Goblin sucks, Red Devil RULEZ".

    BTW.
    Wentylator Delta - wiadomo, że będzie głośno. Musiało być bo inaczej nie była by to delta ;-) Tylko oni mogli wyprodukować tak szybko kręcącego się bloowerka.


  104. @Promilus (autor: pawel.xxx | data: 27/03/10 | godz.: 23:35)
    "Nie. To, że jest więcej pikseli nie oznacza, że x,y będą liczyć dla jednego pixela a z,w dla kolejnego. Mylisz się w samych założeniach."

    Hmm ... Przecież nic takiego nie napisałem.

    Co do reszty. We fragmencie który zacytowałeś pisałem o jednostkach przetwarzających skalarnych i wektorowych - to tych jednostek i efektywności ich wykorzystania dotyczył tamten post, a nie o SFU.
    Oczywiście że nie ma gwarancji że wszystkie SP będą wykorzystane. Gwarancji rzeczywiście nie ma. Choć ich maksymalne wykorzystanie jest celem do którego się dąży i rzeczywisty stopień wykorzystania jednostek przetwarzających niewiele odbiega od 100%

    Natomiast twój problem wynika z braku wiedzy teoretycznej.
    Przetwarzanie odbywa się na poziomie abstrakcyjnych struktur danych a wiec raczej tablic niż pikseli.
    Każdy nietrywialny problem, można rozłożyć na cześć którą da się wykonać równolegle i na część która trzeba wykonać sekwencyjnie. Taki jest sens prawa Amdahla.
    Natomiast prawo Gustafsona mówi że wraz ze wzrostem rozmiaru problemu coraz większą cześć obliczeń jest możliwa do zrównoleglenia.

    Przekładając to na problem generowania obrazu okazuje się zwiększanie rozdzielczości zmienia proporcje między częścią równoległą i sekwencyjną z prawa Amdahla.
    Dla skalarnych jednostek nv zmiana tych proporcji nie ma znaczenia bo i tak są w 100% wykorzystane (chodzi o możliwości ALU pojedynczej jednostki)
    Za to zmiana tych proporcji między częścią równoległą a sekwencyjną ma znaczenia dla jednostek AMD, bo ich wektorowa natura preferuje przetwarzanie równoległe. Dla amd zmiana proporcji skutkuje efektywniejszym wykorzystaniem możliwości jednostek przetwarzających.


  105. @dzban i vitorek (autor: Saturn64 | data: 27/03/10 | godz.: 23:49)
    Widzę, że nadal jesteście w błędzie, nie wypowiadajcie się lepiej w temacie zasilaczy bo wiedzę macie = 0. Wyraźnie na opakowaniu dot Fermiego pisze
    http://www.hexus.net/content/item.php?item=22654
    GTX480 (Fermi) 1536MB/600W (42A) Required
    Natomiast zasilacz w teście PClaba ma co prawda 1100W ale ma aż 6 linii z których 2 mają po 20A i 4 mają po 22A. Jeśli wziąśc pod uwagę, że do pojedyńczej karty można podpiąć tylko 2 linie (są 2 wtyczki) więc max z tego zasilacza można uzyskać 44A. Więc nie pierdolcie głupot o jakichś zabezpieczeniach przeciwprądowych w karcie graficznej.


  106. SebaSTS, jest prosto i bezbolesnie:)) (autor: speed | data: 28/03/10 | godz.: 00:30)
    jak masz kogos w Toronto lub bliskich okolicach, to zostaje kupic i wyslac przez Polimex (chyba tak to sie pisze). Kilogram paczki kosztuje 7 $cnd z dostawa do domu.
    Wysylajac przez nich nic nie placisz zadnych cel podatkow i.t.d.
    Przekazy sa proste jedynie wasze banki robia was przy przeliczeniu na dolara. Jak dostaniesz przeliczenie okolo 2,82-2,85 to policz ile ci to wyjdzie . Najlepsza i najtansza forma zalatwiania takich spraw jest wyslanie AmexEx czeku .


  107. ... (autor: Elektron | data: 28/03/10 | godz.: 00:50)
    a ja z chęcią chciałbym usłyszeć test głośności i zobaczyć temperatury, jak wentylatorek troszkę kurzem się zapcha HEHE.

  108. Ale 'cupa" (autor: Jarek84 | data: 28/03/10 | godz.: 04:12)
    aczkolwiek może jakiś kwiatek na tym nawozie wyroośnie, jak z R600;)

    Ogolnie ktos tu pisal ze GTX480 rewelacyjnie skaluje sie w SLI

    http://www.xtremesystems.org/...amp;postcount=2345

    no tutaj to SLI dostaje od HD5970 i a na przestrzeni calego testu nie prezentuje sie zbyt dobrze. W gpgpu też niestety startu nie ma do Hd5970 nasza oferma (w teorii jak i na podstawie testow lamania hasel do WIFI na HD5970 ). Mam nadzieje ze troche NV pocisna na rynku klienci i omina ich karty szerokim lukiem - jak NV obroty spadna to wywala marketingowcow i "komiksiarzy" a wpompuja kase w odpowiednie dzialy;)


  109. poprzedni post mial zlego linka (autor: Jarek84 | data: 28/03/10 | godz.: 04:13)
    ten jest dobry;)

    http://hardocp.com/...rmi_gtx_470_480_sli_review/6


  110. @pawel.xxx (autor: Promilus | data: 28/03/10 | godz.: 07:46)
    "
    Przekładając to na problem generowania obrazu okazuje się zwiększanie rozdzielczości zmienia proporcje między częścią równoległą i sekwencyjną z prawa Amdahla."
    A jak to się ma do wykorzystania ALU oznaczonych x, y, z, w, Trans w jednym SP u AMD? Czy w ogóle zdajesz sobie sprawę po co są 4 jednostki mogące robić elementarne operacje+1 z funkcjami trygonometrycznymi, wykładniczymi etc.? Nieefektywność u AMD to wykorzystanie 1-2 ALU z całego SP czyli to co u nvidii oznacza 100% efektywności. A, że zwiększanie rozdzielczości NIE zwiększa wykorzystania tych ALU (czyli 1024x768 średnio 2 z 5, a 1920x1200 5 z 5) to nie wiem dlaczego poruszyłeś temat architektury jednostek cieniujących. Masz gdzieś AMD pod ręką, masz gdzieś nvidię - zapodaj sobie GPU Bench i zrozumiesz GDZIE w twoim rozumowaniu popełniłeś błąd.


  111. @Saturn64... (autor: Vitorek | data: 28/03/10 | godz.: 09:01)
    Czy ty jesteś tak głupi czy udajesz? Wszystko fakty przeciągasz i interpretujesz przed siebie...
    Czyż nie pisałem że cała platforma niech weźmie 550W ze ściany w stresie... Stąd tępaku rekomendacja minimum 600W zasilacza! Ale na miłość boską na cała platformę!
    Jeżeli piszesz o 2 liniach które nawet według ciebie na styk pokryły by zapotrzebowanie całej platformy czyli te twoja 42A, to bez problemu poradzą sobie one z samą kartą! A kilka pozostałych z reszta platformy! To nie jest jakiś noname, tylko zasilacz zaprojektowany właśnie pod takie obciążenia...
    A może według ciebie nVidia rekomenduje już osobny zasilacz 42A dla samego fermiego?! Przyznaj się do błędu zamiast dalej nas edukować...
    Jeszcze raz wejdź i poczytaj tutaj!
    http://hardocp.com/...rmi_gtx_470_480_sli_review/7
    O ile znasz angielski, wyczytasz to co ci potrzeba wiedzieć...
    Nie kompromituj się już, bo nawet jeżeli posiadasz wiedzę... to tutaj po prostu starasz się być na przekór wszelkim testom, opisom, specyfikacjom, i nas uświadamiasz pisząc totalne bzdury. Od tak tylko ty masz rację, i wszystkie serwisy się mylą?


  112. @Saturn64 (autor: Vitorek | data: 28/03/10 | godz.: 09:11)
    I jeszcze jak krowie na rowie, co byś już sobie w stopę nie strzelał:
    Minimum system requirements:

    Minimum 600W or greater system power supply (with a minimum 12V current rating of 42(A).

    Dalej będziesz utrzymywał że fermi biorąc 300W z dwóch lini o mocy łącznie 600W, Podkręcony o 50-70mhz weźmie o 300W więcej, tak aby te 600W było za mało?:D


  113. @Vivorek (autor: Saturn64 | data: 28/03/10 | godz.: 09:19)
    Nie będę gadał z ignorantem. Jesteś głupcem po prostu. Pieprzysz o mocy a to nie wszystko. Co z tego, że zasilacz ma 1000W jak może dostarczyć karcie co najwyżej 44A (owszem na styk będzie chodzić ale nie po OC).

    1. Zasilacz Cooler Master 1100W ma 6 linii (czyli jest to zasilacz skonstruowany dla np 3-SLI ale bez OC bo tyle może uciągnąć i po to mu jest potrzebnych 6 lini i moc całkowita 1000W na te 6 linii). Do karty graficznej możesz dostarczyć moc tylko przez złącze PCI-E 2.0 (150W) oraz przez 8-PIN (150W) i 6-PIN (75W). W jaki inny sposób dostarczysz te wspomniane 1000W na kartę? Jak byś nie wiedział jest ona przeznaczona na inne karty i reszty zestawu.
    2.Podałem Ci specyfikacje zasilacza:
    http://www.coolermaster.com/...php?product_id=5218
    w którym wyskoczyło zabezpieczenie opisane w PCLAB czyli OCP.
    3. Jeśli twierdzisz inaczej to podaj mi w specyfikacji karty Fermi, że posiada zabezpieczenie OCP.
    4. Nie umiesz uczestniczyć w dyskusji bo brak ci argumentów i chlapiesz wulgaryzmami. Dla mnie jesteś dzieciakiem.


  114. @Saturn64 (autor: Vitorek | data: 28/03/10 | godz.: 09:26)
    No nic... widzę że szkoda z tobą gadać... jeszcze raz... nVidia w minimalnej specyfikacji wymaga 42A NA CAŁĄ PLATFORMĘ, a ty piszesz że 44A to mało na samą (nawet podkręconą) kartę...

  115. @Vivorek (autor: Saturn64 | data: 28/03/10 | godz.: 09:31)
    Jeśli piszesz, że to na całą platformę te 42A to co, myślisz że każdy chodzi do sklepu z kalkulatorem i zlicza wszystkie podzespoły komputera i wylicza sobie czy mu nie przekroczy 42A. Weź się stuknij chłopie.

  116. @Saturn64 (autor: Vitorek | data: 28/03/10 | godz.: 09:38)
    Jakie sklepy? Jakie kalkulatory?
    Tylko tu i teraz suche fakty z twoich linków:

    Minimum 600W or greater system power supply (with a minimum 12V current rating of 42(A).

    Minimalnie zasilacz 600W lub więcej (z minimalnie 42(A) z lini 12V)

    Zasilacz (specyfikacja w twoim linku) użyty w PCL jest w stanie podać 44A na sama kartę...

    I tak... masz rację co do sklepów i kalkulatorów... co by nikt nie musiał liczyć, nVidia zapewne podaje wymagania z "małym zapasem", co tylko działa na niekorzyść twojej teorii...:)


  117. @Vivorek (autor: Saturn64 | data: 28/03/10 | godz.: 09:55)
    No i jesteśmy w domu. Nie mówiłem nigdy wcześniej, że 600W nie starczy dla Fermiego. Może poszedłby nawet i na 500W. Ale w tej karcie sama moc zasilacza to nie wszystko, najważniejsza jest określona linia 12V o wydajności 42A. Może i specyfikacja podana przez NV jest na wyrost i wystarczyłoby 38A dla lini 12V ale to już wtedy na własne ryzyko. Dlatego ważniejsze przy dobieraniu zasilacza jest właśnie ta linia, która jest parametrem stałym. Reszta czyli moc zasilacza i tak dobierana jest do reszty podzespołów (np procesora i7 wykręconego na 4.0Ghz który potrzebuje znacznie więcej mocy czy kolejnej karty graficznej połączonej w SLI, 3-dysków twardych, itd).

  118. @Saturn64 (autor: Vitorek | data: 28/03/10 | godz.: 10:00)
    Na koniec muszę dodać, że z całej tej dyskusji nasuwa mi się jeden wniosek. Ten zasilacz dałby rade, jednak tej karcie do podkręcania poprostu brakuje dodatkowej wtyczki lub np 8pin zamiast 6pin.

  119. gamecorner i wyborcza (autor: Arthua | data: 28/03/10 | godz.: 10:25)
    przeczytajcie artykuł na gamecornerze o nowej karcie, ale się uśmiałem http://technologie.gazeta.pl/...i_GTX470.html?bo=1 chłopaki z gamecornera chyba się trochę za wyborczą czerwienią ze wstydu...jak dla mnie wyborcza osiągnęła poziom kuriera porannego :>

  120. AD 2020 (autor: Barbarian | data: 28/03/10 | godz.: 11:01)
    Jest AD2020 - w muzeum korporacji nvidia w honorowym miejscu wystawiono eksponat z opisem:
    "Tutaj prezentujemy egzemplarz Fermi z 2010 roku, którego przełomowa architektura otworzyła drogę do nowej generacji GPU, która zdominowała ostatnią dekadę. Należy jednak na zawsze pamiętać o kosztach projektu, ryzyku jakie zostało podjęte, niepowodzeniach i problemach, gdyż niewiele brakowało, aby właśnie ten układ doprowadził do bankructwa naszej firmy. Z tego doświadczenia wyciągnięte zostały odpowiednie wnioski, które zaowocowały utrwaleniem naszej pozycji na rynku procesorów graficznych i obecnych sukcesów."

    Tak może być, ale czy będzie to się okaże.


  121. ... (autor: trepcia | data: 28/03/10 | godz.: 11:07)
    44A na samą kartę to ~530WAT. O zgrozo. Mały odkurzacz na tym by działał :D

  122. Barbarian (autor: sz4rlej | data: 28/03/10 | godz.: 12:16)
    za 10 lat to koniec świata może być.

    Dyskusja co do zasilaczy osiągnęła punkt krytyczny - tzn. obie strony zaczynają się obrażać :)

    morgi jak zwykle w swoim świecie żyje i opowiada jakieś dyrdymały, czyli wszystko w normie ;)


  123. @sz4rlej (autor: Barbarian | data: 28/03/10 | godz.: 13:33)
    nawet dzsiaj lub jutro, ale to nie znaczy, że nie można normalnie żyć póki jest taka możliwość

  124. Barbarian (autor: Markizy | data: 28/03/10 | godz.: 13:54)
    w sumie czy będzie przełowa to się okaże, trzeba pamiętać że konkurencja też nie śpi, a czy zdominuje rynek to też nie wiadomo. Nawet w zastosowaniach profesjonalnych, jeśli radeony 5870 osiągały by w nich niewiele niższa wydajność, to fermi nie ma racji bytu tu też.

    Jak narazie to może zdominować rachunki za prąd.
    A co do bankructwa nvidi to najwcześniej by to mogło nastąpić dopiero za dwa lata, AMD taki długi czas żyło w długach dlaczego Nvidia by nie mogła.


  125. Hitler reacts to Nvidia Fermi Benchmarks (autor: arco2006 | data: 28/03/10 | godz.: 14:04)
    http://www.youtube.com/...;feature=player_embedded

  126. patrząc na ceny z USA (autor: emu@mailplus.pl | data: 28/03/10 | godz.: 14:13)
    i porównanie ich do różnicy AMD w cenach miedzy PL i USA wychodzi na to że GTX470 powinien kosztować w PL 1150 zł a GTX480 1650zł. Skąd ta różnica cen? Między AMD i nV w porównaniu z USA i PL?

  127. emu@mailplus.pl (autor: Markizy | data: 28/03/10 | godz.: 14:42)
    podatek od nowości + vat + cło (ale tego ostatniego pewien nie jestem)

  128. @Markizy (autor: emu@mailplus.pl | data: 28/03/10 | godz.: 14:45)
    a AMD jest zwolnione z cła i vatu? Wziąłem obliczyłem róznicę miedzy PL i USA w AMD i ten sam przelicznik do nV. Podatek od nowości to 400 zł od sztuki?

  129. @markizy @emu (autor: Saturn64 | data: 28/03/10 | godz.: 14:45)
    i brak towaru na półkach. Brak towaru lub niedostatek towaru = duży popyt = wzrost cen.

  130. @emu@mailplus.pl (autor: rainy | data: 28/03/10 | godz.: 14:47)
    Jeden powód jest zupełnie prozaiczny: niższe ceny 5870/5850.
    Karty AMD kosztowały w momencie debiutu 379 i 259 dolarów.
    Na skutek problemów TSMC ich cena wzrosła do około 400 i 300 dolarów.

    GTX 480/470 to odpowiednio 499 i 349 dolarów.
    Przypominam, iż Europie cena jest wyrażana w euro nawet jeśli dany kraj nie należy do jej strefy.

    Dodatkowo w Polsce, pomimo wyraźnie niższych zarobków w porównaniu z Niemcami, Francją czy Wielką Brytanią, ceny elektroniki są na ogół wyższe (dość znacząco).

    Można się też spodziewać, że liczba nowych kart Nvdii skierowana na polski rynek będzie relatywnie niewielka co również podniesie ich cenę.


  131. Saturn64 (autor: Markizy | data: 28/03/10 | godz.: 14:54)
    mi tego tłumaczyć nie musisz bo wiem jak to działa, dlatego u nas sie mowi o tak zwanym podatku od nowosci.

  132. @markizy (autor: Saturn64 | data: 28/03/10 | godz.: 15:00)
    Nic Tobie nie tłumaczyłem. Dopisałem tylko i... do tego co Ty napisałeś i zgadzam się z tym co napisałeś. Każda z tych części wnosi jakąś dodakową opłatę do ceny wyjściowej.

  133. @ MORGI - słuchaj co lud żecze (autor: lolo_64xxx | data: 28/03/10 | godz.: 16:06)
    Morgi, bez obrażania, wyjaśnijmy pewne fakty:

    1. Kupowanie karty dlatego, że jest przyszłościowa to jak kupowanie Ferrari, bo coś tam obiecali, że drogi w Polsce będą równe. Nie kupuje się czegoś z niewiadomym zamiarem czy się to wykorzysta.

    2. Fermi to bardziej Tesla niż GeForce. NVIDIA stara się stworzyć sprzęt wszystkomający. Ale jak jesteś graczem i tylko graczem - po co Ci CUDA? A ta fizyka, cóż po niej, skoro jej wydajność jest ograniczona przez zadania GPU? NVIDIA proponuje drugą kartę graficzną. Dla nich to super pomysł. Ale nie lepiej byłoby pozostać przy dedykowanej karcie PPU do obliczeń fizyki, zaoferować ją taniej, ale dać graczom możliwość zobaczenia fizyki, a nie jej kawałeczka?

    3. NVIDIA dowaliła ponad 3 miliardy tranzystorów, szeroką szynę, 48 ropów, znacznie podnieśli TPD (realnie przekracza ich specyfikację), karta jest duża, głośna, gorąca... a mimo to biedniejszy Radeon 5870 na zień dzisiejszy radzi sobie tylko trochę gorzej, a jest znacznie tańszy (gdzie nie gdzie już za 1000 zł). Kto rozsądny wyda 2 badyle na monstrum, które ma duże założenia, a obecnie pod każdym względem ustępuje rywalowi? Coś jest nie halo prawda?


  134. @up (autor: arco2006 | data: 28/03/10 | godz.: 16:16)
    ja się też do tego dołączam - NV a raczej GF100 to jest około 80% TESLA niż karta do gier.

    Czy GeForce GTX 480 to jeszcze karta graficzna dla gracza?
    Nawet o tym piszą na nVision:
    http://nvision.pl/...cza--News-16391-ndetails.html


  135. arco2006 (autor: Markizy | data: 28/03/10 | godz.: 16:23)
    to czy w teslach sie sprawdzi to sie jeszcze okaże, bo profesjonaliści też biorą wiele czynników pod uwagę. A dwa z nich nvidia już skopała pobór mocy i cenę, w stosunku do wcześniejszej generacji czy konkurencji.

  136. ....... (autor: arco2006 | data: 28/03/10 | godz.: 16:33)
    wiem o tym że skopała, bo te karty to miały by duże wzięcie w salonach fryzjerskich.
    "W porównaniu do Radeon HD 5870, karta GeForce GTX 480 ma o 50% (1 miliard) tranzystorów więcej. Co z tego, skoro karty te oferują zbliżoną wydajność? Miliard tranzystorów dla CUDA, a nie dla graczy marnuje się w domowych PC.
    Okazuje się więc, że dla gracza przyszłościowość Fermiego to żaden argument. Fermi tak naprawdę nie zostało stworzone po to, by użytkownicy domowi zyskali. Został stworzony by NVIDIA mogła docierać z CUDA w szerszą gałąź rynku wymagającego sporych możliwości obliczeniowych. Szary gracz jest mało ważny. Powtórzę się więc zadając pytanie - dlaczego NVIDIA nie oddzieli GPGPU od produktów dla graczy, którzy z CUDA nie korzystają i raczej niewiele będą korzystać.

    O tym, że nowy chipset jest dla CUDA a nie dla graczy świadczy też jeden dobitny fakt. Otóż Fermi jako karta obliczeniowa pod marką Tesla została wydana kilka miesięcy temu. NVIDIA potem pracowała nad sterownikami które doprowadzą Fermi do kształtu GPU. To kolejny dobitny dowód, że nowy chipset jest zaprojektowany do obliczeń, a przy okazji potrafi pełnić rolę GPU."


  137. ... (autor: trepcia | data: 28/03/10 | godz.: 17:01)
    Świetnie, niedługo by ponaparzać wieczorem z miniguna w chordy przeciwników będę musiał kupić całą farmę obliczeniową.
    Ehh... czyli do grania pozostanie konsola. Ale kur... żeby padem sterować a nie myszką i klawiaturą?


  138. arco2006 (autor: Markizy | data: 28/03/10 | godz.: 17:03)
    ale dalej będą spece którzy będą mówić że CUDA to przyszłość, chociaż nie znają oni ani jednej osoby co umiała by to wykorzystać lub wykorzystuje.

  139. Markizy (autor: morgi | data: 28/03/10 | godz.: 17:32)
    Co oprocz Tesli? Oczywiscie w hpc pan jest tylko jeden, czyli Intel.

  140. No dobra ludzie (autor: yantar | data: 28/03/10 | godz.: 18:39)
    okazało się, że król jest nagi, skończcie kopać ;d. Ale jeszcze może nie będzie zupełnie tragicznie. Poczekamy na pocięte układy z mid i lowendu (oby w miarę szybko wyszły), zobaczymy jak się będą prezentować na tle czerwonych odpowiedników.

  141. yantar (autor: morgi | data: 28/03/10 | godz.: 18:57)
    Krol jest i mial byc, ale siedzi na goracym tronie co nie przeszkadza usiedziec, tym bardziej ze Fermi ma dx11 wydajne.

  142. yantar (autor: Markizy | data: 28/03/10 | godz.: 19:22)
    tego trzeba skopać porządnie, żeby nikt więcej nie wyskoczył z taką chorą koncepcją układu, i jeszcze gorszym wykonaniem.

  143. .:. (autor: Shneider | data: 28/03/10 | godz.: 19:23)
    yantar - powroze torche. Nvidia wypadla z rynku gier na co najmniej 6 mcy. Pociete fermi ani 28nm nie poprawia sytuacji.

    dodatkowo zadnych plotek nt kolejnych produktow niema.

    [ http://twojepc.pl/news17746.html ] 27 pazdziernika 2008 "GT300 bedzie pod koniec przyszlego roku"

    nvidia zaliczyla potezna klape. nie maja w planach niczego co by obecnie moglo zagrozic od HD5750 do HD5970, pod wzgledem ekonomicznym. to jest obecnie najdziwniejsza sytuacja jaka kiedykolwiek miala miejsce w historii IT, nawet wtopa z P4 i rambusem nie byla tak potezna, czy tez debiut Duronow.

    Zostal jeden grac dla graczy i co najgorsze, brak jakichkolwiek informacji kotre napawaly by optymizmeme.

    Co kogo obchodzi ze na rynku HPC fermi sie odnajdzie, skoro jak speed napisal, jest pol miliarda graczy ktorzy chca nowe zabawki.


  144. @morgi (autor: kosa23 | data: 28/03/10 | godz.: 19:27)
    teraz nie przeszkadza prądożerstwo?

  145. @morgi (autor: bezrobotnydarek | data: 28/03/10 | godz.: 20:15)
    królem wydajności jest Radeon HD5970, który wygrywa z Fermim w każdym teście. Dodatkowo zużywając mniej prądu ... myślicie, że ATI nie jest w stanie też zbudować takiego czipa który pali tyle samo co Fermi? czyli 350W ?

  146. @bezrobotnydarek (autor: trepcia | data: 28/03/10 | godz.: 20:22)
    W sumie takie układu już są na świecie. Wystarczy spojrzeć na mocno podkręcone i dovoltowane 5870 od MSI z serii Lighting.
    Takie 1200MHz czy 1300MHz na rdzeniu plus 2GB szybkiej i pokręconej pamięci i Fermi nie ma z czym do ludzi startować. A i tak taki 5870 będzie mniej papu wszamał.


  147. przereklamowana ta femi, a tak starali sie ukryc specyfikacje (autor: coolart | data: 28/03/10 | godz.: 20:56)
    to ze zarobki w niemcach czy innych krajach jest wyższy dla polaków przeliczając to na polskie nie znaczy ze życie jest jakie bylo. Spytajcie się choćby niemca 40latka "kiedy było lepiej teraz czy za czasów kiedy były marki", 80% odpowie ze "za czasów marek". Co do femi to już jest tak przereklamowana ze wchodząc do sklepów będzie widziana jako karta która już jakiś czas siedzi i czeka z marnym skutkiem na klientów lecz tylko tych z zasobnym portfelem jak to zresztą Intel robi.

  148. trepcia (autor: Grave | data: 28/03/10 | godz.: 21:16)
    Primo - GTX 480 też jeszcze można podkręcić (do ~800MHz)

    Secundo -Cypress podkręca się lepiej ale też bez przesady. Na In4 jest test MSI 5870 Lighting i zabawa z OC skończyła się na 990MHz, za mało żeby pokonać kręcone Fermi, a więcej już się nie dało.

    1200-1300MHz na "powietrzu" to na Cypresie za Chiny Ludowe nie uzyskasz...:>

    @bezrobotnydarek

    W każdym teście sumarycznie - tak. Ale nie w każdej grze.... Więc nawet ten "król" czasami przegrywa.

    @Shneider

    "Nvidia wypadla z rynku gier na co najmniej 6 mcy. Pociete fermi ani 28nm nie poprawia sytuacji."

    A skąd Ty to wiesz jak jeszcze nie wyszedł żaden GPU (czy to od Nvidii czy ATI) w 28nm? Poprawić na pewno poprawią, a czy wystarczająco - tego nie wiadomo. Zależy co szykuje ATI.

    I też bez przesady że Nvidia wypadła z gry - mają najszybsze GPU na rynku i drugą najszybszą kartę na rynku. Jest to ZNACZNIE lepsza pozycja niż w przypadku ATI i ich dziadostwa pt. R600 (to to nawet ze średniakiem Nvidii nie potrafiło sobie poradzić a w AA była porażka na całej linii).

    Więc jak ATI się pozbierało z takim badziewiem to nie widzę powodu dlaczego Nvidia miałaby nie pozbierać się z Fermi które w momencie swojej premiery jest DUŻO lepsze niż wspomniane R600 w momencie jego premiery.

    Po FX jakoś się Nvidia pozbierała, pozbiera się i po Fermi. Projekt jak na proces 40nm był zdecydowanie zbyt ambitny.

    I to głównie o proces technologiczny się wszystko rozbiło. Z 512 Shaderami byłoby kolejne 5-10% więcej wydajności i solidna przewaga nad HD 5870.

    A tak musieli przyciąć. I tak Fermi okazał się szybszy, ale mógłby być jeszcze szybszy gdyby nie proces technologiczny którym TSMC może się podetrzeć. Na mniejsze układy jeszcze jako tako starczał (chociaż i tak uzysk Cypressa na początku był BARDZO słaby i dostępność śladowa), na tak duże GPU jak Fermi okazało się że jest to za słaby proces i trzeba było sztucznie zaniżyć wydajność układu wyłączając część SPU.

    Ale z tego wynika jedno, że w tym GPU cały czas tkwi sporo niewykorzystanego potencjału wydajności i w 28nm będzie szansa aby ten potencjał wykorzystać.

    ATI też szykuje jakąś odpowiedź, ale jaką - nie wiadomo. Może być znowu super, może być średnio albo i słabo. ATI już miało i wzloty i upadki podobnie jak NV.


  149. @Grave (autor: trepcia | data: 28/03/10 | godz.: 21:28)
    Dovoltujesz mocno Cypressa, uzyskasz TDP jak u Fermi, duże chłodzenie z pięcioma ciepłowodami 8mm okraszone wentylatorem Delty i 1200-1300MHz uzyskasz ;-)

    Pewnie ATI pracuje nad czymś pokroju 4890 czyli zmodyfikowanym Cypresem zdolnym do pracy z większymi częstotliwościami. Ja się tam nie znam ale modyfikacje głównie byłyby związane z przepływem prądu i elektronami ;-)

    ATI już baaaaaardzo długo było na dnie i co nie co się nauczyli. Ostatnio nawet zaczynają sobie pogrywać na nosie NV. Raczej byłbym wspokojny o nich, wiadomo gorszy produkt czy pomysł zawsze się trafi ale na 2900xt chyba dość sparzyli sobie rączki, w przenośni i dosłownie.


  150. @Grave (autor: trepcia | data: 28/03/10 | godz.: 21:33)
    Aha, i nie wiń o wszystko TSMC bo jest to głupie i lekkomyślne. To NV powinna zaprojektować układ, który będzie możliwy do wyprodukowania przy obecnie stosowanej technologii a nie na odwrót.

  151. Grave (autor: morgi | data: 28/03/10 | godz.: 21:34)
    Najsmieszniejsze jest to, ze jedna goraca aczkolwiek wydajniejsza karta przesadzac ma o reszcie, no to popatrzmy wstecz. ATi i x1900 bylo najlepsze, ale radzilo sobie fatalnie w wolniejszych propozycjach, a teraz Nvidia i 8800 bylo zabojca ati na 3 lata i mialo slabawe aczkolwiek z kompletnego braku ati dosc dochodowe dolne karcioszki. Teraz popatrzmy na Nvidie 6800 dawalo pola x800 i x850, ale mialo pelne dx9 i znakomite srednie karty legendy 6600, a teraz 7900 tez dawalo cialka ale mialo fenomenalne 7600 i nizej, a teraz ati mialo ciagoty i taniosc, ale brakuje jednego solidnosci i gier z ficzerami, te ich dx8.1, 9b, 10.1 i 11 to slepe strzaly bez dobrego tytulu podrzedne lipy i kaszany, u Nvidia wystarczy Barman bis czy taka krotka pilka jak Metro by wstrzasnac graczami i wiesc sie niesie, ze na ati nie da sie grac na full.

  152. @Grave (autor: arco2006 | data: 28/03/10 | godz.: 21:37)
    GeForce GTX 280 65nm ---- GeForce GTX 285 55nm
    GeForce GTX 480 40nm ---- GeForce GTX 485 28nm
    http://pclab.pl/art35006-18.html

    Mimo że GTX 280/480 był dobrym produktem, to można powiedzieć, że GTX 285/485 jest tym, czym GTX 280/480 powinien być od samego początku. Przejście na nowszy proces technologiczny dużo dało. Dzięki temu NVIDIA zwiększyła przewagę wydajnościową nad jednoprocesorowymi kartami AMD. Poprawiono wszystko, co było do poprawienia. Karta pobiera mniej prądu, mniej się grzeje, jest cichsza i wydajniejsza. Do tego wszystkiego można dorzucić bardzo dobre wyniki podkręcania &#8211; i okazuje się, że GeForce GTX 285/485 jest produktem bardzo dobrym.


  153. @Grave (autor: Zaku | data: 28/03/10 | godz.: 21:44)
    Nie podniecaj się tak tym grzejnikiem, bo są problemy z produkcją tego klocka już w 40nm, a w 28nm może się to okazać całkowicie nieopłacalne.

    Idzie lato... zobaczymy ile fermi się spali "na tronie" :]


  154. @ Promilus (autor: pawel.xxx | data: 28/03/10 | godz.: 21:57)
    "A jak to się ma do wykorzystania ALU oznaczonych x, y, z, w, Trans w jednym SP u AMD?"


    Jeśli przez R-<0;1> oznaczymy część kodu którą można wykonać równolegle. To ograniczenie górne efektywności wykorzystania ALU dla jednostek wektorowych a AMD wynosi
    0.25*(1-R)+R
    Zgodnie z prawem Gustafsona R rośnie wraz ze wzrostem rozmiaru zadania.
    Nawet nie jestem zaskoczony tym że nie załapałeś w czym rzecz.
    Gdybyś miał podstawy teoretyczne i rozumiał jak działają jednostki wektorowe AMD nie pisałbyś że przy wykorzystanie 1 ALU w AMD ( a więc sytuacji gdy kod jest czysto sekwencyjny) wydajność cypressa będzie taka sama jak fermi.
    Nie uwzględniłeś że fermi ma 480SP na 1404MHz wobec 320 na 850MHz w cypress. W kodzie czysto sekwencyjnym fermi jest 2.5 raza bardziej wydajny. Z kolej w kodzie czysto równoległym to cypress jest o 60% bardziej wydajny

    "A, że zwiększanie rozdzielczości NIE zwiększa wykorzystania tych ALU "

    To stwierdzenie jest sprzeczne z prawem Gustafsona.


  155. @Grave (autor: rainy | data: 28/03/10 | godz.: 21:58)
    Sęk w tym (co jest szczególnie bolesne dla Nvidii), że 28nm w tym roku się raczej nie pojawi.

    Widząc jak męczy się TSMC z 40nm, trudno założyć by udostępnili masowo niższy proces technologiczny wcześniej niż za rok (lub w tej okolicy).

    Z kolei GF, rzeczywiście mówiło o 28nm w drugiej połowie tego roku ale przypuszczam, że odpowiednią moc produkcyjną uzyskają w I kwartale 2011.

    Poza tym, przypominam sobie, iż szef Nvidii twierdził (w wywiadzie jaki czytałem czas jakiś temu), iż GF=AMD (co nie jest zresztą prawdą).

    A to oznaczałoby, iż nie jest zainteresowany korzystaniem z usług GF (swoją drogą dziwny brak elastyczności).

    AMD może powtórzyć manewr z poprzedniej serii i wypuścić 5890 z zegarami typu 1 GHz rdzeń i pamięci np. 5,2 GHz pamięci.

    Ciekaw jestem również, jaki wpływ na wydajność 5970/5870 będzie miało wyposażenie ich w 2 GB RAM-u - GTX 480 jak wiadomo ma 1,5 GB, co może odgrywać swoją rolę w rozdzielczości typu 2560x1600.


  156. .:. (autor: Shneider | data: 28/03/10 | godz.: 22:09)
    Grave - co ty palisz?

    Dopisz 2x tyle bzdur, bo Twoje podejscie blizsze jest religii niz logice.

    GTX480 w piku siorbie 320W. 70% wiecej od 5870 a jest ledwie 10% szybszy.

    zgadnij kto pierwszy wypusci chip w 28nm.

    Fermi wyszlo wczoraj, a HD5800 23 wrzesnia 2009.

    ATI od 6ciu miesiecy sprzedaje w najlepsze swoje radki, zapelniajac caly rynek, od low poprzed mid po high. a NV dopiero raczkuje ze swoim kombajnem niewiadomo do czego za kosmiczne pieniadze. To ze widzisz nadzieje oznacza jedynie pusta wiare w marke.

    Licza sie fakty a nie obiecanki.


  157. @morgi (autor: Drow | data: 28/03/10 | godz.: 22:29)
    "Najsmieszniejsze jest to, ze jedna goraca aczkolwiek wydajniejsza karta przesadzac ma o reszcie, no to popatrzmy wstecz."

    Najsmieszniejsze jest to, ze ty po Ati jedziesz ciagle, niewazne czy maja dobre czy slabe karty [a ostatnio maja bardzo dobre]. U ciebie nie ma, ze jedna karta przesadza o wszystkim - u ciebie juz ATI/AMD ma przesadzone na amen, mimo, ze rzadza rynkiem od przeszlo dwoch generacji kart!

    Jestes Z A L O S N Y.


  158. @up (autor: Saturn64 | data: 28/03/10 | godz.: 22:34)
    Bez komentarza....

    http://www.youtube.com/watch?v=hgbg-0OSDOY


  159. Drow (autor: szpak3 | data: 28/03/10 | godz.: 22:39)
    ,,,klon z matrixa tak już ma, morgiemu pasuje smród tej porażki od nv i wmawia sobie, innym że to lawenda

  160. Shneider (autor: Grave | data: 28/03/10 | godz.: 22:41)
    Dokładnie taką samą nadzieję jak tą jaką ktoś może mieć w kwestii powodzenia HD 6xxx który może być super a może okazać się równie dobrze totalną porażką.

    Tyle że jak popatrzysz wstecz to Nvidia w historii była O WIELE WIĘCEJ RAZY na szczycie aniżeli ATI. W tym przez ostatnie 4 lata mieli bezdyskusyjnie najszybsze GPU i najszybsze karty a rynku.

    Teraz mają najszybsze GPU które jest wykonane w zbyt kiepskim procesie i na po tym już ich skazujesz na niebyt w przyszłości? Chyba masz coś z głową.

    AMD ostatnio ledwo co wyszło z GIGANTYCZNYCH (!!) długów w których siedzieli po uszy przez ostatnie 4 lata. W tym czasie Nvidia rokrocznie notowała bez przerwy zyski.

    Mają dość kasy na nowe projekty, dość kasy żeby tworzyć nowe wydajne GPU i dość kasy żeby pokonać ATI.

    Niczego nie umniejszając ATI oczywiście. Uważam że ATI ma teraz świetne karty, ale żeby z tego powodu od razu skreślać Nvidię to gruba przesada.

    ATI na czele po raz pierwszy od 4 lat i to najlepszy dowód że tak już ma być? Bardzo mało prawdopodobne, czy wręcz po prostu wzięte z sufitu.

    Nikt nie wie jaki będzie HD 6xxx. Jedno wiadomo na pewno - specyfikacja jest już zamknięta i wszystko może się zdarzyć.


  161. @Grave (autor: Saturn64 | data: 28/03/10 | godz.: 22:59)
    Akurat nie zgodzę się z Tobą jeśli chodzi o doświadczenia i przodownictwo.
    To, że Nvidia miała tłuste lata nie znaczy, że odłożyła te zyski na później. Cała logistyka i wielkość firmy, która nie liczy się z kosztami. Do tego trzeba dodać wiele nieudanych posunięć w ostatnim roku (jak choćby wypadnięcie z rynku chipsetów pod intela, reklamacje GPU w laptopach, także zapóźnienie w stosunku do ATI (6 mcy) i wypełnienie rynku wyłącznie highend a gdzie reszta czyli midend i lowend. ATI tak jak mówisz przegrywało walkę z NV przez kilka lat i co się stało? Zostało przejęte przez AMD. Gdyby nie AMD pewnie dziś ATI by już nie istniało. Nie można powiedzieć, także, że ktoś miał przewagę kilka lat temu to tak musi być już zawsze. Imperium Rzymskie tez miało przewagę nad resztą Świata przez bez mała 700 lat i jakoś nagle się skończyło.


  162. @Grave (autor: AmigaPPC | data: 28/03/10 | godz.: 23:01)
    Wystarczy, że HD6xxx będzie rozwinięciem bardzo dobrej serii HD5xxx i na Ofermę wystarczy.
    Wcale nie trzeba nowej architektury - jaka (ponoć) będzie obecna w HD6xxx.

    A na oFerme mój 5870 Vapor-X starcza, tym bardzie, że mam XP.


  163. @... (autor: Saturn64 | data: 28/03/10 | godz.: 23:06)
    AMD miało ogromne problemy po łyknięciu ATI ale też trzeba wziąść pod uwagę, że przeszli całkowitą restrukturyzację firmy (zwolnienia, sprzedaż majątku firmy (fabryki - zastrzyk finansowy od arabów), no i ostatnio także od intela za ugodę sądową. Natomiast rok 2008 i 2009 to już nie tak złe lata (intel wypełnia rynek highend (i niewiele miesza się do midend i low end) także AMD ma tak swoje pole do popisu. Oraz seria 4xxx i teraz 5xxx u ATI która poprawiła sytuację finansową AMD/ATI

  164. .:. (autor: Shneider | data: 28/03/10 | godz.: 23:11)
    Grave - prosze, pisz wiecej bzdur, gdyz sam w nie nie wierzysz.

    przypadku jak Fermi NIGDY w historii nie bylo.
    GF100 nie jest najszybszym GPU, poniewaz porownujac TDP do ATI zostaje mocno w tyle. mozesz sobie wmawiac co tylko chcesz, ale Fermi jest jedna wielka porazka dla graczy.


    Maja dosc kasy by pokonac ATI? Chce to zobaczyc. Ta firma przez ostatnie 6mcy pierdzielila farmazony jaki to mlot szykuja na konkurencje i co? Pomimio iz ich udzial na rynku jest ogromny, to przez ostatnie pol roku dali idealny przyklad jak spierdolic produkt i marketing.

    Naucz sie czytac i przedewszystkim nie wmawiaj mi slow ktorych nie powiedzialem.
    ATI nie jest na czele. wciaz ich udzial na rynku jest niewielki, ale systematycznie rosnie i nie za sprawa GF100, ani tez serii HD4000. po prostu robia swoje a NV zrobila zupelnie odwrotnie.


  165. Shneider (autor: Grave | data: 28/03/10 | godz.: 23:19)
    Mnie się wydawało, że najszybsze GPU to takie które ma najlepszą wydajność i ta wydajność jest JEDYNYM kryterium rozstrzygającym czy dane GPU jest szybsze czy nie.

    Natomiast Ty jak widzę praktykujesz nową metodę i szybsze wg Ciebie jest nie to... co jest szybsze (sic!) tylko to co zużywa mniej prądu.


  166. Grave (autor: culmen | data: 28/03/10 | godz.: 23:44)
    To może zacząć sprzedawać superwydajne procki
    po5-6Ghz z tuba do azotu? Tak owszem będą najwydajniejsze na rynku (jako stock) ale ja osobiście zwróciłbym uwagę na inne czynniki niż tylko ciut wydajniejsza, bo wybacz tyle % przy pozostałych czynnikach to śmiech.


  167. .:. (autor: Shneider | data: 28/03/10 | godz.: 23:47)
    Grave - 5870 wystepuje w wersjach 1GHz, czyli 17% szybsza karta od org.

    GF100 jest tak wyzylowana aby ledwie przescignela 5870 z referencyjnym taktowaniem. stad to kosmiczne TDP. ale ty tego nie rozumiesz.

    za kilka miesiecy przyjdzie lato. temperatury w pomieszczeniach beda przekraczac 30st. w tym okresie serwisy laptopow dostaja 2x wiecej sprzetow przez zakurzone radiatory, zuzyte pasty, zatarte wiatraki.

    Fermi w takich warunkach beda ograniczac swoja wydajnosc, przez obnizenie taktowania no bo przeciez nie zaczna padac jak muchy ;-)

    Takze pomijajac cene, liczy sie tutaj Perf/Watt, a uwzgledniajac cene Perf/(Watt*cena) nfidia wypada bardzo biednie.


  168. Grave (autor: Markizy | data: 28/03/10 | godz.: 23:47)
    w sumie gdyby oferma nie zjadała blisko drugie tyle energii co 5870 to można było nazwać go krulem wydajności.
    Tak 30% więcej za 10% więcej wydajności by jeszcze jako tako wyglądało, a nie tak jak teraz CF5870 bierze tylko o 40W więcej, a są to dwie karty a nie jedna.


  169. Shneider (autor: Grave | data: 29/03/10 | godz.: 00:00)
    "Grave - 5870 wystepuje w wersjach 1GHz, czyli 17% szybsza karta od org."

    Bullshit

    Pokaż mi choć jednego 5870 w takiej wersji (1GHz na rdzeniu)...:> Powodzenia życzę w szukaniu.


  170. @grave (autor: trepcia | data: 29/03/10 | godz.: 00:03)
    NV ma najszybsze GPU (oczywiście na stockowych ustawieniach) ale najszybszą kartę grafiki i tak oferuje ATI (Radeon 5970). Poza tym jak narazie to właśnie radeon 5870 od MSI jest najszybszą kartą jednoukładową na świecie, jak Fermi przebije ten wynik to wtedy będzie dzierżyć palmę pierwszeństwa. Ciekawe, czy GTX 480 ma cold buga czy nie ;-) I czy ciekły azot ochłodzi ją poniżej 0*C !?

    Mam nadzieję, że pogłoski dotyczące Hecatonchires okażą się w pewnym stopniu prawdziwe. Wiadomo, 100 głów mieć to nie będzie ;-) Ale dedykowane układy wspomagajace GPU byłyby miłym dodatkiem.
    Nie od dziś pogłoski krążą, rendery po sieci. Może coś z tego okaże się bliższe prawdy niż to się mi wydaje.
    Gdzieś to ATI zapowiadało, że chcą iść nie w jeden Combo układ (a'ka Fermi) lecz w wiele mniejszych.


  171. @up (autor: trepcia | data: 29/03/10 | godz.: 00:04)
    Odnośnie MSI chodzi mi o podkręcony układ. No co, wynik wynikiem. Wyniki zwalidowane więc poszły w eter.

  172. trepcia (autor: Grave | data: 29/03/10 | godz.: 00:06)
    MSI Lighting 5870 (GPU@900MHz dla jasności) NIE JEST szybszy od GTX480.

  173. @grave (autor: trepcia | data: 29/03/10 | godz.: 00:12)
    Chyba żeś co nie co przespał:
    http://nvision.pl/...ata--News-16374-ndetails.html
    Grom rekordów należy do Czerwonych.


  174. .:. (autor: Shneider | data: 29/03/10 | godz.: 00:35)
    Grave - poprawiam sie. Fermi nie jest szybszy nawet o 10%

    [ http://www.tomshardware.com/...gtx-480,2585-7.html ]

    porownanie HD5870 do GTX480

    wyniki dla GTX480
    3d Mark gpu - minus 3%
    CoD - plus 18%
    Dirt2 - plus 5%
    Crysis - minus 5%
    stalker - minus 6%
    metro - plus 21%
    battlefiled - minus 3%

    wynik: plus 3,8%

    brawo nvidia.

    1GHz karty byly zapowiadane ale widze ze nie doszlo do produkcji. nie mniej jednak mozna kupic 900MHz karte, lub po prostu samemu puscic ja wyzej bez obaw ze bedziemy mieli pozar w budzie.

    w teraz podstawowe fakty: HD5870 1400zl, GTX480 2200zl. za Fermiego mozna kupic HD5970 ktory pomimo iz posiada 2 uklady to siorbie mniej i kopie zadek rowno.


  175. trepcia (autor: Grave | data: 29/03/10 | godz.: 00:41)
    GTX 480 na razie chyba nikt nie kręcił na azocie więc nie ma z czym porównywać.

    Poza tym takie coś się nie liczy, bo w sklepach tego nie dostaniesz ani teraz ani nigdy, a i tak każdy jeden egzemplarz karty może kręcić się różnie.

    Dlatego wyniki po OC nigdy nie rozstrzygają o tym czy dane CPU czy GPU jest samo w sobie szybsze czy nie.

    Natomiast liczą się takie produkty jak wspomniany Lighting na takich taktach jakie producent gwarantuje dla każdego kupionego egzemplarza czyli w tym wypadku 900MHz.

    Niestety to za mało na pokonanie Fermi.


  176. Shneider (autor: Grave | data: 29/03/10 | godz.: 00:57)
    Taak licz sobie te średnie. To tak ja mogę do tej średniej wziąć wynik z Metro2033 gdzie na ATI w najwyższej rozdzielczości było 0-1fps, wyjdzie przewaga jakieś pare tysięcy % dla GTX480 w tej grze i jaka ładna średnia :D

    Tak to można wszystko udowodnić :)


  177. Fermi to złom... (autor: Zaku | data: 29/03/10 | godz.: 01:06)
    Ale @Grave w to nie uwierzy bo jest dosłownie głuchy :)

  178. .:. (autor: Shneider | data: 29/03/10 | godz.: 01:52)
    Grave - no to jedziesz, szukaj poklei testow w necie i wylicz sobie srednia. i pamietaj cholero nie dzieli sie przez zero.

    Powiedz Grave masz do wydania 1000zl, 1500zl i 2200zl

    logika i zdrowy rozsadek mowi tak:
    1000zl HD5850
    1500zl HD5870 w fajnej wersji
    2200zl HD5970

    fan marki, powie tak:
    1000zl - za tysiaka nie da sie kupic dobrej karty, trzeba dorzucic 200 na GTX285 czyli 20% drozsza karta i 5% wolniejsza ;-)
    1500zl - nie nie nie. to stanowczo za malo na odpowiednia karte, dorzucam 200zl i mam GTX295, lub kupuje GTX470 ktory jest wolniejszy od GTX295.
    2200zl - nooo wybor jest oczywisty, GTX480 najzajebiastrza karta jaka widzial swiat, szczyt marzen i obiekt westchnien dzieci ponizej 16stego roku zycia. przymykamy oko iz jest znaacznie wolniejsza od HD5970 i ledwie 5-10% szybsza od HD5870 to nie ma znaczenia, jak i fakt ze w szczycie siorbie 320W.

    prawda Grave. ATI moze pakowac walizki bo oto na swiat wyszedl cud techniki zwany Fermi.


  179. Grave .uparty jestes jak jak ten "z rogami". (autor: speed | data: 29/03/10 | godz.: 04:50)
    Dla super fanow 480GTX mam propozycje ktory chce byc pierwszy w Polsce posiadajac Fermi?? Moge podeslac expresowo cena 3700zl. tylko nie piszcie ze drogo ja za swoje wysylam a tyle gosc chce za ta karte.
    jest chetny.?
    Nvidia wydala knota i to wielkiego jest krolem ale bez krolestwa :)))))
    jeszcze jedno jeden z najwiekszych sklepow internetowych w Kanadzie mial lekko ponad 500 zamowien na 480GTX po opoblikowaniu testow 480 zostalo skasowanych, mowi to cos Grave i morgi Wam. (a sklep spory sprzedaje rocznie za prawie miliard dolarow )


  180. ... (autor: Teriusz | data: 29/03/10 | godz.: 06:29)
    Śmieszą mnie wypowiedzi jakim to 480GTX jest super szybkim GPU, szybszym od układów ATI. Przede wszystkim należy pamiętać, że Nvidia i AMD/ATi to firmy, których celem jest zarabianie. Ten kto zarabia i ma większe obroty i zyski może szybciej się rozwijać. Wątpię teraz, że Nvidia ze swoim fermi zacznie na nim zarabiać. To raczej wygląda na desperacką defensywę i próbę jako takiego utrzymania się w stawce. Mały uzysk z wafla to większe poniesione koszty. Co za tym idzie większa cena samych kart. Dodatkowo jak ktoś wcześniej wspomniał Nvidia nie ma jeszcze kart low-end i mainstream. Co także nie pozwoli jej na zarabia na nich, przynajmniej nie wcześniej jak w okresie letnim.

    AMD bardzo ładnie to rozwiązało. Cypress był od razu projektowany pod mainstream, bo wiedzieli, że przy mniejszym chipie karta high-end złożona z dwóch układów to nie problem. Podeszli do sprawy zarobkowo. Mniejszy układ = lepszy uzysk z wafla. Wiedzieli, że jak GPU będzie mniejsze to i chłodniejsze, przez co karta będzie miała mniejsze chłodzenie, co także pozwala w jakimś stopniu obniżyć koszty karty.

    Ale najważniejsze jest to i bardzo dobrze AMD/ATI zdało sobie z tego sprawę , że samo GPU to nie wszystko. Mówię tutaj o pamięciach. Wprowadzając jako pierwsi GDDR5 w kartach z serii 48xx zwiększyli wydajność karty, bez radykalnej zmiany architektury samego układu. Nvidia obudziła się wtedy z ręką w nocniku i musiała szybko nadgonić, stosując dodatkowo swój "kontrmarketing". Negowali gddr5, dx10.1 i dx11, a wszyscy widzieli później jak w końcu sami to wprowadzali u siebie.

    AMD/ATi już od początku roku mogło spokojnie się skupić nad premierą nowej serii kart na jesień tego roku, by znowu dać po nosie Nvidii. Zapewne zrobią jakiś mały kroczek (może znowu z pamięciami), natomiast z samą nową architekturą poczekają do przyszłego roku na 28nm. Bo znowu przypomnę mniejszy układ = większy uzysk z wafla = mniejsze straty = większe zyski.


  181. @Teriusz (autor: pawel.xxx | data: 29/03/10 | godz.: 08:20)
    Twoje rozważania nt cen i zarobków firm byłyby słuszne gdyby nvidia i amd kupowało chipy na tych samych warunkach.
    TSMC daje klientom wybór albo kupują drożej tylko sprawne chipy, albo kupują stosunkowo tanio po 5000$ całe wafle i to co sprawne to ich.
    AMD kupuje tylko sprawne chipy nvidia całe wafle. To dzięki takiej opcji dostaw AMD mogło pozwolić sobie na wczesną premierę cypress, bo to TSMC ponosiło koszty ryzyka niskiego uzysku.
    Gdy uzysk został poprawiony AMD nadal płaci taką samą cenę a TSMC odrabia straty jakie poniosło produkując cypress z niskim uzyskiem.


  182. grave (autor: zeek | data: 29/03/10 | godz.: 08:22)
    "Mnie się wydawało, że najszybsze GPU to takie które ma najlepszą wydajność i ta wydajność jest JEDYNYM kryterium rozstrzygającym czy dane GPU jest szybsze czy nie. "

    po obcieciu szyny i ilosci pamieci o'fermi mogloby sie okazac ze nawet nie jest najszybszym GPU :)) to jest jeden wielki LOL :)))

    ogolnie ciezki zywot maja grave z morgim wszyscy na nich pluja, a ci mowia, ze to deszcz


  183. @Shneider #174 (autor: pawel.xxx | data: 29/03/10 | godz.: 08:37)
    Twoja ocena to zwykła manipulacja. korzystając z danych z tomshardware na którym zrobiono testy dla trzech rozdzielczości z włączonym i wyłączonym AA.
    Jak się zdaje do wyciagniecia ogólnego wniosku nt wydajności wybrałeś rozdzielczość 2560x1600 i wyłączone AA.
    Tymczasem okazuje się że ta rozdzielczość ma znikomą popularność wg danych uzyskiwanych z przeglądarek.
    http://fwd4.me/JPD
    http://fwd4.me/JPE
    Pomysł że przy stukilkudziesięciu FPS-ach wyświetlanych na wyświetlaczu zdolnym wyświetlić 60 obrazów/s AA zostanie wyłączone także jest wątpliwy


    Twoja manipulacja polega na tym, że mając dostępnych wiele wyników wybrałeś te w których nv wypadła najgorzej i na ich podstawie wyciągnąłeś ogólny wniosek.
    Nie da się ukryć że Grave jest znacznie bardziej obiektywny.


  184. @pawel.xxx (autor: Teriusz | data: 29/03/10 | godz.: 08:44)
    Mówisz o rodzaju rozliczania się z TSMC, ale to nie zmienia postaci rzeczy, że przy produkcji mniejszego GPU jest większy jego uzysk z wafla, jest ich więcej na waflu i w ten sposób łatwiej jest go produkować. Mniej krzemu więc i tańszy. Przy większym GPU więcej rzeczy może nie wyjść i przez to więcej układów idzie do kosza lub jest gorszej jakości.

  185. pawel.xxx (autor: Markizy | data: 29/03/10 | godz.: 08:53)
    co nie zmienia faktu ze jak 2560x1600 jest płynnie to i w full HD też jest.

  186. @pawel.xxx (autor: Promilus | data: 29/03/10 | godz.: 09:00)
    "Gdybyś miał podstawy teoretyczne i rozumiał jak działają jednostki wektorowe AMD nie pisałbyś że przy wykorzystanie 1 ALU w AMD ( a więc sytuacji gdy kod jest czysto sekwencyjny) wydajność cypressa będzie taka sama jak fermi. "
    Pokazałem ci narzędzie gdzie możesz swoje poglądy zweryfikować - wykorzystuje proste rozkazy DX9, tak, m.in. takie jakimi się operuje w programach shaderów. Nigdzie nie napisałem, że wydajność przy wykorzystaniu 1ALU z SP będzie taka sama jak w GT200 czy GF100 - to są Twoje słowa i wynikają z Twojej ignorancji. Teoria o której mówisz jak dla mnie ma inne znaczenie - mówi o przyspieszeniu wykonywania zadania składającego się z części wykonywanej równolegle i takiej która równolegle wykonana być nie może - na maszynach z wieloma jednostkami przetwarzania - i jak ze wzrostem jednostek przetwarzania wzrasta wydajność oraz możliwość użycia takiej maszyny do bardziej skomplikowanych obliczeń równoległych. W przypadku AMD mamy problem taki - niech 60% obliczeń będzie wektorowe (czy to 2 czy 4 elementowe, nieważne) a 40% skalarne. W przypadku wzrostu rozdzielczości proporcja się nie zmienia więc jak niby ma wzrosnąć efektywność wykorzystania ALU w radeonach? ALU jest tyle ile było, obliczeń jest więcej - ale proporcje pozostają. I jak się do tego masz zamiar odnieść?


  187. @up (autor: Saturn64 | data: 29/03/10 | godz.: 09:06)
    Oficjalna wypowiedź Dave'a Erskine, rzecznika prasowego AMD:

    "Cztery miesiące po swojej premierze, ATI Radeon HD 5970 jest nadal niekwestionowanym liderem wydajności. Sześć miesięcy po swojej premierze, ATI Radeon HD 5870 pozostaje wyraźnym zwycięzcą w swoim i poniżej swojego przedziału cenowego. Dodajmy do tego karty graficzne z każdego segmentu rynku obsługujące DirectX 11, jak również oferujące najnowocześniejsze funkcje, takie jak technologia ATI Eyefinity, i jesteśmy przekonani, że karty graficzne ATI Radeon w dalszym ciągu będą ulubionym wyborem klientów, którzy chcą najbardziej zaawansowanych i wydajnych kart."


  188. .:. (autor: Shneider | data: 29/03/10 | godz.: 09:30)
    pawel.xxx - masz ochote to przelicz wszystkie dane. mialem brac pod uwage np crysisa ktory z AA w najwyzszych rozdzielczosciach dawal od 7 do 15 klatek? :-)

    nie wiem co chciales swoim postem udowodnic, ze ja klamie piszac o 5%? ;-)


  189. hehe (autor: morgi | data: 29/03/10 | godz.: 09:36)
    Zapomnial gosc, ze dualik to jest prawie karta, bo ma nieprzewidywalne zachowania i mase problemow, co malo obeznany gracz moze wziasc w ciemno a potem zdziwi sie jak poczuje niesmak malych oszustw, bo krol wydajnosci czasem pokaze wydajnosc jednego jaja lub zaczna mu te jaja robic joke.
    Promilus
    Wydajnosc ALU warto porownac, tym razem Nvidia sie nie spisala, bo 480 ALU jest niewiele lepsze od 320, a to za sprawa gorszego uposazenia, czyli brak mul duzo mniej tmu niz wczesniejsze chipy i taktowanie tez nie grzeszy w porownaniu do reszty taktu chipu, ale to wina fabryki, znacznie lepiej sie walczy wysokim taktem i full jednostkami niz walczyc o racjonalne tdp.


  190. @morgi: Fermi to jednak porażka nV (autor: rookie | data: 29/03/10 | godz.: 09:49)
    Karta wydajna, jednak zapóźniona technologicznie. Gdyby to było rok temu...ale teraz...
    Przytoczę tylko jedno zdanie z podsumowania recenzji na toms hardware:

    ''So, if you break everything down into power, price, and performance (meaning you&#8217;re most concerned with how GeForce GTX 480 and 470 stand up in today&#8217;s games), then today&#8217;s preview comes off somewhat underwhelming after the build-up. ''

    Nowy geforce 470 jest jak 5850, a 480 jest trochę wolniejsze od 4870x2.
    Bardzo prawdopodobne, że fermi stanie się jednak gwoździem do trumny nVidii, bo nie oferuje nic więcej, ponad to co oferowała seria 5xxx.
    http://media.bestofmicro.com/...Stalker%202560.png

    Morgi - twój fermi, zważywszy ile czasu był przygotowywany, to jednak porażka (głównie cenowa), i nie fanbojuj, bo to obiektywna opinia na necie.


  191. @morgi (autor: Promilus | data: 29/03/10 | godz.: 09:59)
    Nie...TMU jest mniej, ale na TMU składa się TA i TF, do tej pory tych jednostek było tyle samo, Fermi ma 4x więcej TF niż TA. Dziwią natomiast rezultaty przy włączonym AF, chip powinien znacznie lepiej się zachowywać przy AF16x właśnie za sprawą większej ilości TF. Wydajność FP32 nie powala, natomiast FP64 już tak. Z drugiej strony 'podobno' w GF będzie ograniczona do 25%, a pełna tylko w Tesli i Quadro. Inna sprawa - taki super pomysł z ECC - otóż Fermi ECC nie ma w takiej formie jak serwery (moduły 72bit zamiast 64bit - czyt. dodatkowy 9 bit). Rozwiązanie stosowane w Fermi będzie znacznie mniej eleganckie i nieco bardziej zawodne. No, ale będzie...

  192. Co gracze myślą o Fermi (autor: rookie | data: 29/03/10 | godz.: 10:08)
    Wiadomość z benchmark.pl, za:Tomshardware:
    Na targach Penny Arcade Expo (PAX) dziennikarze pytali graczy o opinie na temat kart graficznych GeForce GTX 480 i 470. Co w tej sprawie mieli do powiedzenia zagraniczni entuzjaści gier?
    Na imprezie PAX East nie brakowało pozytywnej energii, jeśli chodzi o najnowsze karty graficzne NVIDII. - To dobrze w końcu zobaczyć nową serię kart graficznych NVIDII. Trwało to zbyt długo, ale myślę że warto było czekać - mówi jeden z widzów przebywających na stoisku NVIDII (nie chciał podać imienia).

    - Nie miałem jeszcze okazji przysiąść i zobaczyć pierwszych recenzji - mówi John S., grając w StarCrafta II beta na stoisku NVIDII - ale jeśli demo Rocket Sled [zobacz wideo poniżej - przyp. red.] można traktować jako przesłankę, NVIDII ma w rękach imponujący sprzęt - dodaje uczestnik PAX East.

    Brandon, kolejny uczestnik targów, który przechodził akurat obok stoiska Alienware, odpowiedział dziennikarzowi, że nie może doczekać się nowości NVIDII i tego, aż wpadnie mu w ręce GeForce GTX 480, albo nawet wersja z dwoma układami graficznymi (dual-GPU), gdy tylko się pojawi. Dodał też, że AMD straci pozycję lidera.
    Oczywiście, nowy sprzęt zawsze jest ekscytujący, ale jest jeszcze druga strona modelu. - Nie jestem lojalny ani wobec AMD, ani NVIDII, ale dlaczego miałbym płacić 500 dol. za GTX 480, kiedy Radeon HD 5870 jest tańszy o 100 dol., a przy tym tylko niewiele słabszy? - powiedział Mike G., który także był na stoisku NVIDII.

    Kolejna negatywna reakcja pochodzi od Briana R., który był w pobliżu stoiska Rockstar Games. - Mniej więcej miesiąc temu kupiłem 5870 i po zobaczeniu, co NVIDIA wprowadzi na rynek w ciągu najbliższych tygodni, myślę że dokonałem właściwego wyboru - mówi.

    - AMD zabrał NVIDII koronę opłacalności przy wprowadzeniu serii 4000, a po spojrzeniu na recenzje internetowe nie wygląda na to, aby teraz zmieniła się sytuacja przy serii 5000. Plus, dlaczego miałbym wybrać GTX 480, kiedy 5970 zużywa mniej więcej tyle samo mocy, ale oferuje o wiele większą wydajność? - to kolejna opinia uczestnika targów.

    Dziennikarz zagranicznego źródła także dorzucił swoje trzy grosze. Według niego konkurencja to coś świetnego, jeśli wręcz nie coś absolutnie koniecznego, więc to dobrze, że NVIDIA w końcu wprowadziła karty graficzne obsługujące DirectX 11. Wygląda jednak na to, że AMD faktycznie ma przewagę, oferując karty cechujące się lepszym stosunkiem cena-wydajność. Niemniej część tego, co ma do zaoferowania NVDIA, jest całkiem niezła, jak np. nowe dema raytracingu. O tym jednak, jakie karty są lepsze, powinni zdecydować użytkownicy.

    Fermi FAIL! Fermi FAIL! Fermi FAIL! Fermi FAIL!


  193. @ Promilus (autor: pawel.xxx | data: 29/03/10 | godz.: 10:39)
    "Nigdzie nie napisałem, że wydajność przy wykorzystaniu 1ALU z SP będzie taka sama jak w GT200 czy GF100 - to są Twoje słowa i wynikają z Twojej ignorancji."

    W poście #110 napisałeś

    "Nieefektywność u AMD to wykorzystanie 1-2 ALU z całego SP czyli to co u nvidii oznacza 100% efektywności. "
    Co więc miałeś na myśli? A może ponownie zapominasz co piszesz. jak to ci sie już zdarzało w innej dyskusji na innym serwisie.

    Co o narzędzia które proponowałeś to już ci kiedyś pisałem że po informacje że specjaliści AMD współpracują z sisSoft i futuremark opracowując benchmarki GPGPU budzą moje wątpliwości co do obiektywności tych benchmarków.

    "wykorzystuje proste rozkazy DX9, tak, m.in. takie jakimi się operuje w programach shaderów."

    DX nie definiuje listy rozkazów. DX jest interfejsem - czyli specyfikacją funkcji do zaimplementowania w sterowniku. DX definiuje co ma zostać zrobione i na jakich danych. Szczegóły dotyczące implementacji oraz to za pomocą jakich rozkazów natywnych jednostek przetwarzających ten interfejs jest realizowany pozostają w gestii producenta sprzętu na którym ten interfejs jest wykonywany.
    Jeśliby benchmark mierzący wydajność GPGPU miał operować na wywołaniach funkcji DX to nie byłby to benchmarkiem GPGPU - stałby się 3dmarkiem.


    "Teoria o której mówisz jak dla mnie ma inne znaczenie - ...
    W przypadku wzrostu rozdzielczości proporcja się nie zmienia więc jak niby ma wzrosnąć efektywność wykorzystania ALU w radeonach? ALU jest tyle ile było, obliczeń jest więcej - ale proporcje pozostają. "

    Okazuje sie że miałem racje nie rozumiesz prawa Gustafsona. Twoje rozumienie zaprzecza temu prawu. Prawo to mówi ze te proporcje się zmieniają.
    Gdybyś miał podstawy teoretyczne rozumiał byś że scena niezależnie od rozdzielczości składa się ze stałej liczby detali, które opisane są przez pewne struktury danych najczęściej tablice. Natomiast wzrost rozdzielczości powoduje wzrost rozmiaru tych tablic.
    Wiedział byś wtedy ze tablica jednowymiarowa jest nazywana wektorem, nazwa jednostek wektorowych została zaczerpnięta z tej terminologii, a samą ideą jednostek wektorowych było umożliwienie szybkiego przetwarzania wektorów a więc części tablic.


  194. @pawel.xxx (autor: Saturn64 | data: 29/03/10 | godz.: 10:58)
    Zgadza się. Tam gdzie ATI wygrywa to brak obiektywności producentów oprogramowania a tam gdzie Nvidia wygrywa to wszytko w jak najlepszym porządku.

  195. no i sie doczekaliśmy.. (autor: Qjanusz | data: 29/03/10 | godz.: 10:59)
    napiszę chyba to co wszyscy zdążyli zauważyć.
    Gorąco, drogo, i nieopłacalnie.

    Nawet optymistycznie zakładając szeroką dostępność Fermi, jest ona kiepskim wyborem.

    Kosztuje tyle co 5970, ciągnie tyle samo prądu, mocniej się grzeje od Radka, jest głośniejsza i sporo mniej wydajna.
    Wybór oczywisty.

    Z kolei porównując do 5870, jest niewiele bardziej wydajna (czasami mniej), kosztuje sporo więcej, bardziej się grzeje itd itd.

    Karta zachwyca możliwościami teselacji i jeżeli będzie ona szeroko wykorzystywana, to Fermi ma szanse zabłysnąć.

    Obecnie jednak nVidia nie popisała się. Stworzyła gorącego i nieekonomicznego chipa. Czekamy na edycję 28nm, która to pozwoli uwolnić papierową moc karty.

    Ale brawa że w końcu karta została zaprezentowana!


  196. @ALL (autor: AmigaPPC | data: 29/03/10 | godz.: 11:56)
    Ani jedna osoba (z wcześniej wyrażających zainteresowanie) nie potwierdziła chęci kupna oFermy po prezentacji testów.

    Całe szczęście, że nie zamówiłem tego crapa i nie zapłaciłem z góry, bo chyba bym musiał jako piece konwekcyjne to sprzedawać żeby nie pójść "pod wodę".


  197. @pawel.xxx (autor: Promilus | data: 29/03/10 | godz.: 12:05)
    "Co więc miałeś na myśli? A może ponownie zapominasz co piszesz. jak to ci sie już zdarzało w innej dyskusji na innym serwisie."
    Nie, nic nie zapomniałem, to ty nie zrozumiałeś. Podejdź do tego tak - ile ALU ma nvidia w jednym SP czy SFU? No...i prawda że już wszystko jasne? :) Tam gdzie wykorzystanie 1 ALU w radeonie to 20% efektywnosci to wykorzystanie 1ALU w GF to 50-100% efektywności. Aż dziwne, że nie zrozumiałeś tego od razu.
    Co do narzędzia...GPU Bench jest z Stanford University i pokazuje dokładnie wydajność przy użyciu często spotykanych funkcji. Proste i jasne...
    DX - no tak, a HLSL to kupa...nie ma tam nic co można by nazwać rozkazem, great! Jesteś moim idolem! Fakt, Direct3D a nie DX - uproszczenie, ale z drugiej strony D3D9 jest elementem DX9. Uproszczenie zatem zupełnie akceptowalne.
    co dalej?
    "Jeśliby benchmark mierzący wydajność GPGPU miał operować na wywołaniach funkcji DX to nie byłby to benchmarkiem GPGPU - stałby się 3dmarkiem."
    Ależ gdzie my tutaj rozmawialiśmy o GPGPU (gdzie masz 8-30 SIMD CORES dla programisty i jego programu) - ciągle rozmawiamy o Twoim tłumaczeniu czemu wraz ze wzrostem rozdzielczości Fermi traci więcej wydajności niż Cypress, albo inaczej, dlaczego Fermi w niższych rozdzielczościach niby lepiej wykorzystuje swoje SP niż Cypress którego efektywność niby spada.
    "Prawo to mówi ze te proporcje się zmieniają.
    Gdybyś miał podstawy teoretyczne rozumiał byś że scena niezależnie od rozdzielczości składa się ze stałej liczby detali"
    Gówno prawda. Stała to może być liczba wierzchołków, ale to robota dla Vertex shadera czy geometry shadera. Ale liczba pixeli jest różna, a to one są przetwarzane przez pixel shadery (gdzie argumentami są RGBA/AGRB -> HDR64 lub 128bit to składowe FP16 lub FP32 - piękny wektor czteroelementowy). Ale argumentem wejściowym nie jest tablica 1920x1200! Bo tyle żaden ALU, SP w żadnym GPU nie przetrawi. Nadal jeśli są, to są krótkie wektory, czy to przy 800x600, czy przy fullhd. Pikseli do obróbki i tak jest znacząco więcej niż widać na ekranie.
    "Okazuje sie że miałem racje nie rozumiesz prawa Gustafsona" - nie miałeś racji, po prostu przyszywasz tą teorię do złego przykładu, by wytłumaczyć niezbyt przemyślaną wypowiedź.
    Wykorzystaniem ALU w SP AMD nie steruje programista bezpośrednio - to robota dla UTDP i to ta jednostka dba, by obciążenie ALU było jak największe, czy to w przypadku 800x600 czy 1920x1200. Właśnie dlatego, to prędzej procesor w niskiej rozdzielczości będzie wąskim gardłem niż superskalarna konstrukcja jednostek SP w Radeonach i jej wykorzystanie.
    http://twojepc.pl/news20829.html
    Przypominasz sobie tamtą dyskusję? Ano...popisałeś się wiedzą tak jak i tutaj. Tam - ilość pikseli obrabianych w danej rozdzielczości jest wielokrotnie większa niż wynika z rozdzielczości ekranu. Po prostu tutaj nie ma renderingu kafelkowego jak w Kyro i najpierw są obliczane wszystkie tekstury, wierzchołki, piksele a potem dopiero jest to przenoszone w 2D na ekran. Dlatego jest potrzebne dużo ROP, dużo TMU i duża przepustowość pamięci. Bardzo nieefektywny sposób generowania sceny trzeba przyznać.


  198. Qjanusz (autor: Markizy | data: 29/03/10 | godz.: 12:51)
    to do 28nm to sobie jeszcze poczekamy tak z pół roku na pierwsze próbki

    A swoja drogą wie ktoś kiedy ATI przeniesie produkcje z TSMC do GF ?


  199. @up (autor: Qjanusz | data: 29/03/10 | godz.: 14:17)
    to chyba nie jest tak że AMD przeniesie się do GF.

    AMD będzie uprawiać dywersyfikację dostawców chipów, co oznacza że na ich usługach będą obydwie firmy.

    Zresztą cokolwiek by nie robili, są w komfortowej sytuacji. Zapowiadany "jebut" nVidii z armaty, okazał się nieszkodliwym dla nich wystrzałem z kapiszona.
    AMD nie musi robić dosłownie nic, aby mieć tak samo atrakcyjne produkty, jak np tydzień temu. Niestety, nawet ceny wcale nie muszą obniżać.


  200. @ Promilus (autor: pawel.xxx | data: 29/03/10 | godz.: 14:44)
    Po raz kolejny przypominam że tematem dyskusji nie są jednostki SFU, a różnice wynikające z zastosowania wektorowych jednostek w amd i skalarnych w nvidii.
    Po raz kolejny przypominam że chcąc porównywać nv i AMD należy brać pod uwagę to że nv ma o 50% jednostek przetwarzających więcej i są one o 65% wyżej taktowane.

    "Co do narzędzia...GPU Bench" to jest to nazwa benchmarku z sandry.

    "a HLSL to kupa...nie ma tam nic co można by nazwać rozkazem, "
    Problem w tym że HLSL jest językiem programowania wysokiego poziomu. Zanim instrukcje HLSL da się wykonać, trzeba ten kod skompilować, załadować środowisko uruchomieniowe i dopiero potem wykonać. Ty opisałeś sposób działania benchmarku jako "wykorzystuje proste rozkazy DX9"
    Benchmark działający na tej zasadzie będzie niemiarodajny.

    w poście #186 napisałeś

    "W przypadku AMD mamy problem taki - niech 60% obliczeń będzie wektorowe ... a 40% skalarne. W przypadku wzrostu rozdzielczości proporcja się nie zmienia więc jak niby ma wzrosnąć efektywność wykorzystania ALU w radeonach? "

    Teraz piszesz

    "Gówno prawda. Stała to może być liczba wierzchołków, ale to robota dla Vertex shadera czy geometry shadera. Ale liczba pixeli jest różna, a to one są przetwarzane przez pixel shadery ... - piękny wektor czteroelementowy"


    Czyli teraz twierdzisz że ilość pracy dla pixel shaderów wzrosła, a ilość pracy dla geometry i vertex jest stała. Piszesz że to piękny czteroelementowy wektor - wiec przybyło obliczeń wektorowych. Tylko że skoro ilość roboty dla geometry i vertex jest stała oznacza to że ilość wykonywanych przez nie operacji skalarnych także nie uległa zmianie. Jak więc proporcje o których napisałeś w poście #186 mogą być zachowane?

    Co do tamtej dyskusji ... Wprawdzie napisałem "innej dyskusji na innym serwisie."
    http://fwd4.me/JQl to jest inny serwis ty wskazałeś na dyskusje na tym serwisie.
    Natomiast po zapale z jakim w tej dyskusji argumentujesz za efektywnością wykorzystania jednostek przetwarzających w AMD wiedzę że udało mi sie tobie uświadomić że to jednostki przetwarzające decydują o wydajności. Widzę że oszacowanie wydajności ROP hd 4850 na 5000FPS w full HD, którego dopuściłem się w przytoczonej przez ciebie dyskusji pozwoliło ci zrozumieć że wydajność ROP w stosunku do j.p. jest gigantyczna.


  201. @pawel.xxx (autor: Promilus | data: 29/03/10 | godz.: 16:01)
    http://graphics.stanford.edu/projects/gpubench/
    Proszę, dziękuję...
    drugi link w google, bynajmniej pierwszy nie odsyła do sisoft.
    "Tylko że skoro ilość roboty dla geometry i vertex jest stała oznacza to że ilość wykonywanych przez nie operacji skalarnych także nie uległa zmianie. Jak więc proporcje o których napisałeś w poście #186 mogą być zachowane"
    Większość operacji na samej grafice to wektory (czy to składowe kolorów, czy współrzędne wierzchołków), nie zmienia to faktu, że trzeba jeszcze kod kontrolować, co gdzie i jak cieniować, kontrola pętli i instrukcji warunkowych - to jest skalarne i w związku z tym, że kod shadera nie rozrasta się z rozdzielczością to instrukcji tych w stosunku do czysto obliczeniowych jest tyle samo - po prostu trzeba dużo więcej razy taką procedurę wywołać.
    "argumentujesz za efektywnością wykorzystania jednostek przetwarzających w AMD wiedzę że udało mi sie tobie uświadomić że to jednostki przetwarzające decydują o wydajności"
    Tak jak wiele innych elementów. Gdyby było tak jak Ty twierdzisz to starczyłoby 8ROP, 24TMU a w zaoszczędzone miejsce można by wsadzić 128SP więcej w Fermi. I jaką by to wydajność ta karta miała? Dupowatą...w DX/OGL oczywiście. Nad efektywnością wykorzystania SP (i ALU) czuwa w radeonach ultra threaded dispatch processor co napisałem wyżej. I tam gdzie cieniowania jest naprawdę dużo jakoś Radeony nigdy nie odstawały od GF a nieraz je wyprzedzały. Niezależnie od rozdzielczości. W teorii to nawet Itanium było wyśmienite, a jak w praktyce wyszło każdy wie. To samo jeśli chodziło o VSA-100 (i T buffer) czy Parhelię-512. Czy R600 albo K10. W teorii wyśmienite, w praktyce średnie jeśli nie mierne. BTW prawo Gustafsona nie jest zawsze prawidłowe, lubisz wiki to poczytaj - angielskojęzyczną :]
    "Widzę że oszacowanie wydajności ROP hd 4850 na 5000FPS w full HD, którego dopuściłem się w przytoczonej przez ciebie dyskusji pozwoliło ci zrozumieć że wydajność ROP w stosunku do j.p. jest gigantyczna"
    Nie oznacza to wcale, że jest wystarczająca w każdej sytuacji - wyraźnie powyżej napisałem że renderowanie na obecnych GPU nadal na sam koniec zasadniczo dopiero bierze pod uwagę co jest z przodu, a co z tyłu, co widać a co nie. Kyro miało wydajność ROP i TMU znacznie poniżej GF2MX, a w grach bez T&L zbliżało się wydajnością do GF2GTS jeśli nie wyżej - to właśnie ze względu na odmienną technikę renderingu - Kyro NIE liczył tyle samo pikseli i tekseli co GF2 w tej samej rozdzielczości - liczył ich dużo mniej. A nawet teraz każda obecna karta graficzna liczy ich dla każdej klatki znacznie więcej niż 2,304,000 w FullHD. Dlatego Twoje wyliczenia FPS względem wydajności ROP już w założeniach były błędne. Tyle miałbyś, ale gdyby cała scena od samego początku była 2D bez obiektów nachodzących na siebie.


  202. Ciekawostka: obsługa dwóch monitorów. (autor: pippi | data: 29/03/10 | godz.: 18:14)
    Serwis Legitreviews przetestował GTX480 w konfiguracji z dwoma monitorami. Co się okazuje - w trybie idle pobór mocy wzrasta ze 184 do 264W (przyrost 80W), zaś temperatura rośnie z 57 do 90C (wiatrak nie przyspiesza, by zachować akceptowalny poziom hałasu). PR-owcy NVidii nie są nawet pewni, czy tą przypadłość da się usunąć (czytaj: zmniejszyć skalę przyrostu pobór mocy, bo wiadomo, że jakieś zwiększenie zużycia energii będzie) w przyszłości. W pezypadku GTX285 pobór mocy w konfiguracji 1/2 LCD wynosi - odpowiednio - 158/191W (różnica 33W), zaś dla HD5870 - 148/189W (przyrost o 41W). Z temperaturami jest podobnie: GTX285 grzeje się o 9C bardziej, zaś HD5870 o 13C, wobec 33C przyrostu w Fermim.
    Linka dla dociekliwych: http://www.legitreviews.com/article/1258/15/


  203. @pippi (autor: Promilus | data: 29/03/10 | godz.: 18:27)
    Podobnie się dzieje w SLI.

  204. @Qjanusz (autor: AmigaPPC | data: 29/03/10 | godz.: 18:55)
    to nawet nie jest kapiszon tylko puszczony bąk.
    Niestety :/


  205. ... (autor: tompo75 | data: 29/03/10 | godz.: 21:06)
    205... rekord jakiś? ;)
    A wszystko przez ferment fermiego ofermy ;)


  206. @Promilus (autor: pawel.xxx | data: 29/03/10 | godz.: 21:34)
    "Gdyby było tak jak Ty twierdzisz to starczyłoby 8ROP, 24TMU a w zaoszczędzone miejsce można by wsadzić 128SP więcej w Fermi."


    To nie tak że uważam iż ilość ROP i TMU jest źle dobrana. Uważam że projektanci dobrali ją w optymalny sposób. Natomiast jestem całkowicie przekonany iż to wydajność j.p. jest kluczowa.
    Gdyby było inaczej to ze względu na niewielki koszt zwielokrotnienia wydajności ROP i TMU juz mielibyśmy takie karty.
    Obecnie ROP i TMU są niesamowicie szybkie, a do tego są małe w porównaniu do j.p. i ich możliwości.
    Problem potoku graficznego można traktować jako złożenie sekwencyjne klasycznych problemów producent-konsument. Dysproporcje szybkości producentów - j.p vs konsumentów czyli ROP/TMU jest celowa i ma sens. Idzie o to by kosztowni producenci nie byli blokowani przez niegotowość konsumentów.
    Pomysł o którym napisałeś wydaje się atrakcyjny. Jednak rezygnując z ROP i TMU da się uzyskać raptem kilka może kilkanaście j.p i wystarczy że średni czas blokowania j.p. przez niegotowość konsumentów wzrośnie o 2% i całe przedsięwzięcie traci sens.
    Jasne pewnie projektanci z chęcią zwiększyli by ilość j.p tyle że ze względu na ich kosztowność nie bardzo mogą. Wybrali wiec optymalny kompromis.


    Tak wygląda potok graficzny.
    http://fwd4.me/JUZ
    Clipping -czyli usuwanie tego co niewidoczne jest kluczowe i robi się to możliwie najwcześniej i to nie jedyny proces który usuwa to czego nie widać.
    Sam ROP dostaje nieco więcej danych niż wynika z rozdzielczości, ze szczególnym podkreśleniem nieco. No chyba że scena jest pełna odbić dymu i mgły

    A prawo Gustafsona w tym wypadku działa.


  207. @tompo75 (autor: Qjanusz | data: 29/03/10 | godz.: 23:05)
    rekord to był ponad 250.
    Też coś o Fermi w kontekście :-)


  208. @pawel.xxx (autor: Promilus | data: 30/03/10 | godz.: 08:13)
    "Obecnie ROP i TMU są niesamowicie szybkie, a do tego są małe w porównaniu do j.p. i ich możliwości. "
    Taa, ale to, że małe nie znaczy że można je olać bo SP zajmują 80% chipu. Przykład bardzo prosty - RSX, wg Sony 1.8TFLOPS mocy obliczeniowej z czego tylko ~200GFLOPS z shaderów. Reszta to fixed function, czy to TMU, czy ROP czy pozostałe elementy. Widać wyraźnie, że gdyby chcieć zrobić filtrację nie za pomocą TMU tylko SP to trzeba by ich naprawdę dużo, dużo więcej. Czyli dokładnie tak jak napisałeś - są niesamowicie szybkie w stosunku do j.p. I z tego wynika właśnie to, że nie zgodzę się z nikim kto twierdzi że to wydajność j.p. ma decydujące znaczenie - od paru ładnych lat są pewne proporcje między ROP, TMU i SP uznawane za niemal optymalne. Naruszysz delikatną równowagę i robią się cyrki.
    Co do renderingu:
    http://www.onepc.net/reviews/0026/page2.shtml
    Klasyczny kontra kafelkowy.
    http://en.wikipedia.org/wiki/HyperZ
    Tutaj - a w szczególności końcowy fragment o technice wspomagającej usuwanie niewidocznych pikseli z procesu renderingu. Early-z nvidii działa w podobny sposób, nie zmienia to faktu, że do pewnego punktu liczone jest wszystko, przód płotku, tył płotku, domek i co za domkiem, drzewko i wiewiór za drzewem....


  209. XFX mówi nie GTX 470 i GTX 480 (autor: szpak3 | data: 31/03/10 | godz.: 00:20)
    to jest MOCNY cios dla NV
    http://pclab.pl/news41462.html


  210. @szpak3 (autor: Qjanusz | data: 31/03/10 | godz.: 11:07)
    ostatnio każde doniesienie jest ciosem w nVidię.
    Nawet great day, czyli premiera Fermi okazała się ciosem w firmę.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.