Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Wtorek 23 marca 2010 
    

Uzysk z Fermi mniejszy niż 50%


Autor: Wedelek | źródło: DigiTimes | 09:33
(52)
Serwis DigiTimes donosi że pomimo poprawnego opracowania procesu produkcji w 40nm samego w sobie, fabryki TSMC nadal mają pewne kłopoty z produkcją GPU „Fermi”. Źródło na które powołuje się ten serwis donosi, że uzysk z najnowszych chipów firmy Nvidia nadal nie przekracza 50% co nie jest wynikiem który mógłby być satysfakcjonującym dla koncernu z Santa Clara. Na potwierdzenie rewelacji serwis przytacza fakt ograniczenia ilości procesorów strumieniowych w topowej karcie oznaczonej jako GTX 480 z 512 do 480 z powodu zbytniej złożoności samego układu i spowodowanych tym problemów z produkcją. W modelu GTX 470 natomiast Nvidia dotrzymała „obietnic” dotyczących 448 procesorów strumieniowych zwanych przez producenta rdzeniami CUDA. Te same problemy dotyczyć mają więc również kart z rynku mainstream i układów dwuprocesorowych. To samo źródło donosi o nieustających, intensywnych pracach nad poprawą tego stanu rzeczy, która jest poważną przeszkodą dla masowej produkcji sprawnych układów.

Jeżeli plotka się potwierdzi, to nie będzie to zbyt szczęśliwa informacja dla klientów. Tak czy inaczej wszystko powinno się wyjaśnić po dacie 6 kwietnia, kiedy to zacznie się fizyczna sprzedaż kart z GPU Fermi.

 
    
K O M E N T A R Z E
    

  1. że tak się powtórzę (autor: Qjanusz | data: 23/03/10 | godz.: 09:52)
    nVidia ma ok 45% sprawnych układów z wafla, a AMD 75%.

    Oczywiście 45%ogromnych układów nVidii i sporo mniejszych 75% AMD. Wykonanych w tym samym procesie technologicznym.

    nVidia nie mając na kogo zwalić winy na kiepsko zaprojektowany GPU, wskazuje na TSMC, które już dawno ogłosiło koniec problemów z nowym procesem.

    I jak tu można traktować kogoś wiarygodnie?


  2. No i... (autor: Sandacz | data: 23/03/10 | godz.: 09:59)
    piszą na DigiTimes a nie na jakimś portalu "Made in Incognito", więc coś jest na rzeczy.

  3. alez oni maja pod gorke (autor: cp_stef | data: 23/03/10 | godz.: 10:20)
    z Fermim, troche mi ich szkoda

  4. AMD specjalnie przeprojektowywalo swoje uklady (autor: zeek | data: 23/03/10 | godz.: 11:04)
    dokladajac tranzystorow, tak zeby wieksza ilość byla sprawna. jak widac nvidia dala ciala pod tym wzgledem.

    co cieszy to cena fermii, ktore mimo, ze o wiele wieksze, niewiele wydajniejsze to caly czas oplacalne w produkcji (chyba?)

    swiadczy to o sporym potencjale do obnizek kart ATI, mniejszy uklad i sporo wieksza ilosc sprawnych chipow


  5. Problemem jest to że Fermini to kloc . (autor: xernos | data: 23/03/10 | godz.: 11:06)
    Porówna c se można 529 mm2 do 334 mm2, AMD jest na dobrej drodze jak potrzeba silniejszego układu to pakuje więcej chipów na jednej płytce i po sprawie.



    http://www.nordichardware.com/...res-529-mm2-.html


  6. ..... (autor: Marek1981 | data: 23/03/10 | godz.: 11:39)
    sądzę że te max 50% to jest dla 480 okrojone

  7. Koszta implementacji (autor: morgi | data: 23/03/10 | godz.: 12:30)
    CUDAcznosci, ktora ma przynosic wielkie zyski, a tymczasem dalej Tesle to miejska legenda, wycofac sie nie moga wiec chipy beda tluc max hardcore.

  8. ... (autor: Qjanusz | data: 23/03/10 | godz.: 12:40)
    jak widać chociażby po tym:
    http://www.nvidia.pl/object/io_1267693780238.html

    Tesla i Quadro mają się dobrze, narzucając tempo, które nie jest wstanie znieść żadna dostępna armia, nawet najśliczniejszych i najsilniejszych CPU.


  9. hiehie (autor: morgi | data: 23/03/10 | godz.: 13:02)
    przez przypadek pewnie w Teslach S czy M laduja tam Xeony.

  10. ... (autor: kubaswielgus | data: 23/03/10 | godz.: 13:14)
    Na innej konferencji Nvidia zademonstrowała, że 15 kart graficznych z procesorami CUDA potrafi w czasie rzeczywistym wyrenderować fotorealistyczny obraz. To już koniec DX i CPU.

  11. zeek (autor: Dzban | data: 23/03/10 | godz.: 13:36)
    Nie tranzystory tylko mostki łączące warstwy układu które w tym procesie na często okazały się wadliwe. To znacznie poprawiło uzysk. Jaki czasz przed premierą AMD cięło chip 870 bo był za duży. Nvidia zrobiła wielkiego kloca którego w tym procesie bardzo trudno wyprodukować/

  12. @kubaswielgus (autor: Qjanusz | data: 23/03/10 | godz.: 13:58)
    nie kończy się ani DX, ani CPU.
    W STALKERze COP, czy Crysisie czasami też mamy wrażenie patrzenia na fotorealiztyczne obrazy.
    I to na sprzęcie będącym w każdym kompie do grania, a nie naście kart na profesjonalnej platformie.

    CPU będą potrzebne do ocierania czoła GPU, podczas gdy ten będzie wykonywał czarna robotę (jak np w Teslach)


  13. @Qjanusz (autor: kubaswielgus | data: 23/03/10 | godz.: 14:07)
    DX to tylko zbiór trików graficznych, które mają ułatwić tworzenie realistycznych gier. Jednak do fotorealizmu jeszcze im daleko. Żeby powstawały gry na poziomie filmu AVATAR trzeba iść w stronę raytracingu i dzięki temu co robi Nvidia może za jakieś 5lat będzie to możliwe.

  14. kubaswielgus (autor: MacLeod | data: 23/03/10 | godz.: 14:16)
    http://www.nvidia.pl/object/io_1267693780238.html

    Dokladnie:)


  15. @kubaswielgus (autor: rainy | data: 23/03/10 | godz.: 14:40)
    To co ty uważasz za postęp (odnośnie fotorealistycznej grafiki) ja uważam za regres (choć sam w gry praktycznie nie grywam).

    Im bardziej twórcy gier będą skupiać się na oprawie, tym bardziej prawdopodobne jest, że będzie się to działo ze szkodą dla grywalności.

    To tak jakby 90 procent filmu stanowiły efekty specjalne - dla mnie to żadna atrakcja (wręcz powiedziłabym o efekcie odstraszjącym).

    Przypuszczm więc, że również z tego powodu wiele osób sięga po starsze gry.


  16. pytanie kiedy wpadli na pomysł by (autor: Hitman | data: 23/03/10 | godz.: 14:46)
    aktywne było 480ps - jeżeli później niż na początku produkcji to jest szansa że pierwsza partia ma 512 - ale one pewnie pójdą do Tesli jeśli już.. - bo na powrót na taśmę i przycinanie laserkiem "nadmiaru" raczej nie wierze..

  17. avatar? (autor: piobzo | data: 23/03/10 | godz.: 14:51)
    noob to jedyne co mi sie nasunelo... no w czas ze nV, tylko wiesz gdzie masz tam te realistyke? idioto od kiedy procki renderuja grafike...no chyba ze sie cofnoles do staroci....albo programujesz w czyms tak archaicznym jak sdl... poza postaciami to niewiele sie zmienilo...(ta jak tlo wydaje ci sie realistyczne to brales mocne dragi)
    a to ze textury nalozono na postac? wielkie mi rzeczy, w final fantazy to byla rewolucja(2001), a w matrix w niektorych scenach walki, wogule nie bylo aktorow(walka z 2 z armia przeciwnikow na placu zostala w calosci wyrenderowana przez komputery... nie wierzysz? obejrzyj jescze raz)
    upadek dx? smiem watpic...puki pc + windows puty dx....
    nie wyglopiaj sie glupimi komentarzami... poczytaj i zastanow sie dobrze co chcesz napisac...
    btw avatar porazka roku! fabula juz byla....grafika przecietna jak na 3 lata produkcji.


  18. @piobzo (autor: kubaswielgus | data: 23/03/10 | godz.: 14:54)
    Tak tylko zapyta - zajmujesz się grafiką?

  19. nVidia ma spore zasługi w dziedziniie raytrackingu (autor: Qjanusz | data: 23/03/10 | godz.: 14:56)
    i jego popularyzacji na runku filmowym,
    ale na tym rynku ta technologia się skończy.

    "DX to tylko zbiór trików graficznych, które mają ułatwić tworzenie realistycznych gier" - i zgadzam się z tym w 100%. Dodam że nie tylko ale i "AŻ" zbiór trików.

    Dzięki nim gry powstają dużo szybciej, zapewniając przy tym wysokie walory graficzne. Na rynku gier OpenGL poległ, bo nie zapewnił takiej swobody i elastyczności, mimo że posiadał teoretycznie większe możliwości.

    Z resztą projekt Larrabee, mający wsparcie o wiele większe niż mogłaby mu zapewnić nVidia, poległ wraz z całą koncepcją raytrackingu do celów rozrywkowych. Jedno wielkie AMEN w temacie.


    @MacLeod - link bardzo dobry, ale zerżnięty z #8 ;)


  20. zalezy (autor: piobzo | data: 23/03/10 | godz.: 15:08)
    tak czysto to nie....tylko programowanie (graficzne tez, bo przeciez komputer za mnie moze wyrenderowac;) ), ale to twoje pytanie to stary trick:p dal argumenty ktorych nie obale, podwazmy jego autentycznosc...
    moje wnioski na temat grafiki biora sie z porownania. ale to nie temat o mnie;)


  21. @Qjanusz (autor: kubaswielgus | data: 23/03/10 | godz.: 15:08)
    DX powstało dlatego, że karty graficzne nie miały i jeszcze nie mają wystarczającej mocy do obliczenia raytracingu.
    DX nie ma przed sobą większej przyszłości przed bo jak długo można oszukiwać rzeczywistość.
    Raytracing nie skończy się na filmach bo to wbrew naturze. Rynek oczekuje fotorealistycznych gier i wszystko będzie zmierzało w tym kierunku.


  22. @piobzo (autor: kubaswielgus | data: 23/03/10 | godz.: 15:15)
    No to się trochę dziwię temu co wypisujesz.
    Ja nie mówię o grafice 2D i DX tylko o grafice poprawnej fizycznie - raytracing.


  23. nie wiem co to za dyskusja (autor: Marek1981 | data: 23/03/10 | godz.: 15:17)
    nie wiem co porównujecie?? renderowanie obrazu a dx .... nie mam słów.
    do ynteligentów dodam tylko pytanie czy wiedzą ile trwa wygenerowanie 1s filmu.
    @rainy - popieram post 15:)


  24. yyyy....wybaczcie (autor: piobzo | data: 23/03/10 | godz.: 15:36)
    ale zemnie nieuk.... co to jest grafika poprawna fizycznie? a ja mowie o grafice "3d" wyswietlanej na monitorze, a to ze masz zludzenie ze obiekt jest przestrzenny, to tylko poto aby widzowi wydalo sie ze jest realny, ale najbardziej podobne sa postacie ludzkie ktore sa aktorami na ktorch nalozyli textury... a grafika nie zajmuje sie ale pracowalem w tv, jezeli w avatarze mam rzeczywiste niebo to na zenatrz musze mie jakies bledy w renderowaniu bo ani mi troche tego z filmu nie przypomina... to samo drzewa, woda i efekty termiczne.
    marek nie mam pojecia... kompilacja kodu zalezy od kodu... a 1 s filmu? jesli karta genureje obraz to pewnie jedna sekunde odtworzy wciagu jednej sekundy?


  25. a ja się nie zgodzę. (autor: Qjanusz | data: 23/03/10 | godz.: 15:37)
    dobra grafika wcale nie obniża grywalności.
    To jest tak jak w filmie. Jeżeli ktoś chce efektami zastąpić dobry pomysł, to wyjdzie kicz.

    Tak samo w grze. Super grafika nie jest wymagalna do grywalności, ale na pewno przyczyni się do jej atrakcyjności.

    @kubaswielgus - DXy prą w stronę maksymalnego skrócenia pracy nad oprawą graficzną. Efekty, które już teraz można na nich osiągnąć, zapierają czasami dech. A o raytrackingu w zwykłym kompie do grania, będzie można realnie porozmawiać za lat 10 i to pewnie jako DX22 i 1/2


  26. czas tworzenia jednego ujęcia (autor: Qjanusz | data: 23/03/10 | godz.: 15:42)
    "Ujęcie z helikoptera pokazujące setki stworzeń lecących nad wodą z wielką zalesioną górą w tle zostało obliczone dzięki PantaRay w zaledwie półtora dnia. „Takie ujęcie mogłoby zająć tydzień, jeśli zastosowalibyśmy poprzednie metody"

    http://www.benchmark.pl/...zieki_Nvidii-25774.html


  27. a i jeszcze... (autor: piobzo | data: 23/03/10 | godz.: 15:43)
    "Żeby powstawały gry na poziomie filmu AVATAR"
    to rozejzyj sie na rynku gier, obejrzyj film jeszcze raz... i zwroc uwage na tlo... to zobaczysz ze avatar to film ktorego jedynyny plus to to ze jest pierwszy w 3d pokazywany... ale fabule zerznol z produkcji disneya... a wiele gier ma podobne tlo wizualne... nie zeby bylo brzytkie...


  28. bez dx (autor: piobzo | data: 23/03/10 | godz.: 15:47)
    jak bez dot net'a, czy graficznego trybu tworzenia aplikacji zyc sie da, ale ciezko, dlugo i jeszcze sie pomylic mozna. Mozna pracowac bez niektorych bibliotek.... ale to jest uklon w strone programistow...

  29. @piobzo (autor: Qjanusz | data: 23/03/10 | godz.: 15:50)
    praca programistów to pieniądz, a pieniądz to czas - czyli największa zaleta DXa.

    Nawet "ostatni sprawiedliwy" Carmack to przyznał.


  30. zgadzam (autor: piobzo | data: 23/03/10 | godz.: 15:57)
    sie z moim przedmowca... czy moze napisalem cos nie tak?
    bo walsanie o to mi chodzilo:p


  31. Fermi i raytracing (autor: morgi | data: 23/03/10 | godz.: 16:17)
    no tak jest nawet demko i porazajacy 'real-time' rendering, ale do 2015 Nvidia zarzuca pomysla, ze da rade pojedyncza karteczka ta misje wykonac, czyli jeszcze troche czekania. Co do procow to nie boli nikogo glowa, bo x86 niezagrozony pnie sie w gore.

  32. @Qjanusz (autor: rainy | data: 23/03/10 | godz.: 16:24)
    Nikt przy zdrowych zmyslach nie będzie twierdził, że dobra grafika lub dobrze wkomponowane efekty specjalne są czymś złym.

    Problem i to poważny zaczyna się wtedy, gdy są głównym albo wręcz jedynym magnesem, który ma przyciągnąć do filmu/gry.

    Skąd bierze się, te 30-40 mln dolarów budżetu w przypadku co niektórych gier.

    Ano stąd, że kładzie się wręcz nieprawdopodobny nacisk na oprawę audiowizualną, zapominając po drodze o innych, równie ważnych elementach.

    Ludzie za ułamek takiej kwoty potrafią kręcić niskobudżetowe filmy, które są naprawdę interesujące/wartościowe.


  33. @rainy (autor: Qjanusz | data: 23/03/10 | godz.: 16:33)
    dokładnie. Są to przypadki typu lukier z odrobina pączka. Może się to trafić w każdej dziedzinie i nikt tego raczej nie strawi.

    Natomiast co do Avatara, do zdecydowanie był to film z naciskiem właśnie na efekty. W miarę dobra fabuła (tu każdy podyskutuje oczywiście) z rewelacyjnymi efektami wizualnymi. Zresztą rozdanie nagród Oscara słusznie posadziło Avatara tam, gdzie jego miejsce.

    Co do CPU, to ani umierający x86, ani wschodzący AMD64 nie jest w stanie zagrozić nawet średniej klasy GPGPU.


  34. @piobzo (autor: Marek1981 | data: 23/03/10 | godz.: 16:45)
    Grafa lub procek wyświetla film ale nie generuje obrazu (odczytuje a nie tworzy).
    @Qjanusz
    "praca programistów to pieniądz, a pieniądz to czas - czyli największa zaleta DXa." masz rację
    "Ujęcie z helikoptera pokazujące setki stworzeń lecących nad wodą z wielką zalesioną górą w tle zostało obliczone dzięki PantaRay w zaledwie półtora dnia"czyli nawet tak niby mocny sprzęt generowałby 1s (30fps- płynnie) ok 1.5mc fajny pokaz slajdów:)


  35. @piobzo (autor: Drow | data: 23/03/10 | godz.: 17:11)
    chyba mylisz pojecia. 'fotorealizm' to wcale nie to samo, co 'idealne odzwierciedlenie rzeczywistosci' ktora nas otacza - w twoim przykladzie, pogody.
    wyglada na to, ze sie czepiasz dla samego czepiania sie, bo postaci w avatarze faktycznie wygladaja realistycznie - wygladaja wiarygodnie, jak zywe, oddychajace organizmy, ktore sa zlozone rownie bardzo, jak nasze realne.

    No ale.. moze to ja sie czepiam.


  36. czepiasz sie mojego czepiania sie (autor: piobzo | data: 23/03/10 | godz.: 19:14)
    czekalem na ten film dosc dlugo.... i coz mnie on zawiudl(zwlaszcza fabula...pocahontas w niebieskim wydaniu...brrr), precyzja twarzy w postaciach... no dobra fajnie, a cala reszta?
    http://www.youtube.com/watch?v=1wK1Ixr-UmM
    ***
    morgi przyznaje ci racje... x86 jeszcze dlugo beda spokojne o swoja pozycje...wina obarczamy microsoft...


  37. ... (autor: kubaswielgus | data: 23/03/10 | godz.: 20:04)
    No niestety, ale x86 powoli się kończy. Core i7 860 jest najprawdopodobniej ostatnim drogim procesorem jaki kupiłem. Dzięki GPU Nvidi praca, którą wykonywałem będzie 20x szybsza. Koszt wymiany grafiki na nowszą jest znacznie prostszy i tańszy niż wymiana płyty głównej, procesora i pamięci. Im bardziej Nvidia współpracuje z programistami tym więcej branż będzie przechodziło na GPU.
    @piobzo - "Pocahontas w niebieskim wydaniu" - jak zrzynasz tekst z innych serwisów to chociaż postaw cudzysłów!


  38. @pobzio (autor: Jarek84 | data: 23/03/10 | godz.: 20:05)
    jeśli wg Ciebie technika śledzenia promieni jest idealnym odzwierciedleniem świata to gratuluje (w duzym uproszczeniu pojmujesz realia komputerowej rozrywki i otaczajaceg Cie swiata). Polecalbym przeczytanie kilku dobrych ksiazek z dziedzin geometrii, algorytmow geometrycznych, komputerowych technik 3d etc (zapewniam jest co czytac ;) )

    widzę tez ze jestes orędownikiem zaniechania obecnie popularnych technik komponentowych i obiektowych w programowaniu - gratuluje po raz kolejny - niech kazdy uprawia wolna amerykanke i skupi sie na tworzeniu wlasnych niskopoziomowych api itd - po co nam openGl czy DX?

    znajomosc podstaw terminu tj 'raytracing' nie upowaznia do fantazjowania, i tyczy sie to wiekszosci 'wikipediowych medrcow', bo niestety coraz czesciej mamy z takimi do czynienia na forum:(

    Prosze nie obrazac sie na moje zale - po prostu po pracy z nowym "nabytkiem" z "dobrej panstwowej uczelni" moj poziom frustracji osiagnal apogeum. Ludzie, zajmijcie sie przyswajaniem wiedzy i na jej podstawie dokonujcie odkryc, przemyslen a nie snujcie juz bajek o drugiej Japoni czy Irlandii.....

    Ulzylo mi;) Pozdrawiam pragmatycznie i zgorzkniale;)


  39. przepraszam (autor: Jarek84 | data: 23/03/10 | godz.: 20:08)
    pomylilem pobzia z kubawielgusem. Sorki.

  40. @Jarek84 (autor: kubaswielgus | data: 23/03/10 | godz.: 20:16)
    Nie zrozumiałeś mnie. Napisałem, że DX w obecnej postaci nie ma racji bytu, ale wprowadzanie standardów jest czymś bardzo dobrym. Przecież teselacja, o której tak głośno dzięki DX11 - już dawno była stosowana w programach 3D. Ja po prostu uważam, że DX będzie zmierzał w kierunku śledzenia promieni. Inne techniki osiągania fotorealizmu w 3D są mi nieznane. Możesz mi podesłać jakiś link to się doszkolę.

  41. Po projekcji "Avatar'a"... (autor: culmen | data: 23/03/10 | godz.: 21:00)
    powiedziałem może być, ale nie za te pieniądze.
    Jak pomysle ze Burdż Chalifa kosztował oficjalnie tylko 3x tyle co ten film to mnie rozkłada. Zaloze sie ze po obejrzeniu panoramy z niego moj komentarz byłby godny kazdego Polaka... "O kur.....a"


  42. @kubaswielgus (autor: Jarek84 | data: 23/03/10 | godz.: 21:39)
    nie wiem czy jest sens rozmawiania nt directx, bo widze ze nie do konca rozumiesz o czym ja piszę i chyba nie do konca rozumiesz to, o czym sam piszesz, bo miszmasz w twoich postach jest straszny a chaos w wypowiedziach nie do ogarniecia. Ale w najprostszy sposób - nikt, czy to ATi czy NV nie bedzie pisac wlasnego graficznego API - szybciej współpracowac będą z MS bądź Khronos. to tak samo jakby ktoś kazał pisać programiście projekt np w C++ karząc od początku tworzyć podstawowe struktury danych, gdy ma pod ręką STLa.

    Co do linków, to jesli byłeś na odpowiednich stronach dotyczących RT to i reszta ciekawych technik, tj np Radiosity powinna gdzie s tam być, więc miłego doszkalania ;)


  43. @Jarek84 (autor: kubaswielgus | data: 23/03/10 | godz.: 22:32)
    Widzę, że jesteś dobry teoretyk. Ja za to praktykuje te programy na codzień. Pisząc "raytracing" chodziło mi o ogół technik do liczenia renderingu. Tak zwykło się gadać na forach CG i raczej nie używa się nazw - radiosity itp.
    Praktycznie każdy program renderujący ma swój algorytm, więc ogólnie mówi się raytacing.
    Podsumowując to co już napisałem:
    1. Nvidia przygotowuje swoje karty pod raytracing.
    2. Gry będą szły w tym kierunku.
    3. Albo DX będzie obliczał RT (chodzi mi o ogólnik), albo powstanie nowy zestaw funkcji.


  44. @kubaswielgus (autor: Jarek84 | data: 23/03/10 | godz.: 23:41)
    (odpowiadam miedzy unitami wiec sorry za dlosc dlugi response) proszę Cie nie molestuj już ludzi na forum swoja "definicją raytracingu" - co do praktykowania na co dzien, to wiesz czlowiek ktory teraz ze mna pracuje - badz inaczej przez ktorego mam wiecej pracy - tez przed przyjsciem do mojej firmy mocno "praktykowal" wiec daj juz na wstrzymanie z laski swojej.

    W odpowiedzi na Twoje listowanie:
    1. Nvidia idzie w GPGPU
    2. Wizualnie gry zawsze ida do przodu
    3. Implementacja nowych technik i algorytmów w danym API jest normalną rzecza, wymuszona przez mozliwości hardware, bądź też wymuszajace implementację nowych funkcji w tymże.

    Z mojej strony koniec dyskusji. Dobrej nocy rzyczę.


  45. *zyczę ;) (autor: Jarek84 | data: 23/03/10 | godz.: 23:42)
    sorry za orta.

  46. @piobzo (autor: Drow | data: 24/03/10 | godz.: 01:06)
    a co ma byc z reszta? jest motion capturowana, zupelnie jak twarz.. no naprawde, trzeba bysc umyslnie slepym, zeby zarzucac cos animacji.
    Co do story, no coz, jesli spodziewales sie filoficznej historii zastanawiajacej sie nad sensem istnienia czy czegos podobnie epickiego, to chyba ogladales jakies inne trailery i materialy promocyjne generalnie z jakiegos innego filmu, a nie Avatara. Kiedy Cameron w ogole stawial w swoich filmach tego na typu filozofowanie? Nigdy przeciez, jego filmy to zawsze byl dobry pomysl + akcja trzymajaca widza na brzegu siedzenia, nic wiecej.

    Teraz wiem skad te twoje czepialstwo. Ty po prostu poszedles na nie ten film, na jaki ci sie wydawalo, ze idziesz i jestes zawiedziony. OK, rozumiem to. Ale czepialstwa to nie usprawiedliwia.


  47. Drow (autor: kretos | data: 24/03/10 | godz.: 10:10)
    bo kolega chcial obejrzec aviatora:)

    ps. sam sie przejezyczylem kupujac bilety...


  48. @Jarek84 (autor: kubaswielgus | data: 24/03/10 | godz.: 11:12)
    Ja mam za to bardzo nieprzyjemne doświadczenia z grafikami wychowanymi na książce. Niestety, ale w tym zawodzi teoria nic nie znaczy, a liczą się umiejętności plastyczne.
    Skoro przyznałeś mi rację to po co zaczynasz jakąś dyskusję?


  49. No i ... (autor: Marucins | data: 24/03/10 | godz.: 11:32)
    Najlepsze jest to to iz dopiero teraz piszą coś takiego.

    "Na potwierdzenie rewelacji serwis przytacza fakt ograniczenia ilości procesorów strumieniowych w topowej karcie oznaczonej jako GTX 480 z 512 do 480 z powodu zbytniej złożoności samego układu i spowodowanych tym problemów z produkcją."

    A jak wszyscy widzieli chwalili sie juz "karta" z 512 kilka miesięcy temu - Wstyd


  50. @kubaswielgus (autor: Jarek84 | data: 24/03/10 | godz.: 12:21)
    Tylko ze znajac teorie nie "chrzani" sie trzy po trzy co slina na jezyk przyniesie nie zastanawiajac sie nad tym co sie mowi - sam troche rzeczy napisalem w openGL jeszcze w czasach studenckich i mam kolegów którzy dalej się tym zajmują i po prostu takie sypanie terminologia na pale jest po prostu smieszne i w srodowisku programistow trudno pozniej byc uwazanym za kompetentego. Co do zmyslu artystycznego od tego są graficy(2d 3d), nie programiści. Co robią programiści, możesz sprawdzić zaglądając w źródła np enginu Q3.

    Kończąc offtop, ogólnie sytuacja z całym Fermii wygląda dla NV nieciekawie - duże, gorące, ciezkie do wyprudokowania z zadowalającym uzyskiem(trzeba było zrezygnować z 512 rdzeni) i jak przecieki wskazują niewiele szybsze od HD5870 - patrząc na wyniki podkręconych HD5870 (np test MSI na in4) przewage ta AMD jest w stanie zniwelować podnosząc taktowanie układów.


  51. @Jarek84 - część plotek mówi o niewielkiej (autor: Mcmumin | data: 24/03/10 | godz.: 16:03)
    przewadze wydajnościowej (10%) inne o całkiem sporej (ok 30%) wkrótce się przekonamy.

  52. @ Jarek84, piobzo (autor: sz4rlej | data: 26/03/10 | godz.: 19:14)
    szczególnie do piobzo:
    BŁAGAM WAS, UŻYWAJCIE CZASEM SŁOWNIKA!

    Jak czytam wypowiedzi pełne błędów, ignorujące podstawowe zasady języka polskiego, to po prostu mnie odpycha. Nie jestem w stanie traktować takich wypowiedzi poważnie. Niby wyższe wykształcenie, a takie byki... Ja rozumiem, można zrobić literówkę, "ortografa" ale na litość boską macie przecież słownik (jeśli nie w przeglądarce, to chociaż drukowany)! I nie każcie mi cytować waszych byków, bo nie wytrzymie ;)

    A co doraytraceing'u - zostanie on prawdopodobnie wprowadzony w grach tylko wtedy, gdy karty graficzne będą miały odpowiednią moc. Teraz przyszła pora na teslację. Kiedyś wejdzie także rt. Jednak efekty tej techniki (niewiele gorsze można uzyskać podrabiając rt) są na tyle nikłe, że prawdopodobnie jeszcze długo sobie poczekamy.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.