Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Środa 2 czerwca 2010 
    

AMD prezentuje działające 32nm Fusion [wideo]


Autor: Zbyszek | źródło: TweakTown | 11:50
(130)
Podczas kolejnego dnia targów Computex 2010 prezes firmy AMD, Dirk Meyer wraz ze swoimi współpracownikami przedstawił działające 32-nanometrowe procesory Fusion APU (Accelerated Processing Unit). Układy noszą nazwę kodową Llano oraz Ontario i są połączeniem klasycznego procesora oraz układu graficznego w jednym układzie krzemowym. W trakcie pokazu procesory nie miały najmniejszych problemów z płynną animacją gry Aliens vs Predator w trybie DirextX 11. Przedstawiciele AMD nie chcieli jednak zdradzić na którym z układów uruchomiono grę oraz podać szczegółowych informacji na jego temat, w tym liczby procesorów strumieniowych oraz częstotliwości taktowania.

Procesory trafia do sprzedaży na przełomie 2010 i 2011 roku. Układy będą wyposażone w rozwiązania pozwalające wykorzystać moc zintegrowanego GPU do wspierania obliczeń wykonywanych przez główne rdzenie procesorów, a oprócz tego dysponować będą zaawansowanymi metodami oszczędzania energii.



 
    
K O M E N T A R Z E
    

  1. ... (autor: kubaswielgus | data: 2/06/10 | godz.: 11:34)
    No to Intel ma pozamiatane.

  2. Robi (autor: antrax | data: 2/06/10 | godz.: 11:41)
    się interesująco, może być to początek nowej rewolucji

  3. do premiery jeszcze pol roku (autor: zeek | data: 2/06/10 | godz.: 11:41)
    to tyle o ile fermi sie spoznil :)

  4. @Kubaswielgus (autor: AmigaPPC | data: 2/06/10 | godz.: 11:58)
    Może nie aż tak - bo w końcu Intel też ma dobry sprzęt ale, robi się bardzo ciekawie.
    A biorąc pod uwagę jak sprawują się nowe konstrukcje AMD/ATI to nawet bardziej niż bardzo :)

    Dodatkowo niższy proces technologiczny.


  5. AvP na tej integrze w procku? (autor: shadowxxz | data: 2/06/10 | godz.: 12:03)
    Czyli nie ma się co martwić o wydajność...

  6. Wreszczie to zmęczyli, uff (autor: pomidor | data: 2/06/10 | godz.: 12:07)
    Po pięciu latach i wydaniu 5 mld$ w końcu udało się połączyć CPU z GPU. Ludzie w końcu będą mogli sobie kupić 'legendarnego Fusion' :) Zobaczymy jaki kokosy to przyniesie AMD. Intel zrobił to dużo taniej i szybciej

  7. @pomidor (autor: Promilus | data: 2/06/10 | godz.: 12:23)
    A w którym miejscu? :P

  8. @pomidor (autor: zeek | data: 2/06/10 | godz.: 12:27)
    tylko ze intel po prostu dokleil byle jaki chip graficzny do swojego procesora

  9. @pomidor (autor: damw | data: 2/06/10 | godz.: 12:37)
    przed napisaniem komentarza zazwyczaj dobrym zwyczajem jest przeczytanie artykulu.
    w przypadku procesora od amd mowa jest o integracji gpu i cpu w 1 kawalku krzemu, natomiast u intela cpu to 1 kawalek, a ich marna integra jest w drugim kawalku. to wszystko przykryte jest dopiero obudowa "procka".
    roznica jest jeszcze taka, ze na llano jak widac da sobie pograc nawet w avp w dx11 (co widac), natomiast na shicie od intela tego nie zrobisz


  10. @pomidor (autor: Marek1981 | data: 2/06/10 | godz.: 12:41)
    "Intel zrobił to dużo taniej i szybciej" ale ty masz pojecie. Intel chciał by cpu udawało gpu ale mu nie wyszło, w zamian dokleił do płytki z prockiem pseudo gpu..... jak chcesz mieć problemy ze sterami proszę bardzo

  11. Tak samo bylo z pierwszym (autor: djXone | data: 2/06/10 | godz.: 12:58)
    2 rdzeniowym prockiem od Intela, tak naprawde to byly dwa procki na jednej plytce, jako pierwsze AMD wypuscilo procesor ktory faktycznie posiadal dwa rdzenie! Nigdy nie lubilem intela i watpie zeby kiedys sie to zmienilo, jak dla mnie maja oni w dupie klientow, dla nich liczy sie tylko kasa, gdyby nie AMD, do dzis by nie bylo kontrolera ramu w cpu i prawdopodobnie klejone procesory, typu 4 cpu na jednej plytce HAHAHA zal

  12. Pożyjemy zobaczymy (autor: Sony Vaio | data: 2/06/10 | godz.: 13:13)
    jak będą w sklepach, mogą pokazywać demka,a co będzie w rzeczywistości, to się okaże.
    Poza tym demko ewidentnie tnie, brak synchro, widać jak się przesuwa obraz wraz z ruchem kamery. Wybrali odcinek, gdzie jest ciemno, zero akcji i nic się nie dzieje. Śmiem twierdzić, że na tym nie da się grać.


  13. Cienko to wyglada oczywiscie (autor: morgi | data: 2/06/10 | godz.: 13:14)
    reklamuja moce gpu, bo cep tam starenki i kiepski, a Intel wowczas juz bedzie mlocil next gena. hiehie.

  14. dzieci i ich marzenia (autor: djXone | data: 2/06/10 | godz.: 13:24)
    morgi bawi sie z sony vaio w piaskownicy i razem namietnie marza o intelu.

  15. To nie dla mnie. (autor: BeHQ | data: 2/06/10 | godz.: 13:27)
    Preferuje standardowe rozwiązania do domu: CPU+GPU. Może, gdybym miał biuro, to bym się cieszył z rozwoju technologii w tym kierunku.

  16. Zadziwiajace (autor: Gakudini | data: 2/06/10 | godz.: 13:32)
    Co zostało pokazane na wejściu? Co jest na tym waflu? Jeśli to faktycznie jest Liano i faktycznie AvP tak na nim działa, to mamy do czynienia z rewolucją. Zatrzymałem filmik, na waflu jest mniej więcej 30~32 układy na średnicy, co daje rozmiar chipu ok 90-100mm^2. Dla porównania PII w 45nm ma ok 280mm^2. Czyli to APU kosztowałoby taniej od Phenoma II, nawet licząc wyzszy koszt wafla 32nm. Do tego mamy w tej cenie grafikę i kontroler pamięci. Rynek notebooków/netbooków może się bardzo zmienić w przyszłym roku.

  17. o APU (autor: Jarek84 | data: 2/06/10 | godz.: 13:34)
    Wydajność zintegrowanego GPU jes naprawdę wysoka i w porównaniu do chociażby tego co jest w AMD880 czy 890 to wzrost jest na pewno imponujący - pozostaje zaprzągnięcie tego do ovliczeń innych niż tylko renderowanie sceny i będzie gites.
    Jak dla mnie - do laptopa będzie to bardzo dobry sprzęt. Podejrzewam, że póżniejsze wersje Fusiona bedace pochodna Bulldozera i RV8xx beda jeszcze lepsze, tym bardziej, że i 32nm będzie na pewno systematycznie poprawiane (vide obecne X6)

    Reasumując AMD podnosi się z kolan i miejmy nadzieję, że po sukcesie na rynku GPU odniosą go również na polu CPU, czego sobie i wam życze;)


  18. #16 (autor: Jarek84 | data: 2/06/10 | godz.: 13:39)
    Też jestem pod wrażeniem;)

    Ciekawe co Intel chciał zobaczyć;)
    http://www.pcworld.com/...n_demo_from_intels_spies
    .html

    PS: ciekawe z jaką częstotliwością jest taktowane GPU.


  19. @BeHQ (autor: damw | data: 2/06/10 | godz.: 13:41)
    w projekcie fusion nie chodzi o to, zeby miec w procesorze najbardziej wypasione gpu. chodzi o to, zeby czesc rzeczy ktore do tej pory wykonywal cpu, moglby byc wykonywane przez zintegrowana karte graficzna w procesorze. z jednej strony takie rozwiazanie przynajmniej teoretycznie moze pozwolic na ogromny skok wydajnosciowy, z drugiej strony bedziesz mial mozliwosc pograc sobie w mniej zaawansowane gry w miare komfortowo (tutaj widac avp ze da rade pograc. pokaz inna integre ktora to potrafi a przy okazji jest zgodna z x86). jesli nie bedzie wydajnosc wystarczajaca, mozesz sobie dokupic zewnetrza karte graficzna zeby zwiekszyc wydajnosc grafiki 3d.
    natomiast wcale bym sie nie zdziwil, gdyby amd w niedalekiej przyszlosci zaprezentowalo rozwiazanie idace jeszcze dalej - fusion dodatkowo do czesci operacji wykorzystywalo by w sposob natywny dodatkowo zewnetrzne gpu. skok wydajnosciowy by byl jeszcze wiekszy ale na chwile obecna jest to sci-fi :)


  20. haha (autor: morgi | data: 2/06/10 | godz.: 13:43)
    rewolucja gierka klatkowala i wyglada kiepsko, ciekawe czy to przez kiepskiego proca czy gpu, a do tego amd jak zwykle juz wie, ze walczyc moze max. o mainstream. To z zalozenia batalia przegrana, bo jak pokazaly ostatnie lata na 1 miejscu stawia sie na porzadnego proca, a dopiero potem ewentualnie na cos ekstra. Jak zwykle olewaja rynek dla entuzjastow, bardzo drogi, malo znaczacy w udzialach, ale bardzo cenny w zarobkach.
    http://www.guru3d.com/...are-is-95-billion-market/


  21. @morgi (autor: Promilus | data: 2/06/10 | godz.: 13:48)
    Zacznijmy od tego, że na intelku by się wcale nie uruchomiła :P A jeśli już to by się cięła w menu ^^

  22. ... (autor: kubaswielgus | data: 2/06/10 | godz.: 13:54)
    Takie połączenie pozwala przerzucić część obliczeń wykonywanych przez CPU na grafikę, ale również na odwrót, np. Teselacja może być obliczana przez CPU i wtedy Fermi ze swoimi teselatorami może się schować.

  23. wooow (autor: WnD25 | data: 2/06/10 | godz.: 14:06)
    wypaśna ta grafa ... gierka śmiga w 640-480 w 10 fps REWELACJA !!!!!!

  24. #20 (autor: Jarek84 | data: 2/06/10 | godz.: 14:08)
    A teraz drogi kolego pokaż nam jak to działa na intelu w DX11.

    Co do AVP, gra jakoś wybitnie nie wykorzystuj większej ilości rdzeni CPU.
    Jako całość APU od AMD przedstawia się wiele ciekawiej niż sklejki intela, ciekawi mnie tylko jak AMD ma zamiar pokazać realną wyższość tego rozwiązania w stosuku do "czystego" CPU i jaka będzie rzeczywista utylizacja tych 400SP w "niegierkowych" zastosowaniach.

    PS: Z perspektywy ostatniego roku, to prezentacja "jeża" i launch-party Fermii są w stosunku do konferencji AMD na bardzo niskim poziomie.


  25. morgi (autor: lolo_64xxx | data: 2/06/10 | godz.: 14:12)
    mainstream to max przychodów. jak tego nie rozumiesz, to wo stąd.

  26. @morgi (autor: rookie | data: 2/06/10 | godz.: 14:24)
    Nie możesz przeboleć tego, że AMD sprzedaje ogromną liczbę sześciordzeniowych procesorów, a sześciordzeniowiec intela kosztuje cztery razy więcej. I to jest rynek entuzjastów, którzy wiedzą jak wykorzystać sprzęt - sześć fizycznych rdzeni procesora.
    Kiepskie Larabee które skończyło jako nieużyteczny dodatek do i5 pokazuje jasno: intel nie ma i nie będzie miał układu mogącego konkurować graficznie ani z nvidią a tym bardziej z ati.
    Taka jest prawda i nie zmienisz rzeczywistości choćbyś trollował i fanbojował na tym forum.


  27. Co do cięcia się AvP (autor: Gakudini | data: 2/06/10 | godz.: 14:42)
    Tak gra wygląda jakby się przycinała (ale nie klatkuje),
    Tak scena nie jest wymagająca (ale nie są to minimalne detale). Ale to jest GRA, działa w DX11. To nie jest demo technologiczne pokazujące nie wiadomo co. Skoro AMD odważyło się to pokazać na tak wczesnym etapie, to grafika wcale taka zła nie jest. Przy zapowiadanych ok. 400SP będzie w okolicy Radeona 5670 czyli w grach ok. 9600GT. Jeśli ktoś uważa, że do gier takie coś się nie nadaje, to zapraszam do linka (na czym to ludzie grają): http://store.steampowered.com/hwsurvey/videocard/
    Co do GPGPU to działać będzie na DirectCompute 11 i OpenCL.


  28. ooo (autor: Elektron | data: 2/06/10 | godz.: 15:00)
    nawet Oferma się załapała - BUHAHAHA

  29. hmm... (autor: rcicho | data: 2/06/10 | godz.: 15:23)
    Liano zapowiada się znakomicie. Krytykantom przypomnę że to konstrukcja skierowana głównie do komputerów gdzie energooszczednosc jest priorytetem. To nie jest procesor dla graczy czy tzw. entuzjastów. Dla nich będzie Buldoger.

  30. htpc (autor: Al Ghouti | data: 2/06/10 | godz.: 15:45)
    Jak dla mnie to idealne rozwiązanie do htpc i notebooków. To może być pogrom integr intela.

  31. hehe (autor: morgi | data: 2/06/10 | godz.: 16:11)
    A gdzie sprzedaja jak udzialy spadaja, niestety od amd mozna wszystkiego spodziewac sie poza lepsza wydajnoscia od konkurencji na temat procow. W takim przypadku komu potrzebne 2x tyle krzemu do wychlodzenia i zasilania, spadaja udzialy i zyski leca bokiem. Wizerunek umacnia sie i rosnie, jak sie jest w grze na wszystkich frontach i to agresywnie, w przyp. amd jest to tylko maximum mainstream/performance desktop, a mobile, server to praktycznie okolice 10 plus minus kilka % dostaw x86. Ani to nie poprawia im sytuacji, ani nie wplywa na rozwoj chipow z tej branzy, po prostu sa na obrzezach wielkiej gry, musza pokazac cos nowego i przelomowego, a nie combo staroci.

  32. To może w dalszej perspektywie wyglądac tak: (autor: Sandacz | data: 2/06/10 | godz.: 16:12)
    Tak, tak - powoli zbliża się moment kiedy nie będzie gniazda CPU na płycie tylko slot dla 'grafy' (lub graf jak kto woli) i wszystko będzie śmigało aż miło.
    Na pcb 'grafiki' będą układy gdzie jednostki wykonawcze typowe dla GPU będą 'wymieszane' funkcjonalnie z typowymi dla CPU.
    Tak skończy się dominacja Intela.


  33. Promilus (autor: morgi | data: 2/06/10 | godz.: 16:16)
    Nie wiem, nie slyszalem zeby narzekano na wydajnosc GMA, ktore jest ulamkiem ceny zestawu. Cale laury i splendor Intela polega na niezaprzeczalnej potedze procesorow i to odkad ktokolwiek pamieta liczyl sie Intel i ktos tam jeszcze, bo teraz akurat wypada amd.

  34. no popatrz morgi (autor: Sandacz | data: 2/06/10 | godz.: 16:19)
    taka dominacja sprzedaży Intela a u mnie nie znalazł miejsca nigdy... I powiem ci w tajemnicy dlaczego: - bo na mnie drogie i kolorowe ściemy nie działają.

  35. @33 (autor: Sandacz | data: 2/06/10 | godz.: 16:31)
    "nie slyszalem zeby narzekano na wydajnosc GMA" - no to konieczna wizyta u laryngologa...

  36. A ja mam jedno pytanie (autor: mbuchcik | data: 2/06/10 | godz.: 16:37)
    Kto to kurde jest sony vaio czy jak mu tam? Człowieka przez 3 tyg na tpc nie ma i już nowy troll się pojawia...

  37. @up (autor: kubaswielgus | data: 2/06/10 | godz.: 16:40)
    Zainstaluj sobie ADBLOCKa w przeglądarce i nie będziesz podbijał statystyk portalowi, który próbuje tanią prowokacją zwiększać popularność.

  38. @morgi (autor: mbuchcik | data: 2/06/10 | godz.: 16:40)
    Jak nie widziałeś żeby ktoś się na gma skarżył to popatrz chociaż na test Radeona 5450 na pclabie. Wróć z powrotem jak wszystko dokładnie przeczytasz.

  39. Jak ktoś nie wie do czego służy GMA to sorry (autor: Sony Vaio | data: 2/06/10 | godz.: 17:07)
    ma odpowiednią wydajność do przeznaczenia.
    Gracze i inni onanizatorzy mogą sobie kupić kartę dedykowaną.


  40. @all (autor: Teriusz | data: 2/06/10 | godz.: 17:11)
    Zwłaszcza #23

    Wy byście chcieli by APU było nie wiadomo jak wydajne. Chcielibyście by AMD strzeliło sobie w stopę i pozbyło się oddzielnych kart GPU? Przypomnę wam, że jest to APU, a więc układ graficzny musi dzielić się miejscem z rdzeniami CPU. Oddzielne GPU w postaci układu krzemowego na osobnej karcie nie musi ściskać się z CPU i można w nim wsadzić więcej ROP-ów jak i więcej shaderów. Nigdy z założenia APU nie miało być szybsze niż normalne GPU na karcie. Od razu go projektowali by wstrzelić się między IGP na mobo, a pełnym GPU. Zaletą APU jest to iż GPU w APU, w przeciwieństwie w IGP, można podnieść jeszcze wyżej taktowania, bo będzie współdzielić jedno porządne chłodzenie.


  41. @Teriusz (autor: rainy | data: 2/06/10 | godz.: 17:30)
    Masz tutaj sporo racji.

    Z punktu widzenia użytkownika, wydajność APU powinna być jak najwyższa.

    Z perspektywy AMD, to nie jest takie oczywiste bo mieliby wówczas poważny kłopot ze sprzedażą tańszych GPU.

    Tak czy siak, jestem bardzo ciekaw wydajności Llano.


  42. @rainy (autor: Teriusz | data: 2/06/10 | godz.: 17:41)
    Ja jestem ciekaw jak zwiększa się wydajność takiego APU przy porządnym OC, bo sporą zaletą jest tutaj szybka komunikacja między rdzeniami CPU, a GPU.

  43. No dobra tylko, że w/g heise (autor: yantar | data: 2/06/10 | godz.: 17:51)
    to wcale nie był pokaz na Llano tylko na słabszym Ontario, który jest przeznaczony do sprzetu mobilnego =]
    http://www.heise-online.pl/...-termin-1014153.html


  44. Co poniektórzy (autor: VermilioN | data: 2/06/10 | godz.: 17:51)
    to by pewnie chcieli tutaj wydajność i7 i 5970. Jutro wolne więc pewnie mają już długi weekend więc dzieci mogą pisać do woli :)

  45. mbuchcik (autor: mandred | data: 2/06/10 | godz.: 18:05)
    Sony Vaio to następne konto trolla.

  46. @morgi (autor: antrax | data: 2/06/10 | godz.: 18:23)
    po prostu no comment, żal mi cię nawiedzony człowieku

  47. antrax (autor: morgi | data: 2/06/10 | godz.: 18:45)
    'w trakcie prezentacji dema, dziennikarze mogli zobaczyć, że płynność animacji pozostawiała trochę do życzenia. Przedstawiciele AMD nie ujawnili też rozdzielczości, w jakiej demo było renderowane.'
    To chyba puscili na nieswoim sprzecie, film jak z youtube mozna zapodac jako incognito, a do wafelka nawet nie podali martini.lipa by amd.


  48. @Terius (autor: Marek1981 | data: 2/06/10 | godz.: 18:46)
    A ja myślę iż nie masz racji, owszem taki tok myślenia jest oczywisty ale.... podczas debiutu fusion będzie prawdopodobnie i hd6xxx, co do słabszych mobilnych graf to nie ma na nich takiego zysku jak na prockach. A jak podniosą dzięki fusion 4x udziały i co ważne te procki będą droższe od obecnych ( z koszt produkcji pewnie podobny).

  49. ... (autor: kubaswielgus | data: 2/06/10 | godz.: 18:54)
    Intel ma pozamiatane.

  50. @morgi (autor: antrax | data: 2/06/10 | godz.: 18:57)
    proszę cię, myślisz że na integrze intela coś by poszło? i nie mam na myśli tej zintegrowanej w procu. Dla mnie to jest dowód że AMD potrafi zrobić APU które nie jest gniotem,
    Co do nie ujawniania rozdzielczości i parametrów to chyba normalnie, nigdy nie ujawniają takich rzeczy przed premierą poczekaj do premiery a na pewno się dowiesz


  51. @Marek1981 (autor: Teriusz | data: 2/06/10 | godz.: 19:02)
    Tak jak kontroler pamięci zniknął z płyt głównych tak IGP przeniosą się do APU. Jednak nadal nie ma mowy by były wydajniejsze niż oddzielne karty.
    Jedynie jeżeli okaże się, że transmisja danych CPU<->GPU w układzie APU będzie na tyle korzystna i zwiększy wydajność to będzie można mówić o wyeliminowaniu części słabszych kart jak np. serie 65xx i niższe. Nasuwa się jeszcze tylko pytanie, a co z szybkimi pamięciami GDDR5? Ale to już jest chyba zmartwienie AMD by to ładnie rozwiązać.


  52. ... (autor: Teriusz | data: 2/06/10 | godz.: 19:04)
    Nie wyobrażam sobie szybkiej grafiki w APU korzystającej z pamięci RAM.

  53. @Teriusz (autor: Promilus | data: 2/06/10 | godz.: 19:05)
    Tylko mamy tutaj jeden układ, jedna struktura. Trudno wyrokować, ale możliwe, że zegary dla sekcji GPU będą wyższe niż w przypadku dedykowanej karty o podobnej specyfikacji. W końcu 32nm i do tego SOI, a kto wie, może i High-K. Jeśli np. będzie układ taktowany częstotliwością NB tj. w okolicach 2-2.4GHz to niezły szok ;) A jeśli choćby połowę z tego to i tak jest lata świetlne przed intelem. A 10 SIMD Cores (OCL) to niezła sprawa, a chyba tyle APU będzie miało.

  54. @Promilus (autor: Teriusz | data: 2/06/10 | godz.: 19:10)
    Ale seria Radeon 6xxx, mam taką nadzieję, także będzie w niższym procesie tech. i z HKMG, więc w nich także będzie można zwiększyć zegary taktujące.
    Pomijam już mowę o intelu, bo tu szkoda gadać.


  55. antrax (autor: morgi | data: 2/06/10 | godz.: 20:17)
    Nie ma potrzeby, a jak zaistnieje to pojawi sie. Inna kwestia to w demku zabraklo wiekszej akcji i teselowanych monstrum, bo pewnie animacja zamienilaby sie w slideshow.

  56. @Up (autor: AmigaPPC | data: 2/06/10 | godz.: 20:55)
    tak jak na tym młocie no .... Larabee?

  57. @amiga (autor: zeek | data: 2/06/10 | godz.: 21:13)
    zostaw gowno, bo smierdzi

  58. @AmigaPPC (autor: rainy | data: 2/06/10 | godz.: 21:49)
    Nasz troll na m pewnie by chciał, aby znajdowało się tam Fermi w roli GPU.

    Btw, jak wspomniał już yantar, było to prawdopodobnie Ontario - dwurdzeniowy Bobcat i GPU z 80 SP (Llano jest quadem a GPU ma być wyposażone w 400 SP).


  59. to dla ciebie morgi (autor: Teriusz | data: 2/06/10 | godz.: 21:52)
    Zerknij na plakietkę.
    http://www.youtube.com/watch?v=LlFwF9SwdeI
    ;P


  60. .... (autor: RuMuN | data: 2/06/10 | godz.: 21:53)
    bajer :D

  61. Intel smokiem? (autor: Barbarian | data: 2/06/10 | godz.: 21:59)
    http://nt.interia.pl/...dzenie-intela,1487316,2258

  62. @Sony Vaio (autor: ligand17 | data: 2/06/10 | godz.: 22:14)
    " Jak ktoś nie wie do czego służy GMA to sorry"

    Przestań pierdolić głupoty. Moja szacowna korporacja uraczyła mnie tym syfem w służbowym laptopie, a teraz jeszcze wysłała za granicę do grudnia. Jakbym dorwał kretyna, który zablokował rozwój chipu i752 i sterowników do niego 10 lat temu, do bym go własnoręcznie udusił.


  63. hehe (autor: morgi | data: 2/06/10 | godz.: 22:33)
    bobcat i 80 sp to kpina, to zart, samo gpu juz dzisiaj robione w tym procesie ma chyba tdp wieksze niz chipy ladowane do netbookow. Cale amd, wpakowac tam zlomu i zero wsparcia, zero pomyslow na przyszlosc, kompletna zapasc. Intel przynajmniej promuje i przedstawia efekty badan, no a potem swiat podziwia i kupuje bez zajakniecia.

  64. @morgi (autor: Promilus | data: 2/06/10 | godz.: 22:41)
    Nie świat morgusiu się zachwyca tylko TY i tobie podobni ;)

  65. @morgi (autor: Barbarian | data: 2/06/10 | godz.: 22:41)
    Czasem jednak się chyba jąkam przy zakupie. Już pół roku czekam na "czyste" Core i7 w 32nm z czterema rdzeniami i nic.

  66. @mogi (autor: akpert | data: 2/06/10 | godz.: 22:46)
    Świat: "Ach, ten Intel ma tylko paściowate GMA, zrobię im przysługę i kupię ich rozwiązanie. A co, trzeci gracz się przyda i może Intel też w miarę dobrą grafikę zrobi".

  67. @Barbarian (autor: Aelavin | data: 2/06/10 | godz.: 23:03)
    No i się nie doczekasz raczej, bowiem Intel nie ma zamiaru produkować 4-rdzeniowych procesorów opartych na Core i7.

    Jeżeli AMD dobrze to rozegra i zapewni wsparcie osobom/firmom odpowiedzialnym za tworzenie programów pod CPU i GPU (np. przy pomocy OpenCL) w tym APU, to ma szansę na niewielkie zrewolucjonizowanie programowania. Wiem, że już teraz tworzy się programy pod CPU i GPU, ale jak na razie jest to niszowa twórczość.

    Odnośnie tego Waszego GMA, to u mojej mamy w netbooku jest to i do pracy biurowej może nawet i się to nadaje, ale ciężko mi stwierdzić, bowiem wolę nie tykać tego 10-calowego urządzenia, bo według mnie nie da się na tym komfortowo pracować.


  68. @Aelavin (autor: akpert | data: 2/06/10 | godz.: 23:40)
    "wolę nie tykać tego 10-calowego urządzenia, bo według mnie nie da się na tym komfortowo pracować."

    Ciii... przyjdzie trollo grave i powie, że to super ergonomiczne i komfortowe.


  69. @all (autor: Teriusz | data: 3/06/10 | godz.: 00:39)
    Może jeszcze nie zauważyliście, ale każdy kto chce wyprowadzić trolla z błędu to sam się ładuje w jego sidła. Jego wypowiedzi są celowo ukierunkowane na to by sprowokować do odpowiedzi.
    Na prowokacje jest tylko 1 sposób. Domyślcie się jaki.


  70. ... (autor: pawel.xxx | data: 3/06/10 | godz.: 00:50)
    Cpu Llano będzie miało wydajność na poziomie athlona II x4 630 lub nieco niżej.
    Ilość jednostek przetwarzających w gpu robi wrażenie, jednak mam niejakie wątpliwości czy dwukanałowy kontroler pamięci nie okaże się
    wąskim gardłem.
    Zapewnienia AMD o tym że wiele obliczeń będzie wykonywanych przez rdzeń graficzny także wydaja się przesadzone. Jak ktoś tu napisał póki co to wykorzystanie GPGPU jest znikome i nic nie wskazuje na to by się to w najbliższym czasie zmieniło.


  71. @pawel.xxx (autor: Teriusz | data: 3/06/10 | godz.: 01:05)
    Mam nadzieję, że się mylisz i że Fusion będzie takim właśnie katalizatorem do rozwoju GPGPU i hybryd typu APU.

  72. Niestety a Morgi ma problem... (autor: Sandacz | data: 3/06/10 | godz.: 09:47)
    Nvidia już od prawie roku daje ciała i ATI jest niezagrożone i oprócz świetnych obecnych kart HD 5XXX, ma w zasięgu dywersyfikacje produkcji (udziały w GF i produkcja w TSMC) ich następców.
    Intel się miota bo nie bardzo ma teraz wizję co robić dalej: prawdziwego APU nie da rady zrobić bo nie ma fundamentu w postaci prawdziwie wydajnej architektury GPU, musi więc iść w kierunku multirdzeniowych układów CPU, które mogłyby być przynajmniej w pewnych dziedzinach konkurencyjne z matrycami CPU_GPU. Sam rdzeń CPU staje się coraz bardziej skomplikowany i nie sądze żeby realnie (czyli ilość tranzystorów użytych w chipie była ekonomiczna technologicznie) dało się uzyskać wyższą wydajność niż 1.5 jeśli obecnie max to 1.
    A AMD trzyma obecnie oba kierunki zarówno CPU jak i GPU na wysokim poziomie i może elstyczniej reagować na to co wybierze rynek.


  73. ... (autor: coolart | data: 3/06/10 | godz.: 13:04)
    ja moze i kupie ale nie jako glowny komputer a jako MediaCenter. Bo do tego to na 100% beda sie nadawac. Odtwarzanie filmow, muzyki, przegladania internetu a czasami zagrania w cos.

  74. @coolart (autor: Teriusz | data: 3/06/10 | godz.: 13:52)
    Uzmysłowiłeś mi właśnie, że Nvidia ze swoim ION'em będzie w kłopocie. Chyba, że zabrnie jeszcze dalej z układami SoC i rozbuduje Tegrę. Co jako zwolennika architektury ARM bardzo by mnie ucieszyło.

  75. @Teriusz & pawel.xxx (autor: Promilus | data: 3/06/10 | godz.: 14:02)
    Na stronie AMD informacje dot. Fusion są jasne i przejrzyste. Nie będzie żadnego wspomagania obliczeń CPU przez rdzeń GPU, nie w sposób w jaki owa 'fuzja' była wcześniej przedstawiana. Akceleracja będzie ale tylko z OpenCL, CAL i DirectCompute.

  76. Promilus (autor: morgi | data: 3/06/10 | godz.: 14:23)
    Tak, tak skoro kiepskie, to niech amd porzuci x86 i zacznie rywalizowac tam gdzie sa Nvidia i arm. Poki co to wrzucaja do cepa resztki gpu i promuja to jako apu, a co potem proste kasacja gpu i dalsza rozbudowa cepa, tylko gdzie i jak, czyli reszta jest milczeniem.

  77. @morgi (autor: Promilus | data: 3/06/10 | godz.: 14:27)
    ciebie to mózg ktoś musiał skasować. Nie wiem skąd takie informacje masz, że zamierzają przenieść gpu do cpu (tak, gpu mające średnio 2,5x więcej tranzystorów w topowych rozwiązaniach) ale radzę ci zmienić źródła.

  78. #76 (autor: Jarek84 | data: 3/06/10 | godz.: 14:29)
    przepraszam, bo ostatnio to w hanheldach jakoś też Intela nie mogę znaleźć, skoro ich x86 jest takie super, to dlaczego go tam nie ma?

  79. #77 (autor: Jarek84 | data: 3/06/10 | godz.: 14:30)
    przepraszam, pomylilem nr postow;)

  80. he..he.. Morgi (autor: Sandacz | data: 3/06/10 | godz.: 14:30)
    No właśni Morgi, i właśnie to milczenie może doprowadzić akcjonariuszy Intela do rozstroju nerwowego... Bo klarownej wizji dalszego rozwoju układów to Intel jakoś nie podaje ( najpierw 80 rdzeni, a to będzie GPU 32 rdzenie x86, a to jednak będzie co innego a laracośtam jednak kasacja, nowy wynalazek 48 rdzeni, a to jednak ostatnio 50 rdzeni)

  81. Wreszcie sensowny układ do HTPC. (autor: Kenjiro | data: 3/06/10 | godz.: 15:08)
    Bardzo się cieszę, że za niedługo pojawi się Fusion, bo sporo czasu już upłynęło od pierwszych zapowiedzi. Pozostaje mieć tylko nadzieję, że cena pozostanie na rozsądnym poziomie.

    Jak tak czytam komentarze, to nasuwa się podstawowe pytanie: czemu k.. nie ma opcji oceny komentarza?!


  82. Sandacz (autor: Grave | data: 3/06/10 | godz.: 16:20)
    Taaaak, AMD elastycznie reaguje, a"Intel się miota". Każdemu bym życzył takiego miotania się - gigantyczna przewaga w udziałach w rynku (destkop, mobile i serwer) na korzyść Intela, ale tak - AMD jest do przodu, a Intel się miota. :-D

  83. @grave (autor: damw | data: 3/06/10 | godz.: 16:34)
    gdyby amd w czasach p4 nie mialo utrudnionego dojscia do klientow przez praktyki intela (ktory miedzy innymi za nie musial bulic ten miliard $) sytuacja mogla by w tej chwili wygladac zupelnie inaczej. zamiast 20% udzialu w rynku moglo byc duzo wiecej, a co sie z tym by wiazalo amd mialo by wiecej kasy na badania i rozwoj, natomiast intel by mial odpowiednio mniej kasy na te same cele. efekt by mogl byc taki, ze w tej chwili mielibysmy duzo lepszy i tanszy sprzet niz mamy obecnie.

  84. damw (autor: Sony Vaio | data: 3/06/10 | godz.: 16:51)
    a co Intel chodził po domach i wciskał proce ?
    Każdy mógł kupić co chciał, a że ludzie wolą Intela od lat...


  85. @up (autor: damw | data: 3/06/10 | godz.: 17:05)
    z Toba nie mam najmniejszego zamiaru rozmawiac. tak samo jak z emu oraz morgim. wszyscy jestescie siebie warci a troli karmic nie bede.

  86. @Promilus (autor: Teriusz | data: 3/06/10 | godz.: 17:08)
    Wykorzystując APU do obliczeń zmiennoprzecinkowych aż było by grzechem nie wykorzystać GPU i liczyć to wszystko przez rdzenie x86. Więc sam sobie odpowiedz gdzie w APU będą prowadzone obliczenia na liczbach całkowitych, a gdzie na zmiennoprzecinkowych.

  87. @damw (autor: Teriusz | data: 3/06/10 | godz.: 17:12)
    Gdyby coś tam, to by coś tam. Nie ma sensu tak gdybać. Gdyby intel nie robił takich zagrywek to może AMD nie kupiło by ATi. Jak by to teraz wyglądało? Gdybanie do niczego nie prowadzi. Chyba że piszesz pracę magisterką o teorii światów równoległych.

  88. damw (autor: morgi | data: 3/06/10 | godz.: 17:32)
    Sam siebie karmisz, bo mnie karmia fakty i newsy ze swiata, a nie ciasnota fanowskich przepychanek. Ja to widze tak, o amd tylko w 20% max. wypowiedzi nt. aktualnej pozycji i oferty, o Intelu min. 80%, ale skoro nie ma takich proporcji to trzeba adekwatnie pisac o wartosci produktowej i dzialalnosci, a ta wyglada jak wyglada, maluczki z gigantem molochem, kiepski z masterem, albo po prostu nieudolny z sensei.

  89. Morgi... (autor: Sandacz | data: 3/06/10 | godz.: 17:46)
    Morgi i inni o specyficznych (verical?) horyzontach: - nvidia nie miała takich 'specyficznych' sztuczek marketingowych jak Intel i w GPU było zwykle tak 6:4 dla NV, pytanie jaka proporcja byłaby wówczas gdyby dla AMD-Intel? Oczywiście wy na to pytanie nie odpowiecie racjonalnie bo odpowiedź musiałaby zachwiać waszą, specyficzną, odmianą logiki.
    Morgi - dobra rada - bierz pod uwagę WSZYSTKIE dostępne fakty ze świata zanim się na ten świat powołuj.


  90. @grave (autor: Sandacz | data: 3/06/10 | godz.: 17:52)
    Zdejmij te klapki na oczach i pokaż jaką logiką i trendem kieruje się Intel demonstrując co pół roku coraz to inne koncepcje? Ja wiem że dla bezkrytycznych ludków co wszystko łykają jak pelikany to każdy pokaz to przełamywanie barier i rewlucja, ale dla mnie to tylko efektowne pokazy z ciągle nowym scenariuszem, więc się miota. Wyszły mu C2D -szacun i OK, wyszły my iX - jeszcze większe uznanie, ale coś dalej to wizja mocno mglista...

  91. @Teriusz (autor: Promilus | data: 3/06/10 | godz.: 18:07)
    Czy uważasz, że każdy algorytm wykorzystujący float będzie efektywnie wykonywany na GPU? Massive parallel? No chyba nie. Przy okazji - GPU AMD całkiem dobrze radzi sobie z integerami więc grzech byłby nie wykorzystać GPU do obliczeń stałoliczbowych.... A tak w ogóle czemu nie zastąpić CPU poprzez GPU...yhm. Bo sobie nie radzą z rekurencją, mają problemy z wymianą danych między wątkami itp. itd?

  92. Sandacz (autor: Grave | data: 3/06/10 | godz.: 19:07)
    Bo co będzie dalej nie zawsze da się przewidzieć. Intel ma znacznie słabsze IGP ale za to znacznie mocniejsze CPU.

    AMD ma znacznie słabsze CPU, ale za to znacznie mocniejsze IGP

    Liczba aplikacji na dzień dzisiejszy efektywnie korzystająca z akceleracji GPU jest bardzo bardzo mała, ciągle nie ma jednego ustanowionego standardu i moim zdaniem jeszcze przynajmniej kilka lat poczekamy na praktyczne wykorzystanie tandemu CPU-GPU na większą skalę.

    Fusion może być niezłą alternatywą dla niskonapięciowych CPU Intela do laptopów - takich w których za wyświetlanie obrazu odpowiada IGP, a nie dedykowana karta graficzna, o ile istotnie utrzyma niskie TDP (tak gdzieś max 20W dla całego chipa IGP + CPU).

    Natomiast we wszystkich desktopach i laptopach korzystających z dedykowanych GPU (znacznie szybszych od tego IGP w fusion) mocne CPU w Sandy Bridge wykaże swoją wyższość nad Phenomem II w 32nm.

    Natomiast żeby premiera tej hybrydy AMD oznaczała jakieś większe kłopoty dla Intela - bardzo bardzo wątpię. Na pewno nie teraz i na pewno nie w ciągu przynajmniej paru następnych lat.

    A potem to nikt nie wie. Równie dobrze Intel jak mu będzie bardzo potrzebne dobre GPU może wykupić Nvidię. Na razie nie jest mu to do niczego potrzebne.


  93. Grave (autor: morgi | data: 3/06/10 | godz.: 20:16)
    I dlatego amd otwiera 'fundusz' wspierajacy wspolprace cepa z gpu, czyli do apu maja lipe a nie wsparcie. future is to fall by fusion.
    http://www.xbitlabs.com/...opment_of_Software.html


  94. Promilus (autor: morgi | data: 3/06/10 | godz.: 20:20)
    Z gpu nie da sie latwo skorzystac do obliczen i dluuuugo nie bedzie mozna w pelni, bo tutaj to ladnie wytlumaczyli, ze nawet CUDAcznosc bedaca daleko z przodu na softowym froncie ma wielkie problemy.
    'And there is little doubt that the CUDA parallel computing environment is only going to get better over time and hence more of the theoretical performance of the GPU ends up doing real work. (Nvidia is not there yet. There is still too much overhead on the CPUs as they get hammered fielding memory requests for GPUs on some workloads.)'


  95. @morgi (autor: Promilus | data: 3/06/10 | godz.: 20:50)
    Właśnie, że się da łatwo skorzystać do obliczeń. Tylko kwestia JAKICH obliczeń. Wszystko co się liczy wektorami i macierzami wspaniale się nadaje do przeniesienia na GPU, im większe rozmiary tym lepiej. Wszystko co jest sekwencyjne, skalarne zupełnie nie wykorzystuje możliwości GPU a takich aplikacji jest mnóstwo. Jakie jest przyspieszenie przy użyciu GPU można zobaczyć w przypadku VrayRT albo łamacza haseł office'a pewnego cwanego ruska. Albo setek innych aplikacji, nie zawsze komercyjych, nie zawsze publicznie dostępnych.

  96. Promilus (autor: morgi | data: 3/06/10 | godz.: 21:40)
    Tak, tak wlasnie obserwujemy w jakich bolach rodzi sie gpgpu, maja pole do popisu w hpc, gdzie brutalna moc obliczen liczy sie tylko i wylacznie i porod przebiega niesamowicie dlugo i z komplikacjami.

  97. Inny przyklad, jak jest z raytracingiem (autor: morgi | data: 3/06/10 | godz.: 21:42)
    dlaczego tak slabo, Fermi pokazalo niemoc, a tu filmowcy juz testuja niezle cacko, niestety jeszcze komercyjnie to niegotowe, ale obiecujace.
    'Katzenberg said the technology was based on Intel's Larrabee project and would be 20 to 50 times more efficient that previous processes.'
    http://www.extremetech.com/...,2845,2364566,00.asp


  98. @Grave (autor: rainy | data: 3/06/10 | godz.: 22:02)
    Ile razy można to powtarzać: Intel nigdy nie dostanie zgody na kupno Nvidii (aż tyle szmalu nie mają, żeby przekupić wszystkich).

  99. @morgi (autor: Promilus | data: 3/06/10 | godz.: 22:09)
    Hueh, 50x to miał VrayRT na GT200 ^^

  100. rainy (autor: Grave | data: 3/06/10 | godz.: 22:47)
    NVIDIA przy Intelu to mała firemka. Jakby Intel bardzo chciał i by się okazało że jest to najlepsza droga do dalszego rozwoju i walki z AMD to na pewno kasy by wystarczyło. Najwyżej by trochę ludzi pozwalniali albo pozbyli się jednej z fabryk.

    Jak AMD mogło się szarpnąć na ATI to Intel na Nvidię także może.


  101. @Grave (autor: Promilus | data: 3/06/10 | godz.: 22:49)
    Tylko ATI upadało i przejęcie było jedynym sensownym rozwiązaniem, no oprócz potężnej odprawy dla kadry kierowniczej i mniejszych dla reszty bandy ;) Nvidia ma się dobrze a pakietu większościowego wrzucać nie zamierza na giełdę więc jak intel miałby to sfinalizować?

  102. .... (autor: Wujofefer | data: 3/06/10 | godz.: 23:21)
    OMG! ATI nigdy nie chyliło się ku upadkowi, to akcjonariusze zdecydowali sprzedać świetnie prosperującą firmę, polecieli na kasę.
    Nvidia nie może zostać przejęta przez intela, urząd antymonopolowy w USA zjadłby intela wielomiliardowymi karami. Kiedyś czytałem o tym przy okazji przejęcia ATI przez AMD.


  103. @Wujofefer (autor: Promilus | data: 3/06/10 | godz.: 23:25)
    Taa, a z rodzinki X to warty uwagi był zasadniczo tylko X1950, całą resztę rynku sprzątnęła nvidia z 7300GS, GT, 7600GS, GT i oczywiście wyższymi modelami również. X1600 i 1650 były kiepawe, X1800 cienki.

  104. @Promilus (autor: Wujofefer | data: 3/06/10 | godz.: 23:35)
    W chwili premiery X1800 miał wydajność trochę wyższą niż GF7800GTX tak więc był to szybki układ. Przyznaję X1600 nie był zbytnio udany ale wszelkie wariacje na temat X1800 i X19xx świetnie zapełniły tą lukę.
    X1300 był dobrą kartą za niskie pieniądze.
    ATI miała pewien przestój po przejęciu jej przez AMD i premierze GF8.
    Do tego dochodziły problemy finansowe AMD, które negatywnie odbijały się na ATI. Wyraźnie w tamtym czasie firma zwolniła ale to dopiero po przejęciu a nie przed.


  105. Promilus (autor: Grave | data: 3/06/10 | godz.: 23:50)
    Bez przesady - TOP u ATI był zazwyczaj dobry począwszy od pierwszego Radeona 256.

    Radeon potrafił wygrać nawet z GeForce 2 w wyższych rozdzielczościach (dzięki lepszym mechanizmom oszczędzania przepustowości pamięci) i 32 bit kolorze. Dopiero GeForce 2 ULTRA dało bezdyskusyjne zwycięstwo Nvidii

    Radeon 8500 bardzo dobrze radził sobie w starciu z GeForce 3 - nawet z GeForce 3 Ti500 potrafił wygrać (choć nie zawsze)

    Radeon 9700 rozniósł GeForce'a 4 Ti 4600 na strzępy

    Radeon 9800 w grach korzystających z PS 2.0 zjadał wszystkie GeForce'y FX na śniadanie (shadery u Nvidii były słabiutkie).

    Radeon X800XT PE w sporej liczbie gier pokonywał GeForce'a 6800 ULTRA dzięki wyższej wydajności wypełniania. Przegrywał dopiero tam gdzie do głosu dochodziły shadery (zwłaszcza w wersji 3.0)

    Jeszcze lepiej z GeForce 6800 ULTRA radził sobie X850XT. Minus - suszarka na GPU.

    Radeon X1800XT pojawił się bardzo późno, ale z GF 7800GTX wygrywał w grach DX (przegrywał w OpenGL). Nvidia desperacko wydała wtedy dostępnego w śladowych ilościach GTX 512 który istotnie był trochę szybszy od karty ATI

    Radeon X1900XTX był równorzędnym przeciwnikiem dla GTX7900

    Dopiero dwuprocesorowa wersja dała zdecydowane zwycięstwo Nvidii

    Pierwsza dramatyczna porażka to dopiero HD2900XT - tu ATI przegrywało wszędzie gdzie się dało, nawet.... czasami nawet ze swoim poprzednikiem

    HD 3xx - powtórka z rozgrywki - nadal Nvidia wygrywała jak chciała, ale przynajmniej względem HD 2900 jego następca mniej się grzał i żarł mniej prądu.

    HD 4xx - w klasie średniej całkiem spory sukces ATI. Chociaż po koronę wydajności sięgnąć się nie udało.

    HD 5xx - za to tu już się udało i to na dłużej :-)

    W sumie na przestrzeni tych ~10 lat ATI radziło i radzi sobie naprawdę dobrze. Czasami lepiej czasami gorzej, ale w ogólnym rozrachunku trzymają się nieźle. A to spore osiągnięcie bo parę firm produkujących GPU zostało zepchniętych do totalnego low-endu lub zniknęło zupełnie z rynku na skutek braku możliwości konkurencji z Nvidią.

    Na liście pokonanych lub solidnie zdegradowanych: Rendition, 3D Labs, PowerVR, SiS, S3, Matrox, XGI and last but not least - 3dfx :)

    ATI się nie dało :)


  106. @Promilus, Wujofefer (autor: Jarek84 | data: 3/06/10 | godz.: 23:57)
    Na poczatku X19xx prezentowal sie tak srednio chociaz byl szybszy od NV w wersji X1950 wg mnie, z tym ze po wyjsciu coraz to nowszych gier okazalo sie ze to ATI odskakuje NV i to dosc znacznie.

    Zapomnieliscie poza tym wspomniec o jeszcze jednej dobrej karcie z tej serii, mianowicie X1650XT, poziom ~7600GT w grach z wieksza ilościa shaderow doganiala 7900GS - np mój 7600GT mizernie się prezentował w TestDrive Unlimited na tle "kolegowego" X1650XT;)


  107. @Grave (autor: rainy | data: 4/06/10 | godz.: 00:28)
    Nie miałem na myśli elementu finansowego (Intela oczywiście stać na kupno Nvidii) ale aspekt prawny oraz rynkowy.

    Intel dzięki swoim przeciętnym IGP jest formalnie numerem jeden na rynku graficznym.
    W związku z tym, nie dostanie na pewno zgody na kupno gracza numer dwa.

    Poza tym Intel ma wystarczająco dużo za paznokciami jak chodzi o rynek CPU, więc na pewno woleliby uniknąc kontaktów (czytaj kłopotów) z instytucjami typu Urząd Antymonopolowy.


  108. @Grave (autor: Promilus | data: 4/06/10 | godz.: 05:18)
    Może i był dobry ale bywał późno. Od wprowadzenia GF6 ATi tylko GONIŁO nvidię. A X1950 początkowo było słabsze od GF7900, dopiero coraz to nowsze wersje sterowników pozwoliły obudzić moc, niemniej to właśnie tamten okres był okresem pewnego zastoju. Najpierw klony 9800, później na szybko zrobiony X800 bez DX9.0c i zazwyczaj jednak wolniejszy od bezpośredniego konkurenta, a później średnio udana seria na R5xx z czego jak wspomniałem jedynie najwyższe modele były realnie warte uwagi. Truform porzucili, nie pokazali nic w zamian. Kolejna seria która NIE była jeszcze efektem połączenia firm i dawania kaski na badania to HD2k - ktoś jeszcze oprócz mnie uważa, że bez AMD w tym momencie ATI przestałoby istnieć?

  109. Grave pozytywnie zaskakuje... (autor: Sandacz | data: 4/06/10 | godz.: 06:48)
    Ładne i obiektywne opisanie historii z GPU.

  110. @Promilus (autor: Wujofefer | data: 4/06/10 | godz.: 09:14)
    Jakoś do czasu X2900 od ATI i GF8 od Nvidii obie firmy szły łeb w łeb. No może po za premierą GF FX gdzie ATI jedynie ulepszyła swojego 9700pro na 9800 i wydała masę wolniejszych układów na bazie tego chipu ale to tylko dlatego bo nie było realnej konkurencji ze strony Nvidii.
    Co do X1950 to zanim go wydali był jeszcze X1800 o porównywalnej mocy co GF7800GTX z 256mb ramu, potem X1900XTX, który wyprzedzał później wprowadzoną wersję GF7800GTX 512mb a na końcu dopiero ATI zaprezentowało X1950XTX, który znów był o kilka procent szybszy od GF7900GTX.
    W czasach walki GF7 z X1xxx to ATI posiadała najszybsze chipy, wcześniej przy walce GF6 z X8xx Nvidia była trochę szybsza, pierwsza zaprezentowała swoje nowe układy i wydała fenomenalne jak na tamte czasy konstrukcje (świetny stosunek ceny do jakości) GF6600GT i GF6800GT/GS. Tutaj ATI walczyła słabszymi chipami z serii X800 i X700. Wydała też świetną konstrukcję X800GTO. Karta bardzo dobrze się podkręcała i była w świetnej cenie. Pamiętam jak u kumpla podkręcaliśmy ją i sprawdzaliśmy ile więcej klatek ma Oblivion :D .

    ATI jako jedyna firma była i jest w stanie konkurować na równi z Nvidią. Gdyby ich tylko gonili już dawno mielibyśmy tylko jednego zielonego producenta GPU.


  111. @Wujofefer (autor: Promilus | data: 4/06/10 | godz.: 09:44)
    "Jakoś do czasu X2900 od ATI i GF8 od Nvidii obie firmy szły łeb w łeb"
    Buahahahahah. Jedyne drobne poruszenie to było wprowadzenie HD3k, drobne - bo i tak dostawało baty od nvidii. I dlatego ludziska inwestowali w: 8800GT, 8800GS, 9600GT, 8600GTS i 8600GT, a jak mieli mniej kasiury to nawet i 8500GT. A co miało amd do pokazania? hd3870x2, na które nv odpowiedziało bardziej udanym 9800gx2? A może kartami na AGP, które przez kilka pierwszych miesięcy działały na niesprawnych sterach? :>
    7800 to czerwiec 2005. X1800 to październik 2005. HD2k też było opóźnione sporo. Na X800 w przeciwieństwie do GF6 nie odpalisz nowszych gier wymagających SM3.0, 3dfx też wydawał solidne konstrukcje pod koniec żywota, voodoo3 3500 z tv, voodoo 5500 z AA - nawet dziś są zapaleńcy odpalający tego typu cuda (jak i kyro) z szybkimi CPU gdzie widać wyraźnie, że zasadniczo karty były szybkie, to procki były za słabe (no dobra, brak t&l sprzętowego pochłaniał proca). Niemniej odzwierciedleniem tego jak klient podchodzi do obu firm są wyniki sprzedaży kart, a mogę cię zapewnić, że gwałtowny wzrost sprzedaży AMD Radeon to dopiero seria HD4k. Bez kapitału AMD to na premierze HD2k ATI by się skończyło. Może przejąłby je microsoft, może nintendo, może ibm a może intel.


  112. Promilus (autor: Aamitoza | data: 4/06/10 | godz.: 09:59)
    "Na X800 w przeciwieństwie do GF6 nie odpalisz nowszych gier wymagających SM3.0"

    Dla odmiany p na X19xx pograsz w sporo nowych gier z nawet 2x większym FPSem niż na 7900.


  113. Promilus (autor: morgi | data: 4/06/10 | godz.: 10:22)
    Niezle zarty, ATi bylo mocne, wyniki mialo ok, a Nvidia wlasnie do momentu przejecia przez amd nie mogla ich nadgrysc. Wszystko sie zmienilo kiedy amd weszlo, od tego czasu ati to cien dawnej firmy i bardzo okrojona dzialalnosc bez polotu.

  114. .... (autor: Wujofefer | data: 4/06/10 | godz.: 11:19)
    W czasach gdy wychodził X800 wielu zarzucało mu, że nie ma wsparcia dla DX9c jednak zauważalnie był szybszy od GF6. Nawet na TwojePC jest test, w którym widać przewagę X800PE (specjalna Platinium Edition), która wyprzedza GF6800Ultra, później wprowadzono jeszcze szybszą wersje X850PE. Wtedy jeszcze nie było zbyt wielu gier obsługujących SM3 a jeśli już były miały zbyt wysokie wymagania by dało się płynnie grać nawet na kartach ze wyższej półki jak GF6800. Dopiero następna generacja kart (GF7 i X1xxx) mogła w pełni pokazać moc DX9c.

  115. @Aamitoza (autor: Promilus | data: 4/06/10 | godz.: 11:19)
    2x to może nie, ale sporo wyższym. Zobacz ile ma ten układ ps to będziesz wiedział dlaczego ;)
    @morgi
    Jasne jasne, tylko o ile z FX dali dupy i pozwolili się rozpanoszyć ATI to z GF6 było wręcz przeciwnie, odzyskali naprawdę porządny kawałek tortu, GF7 to tylko przyklepanie sukcesu, a GF8 miało ATI dobić. Na szczęście doszło do włączenia ATI w AMD.
    R600 to był spory skurwiel, grzał się ostro, ale w przeciwieństwie do Fermi od topowych rozwiązań konkurencji odstawał znacząco. Dodatkowo miał zrypane AA i AF powodujące konkretny spadek wydajności. I o ile nawet na G80 da się jeszcze pograć, to na R600 już nie specjalnie (R600 a nie r670!) - karta w 512 bit pamięcią i ceną w kosmos te 3 lata temu jest tak szybka jak 4670 z 128bit za 250zł rok temu ^^ A XTX padają jak muchy to bym się znów tym tak nie podniecał.


  116. @Promilus (autor: rainy | data: 4/06/10 | godz.: 12:15)
    Że Tobie chce się z tym trollem dyskutować - zwłaszcza, że w odpowiedzi dostaniesz wciąż te same "argumenty".

    Btw, a to odnośnie "cienia dawnej firmy i działalności bez polotu":
    http://www.xbitlabs.com/...X_11_Graphics_Chip.html


  117. @Up (autor: AmigaPPC | data: 4/06/10 | godz.: 14:30)
    Amen.

  118. rainy (autor: morgi | data: 4/06/10 | godz.: 19:37)
    11 mln w 3 kwartaly, to zadne osiagniecie na cala palete kart. Dosc wspomniec, ze na kwartal to okolo 20 mln tylko caly rynek blacharski z czego Nvidia zwykle ma 12-13 mln, a w kwartale to ponad 120 mln chipow, czyli rynek dx11 to kilka procent rynku naprawde niewiele znacza, ich marketing nie przebija sie do swiata, bo zwyczajnie nie ma dobrej prasy przez kiepskie chude lata sygnowane przez marginalna firemke wlasciciela. Dochodzi jeszcze komletny brak obycia w srodowisku developerskim, za co laskawie dopiero teraz sie biora, po latach zwalania winy na Nvidie, za rzekome 'manipulacje' przy grach. the future is fall by fusion.

  119. Promilus (autor: morgi | data: 4/06/10 | godz.: 19:46)
    Kilka faktow, ATi to byl lider wydajnosci w kazdej serii od 9k do X1k i na nic tu dualiki Nvidii i na nic ich niskie tdp, jak dawala ciala w dx9 zwlaszcza przy ciezkim uzyciu hdr, ba nawet nie wspomne o kiepskiej jakosci obrazu i renderow by Nvidia w tamtych czasach i slabszej wydajnosci po aktywacji detali. Od 2006 zaczyna sie lekcja pokory dla ati, a w zasadzie kladzenie sie cienia amd na nich, prawdopodobnie odciecie funduszy, oszczednosci, zwolnienia i przesuniecia do inny dzialow, kasacja ambitnych projektow, a w ich miejsce wprowadzenie produktow 'walczacych cena', czyli maksymalnie tanich w kosztach. Od tego rowniez czasu ati daje powody do opozniania rozwoju graficznego rynku pc, najpierw powolne wprowadzenie dx10 i ceregiele z niepotrzebnym dx10.1, a teraz wydanie dx11 bez rzetelnej i wydajnej poprawy wydajnosci geometrycznej, ktora zwyczajnie jest ofiara polityki taniosci by amd, oszczedzania i wprowadzania niedopracowanych produktow.

  120. morgi (autor: Aamitoza | data: 4/06/10 | godz.: 20:15)
    Jeden problem. - HD2xxx powstawał długo przed zakupem ATi przez AMD. Więc tę kartę powinno się zapisać na tamten okres.

  121. he..he..Morgi (autor: Sandacz | data: 5/06/10 | godz.: 08:53)
    No jak widać Morgiemu zaczyna brakować nawet jego specyficznie pojmowanych argumentów, bo zaczyna się rozpisywać jak Grave za starych dobrych czasów. Piękno jest w prostocie panowie.

  122. Aamitoza (autor: morgi | data: 5/06/10 | godz.: 15:19)
    Taaa, jasne a oni negocjowali na dlugo przed oficjalnym usciskiem dloni dwoch CEO ktorzy opuscili juz te dawne firmy, Ruiz w nieslawie, a Orton z usmiechem jaki to deal ukosil. Wyobrazam sobie atmosfere jaka panowala w tamtym czasie wsrod zwyklych etatowcow ATi, olewali, bo wiedzieli ze rewolucja nastapi i na efekty dlugo nie czekali. A z rozpedu Ruiz rzucal inwestorom grozby hegemonii i zapowiadal na 2008 rok wspolne fusion. Proroczo to on w owym roku pozegnal sie z amd.

  123. @morgi (autor: Promilus | data: 5/06/10 | godz.: 16:25)
    To co z tego, że negocjowali, sami twórcy układów wyraźnie podali do wiadomości, że i HD4k było w zarysie jeszcze przed przejęciem przez AMD.

  124. morgi (autor: 3men | data: 5/06/10 | godz.: 18:37)
    jest, jak widać, pierwowzorem powieści P. K. Dicka i niedawno zagościł na naszych ekranach jako bohater filmu "Next" ...

  125. Promilus (autor: morgi | data: 5/06/10 | godz.: 20:41)
    Taaa, a jak mogli w zarysie miec cos w 55 nm w 2006 roku? Pewnie na papierkach i w koncepcji, ale takie bajdy to do biur patentowych sie nadaje, a klepniecie projektu to cykl 2 letni u cepow styka, bo Intel sie wyrabia, gdzie jest duuuuzo bardziej zlozony chip niz gpu. Byc moze malenkie firemki klepiace male chipy maja dlugi czas, bo sa skromne, ale kiedys tu amd piszalo, ze co rok ma byc nowe gpu, az wessa je cep.

  126. @morgi (autor: Promilus | data: 5/06/10 | godz.: 21:20)
    Projektowania układu nie zaczyna się na maskach do fotolitografii a na nich się kończy. Tak samo jak projektujesz obwód drukowany z różnych elementów (które już znasz) to nie wybierasz od razu 10 warstwowego PCB i nie robisz układu byle jak rozłożonych elementów tylko trzymasz się pewnych prawideł i kończysz na minimalnej ilości warstw. Zależnie od skomplikowania obwodu 1-3 mniej niż 'AI' programów.
    Papierki i koncepcje oczywiście do biur patentowych USA to jest git majonez, czego ty nie wiesz. A szkoda, warto poczytać np. freepatentsonline. Specyfikacja HT w samych papierkach bez modelu fizycznego JUŻ może być opatentowana, baaa, GUI wykorzystujące ekran dotykowy bez technologii ekranu dotykowego również ;)
    " klepniecie projektu to cykl 2 letni"
    Od końca projektowania układu do końca testowej produkcji chyba.

    "gdzie jest duuuuzo bardziej zlozony chip niz gpu."
    Nie jest bo ma 2-3x mniej tranzystorów.


  127. ja tam takim zapowiedziom nie wierzę (autor: Qjanusz | data: 7/06/10 | godz.: 18:09)
    taki filmik to może być absolutny fake.

    Będzie sprzęt, będą rzetelne testy niezależnych portali, to się będzie można pozachwycać.

    Na razie to mamy obrazek, w którym pan z AMD pochwalił się produktem, który był zapowiadany lata temu...


  128. @Qjanusz (autor: AmigaPPC | data: 7/06/10 | godz.: 19:02)
    niemniej musisz przyznać, że (zakładając prawdziwość materiału) robi wrażenie.

  129. @AmigaPPC (autor: Qjanusz | data: 8/06/10 | godz.: 16:47)
    nie mniejsze wrażenie robił na filmiku Larrabee.
    RT w czasie rzeczywistym z ładna graficzką. A wyszła śmierdząca kupka.
    Będę chwalił jak dostanę konkret.


  130. up@ (autor: wind | data: 2/09/10 | godz.: 11:03)
    Grave zachowujesz się trochę jak fanatyk
    takich to juz widziałem pod krzyżem(przepraszam za porównanie)
    każdy wie-lub prawie każdy, że Intel ma wydajniejsze procki ale po co sie tak gorączkujesz?
    IGP maja teraz lepsze bo wydali je wcześniej niż AMD
    ale to akurat sie zmieni-czas pokaże kiedy :)
    nie ma sie co tak zaciekle kłócić nie uważasz ?
    nie szkoda CI życia na takie pierdoły?


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.