Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Poniedziałek 6 lutego 2012 
    

AMD skupi się na rozwoju GPU i APU, CPU straci na znaczeniu


Autor: Wedelek | 07:25
(39)
Pod koniec ubiegłego tygodnia informowaliśmy Was o planach AMD na najbliższe kilka lat, które to zostały sprecyzowane i podane opinii publicznej podczas AMD Analyst Day 2012. Dowiedzieliśmy się jakie układy producent z Sunnyvale ma nam zamiar zaserwować w niedalekiej przyszłości i jednocześnie zdziwił nas brak w owych planach bardzo mocnych CPU z następną generacją architektury Bulldozer o kodowej nazwie Streamroller. Okazuje się, że stało się tak nie przez przypadek, a Lisa Su – dyrektor generalny AMD zdradziła nam, że jej firma ma zamiar skupić się głownie na rynku GPU.

To właśnie te układy mają zapewnić producentowi zwycięstwo nad konkurencją, a za kilka lat niemal całkowicie zmarginalizować wydajność CPU. Oczywiście nie oznacza to, że AMD ma zamiar położyć „lagę” na rozwoju CPU, ale widoczna do tej pory silna rywalizacja o palmę lidera z Intelem nie będzie mieć dłużej miejsca. Co innego natomiast w przypadku GPU, które jak zdradziła nam Lisa Su będą swoistym „oczkiem w głowie” AMD, które będzie chciało w najbliższych latach dominować nad Nvidią.

A do czego to wszystko zmierza? Otóż jak już pisaliśmy w ubiegłym tygodniu APU najpierw będą wyposażone we współdzieloną przez GPU i CPU pamięć podręczną, a w 2014 roku czeka nas premiera procesorów „w 100%” heterogenicznych. Będą one zbudowane w oparciu o architekturę HSA (Heterogeneous Systems Architecture), która całkowicie zatrze granice pomiędzy CPU i GPU. W ten oto sposób powstanie całkiem nowy układ APU, który na dodatek będzie produkowany w technologii 20 lub 22nm (wcześniej nowe, niższe procesy miały pojawić się dopiero w 2015 roku).

W ten sposób duża liczba całkiem nowych modułów Bulldozer (kolejne wcielenia), wspierana przez układ GPU z następną odmianą GCN ma dosłownie zmiażdżyć pod względem oferowanej mocy obliczeniowej tradycyjne procesory CPU. Według AMD to właśnie GPGPU jest przyszłością rynku procesorów i w tym wypadku trudno się z tym nie zgodzić.

Pytanie tylko czy aby świetlane plany AMD nie zostaną brutalnie potraktowane przez oporny na gwałtowne zmiany rynek. Jeśli wszystko pójdzie zgodnie z planem, to będziemy mieli do czynienia z małą ironią. Oto zakupione przez AMD ATI, które według sceptyków miało przyczynić się do upadku firmy pozwoli jej zwiększyć udział i znaczenie na rynku.




 


    
K O M E N T A R Z E
    

  1. juz nvidia (autor: Rajq | data: 6/02/12 | godz.: 07:46)
    przy wyjsciu T&L grzebala CPU teraz to samo chce zrobic AMD. Mocne CPU nigdy nie zniknie z rynku i zawsze bedzie potrzebne. Majac w pamieci jak rozwijal sie soft 64 bitowy oraz to jak optymalizuje sie pod ilosc rdzeni to zajmie lata. Przez lata beda mieli mierne procesory plus APU ktore moze kiedys ktos laskawie wykorzysta.

  2. Jezeli gpu wbudowane... (autor: gantrithor | data: 6/02/12 | godz.: 07:59)
    w procesor bedzie wspierac cpu w obliczeniach to jak najbardziej sluszna droga ale jesli nadal gpu ma byc odpowiedzialne za grafike czy to nic to nie zmienia bo zawsze mozna kupic dedykowane gpu o znacznie wiekszej mocy obliczeniowej.

  3. @Rajq (autor: Wujofefer | data: 6/02/12 | godz.: 08:07)
    Nie powiedziałbym, że mierne. Dziś wszystkie oferowane CPU w zupełności wystarczają do prawie wszystkiego większości użytkownikom. To, że AMD i Intel biły się o topowe konstrukcje zawsze było tylko medialną wojną a największa kasa zawsze była w znacznie słabszych ale i znacznie tańszych CPU za około 200$. To one właśnie sprzedają się najlepiej. AMD widzi, że nie ma po co marnować $ i nakładu pracy na ściganie się z kilka razy większym gigantem więc stawia na wschodzący nowy rynek APU. Do tego mają ATI, które to swoimi Radeonami totalnie miażdży Intela i świetnie konkuruje z Nvidią.

  4. ale jedno trzeba przyznać (autor: djXone | data: 6/02/12 | godz.: 08:43)
    od kiedy AMD przejęło ATI, sterowniki do ich kart graficznych są nieporównywalnie o niebo lepsze, jeszcze ani razu nie miałem problemu ze sterami od czasu HD5750, wcześniej miałem nVidie to jakiś koszmar był, co chwile jakaś gra nie chodziła albo coś z winy sterowników, no i te reinstalacje bo coś nie chciało/przestawało działać...
    Duży plus dla AMD, fajnie jak by nVidia też się poprawiła, szczególnie ze wsparciem sterowników do laptopów.


  5. @djXone (autor: vd81 | data: 6/02/12 | godz.: 08:49)
    to wez sobie kup cokolwiek na c-50/c-60 to mozemy podyskutowac o "poprawie" sterownikow AMD :P

  6. "Mocne CPU nigdy nie zniknie z rynku"... (autor: sean | data: 6/02/12 | godz.: 08:51)
    Nigdy nie wiadomo w którą stronę co pójdzie... Pamiętamy słynne stwierdzenie BG:
    "nigdy nie będzie potrzebne więcej niż 640 kB pamięci RAM":)
    Ja tam kibicuję wszystkim - ważne żeby mieszać w interesie. Na drodze eliminacji coś dobrego z tego wyjdzie w skali całości i dłuższej perspektywy czasu.


  7. Lisa Su i jej wizja przyszłości (autor: ghs | data: 6/02/12 | godz.: 08:53)
    są trochę na bakier z logiką. Po co im prymat w kartach solo GPU skoro pani Su wróży koniec tradycyjnego CPU? ehhh chyba nowy CEO za słabą czystkę zrobił

  8. A wg mnie to prawidłowy kierunek (autor: Marcel | data: 6/02/12 | godz.: 09:14)
    Architektura najwydajniejszej karty HD7970 ma dziś 32 bloki GCN. Jeśli traktować by taki blok jako jeden rdzeń uniwersalny (a do tego zapewne zmierza AMD) to mamy 32 jajka. Mniejsza o to, że dziś nie wykonujące kodu X86. Za rok czy dwa te 32 rdzenie GCN będą miały karty średniej półki a za kolejne 2 lata ilość rdzeni/wątków CPU też sięgnie tej liczby. Tak więc jeśli tylko oprogramowanie da radę i dostosują GCN, choćby częściowo do X86 to mogą mieć receptę na uniwersalny procek - np 32 jajka ogólnego przeznaczenia czyli tak jak planują - układ heterogeniczny.

  9. GPGPU (autor: Mario2k | data: 6/02/12 | godz.: 09:22)
    Ma ogromna przyszlosc , nie trzeba chyba nikomu przypominac ze w pewnych obliczeniach taki radeon 5870 jest 20 razy szybszy od 8 rdzeniowego xeona ! ! odppwiednio wykozystany sprzet tego typu za kilka lat moze zepchnac topowe proce Intela o ole ten nie nadrobi swych brakow w temacie gpgpu.

  10. @8. (autor: rookie | data: 6/02/12 | godz.: 09:22)
    Przy coraz większej liczbie aplikacji wspomaganych sprzętowo przez GPU może się okazać, że za 2-3 lata rynek tradycyjnych CPU będzie w całkowitym odwrocie - pamiętacie czasy ''karty dźwiękowej''? Kto ja pamięta? Zwykła integra na płycie ma czyściutki dźwięk 7.1 i poza profesjonalistami nikt nie potrzebuje czegoś takiego jak ''karta dźwiękowa''. To samo czeka zwykłe CPU.
    Aż szkoda mi intela. W ciągu 3 lat może wszystko stracić :)


  11. rookie (autor: Markizy | data: 6/02/12 | godz.: 09:44)
    chyba mówisz o złączu optycznym, bo na zwykłych analogowych potrafi być różnie.

  12. i dostosują GCN, choćby częściowo do X86 (autor: RusH | data: 6/02/12 | godz.: 09:46)
    po co?
    nikt nie programuje w asemblerze, wystarczy openCL i zalatwione*


    *prawie zalatwione bo nie wiedziec po co Intel jest w zarzadzie fundacji zajmujacej sie standardem OpenCL i jakos takos zupelnie przez przypadek NIE DA SIE napisac kodu OpenCL ktory by chodzil tylko na GPU :/ musi byc mozliwosc kompilacji do CPU a co za tym idzie generowany kod jest wolniejszy niz gdyby byl pisany od poczatku pod GPU z zalozeniem ze masz do dyspozycji >50 rdzeni.


  13. @10 (autor: popierdulka1234 | data: 6/02/12 | godz.: 09:58)
    """""poza profesjonalistami nikt nie potrzebuje czegoś takiego jak ''karta dźwiękowa'' """"""
    drogi Panie współpisaczu, to czy ktoś potrzebuje lub nie karty dźwiękowej jest dyskusyjne, 95% matołków komputerowych kupuje wypasione zestawy głośnikowe mediatecha tudzież inny wynalazek z plastiku z biedronki bo wystarczy, są też tacy którym potrzeba zestaw kina domowego i ustawiają wszystkie sześć w jednej kupie i wszystkie pod biurkiem bo mają pokój 3 na 3 i zero możliwości rozstawienia, ekstremalny debil jakiego widziałem to zakup najmocniejszego zestawu creative'a do pokoju w bloku do mieszkania o powierzchni poniżej 40m^2.
    owszem dzisiejsze integry oferują dźwięk dobry a nawet przyzwoity ....... , ale zamontuj sobie starego audigy 2, i dźwięk masz natychmiast ciut czystszy, pomijam że nadal w wielu dźwiękówkach potrafię usłyszeć efekt przewijania ekranu na kółku myszy, nawet najtańsza dźwiękówka zewnętrzna miażdży to coś co jest montowane jako podstawowy grajek, ja osobiście jestem tępy odsłuchowo jak pień, ale różnicę między jedną a drugą wychwytuję bezbłędnie, no ale cóż takiego czegoś nie ujrzysz na głóśnikach któr zasilanie i jacka biorą z usb a wydałeś na nie 11zł

    CUDÓW NIE MA I NIE BĘDZIE na takim wynalazku za 11zł

    do pewnych rzeczy potrzebne jest odpowiednie poparcie sprzętem.


  14. CUDÓW NIE MA I NIE BĘDZIE na takim wynalazku za 11zł (autor: RusH | data: 6/02/12 | godz.: 10:31)
    podpinasz pod spdif i wszystko gra tak samo
    byle kino domowe za 200zl ma wejscie cyfrowe i gra lepiej od "glosnikow komputerowych" za 800zl

    wracajac do tematu, wyglada na to ze AMD chce polaczyc jednostki obliczeniowe GPU z CPU, tz umiescic je obok siebie na krzemie zamiast jako oddzielne bloki
    moze doczekamy sie czegos ala SSEfefnascie gdzie wywolanie instrukcji CPU bedzie zmapowane z blokami wykonawczymi GPU


  15. Heh, bedę sceptyczny, (autor: Qroń | data: 6/02/12 | godz.: 10:52)
    ale po raz kolejny się okazuje, że AMD buduje swoje sukcesy na odkupionych rozwiązaniach.
    Jakoś nie pamiętam kiedy ostatnio zabłysnęli czymś własnym.


  16. wg mnie sukces takiego podejścia będzie zależał od softu (autor: Qjanusz | data: 6/02/12 | godz.: 10:54)
    bo jeżeli chodzi o technologię, to chyba nikt nie zamierza dyskutować z tym, że GPGPU jest o niebo wydajniejszym rozwiązaniem niż TOP CPU - sam Intel to przyznał argumentując udupienie Larrabee.

    Jeżeli soft (Win8?) wykorzysta moc GPGPU, to AMD może spokojnie rozwijać swoja ścieżkę i... tylko czekać

    Oczywiście nikt nie mówi o tym, że nagle CPU przestaną być potrzebne. Tak się na pewno nie stanie. Inna sprawa to fakt że dzisiejsze średnie CPU spokojnie wystarczą do większości zastosowań. Jeżeli ktoś chce bardzo wydajnie, to kupuje TOP CPU, lub porządną grafikę jeżeli można wykorzystać GPGPU i wtedy jest super wydajnie.


  17. @Qroń (autor: Qjanusz | data: 6/02/12 | godz.: 10:57)
    tak jak Intel i Microsoft. Grunt w tym, żeby wiedzieć co się kupuje, w jakim czasie i jak bardzo się w to odkupione rozwiązanie inwestuje. Simple!

    ps. nVidia zaczyna coraz bardziej nerwowo wykańczać atrapę Keplera u miejscowego stolarza ;-)


  18. nvidia to nerwowo (autor: RusH | data: 6/02/12 | godz.: 11:06)
    w pospiechu spawa GPU + rdzenie ARM i kombinuje jak udupic OpenCL bo jst to ogromne zagrozenie dla Cuda.

  19. wystarczajaca granica wydajnosci procesorow (autor: zigg | data: 6/02/12 | godz.: 11:22)
    to juz znikomy przyrost FPS w rozdzielczosci full HD
    za dodatkowe parenascie % wiecej wydajnosci nie warto placic paredziesiat % drozej


  20. @RusH (autor: Qjanusz | data: 6/02/12 | godz.: 11:29)
    OpenCL to fakt.
    O CUDA nikt już nie mówi, poza samą nVidią (coraz ciszej) która ma raczej znikomy wpływ na OpenCL.

    W ARM nVidia jest jednym z wielu producentów TOPowych układów, która w dodatku nie ma swojego partnera produkującego gotowe klocki.
    W tym biznesie każdy liczący się gracz (Samsung, Apple itd) ma swoje SOC.


  21. hmm (autor: Wedelek | data: 6/02/12 | godz.: 11:36)
    Cuda chyba faktycznie się już kończą. Ot wystarczy spojrzeć na rynek gdzie GPGPU jest silnie wykorzystywany. Taki Octane (renderer) do tej pory korzystał z CUDA (beta), a w wersji finalnej technologię Nvidia zastąpi OpenCL...

  22. Może to i właściwy kierunek (autor: Pijar | data: 6/02/12 | godz.: 11:57)
    ale marketingowo wypada blado. Ja właśnie się dowiedziałem że AMD odpuszcza sobie procesory więc rozwijane będą już tylko płyty i CPU Intela.

  23. #22 (autor: Qjanusz | data: 6/02/12 | godz.: 12:05)
    szarak i tak nie zakuma. Dla niego ten news nic nie znaczy. Procki AMD i płyty pod nie dalej będą. Co a różnica czy w środku będzie "karta graficzna" czy x86 - cokolwiek by to nie znaczyło.

    Wszystko zależy od tego, jak info dla szaraka zostanie przedstawione, w sensie jak bardzo chęć przedstawienia "sensacji" zostanie wykorzystana. Może to być tak że AMD nie będzie już produkowało CPU, albo tak że AMD będzie łożyło na coś lepszego, czyli APU, zostawiając stare i mało wydajne CPU konkurencji.


  24. @23 (autor: Pijar | data: 6/02/12 | godz.: 12:15)
    No właśnie, może AMD przesadziło z redukcją marketingowców. Gdyby Lisa Su wyznała że kolejne generacje CPU będą zawierać w sobie topowe GPU to wyszłoby na to samo ale brzmiało o niebo lepiej.

  25. #24 (autor: Qjanusz | data: 6/02/12 | godz.: 12:31)
    może sobie mówić, a może i tak powiedziała. Może jeszcze w piękniejszych słowach.

    Wszystko i tak skorygują "pismaki" i wszelakiej maści newsmany. Mało kto dociera do źródła.


  26. Ciekawostka (autor: Zbyszek.J | data: 6/02/12 | godz.: 12:53)
    w temacie arabów: http://praca.money.pl/oferta,6867942.html

  27. @20 (autor: Marcel | data: 6/02/12 | godz.: 13:01)
    Co do CUDA to nV chciało samo przeforsować przejście oprogramowania na GPU - w sensie żeby GPU liczyło więcej niż obecnie. To im nie wyszło po części zresztą przez licencje i zamknięty standard. Teraz AMD ma dużo większe szanse bo sam MS wydając Win8 na ARM przetrze drogę. Niby wcześniejsze aplikacje X86 nie zadziałają na ARM ale kto wie czy nowe nie będą pisane bardziej uniwersalnie a to da szansę wykonania ich też na samych rdzeniach GPU pomijając CPU. Oczywiście nawet w takim momencie skreślenie CPU jest niemożliwe ale podejście AMD - układy heterogeniczne potrafiące wykonywać obliczenia dla grafiki i X86 jest jak najbardziej trafione. Nie ważne do czego zaprzągniesz taki rdzeń (rdzenie) to powinno to działać.

  28. Marcel (autor: Teriusz | data: 6/02/12 | godz.: 13:26)
    Zgadzam się z Tobą. AMD tak na prawdę nie musi w HSA implementować instrukcji dla X86. Skoro M$ tworzy win8 gdzie to samo jądro będzie działać z instrukcjami pod ARM i jeżeli będziemy mieć DirectX obsługujący ARM to możemy zapomnieć o x86.

  29. Żenujące plany AMD (autor: pomidor | data: 6/02/12 | godz.: 14:33)
    Nie potrafią zrobić dobrego CPU, więc będą wszystkich namawiać aby stosowali ich Fusion bo to przyszłość.
    GPGPU to niszowa technologia, która jest przydatna w 1% software, i żadne stękanie AMD tego nie zmieni.
    Oni ze swoim udziałem rynkowym też się zbliżają do 1%, więc może przygotowują się aby dobrze zagospodarować ten kawałek rynku, i tego nie stracić.


  30. @Pijar (autor: VP11 | data: 6/02/12 | godz.: 14:35)
    A gdyby tytul artykulu byl taki:
    "Procesory APU AMD same zdecydują, które rdzenie wykorzystać podczas obliczeń"
    cobys powiedzial ?? W tym przypadku moc CPU nie jest az tak potrzebna. To jak u NVidii, piaty slaby rdzen dla zarzadzania. Tu procesor od AMD bedzie dodatkowym rdzeniem dla slabych zadan.


  31. @pomidor (autor: Qjanusz | data: 6/02/12 | godz.: 15:38)
    "Oni ze swoim udziałem rynkowym też się zbliżają do 1%" - skąd więc te nerwy? Wszystko po Twojej myśli :-)

  32. @pomidor (autor: Conan Barbarian | data: 6/02/12 | godz.: 18:42)
    AMD trafia dokładnie w potrzeby 95% ludzi, ale wielu jeszcze tego nie rozumie. Nettopy powinny być coraz popularniejsze a w tym przypadku Intel ma do pokazania gołe D.

  33. @up (autor: ghs | data: 6/02/12 | godz.: 19:35)
    nettopy coraz popularniejsze? nie chciałbym być udziałowcem firmy w której to ty byś przewidywał kierunki rozwoju branży :)

  34. @33. (autor: Mariosti | data: 6/02/12 | godz.: 21:15)
    Tak właśnie nettopy, najlepiej zintegrowane z monitorami. Powrót do terminali, coraz większa popularność usług w chmurach obliczeniowych toruje właśnie taki a nie inny scenariusz.

  35. jakiś czas temu musiałem iść do klasycznej przychodni lekarskiej (autor: Qjanusz | data: 6/02/12 | godz.: 23:46)
    i jakież było moje zdziwienie jak pani Gienia w recepcji i pielęgniarka w gabinecie stukały właśnie na nettopach.
    Niestety Intel Atom Insile, ale i tak byłem w szoku że takie zagłębie zadupia i zacofania jak PL służba zdrowia dysponuje takimi sprzętami.

    Z tego co wiem, to końcówki stanowisk obsługi klienta w coraz większej ilości bankach działają na zasadzie nettopa przyklejonego do tyłka monitora.

    Lawina to jeszcze nie jest, ale tendencję daje się zauważyć.


  36. @29 (autor: rookie | data: 7/02/12 | godz.: 10:44)
    Sam jesteś żenujący.
    Przyszłością jest GPU z bardzo dużą ilością wyspecjalizowanych jednostek. Dlatego zwykły radeon przy obróbce wideo jest 10 razy szybszy of i7 :)


  37. i to jest strzał w 10 (autor: Friend | data: 7/02/12 | godz.: 15:58)
    od zalania używam intela, jak pojawią się APU z 6570 przesiadam się na AMD, pomysł z APU jest genialny

  38. Calkowite integrowanie sredniej klasy GPU w APu (autor: josefek | data: 9/02/12 | godz.: 17:54)
    zmiejszy koszty wytwazania gotowych PC, ale nie zmiejszy o duzo cene sprzedarzy gotowego PC, moral jest ,ze wszyscy na tym zarobia..

  39. AMD skupi sie na rozwoju APU a nasz pomodor (autor: josefek | data: 9/02/12 | godz.: 22:15)
    w rozwijaniu swojej glupoty, zobaczymy kto pierwszy swoj cel osiagnie...

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.