Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Poniedziałek 14 czerwca 2010 
    

Fusion trafi również do serwerów


Autor: Wedelek | źródło: blogs.amd.com | 08:10
(30)
Dyrektor do spraw serwerów w dziale marketingu w AMD - John Fruehe na swoim blogu firmowym poinformował, że zaprezentowana podczas targów Computex architektura APU wykonana w 32nm trafi również do serwerów i stacji roboczych. APU, czyli "prawdziwe" zespolenie CPU i GPU to wyjście na przeciw deweloperów, tak by mogli oni stosować aplikacje wykorzystujące moc obliczeniową rdzeni graficznych, które radzą sobie w rozwiązaniach profesjonalnych o wiele lepiej niż tradycyjne procesory. Obecnie na rynek serwerów wchodzą już karty graficzne z rodziny FireStream oraz konkurencyjne Tesla, będące pierwszym etapem upowszechniania się w serwerach idei GPGPU.

To właśnie osobne układy graficzne pozwolą na stworzenie większej ilości obsługującego tę technologię oprogramowania dzięki czemu wzrośnie wydajność tych stacji jako całości. Kolejny etap i całkowite upowszechnienie ma przynieść właśnie przyszła architektura AMD i ma być osiągnięte głównie dzięki temu, że integracja GPU i CPU w jednym kawałku krzemu obniża koszty produkcji, a co za tym idzie również podmioty dysponujące mniejszą zasobnością portfela będą mogły skorzystać z dobrodziejstw płynących z połączenia tych dwóch układów. Sam APU może być ponadto sporym zagrożeniem dla Intela, który pomimo iż produkuje dobrej jakości procesory, to jednak stosowane w nich IGP są znacznie gorszej jakości niż te które w swoim arsenale posiada AMD.

 
    
K O M E N T A R Z E
    

  1. @wedelek (autor: akpert | data: 14/06/10 | godz.: 09:03)
    "to jednak stosowane w nich IGP są znacznie gorszej jakości niż te które w swoim arsenale posiada AMD."

    I tym stwierdzeniem obróciłeś przeciwko siebie morgiego, emu i grave. Teraz będą uważać Ciebie za fanboya AMD a cały portal pro zielono-czerwony. Mam jednak nadzieję, że wymieniona trójka obrazi się i pójdzie sobie wpizdu.


  2. @akpert (autor: Qjanusz | data: 14/06/10 | godz.: 10:11)
    "trójka obrazi się i pójdzie sobie wpizdu"
    stawiam swoje wynagrodzenie przez kolejnych 12 miesięcy że tak się niestety nie stanie.

    A tak poza tym, to jak dla mnie trochę posunięcie bez sensu. APU dla lapów i PCtów ma jasno określone zadania. Jest to tania grafika on-board i granie w proste gierki.

    A serwery? Przecież znacznie wydajniejszą jednostką do liczenia byłaby dedykowana grafika! Z punktu widzenia kosztów, różnica między CPU z GPU a dedykowane GPU to pikuś.

    Chyba że jest to typowa zadyma pod przygotowanie porządnego gruntu dla zastosowań APU nie tylko do drukowania pixeli na ekranie (vide Intel), rzecz jasna dla kompów i lapów. W ten sposób, ludzie chętnie braliby APU od AMD mimo planów zakupu dedykowane grafiki, bo te jednostki mogłyby robić zdecydowanie więcej niż granie w prostsze gierki (chociaż pokazany AvP na APU wyglądał całkiem zacnie).


  3. hehe (autor: morgi | data: 14/06/10 | godz.: 10:16)
    Jak widac po udzialach nie sa i jeszcze spokojnie nie beda. Co do apu to jest to lipa z tymi serwerami i samo amd dobrze o tym wie:
    'So how do we start bringing the concept of Fusion to servers and ultimately lay the groundwork for APUs in servers? I think there are a number of things to consider in the march, but a couple of things stand out to me that can happen sooner rather than later:

    * OS-level enablement will likely grease the wheels for more rapid adoption among ISVs
    * Finding a way for the CPU to speak more directly to the GPU

    Future silicon advances, including our next generation of amd FireStream™ solutions, planned for released later this month, will go a long way towards making this a reality. However, we shouldn’t assume that there is only one way to accomplish this level of integration. The key to the whole discussion is that this solution is driven by the ecosystem and will be software-led. We’re seeing great progress in that area and the OpenCL/DirectCompute initiatives are helping further this movement.'
    http://blogs.amd.com/.../06/10/fusion-for-servers/


  4. Qjanusz (autor: piwo1 | data: 14/06/10 | godz.: 10:23)
    ale stosujac 1000 prockow takich ze zintegrowana grafa to juz ma sens zamiast stosowac 200 np odzielnych kart graficznych.

  5. hehe (autor: Qjanusz | data: 14/06/10 | godz.: 10:27)
    rynek już nie raz został mocno zaskoczony, kiedy to mocno promowane i obrzucone milionami dolarów IA64, zostało zgniecione przez alternatywę.

  6. @morgi (autor: Wedelek | data: 14/06/10 | godz.: 10:28)
    Wcale nie byłbym taki pewien że AMD nie wie co robi, wręcz przeciwnie. Jeśli zaś chodzi o pierwsze Fusion, to pewnie nie będzie jakimś "wielkim młotem", ale dzięki integracji GPU w CPU możliwe będzie wykorzystanie mocy GPU do różnego rodzaju zadań z zachowaniem relatywnie niskiego kosztu serwera. W końcu nie wszystkie serwery to wielkie połączone ze sobą klastry przeznaczone dla jednej tylko firmy. Pomijam rzecz jasna rozwiązania, gdzie trzeba generować grafikę, ale niezbyt skomplikowaną i IGP wystarcza. Poza tym od czegoś trzeba zacząć, a wsparcie procesora przez GPGPU to jednak znacznie lepsza droga niż tworzenie układów z kilku bardzo drogich CPU. A z innej bajki, to trzypunktowe pasy bezpieczeństwa też nie od razu były hitem sprzedaży, a teraz nikt nie wyobraża sobie samochodu bez nich.

  7. @piwo1 (autor: Qjanusz | data: 14/06/10 | godz.: 10:28)
    tak i to konkretny sens, ALE pod warunkiem posiadania dedykowanej takiemu rozwiązaniu aplikacji.

  8. ... (autor: kubaswielgus | data: 14/06/10 | godz.: 10:41)
    "A serwery? Przecież znacznie wydajniejszą jednostką do liczenia byłaby dedykowana grafika! Z punktu widzenia kosztów, różnica między CPU z GPU a dedykowane GPU to pikuś." - Tesla ma 6GB pamięci, a APU może mieć dostęp do np. 4x32GB. Sam procesor będzie mniej wydajny niż grafika, ale czasami RAM ma większe znaczenie niż moc obliczeniowa.

  9. Wedelek (autor: morgi | data: 14/06/10 | godz.: 11:15)
    Z tym sie zgodze, ze lepiej tworzyc serwer z kilku bardzo drogich procow niz z wiekszej ilosci niby tanszych w cenie, ale konsumujacych wiecej pradu. Przyszlosc wyglada tak, ze elastycznosc x86 i rozbudowa mocy fp jest faktem do wykorzystania i stoi u progu, natomiast gpgpu bedzie raczej stagnowac przez potezne koszta w budowie srodowiska software i przebudowie architektury komputera pod takie zastosowania. apu w pierwszej odslonie to tylko zwykla sklejka obecnych lichych gpu i cpu bez wiekszych znaczen, od Intela oczywiscie cos extra, bo AVX i bo specjalna architektura pod pelna integracje, ale to za pol roku bedzie juz powoli wychodzi na wierzch.

  10. ... (autor: kubaswielgus | data: 14/06/10 | godz.: 11:27)
    Jedno jest pewne - nadchodzi młot na intela...

  11. @morgi (autor: Promilus | data: 14/06/10 | godz.: 11:37)
    O jakiej to niby elastyczności x86 pierdolisz?
    Rozbudowa mocy FP... o ile? Max. podwoją i na tym koniec, do GPU im daleko. Coraz dalej. AMD o tym wie i nawet nie kombinuje z dokładaniem FPU do buldożera.
    "natomiast gpgpu bedzie raczej stagnowac przez potezne koszta w budowie srodowiska software" yhm, zobacz z ilu przedsiębiorstw składa się KHRONOS GROUP a potem pierdol o kosztach.
    "przebudowie architektury komputera pod takie zastosowania"
    Nic nie trzeba w architekturze komputera pod to przerabiać!
    "bo AVX i bo specjalna architektura pod pelna integracje"
    Jaką pełną integrację? Czy w wykonywaniu rozkazów AVX jednostki cieniujące zintegrowanego GPU będą brały udział? Nie...czyli jest to taka sama integracja jak w Llano, tyle że GPU z Llano obsługuje OCL i DirectCompute.


  12. @up (autor: Qjanusz | data: 14/06/10 | godz.: 11:59)
    AVX to swego rodzaju uzupełnienie x86, dający realny wzrost w wąskich zastosowaniach. W porównaniu do SSE to dwa razy szersze rejestry, możliwość wykonania rozkazów z większą ilością argumentów. Nic poza tym. Baza (x86) ciągle ta sama.

    GPGPU to zupełnie nowa jakość i sposób i szybkość przetwarzania danych.
    Chyba wszyscy znają obrazek:
    http://www.brightsideofnews.com/...rformance_6.jpg


  13. Promilus (autor: morgi | data: 14/06/10 | godz.: 14:12)
    x86 mozesz zastosowac do bardzo wielu sytuacji, jest zarowno wysokowydajne, jak i potrafi byc niesamowicie oszczedne i efektywne. Do rozbudowy fp to dopiero poczatek i gpgpu po prostu jest tutaj niepelnosprawne i niezdolne do odpowiednich wydatkow i inwestycji. amd liczy na opencl i Microsoft directcompute, Nvidia doklada swoje i to trzeba przyznac najlepiej dofinansowana i o kilka lat w przod przez kimkolwiek CUDAcznosc, ale co sie stanie, kiedy do gry wejda proce x86 wyposazone w odpowiednio rozbudowane jednostki fpu, bedzie wielkie zwijanie interesu.

  14. @morgi (autor: Promilus | data: 14/06/10 | godz.: 14:47)
    Nie, nie jest energooszczędne. Z tą super wydajnością też bym się wstrzymał, PowerXCell i8 ma większą od i7 a pobiera mniej energii. Jedyna zaleta to... popularność. Idziesz do sklepu za rogiem i masz x86. Ale Cella czy POWERa, czy SPARCa już nie...A każdy z nich jest lepszy od x86.
    I nie - jeśli intel da nawet i 2x więcej FPU to do wydajności GPU mu nijak, a więcej nie będzie sensu do CPU wkładać, bo o ile 4x32 bit jeszcze da się zoptymalizować do obrabiania to już 8x32 nie bardzo - rzadko będzie taka sytuacja by poukładać idealnie dane w takie duże tablice do SIMD. A jeśli już będzie taka sytuacja...to jak wcześniej napisałem i tak GPU sobie z tym poradzi lepiej. Idź miśku przewiduj cuda niewidy, ale prawda jest taka, że CPU traci a nie zyskuje.


  15. Boze (autor: Jarek84 | data: 14/06/10 | godz.: 14:59)
    widzisz a nie grzmisz.

    @morgi - porównaj sobie wydajność FP takiego okrojonego HD5770 z 10 SIMDami do najszybszego obecnie Core od intela - widzisz różnicę w wydajność per WAT? Co do OpenCL i DirectCompute - to AMD bardzo dobrze, że na nie liczy, bo są to sobre rozwiązania. Od znajomych którzy zostali pracować na uczelni dowiedziałem się, że oprócz standardów jak OpenMP, czy MPI obecnie na ich uczelniach w programie "Programowania rozproszonego" (bądź podobnie brzmiących zajęć) jest również OpenCL.


  16. @morgi (autor: akpert | data: 14/06/10 | godz.: 15:00)
    Co Ty kłamco znowu świrujesz, gdzie wedelek napisał, że "ze lepiej tworzyc serwer z kilku bardzo drogich procow niz z wiekszej ilosci niby tanszych w cenie". Nawet się do tego nie odniósł!
    Kilka dni spokoju było i znowu mącisz? Kłamco Ty jeden i labirancie Ty, tylko kłamać, kłamać, kłamać i manipulować.
    Chcesz to se matce kłam ale nie tutaj, kłamco Ty jeden bez grosza honoru.


  17. @up (autor: Qjanusz | data: 14/06/10 | godz.: 15:08)
    leszczyk powinien za publicystę w TVP robić... ;-)

  18. @Qjanusz (autor: akpert | data: 14/06/10 | godz.: 15:15)
    Niop, na polityka by się nadawał. Też pierdolą bez sensu odrealnione zdania.

  19. Promilus (autor: morgi | data: 14/06/10 | godz.: 16:48)
    Lepszy? W czym, risc to tylko czyste obliczenia i co wiecej, tdp z kosmosu. Gdyby bylo zapotrzebowanie to Intel wrzucilby fma i inne cuda wianki i moc fp uroslaby spokojnie, tyle ze to co w grafice sprawdza sie jako proste procesorki do pixeli to w ogolnym zastosowaniu ledwo przechodzi.
    akpert
    Po raz kolejny mylisz sie w zeznania, to co pisze to interpretacja z argumentacja, a nie scisly quote, ktory staram sie podlinkowywac, wiec zacznij od merituum potem od logiki potem od wnioskowania swojej wypowiedzi.


  20. @morgi (autor: akpert | data: 14/06/10 | godz.: 17:04)
    W sumie masz rację, jeszcze raz przeczytałem dokładnie wypowiedź wedelka i uważam Cię za jeszcze większego kłamce niż poprzednio. Odwracasz o 180* kota ogonem mając wypowiedź tuż przed sobą, bo jak można wytłumaczyć słowa wedelka:

    "a wsparcie procesora przez GPGPU to jednak znacznie lepsza droga niż tworzenie układów z kilku bardzo drogich CPU."

    i Twoją ich interpretację:
    "Z tym sie zgodze, ze lepiej tworzyc serwer z kilku bardzo drogich procow niz z wiekszej ilosci niby tanszych w cenie".

    Jest dokładnie na odwrót, więc albo kłamiesz jak pies z premedytacją albo jesteś skończonym idiotą jeśli chodzi o rozumienie czytanego tekstu.
    Twoja interpretacja z argumentacją jest o kant Twojej kłamliwej dupy rozbić.
    Słuchając się Ciebie: zacząłem od meritum, doszedłem do logiki a wnioskiem jest to, że jesteś kłamliwym psem albo skończonym idiotom. Zresztą, idiota również może kłamać jak z nut.


  21. @morgi (autor: Promilus | data: 14/06/10 | godz.: 17:15)
    TDP z kosmosu to ma x86 a nie RISC.
    "Gdyby bylo zapotrzebowanie to Intel wrzucilby fma"
    Przecież wrzucił lamko.
    "moc fp uroslaby spokojnie"
    za mało.
    "tyle ze to co w grafice sprawdza sie jako proste procesorki do pixeli to w ogolnym zastosowaniu ledwo przechodzi"
    Kontrola kodu to głównie INT, a FP to głównie same obliczenia... dokładnie jak w GPU.


  22. @akpert, z zachowań zwierząt wiemy... (autor: Qjanusz | data: 14/06/10 | godz.: 17:23)
    że jak okręt się topi, to szczury wychodzą na górny pokład i robią straszny raban.

    Czyżby okręt Intela celował na z pozoru łagodną górę lodową?


  23. widze przyszlosc (autor: piwo1 | data: 14/06/10 | godz.: 20:30)
    no ciekawie zapowiada sie przyszlosc.chyba faktycznie dochodzimy do pewnego przelomu.amd juz sie sprecyzwoalo.integracja grafy i zmniejszenie roli fp jednostek w prockach,bardzo ciekawe posuniecie.a intel w sumie chyba sam nie wie co ma dalej robic.torche zostal w martwym punkcie i chyba bedzie sie staral narzucic jakis wlasny nowy standard.ale na pewno przez kolejne 2 lata nic nie wymysli.a amd juz w tym roku wyrzuca na rynek gotowe rozwiazanie.a intel albo zaproponuje jakies faktycznie multi cpu czytaj 100 rdzeini w jednym czyli taki powrot labree czy jakmu tam albo wogole zarzuci x86.ciekawie sie zaczyna dziac.

  24. Promilus (autor: morgi | data: 15/06/10 | godz.: 14:24)
    Jasne, ze nie wrzucil nie liczac innych architektur IA64. Liczac perf./watt na czyste flops moze risc ma ledwo co do powiedzenia, ale rozny workload i przede wszystkim x86 opracowane pod katem wydajnosci na watt, a nie wydajnosci ogolnej na zastane oczekiwania to x86 da sobie spokojnie rade.
    akpert
    W dalszym ciagu nie wiem o co ci chodzi, rzucasz oskarzenia zamiast skupic sie na argumentacji co i jak. Lepiej wziasc mniejsze i wydajniejsze chipy w podobnym zastosowaniu i mozliwosciach np. Gulftown zamiast sklejek opteronowych, w polaczeniu xeon i gpgpu lepiej wziasc xeon plus np. fermi na jednym chipie niz na dualiku itp itd., chociaz to zalezy do jakich zadan, bo to tylko do hpc, bo tam maja jeszcze korzysc z czystych flops. Konkrety, a nie bluzgi.


  25. @morgi (autor: Promilus | data: 15/06/10 | godz.: 15:03)
    Tak, tak, i dlatego G4 żlopiący mniej niż P III miażdżył tego drugiego z P4 włącznie w każdym zastosowaniu. RISC potrafi tyle samo co x86 tylko mniejszym nakładem tranzystorów co przekłada się i na niewielki pobór prądu.

    "jasne, ze nie wrzucil"
    A tak wielbiony przez ciebie AVX to kurwa niby co ma? FMA3!


  26. @morgi (autor: akpert | data: 15/06/10 | godz.: 18:14)
    To naturalne, że nie wiesz. Pierw głupoty pociskasz a później pokrętnie się wymigujesz. O nie mój drogi, dość tych kłamstw i fałszowania rzeczywistości!

  27. ... (autor: coolart | data: 15/06/10 | godz.: 18:30)
    @mrogi na imprezach tez jedziesz po bandzie i psujesz je ? tak jak komentując obce firmy inne niz intel

  28. @coolart (autor: Sandacz | data: 16/06/10 | godz.: 07:00)
    "@mrogi na imprezach tez jedziesz po bandzie i psujesz je" - wydaje mi się że jedyna imprezy gdzie Morgi jest zapraszany to promocje nowych wyrobów Intela ;-)

  29. zapraszany? (autor: Qjanusz | data: 16/06/10 | godz.: 17:42)
    pewnie sam się wprasza!

  30. @Qjanusz (autor: Sandacz | data: 16/06/10 | godz.: 23:12)
    Pewnie zapraszają aby komuś wcisnąć nalepki jak zostają.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.