AMD zacieśnia współpracę z producentami oprogramowania
Autor: Wedelek | źródło: Softpedia | 11:11
(13)
Aby cieszyć się dużą wydajnością nie wystarczy tylko mocny sprzęt, musimy jeszcze mieć oprogramowanie, które go wykorzysta. Wie o tym każdy i w tym aspekcie nie odkryłem "Ameryki", jednak jeszcze do niedawna osoby zarządzające AMD zdawały się o tej zasadzie często zapominać. Producent z Sunnyvale na przestrzeni kilku ostatnich lat miał dobry lub bardzo dobry sprzęt, ale kulała współpraca z twórcami oprogramowania, głównie w przypadku procesorów CPU. W zasadzie AMD po prostu musiało dostosowywać się do reguł dyktowanych przez Intela i jego zestawy instrukcji.
Ostatnim poważnym krokiem ku zmianie tego stanu rzeczy było chyba rozszerzenie dla architektury x86 znane jako 3D Now!, które zostało wyparte z rynku przez konkurencyjne MMX Intela, mimo jego licznych zalet. Obecnie AMD promuje swoje procesory heterogeniczne APU, które mają łączyć wydajność GPU i CPU, a w związku z tym wymagają innego podejścia do tematu. Jednak Intel zapewne nie będzie stać bezczynnie z boku i na pewno postanowi opóźnić działania konkurenta do czasu gdy będzie gotów z nim walczyć na tym nowym polu.
Jednak w AMD po zmianie lidera i bolesnej nauce z 3D Now! wyciągnęło wnioski i postanowiono zacieśnić współpracę z producentami oprogramowania. Pierwszy zwiastun nowej polityki firmy mogliśmy obserwować w trakcie zakupu SeaMicro czy przy zawiązywaniu umów z firmami tworzącymi programy i systemy operacyjne dla systemów wbudowanych oraz narzędzia dla specyficznych rynków - np. programy CAD'owe. Oczywiście na tym nie koniec, bo producent z Sunnyvale planuje dalsze rozmowy z potencjalnymi partnerami.
O tym jak dużo już udało się osiągnąć AMD poinformuje zgromadzonych na imprezie Fusion Developer Summit, na której stawią się producenci współpracujący z firmą z Sunnyvale, a w tej grupie znajdą się między innymi: Adobe, Cloudera, Penguin Computing, Gaikai, Cyberlink, Arcsoft oraz vReveal.
K O M E N T A R Z E
Brawo AMD! (autor: Qjanusz | data: 28/05/12 | godz.: 11:24) Dostrzegli sens w kroku, który nVidia poczyniła już w 2007 roku!
No ale lepiej późno niż wcale :-)
"...było chyba rozszerzenie dla architektury x86 znane jako 3D Now!, które zostało wyparte z rynku przez Intela..."
Nie prawda! AMD wprowadził w 1998 roku 3Dnow jako odpowiedź na wprowadzone dwa lata wcześniej intelowe MMX. MMX z miejsca przykuł uwagę producentów softu, 3Dnow pozostał ciekawostką. Tak więc 3Dnow nigdy nie zostało znikąd wyparte, ponieważ nigdy nie było w miejscu, które ktoś chciałby wyprzeć.
Lepiej późno niż wcale :) (autor: agnus | data: 28/05/12 | godz.: 11:25) j.w.
agnus (autor: Aamitoza | data: 28/05/12 | godz.: 11:29) wcześniej nie było sensu. Więc nie wiem gdzie to "późno".
... (autor: Aamitoza | data: 28/05/12 | godz.: 11:31) a poza tym - qjanusz - w poprzedniej dyskusju włożyłeś mi w usta słowa których nie powiedziałem, więc nie uważam, że jest zakończona.
"A gdzie ja twierdzę, że to ATi było prekursorem? Ja twierdzę, że to AMD pierwsze zastosowało swoje GPU - x19xx do obliczeń innych niż graficzne.
Już seria FX u nvidia miała częsciowo programowalne jednostki mogące wykonywać obliczenia FP 16/24/32bit, kiedy jednostki w radeonach 98xx jedynie standardowe 24bitowe.
Z drugiej strony Ty także nie potrafisz udowodnić, że to CPU jest bardziej skomplikowane - podanie kilku elementów składowych frontendu nic nie wyjaśnia, bo frontedn w GPU ma te same elementy, tylko innego typu dekoder - nie musi tłumaczyć instrukcji x86 na micro-ops dla jednostek wykonawczych - ale to jedyna poważna różnica. Inna jest taka, że frontend w gpu musi poradzić sobie z 64 procesorami wykonawczymi, kiedy w cpu z kilkakrotnie mniejszą liczbą.
Pominę już fakt, że w GPU musi być także graphics comand processor który musi z kolei przydzielać zadania tym 32CU. A to jest jeden z bardziej zaawansowanych elementów w GPU.
Wiec Twoje udowadnianie jakie to CPU jest skomplikowane za bardzo nie ma racji bytu, bo i jedno i drugie jest równie mocno skomplikowane, tylko na innych płaszczyznach - w przypadku CPU dekodery tłumaczący instrukcjie na micro-ops i podsystem przewidywania skoków, a w przypadku GPU frontend będący w stanie dostarczyć instrukcje do tak dużej ilości jednostek."
@Aamitoza - ponownie sporowokowałeś mnie do tego, (autor: Qjanusz | data: 28/05/12 | godz.: 14:00) aby udowodnić Ci że po raz kolejny nie masz racji.
"Wróćmy jednak, do samego wykorzystania potencjału kart graficznych do obliczeń niezwiązanych z generowaniem grafiki 3D. Najbardziej zainteresowana tym zagadnieniem była i jest firma NVIDIA. "
"...NVIDIA Quadro FX 3400. To na takiej karcie graficznej po raz pierwszy w historii wykonano zaawansowane obliczenia niezwiązane z grafiką – wykonano obliczenia symulacji zapadania się gwiazdy." Rok 2004. http://www.frazpc.pl/...moca_kart_graficznych.html
Poza tym w 2003 Rosjanie wydali soft pod projekt wykorzystujący FeGorca do obliczeń związanych z dźwiękiem. Nie pamiętam jak projekt się nazywał, ale z pewnością poradzisz sobie podczas poszukiwań.
ATI x19xx to rok 2006, więc przestań mi tu pitolić o wcześniejszym zastosowaniu przez ATI/AMD GPU do nie-grafiki.
Ps. Sprowokowałeś mnie po raz ostatni :-)
... (autor: Aamitoza | data: 28/05/12 | godz.: 14:51) widzę, że rozjanie to dla Ciebie nvidia? ;)
wszystkie projekty przed 2006 rokiem były wykonywane na uniwersytetach przez soft przez nie zrobiony. A nie przez nvidia czy amd (wtedy jeszcze ati), nvidia i ati były potem "dopisywane" bo wsparły projekty finansowo. Pierwszym projektem zapoczątkowanym przez ATI było close to metal, a w przypadku nvidia cuda. Wszystko wcześniej oparte o brookGPU i inne tego typu wynalazki było nie związane z nvidią i ati.
Bo tych z 2003/2004 roku projektów niezależnych w oparciu o układy jednych i drugich było kilka.
co tam bedzie robic adobe? (autor: RusH | data: 28/05/12 | godz.: 15:22) inne firmy rozumiem, producent klastrow na apu, developer hadoop, cloud gej'ming i jakies multimedia. Ale co tam robi Adobe? ??
@04 (autor: Plackator | data: 28/05/12 | godz.: 15:58) Patrząc na to że nie udało się zbudować CPU o takiej ilośći tranzystorów co GPU, mozna wywnioskować to że budowa CPU jest bardziej skomplikowana, dobrze gdy by ktoś się dokopał do jakiś informacji lub zapytał po prostu jakiegoś inżyniera AMD/Intel/TSMC/GF/Samsung/UMC i inne.
starość nie radość... (autor: Qjanusz | data: 28/05/12 | godz.: 16:26) przypomniało mi się. Przetwarzanie równoległe audio dla GeForców obejmował projekt BionicFX.
Projekty niezależne to jedno, ale OpenVidia zainicjowana w 2002 roku przy udziale nVidii to zupełnie inna bajka, więc proszę po raz kolejny nie ściemniać i nie zmieniać tematu.
Co do #3, to częściowo się zgodzę. ATI/AMD w tamtym czasie walczyło o przetrwanie na rynku, prosząc o wsparcia, datki i kredyty. W tych okolicznościach rozwój zupełnie nowych i ryzykownych przedsięwzięć faktycznie pozbawiony był sensu :-)
@Plackator - bo CPU oczywiście jest bardziej skomplikowane niż GPU! Aamitoza po prostu z zasady lubi sikać pod wiatr ;-)
@Aamitoza - i znów piszesz nie prawdę! (autor: Qjanusz | data: 28/05/12 | godz.: 16:40) "wszystkie projekty przed 2006 rokiem były wykonywane na uniwersytetach przez soft przez nie zrobiony. A nie przez nvidia czy amd (wtedy jeszcze ati), nvidia i ati były potem "dopisywane" bo wsparły projekty finansowo"
a jak było na prawdę:
"Pierwsze udane próby wykorzystania kart graficznych do zaawansowanych wysokowydajnych obliczeń miały miejsce w listopadzie 2004 roku. Wtedy zespół naukowców z laboratorium w Los Alamos wspólnie z inżynierami z Nvidii opracował program wykonujący na karcie Nvidia Quadro FX 3400..." http://www.benchmark.pl/...-4090/strona/15321.html
focus: "...wspólnie z inżynierami z Nvidii..."
:-)
myślę że linki o powiązaniu OpenVidia i nVidii (2002 rok) sam znajdziesz :-)
qjanusz (autor: Aamitoza | data: 28/05/12 | godz.: 17:00) Porównaj wielkość frontendu nawet w marnym VLIW5 do tego w K10.5.
Bo to w nim są największe komplikacje. Ile jednostek wykonawczych jest w stanie zaspokoić frontend CPU x86, a ile w przypadku GPU? I masz swoją odpowiedź.
@Aamitoza - dobrze że chociaż odpuściłeś temat GPGU :-) (autor: Qjanusz | data: 28/05/12 | godz.: 17:19) co do CPU vs GPU, to raczej nikt z nas nie posiada autorytatywnej wiedzy w temacie. A nawet gdyby posiadał, to wątpię żeby druga strona zdolna była tę wiedzę przyjąć. Swoje zdanie i argumenty wyraziłem jasno. Ty przed chwilą powtórzyłeś coś tam od siebie.
Moje argumenty nie przekonują Ciebie, Twoje zaś nie poruszyły mojego światopoglądu.
Ot życie... :-)
@1 & Wedelek: (autor: MBR[PL] | data: 29/05/12 | godz.: 13:33) Wiem że to było dawno temu, ale piszcie poprawnie na litość...
Lista instrukcji 3DNow! wprowadzona w 1998 r. w K6-2 nie była żadną odpowiedzią/konkurencją na MMX Intela z Pentium MMX z 1996/97 r. ...bo rozszerzenie MMX zostało przyjęte i wprowadzone przez AMD w już 1997 wraz z premierą pierwszego K6. Zresztą MMX to tylko operacje stałoprzecinkowe macierzowe, 3DNow! to mix operacji zmiennoprzecinkowych wektorowych oraz 24 istrukcji stałoprzecinkowych na macierzach rozszerzających dodatkowo zestaw instrukcji MMX - tzw. EnhancedMMX.
Odpowiedź na AMD 3DNow! Intel wprowadził dopiero rok później (1999) r. wraz z premierą PIII - SSE AKA Katmai New Isntructions. I to zapewne o przyjęcie rozszerzenia SSE i SSE2 przez AMD w Athlonach Wam chodzi i wyparcie AMD 3DNow! i 3DNow! PRO (AMD zapowiedziało rezygnację z 3DNow! około 2 lata temu) przez SSE(x), a nie MMX Wam chodzi.
Poza tym jeśli chodzi o rozszerzenie listy instrukcji to na upartego można powiedzieć że całość trybu x86-64 to jest "rozszerzenie" AMD - wcześniej Intel uparcie promował architekturę 64bitową Itanium, po sukcesie x86-64 zwanym również AMD64 przyjął to rozwiązanie AFAIR jako Intel EM64.
No i co do tych ostatnich rozszerzeń - nie zapominajmy, że po drodze były jeszcze pomniejsze rozszerzenia, nawzajem się nie zawierające - AMD dodało pomniejsze SSE 4.1 (SSE4A).
Można też uznać że rozszerzenia wirtualizacyjne (hardware) realizowane przez CPU AMD-V i Intel VT-x oraz dodatki związane ze stronicowaniem - oba te rozszerzenia list CPU są ze sobą niezgodne i rozwijane niezależnie przez AMD i Intela.
To tak na szybko, bo aż oczom nie wierzę, że w wortalu technicznym jakim jest TPC mogą w artykułach trafiać się takie błędy.
D O D A J K O M E N T A R Z
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.