TwojePC.pl © 2001 - 2024
|
|
Poniedziałek 28 maja 2012 |
|
|
|
AMD zacieśnia współpracę z producentami oprogramowania Autor: Wedelek | źródło: Softpedia | 11:11 |
(13) | Aby cieszyć się dużą wydajnością nie wystarczy tylko mocny sprzęt, musimy jeszcze mieć oprogramowanie, które go wykorzysta. Wie o tym każdy i w tym aspekcie nie odkryłem "Ameryki", jednak jeszcze do niedawna osoby zarządzające AMD zdawały się o tej zasadzie często zapominać. Producent z Sunnyvale na przestrzeni kilku ostatnich lat miał dobry lub bardzo dobry sprzęt, ale kulała współpraca z twórcami oprogramowania, głównie w przypadku procesorów CPU. W zasadzie AMD po prostu musiało dostosowywać się do reguł dyktowanych przez Intela i jego zestawy instrukcji.
Ostatnim poważnym krokiem ku zmianie tego stanu rzeczy było chyba rozszerzenie dla architektury x86 znane jako 3D Now!, które zostało wyparte z rynku przez konkurencyjne MMX Intela, mimo jego licznych zalet. Obecnie AMD promuje swoje procesory heterogeniczne APU, które mają łączyć wydajność GPU i CPU, a w związku z tym wymagają innego podejścia do tematu. Jednak Intel zapewne nie będzie stać bezczynnie z boku i na pewno postanowi opóźnić działania konkurenta do czasu gdy będzie gotów z nim walczyć na tym nowym polu.
Jednak w AMD po zmianie lidera i bolesnej nauce z 3D Now! wyciągnęło wnioski i postanowiono zacieśnić współpracę z producentami oprogramowania. Pierwszy zwiastun nowej polityki firmy mogliśmy obserwować w trakcie zakupu SeaMicro czy przy zawiązywaniu umów z firmami tworzącymi programy i systemy operacyjne dla systemów wbudowanych oraz narzędzia dla specyficznych rynków - np. programy CAD'owe. Oczywiście na tym nie koniec, bo producent z Sunnyvale planuje dalsze rozmowy z potencjalnymi partnerami.
O tym jak dużo już udało się osiągnąć AMD poinformuje zgromadzonych na imprezie Fusion Developer Summit, na której stawią się producenci współpracujący z firmą z Sunnyvale, a w tej grupie znajdą się między innymi: Adobe, Cloudera, Penguin Computing, Gaikai, Cyberlink, Arcsoft oraz vReveal.
|
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- Brawo AMD! (autor: Qjanusz | data: 28/05/12 | godz.: 11:24)
Dostrzegli sens w kroku, który nVidia poczyniła już w 2007 roku!
No ale lepiej późno niż wcale :-)
"...było chyba rozszerzenie dla architektury x86 znane jako 3D Now!, które zostało wyparte z rynku przez Intela..."
Nie prawda! AMD wprowadził w 1998 roku 3Dnow jako odpowiedź na wprowadzone dwa lata wcześniej intelowe MMX. MMX z miejsca przykuł uwagę producentów softu, 3Dnow pozostał ciekawostką. Tak więc 3Dnow nigdy nie zostało znikąd wyparte, ponieważ nigdy nie było w miejscu, które ktoś chciałby wyprzeć.
- Lepiej późno niż wcale :) (autor: agnus | data: 28/05/12 | godz.: 11:25)
j.w.
- agnus (autor: Aamitoza | data: 28/05/12 | godz.: 11:29)
wcześniej nie było sensu. Więc nie wiem gdzie to "późno".
- ... (autor: Aamitoza | data: 28/05/12 | godz.: 11:31)
a poza tym - qjanusz - w poprzedniej dyskusju włożyłeś mi w usta słowa których nie powiedziałem, więc nie uważam, że jest zakończona.
"A gdzie ja twierdzę, że to ATi było prekursorem? Ja twierdzę, że to AMD pierwsze zastosowało swoje GPU - x19xx do obliczeń innych niż graficzne.
Już seria FX u nvidia miała częsciowo programowalne jednostki mogące wykonywać obliczenia FP 16/24/32bit, kiedy jednostki w radeonach 98xx jedynie standardowe 24bitowe.
Z drugiej strony Ty także nie potrafisz udowodnić, że to CPU jest bardziej skomplikowane - podanie kilku elementów składowych frontendu nic nie wyjaśnia, bo frontedn w GPU ma te same elementy, tylko innego typu dekoder - nie musi tłumaczyć instrukcji x86 na micro-ops dla jednostek wykonawczych - ale to jedyna poważna różnica. Inna jest taka, że frontend w gpu musi poradzić sobie z 64 procesorami wykonawczymi, kiedy w cpu z kilkakrotnie mniejszą liczbą.
Pominę już fakt, że w GPU musi być także graphics comand processor który musi z kolei przydzielać zadania tym 32CU. A to jest jeden z bardziej zaawansowanych elementów w GPU.
Wiec Twoje udowadnianie jakie to CPU jest skomplikowane za bardzo nie ma racji bytu, bo i jedno i drugie jest równie mocno skomplikowane, tylko na innych płaszczyznach - w przypadku CPU dekodery tłumaczący instrukcjie na micro-ops i podsystem przewidywania skoków, a w przypadku GPU frontend będący w stanie dostarczyć instrukcje do tak dużej ilości jednostek."
- @Aamitoza - ponownie sporowokowałeś mnie do tego, (autor: Qjanusz | data: 28/05/12 | godz.: 14:00)
aby udowodnić Ci że po raz kolejny nie masz racji.
"Wróćmy jednak, do samego wykorzystania potencjału kart graficznych do obliczeń niezwiązanych z generowaniem grafiki 3D. Najbardziej zainteresowana tym zagadnieniem była i jest firma NVIDIA. "
"...NVIDIA Quadro FX 3400. To na takiej karcie graficznej po raz pierwszy w historii wykonano zaawansowane obliczenia niezwiązane z grafiką – wykonano obliczenia symulacji zapadania się gwiazdy." Rok 2004.
http://www.frazpc.pl/...moca_kart_graficznych.html
Poza tym w 2003 Rosjanie wydali soft pod projekt wykorzystujący FeGorca do obliczeń związanych z dźwiękiem. Nie pamiętam jak projekt się nazywał, ale z pewnością poradzisz sobie podczas poszukiwań.
ATI x19xx to rok 2006, więc przestań mi tu pitolić o wcześniejszym zastosowaniu przez ATI/AMD GPU do nie-grafiki.
Ps. Sprowokowałeś mnie po raz ostatni :-)
- ... (autor: Aamitoza | data: 28/05/12 | godz.: 14:51)
widzę, że rozjanie to dla Ciebie nvidia? ;)
wszystkie projekty przed 2006 rokiem były wykonywane na uniwersytetach przez soft przez nie zrobiony. A nie przez nvidia czy amd (wtedy jeszcze ati), nvidia i ati były potem "dopisywane" bo wsparły projekty finansowo. Pierwszym projektem zapoczątkowanym przez ATI było close to metal, a w przypadku nvidia cuda. Wszystko wcześniej oparte o brookGPU i inne tego typu wynalazki było nie związane z nvidią i ati.
Bo tych z 2003/2004 roku projektów niezależnych w oparciu o układy jednych i drugich było kilka.
- co tam bedzie robic adobe? (autor: RusH | data: 28/05/12 | godz.: 15:22)
inne firmy rozumiem, producent klastrow na apu, developer hadoop, cloud gej'ming i jakies multimedia. Ale co tam robi Adobe? ??
- @04 (autor: Plackator | data: 28/05/12 | godz.: 15:58)
Patrząc na to że nie udało się zbudować CPU o takiej ilośći tranzystorów co GPU, mozna wywnioskować to że budowa CPU jest bardziej skomplikowana, dobrze gdy by ktoś się dokopał do jakiś informacji lub zapytał po prostu jakiegoś inżyniera AMD/Intel/TSMC/GF/Samsung/UMC i inne.
- starość nie radość... (autor: Qjanusz | data: 28/05/12 | godz.: 16:26)
przypomniało mi się. Przetwarzanie równoległe audio dla GeForców obejmował projekt BionicFX.
Projekty niezależne to jedno, ale OpenVidia zainicjowana w 2002 roku przy udziale nVidii to zupełnie inna bajka, więc proszę po raz kolejny nie ściemniać i nie zmieniać tematu.
Co do #3, to częściowo się zgodzę. ATI/AMD w tamtym czasie walczyło o przetrwanie na rynku, prosząc o wsparcia, datki i kredyty. W tych okolicznościach rozwój zupełnie nowych i ryzykownych przedsięwzięć faktycznie pozbawiony był sensu :-)
@Plackator - bo CPU oczywiście jest bardziej skomplikowane niż GPU! Aamitoza po prostu z zasady lubi sikać pod wiatr ;-)
- @Aamitoza - i znów piszesz nie prawdę! (autor: Qjanusz | data: 28/05/12 | godz.: 16:40)
"wszystkie projekty przed 2006 rokiem były wykonywane na uniwersytetach przez soft przez nie zrobiony. A nie przez nvidia czy amd (wtedy jeszcze ati), nvidia i ati były potem "dopisywane" bo wsparły projekty finansowo"
a jak było na prawdę:
"Pierwsze udane próby wykorzystania kart graficznych do zaawansowanych wysokowydajnych obliczeń miały miejsce w listopadzie 2004 roku. Wtedy zespół naukowców z laboratorium w Los Alamos wspólnie z inżynierami z Nvidii opracował program wykonujący na karcie Nvidia Quadro FX 3400..."
http://www.benchmark.pl/...-4090/strona/15321.html
focus: "...wspólnie z inżynierami z Nvidii..."
:-)
myślę że linki o powiązaniu OpenVidia i nVidii (2002 rok) sam znajdziesz :-)
- qjanusz (autor: Aamitoza | data: 28/05/12 | godz.: 17:00)
Porównaj wielkość frontendu nawet w marnym VLIW5 do tego w K10.5.
Bo to w nim są największe komplikacje. Ile jednostek wykonawczych jest w stanie zaspokoić frontend CPU x86, a ile w przypadku GPU? I masz swoją odpowiedź.
- @Aamitoza - dobrze że chociaż odpuściłeś temat GPGU :-) (autor: Qjanusz | data: 28/05/12 | godz.: 17:19)
co do CPU vs GPU, to raczej nikt z nas nie posiada autorytatywnej wiedzy w temacie. A nawet gdyby posiadał, to wątpię żeby druga strona zdolna była tę wiedzę przyjąć. Swoje zdanie i argumenty wyraziłem jasno. Ty przed chwilą powtórzyłeś coś tam od siebie.
Moje argumenty nie przekonują Ciebie, Twoje zaś nie poruszyły mojego światopoglądu.
Ot życie... :-)
- @1 & Wedelek: (autor: MBR[PL] | data: 29/05/12 | godz.: 13:33)
Wiem że to było dawno temu, ale piszcie poprawnie na litość...
Lista instrukcji 3DNow! wprowadzona w 1998 r. w K6-2 nie była żadną odpowiedzią/konkurencją na MMX Intela z Pentium MMX z 1996/97 r. ...bo rozszerzenie MMX zostało przyjęte i wprowadzone przez AMD w już 1997 wraz z premierą pierwszego K6. Zresztą MMX to tylko operacje stałoprzecinkowe macierzowe, 3DNow! to mix operacji zmiennoprzecinkowych wektorowych oraz 24 istrukcji stałoprzecinkowych na macierzach rozszerzających dodatkowo zestaw instrukcji MMX - tzw. EnhancedMMX.
Odpowiedź na AMD 3DNow! Intel wprowadził dopiero rok później (1999) r. wraz z premierą PIII - SSE AKA Katmai New Isntructions. I to zapewne o przyjęcie rozszerzenia SSE i SSE2 przez AMD w Athlonach Wam chodzi i wyparcie AMD 3DNow! i 3DNow! PRO (AMD zapowiedziało rezygnację z 3DNow! około 2 lata temu) przez SSE(x), a nie MMX Wam chodzi.
Poza tym jeśli chodzi o rozszerzenie listy instrukcji to na upartego można powiedzieć że całość trybu x86-64 to jest "rozszerzenie" AMD - wcześniej Intel uparcie promował architekturę 64bitową Itanium, po sukcesie x86-64 zwanym również AMD64 przyjął to rozwiązanie AFAIR jako Intel EM64.
No i co do tych ostatnich rozszerzeń - nie zapominajmy, że po drodze były jeszcze pomniejsze rozszerzenia, nawzajem się nie zawierające - AMD dodało pomniejsze SSE 4.1 (SSE4A).
Można też uznać że rozszerzenia wirtualizacyjne (hardware) realizowane przez CPU AMD-V i Intel VT-x oraz dodatki związane ze stronicowaniem - oba te rozszerzenia list CPU są ze sobą niezgodne i rozwijane niezależnie przez AMD i Intela.
To tak na szybko, bo aż oczom nie wierzę, że w wortalu technicznym jakim jest TPC mogą w artykułach trafiać się takie błędy.
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|