Proces 20nm już w przyszłym roku, ale nie dla wszystkich
Autor: Wedelek | 12:09
(35)
Po całej burzy wokół zbyt słabych dostaw wafli krzemowych wytwarzanych w 28nm procesie produkcji przez TSMC i zapewnieniach tajwańskiego producenta że zamówienia Nvidii będą realizowane w pierwszej kolejności, producent GeForce’ów podczas konferencji GTC 2012 przyznał, że uzysk gotowych wafli w technologii 28nm jest stosunkowo duży. Mimo to ilość dostarczanych wafli krzemowych wciąż jest zbyt mała, a problem ten poruszono między innymi podczas imprezy Semico Impact Forum, która odbyła się w Double Tree Hotel w San Jose. Podczas wspomnianej konferencji dyskutowano również o technologii 20nm.
Według zgromadzonych na imprezie ekspertów powinna ona trafić do użytku już w drugiej połowie przyszłego roku, ale koszt jej wprowadzenia będzie ogromny i tylko najwięksi producenci będą mogli pozwolić sobie na korzystanie z niej od samego początku. Mniejszym firmom przyjdzie poczekać aż wzrośnie uzysk i korzystać z 28nm procesu produkcji.
Według analityków aby zwróciły się koszty przejścia na niższy proces trzeba sprzedać aż 100 milionów układów wytworzonych w 20nm technologii. Oczywiście chipy te muszą być odpowiednio duże. Dlatego też aby obniżyć koszt opracowania nowej technologii TSMC ujednolici proces - nie będzie takiej różnorodności jak w przypadku 28nm i zrezygnuje z niektórych dodatkowych technologii, jak SOI który zastąpi tańszy Bulk.
Przy zastosowaniu SOI w układzie pojawia się dodatkowa warstwa izolująca, która zmniejsza co prawda upływ energii z tranzystorów, ale zwiększa też koszt wytworzenia i opracowania nowego procesu.
K O M E N T A R Z E
Innymi słowy (autor: Remedy | data: 22/05/12 | godz.: 16:37) będziemy sprzedawać gorsze gówno za grubą kasę. Postęp.
Takie farmazony... (autor: Majster | data: 22/05/12 | godz.: 17:20) Takie farmazony, bajki oraz "duperele" niech małym dzieciom opowiadają...
Wygląda na to, że TSMC razem z innymi towarzyszami _już teraz_ przygotowuje nas wszystkich do takiego nastawienia, że ceny następnych GPU będą wyższe niż obecnych modeli. Taki GeForce GT 240 kosztuje ok. 240 zł. ? No tak, co komu szkodzi za następcę zawołać np. 430 zł. ? Wyjdzie taki Gainward albo inny MSI w 20 nm i dawaj... dołoją cenę że hej. I oto właśnie chodzi - po co sprzedawać gotowy produkt taniej jak można drożej, prawda ?
....... (autor: Marek1981 | data: 22/05/12 | godz.: 18:06) Ponieważ GPU jest dużo bardziej złożone od CPU to trudniej dla nich wdrożyć niższy proces technologiczny.
Intel od dłuższego czasu buja się z 22nm a oni mieliby 20nm od tak sobie wdrożyć??
Powoli dochodzimy do kresu opłacalności wdrażania niższych procesów technologicznych i będzie trzeba coś innego wymyśleć
Mówią że z "gówna, bata nie ukręcisz" (autor: Dather | data: 22/05/12 | godz.: 18:46) Jeszcze trochę a będziemy świadkami że z gówna coś ukręcą i będą to sprzedawać za cholernie duże pieniądze...a to wszystko z powodu coraz mniejszej "opłacalności i trudności" wdrążenia nowego procesu.
Jeszcze technologii 28 nm nie mają w pełni dopracowanej a już nastawiają ludzi na drogie 20nm, coś mi tu śmierdzi...czyżby producenci zbyt mało zarabiali na swoich produktach?
czy panowie nie przeginaja (autor: Markizy | data: 22/05/12 | godz.: 19:02) 28nm wszedł do użytku w grudniu 2011, a powyższy proces wejdzie najwcześniej 18miesiecy później, zgodnie z czyimś prawem jak widać, co niektórzy stękali że już nie obowiązuje. Chociaż te 18 pewnie zmieni się na ponad 20, ale w narzekaniach nie przeszkadza że za szybko tak samo jak w tych że za wolno.
W przypadku procesu 28 i 20nm trzeba wziąć pod uwagę że TSMC też inwestowało w 32nm z którego zrezygnowali (pewne koszty ponieśli) wiec będą chcieli to odzyskać. Żadna z firm nie jest fundacja charytatywną dla tego chcą zarabiać. A jak nie potrzebujesz nowszego układu, to nie kupuj, też problemy macie.
@03 (autor: Plackator | data: 22/05/12 | godz.: 19:26) "Ponieważ GPU jest dużo bardziej złożone od CPU "
Większej głupoty to ja w życiu nie słyszałem :/
Pfff, pochodził tylko 4 miesiące i szlag go trafił. Tyle się nacieszyłem nowym nabytkiem, fajnie nie ? Jak widzę obecne karty na Allegro, jeszcze na AGP (albo trochę późniejsze na PCI-Express), które są sprawne i działają, to mnie śmiech ogarnia... nVidia razem z ATI są siebie warte, i jak można wnioskować po zapowiedziach, nowsze, kolejne "wynalazki" będą jeszcze gorsze.
Stare grafiki mogą mieć po 8 lub więcej lat, a te nowe... szkoda gadać. :(
Brawo... taka to jakość - na ile ? Na 10 dni ? 3 tygodnie ?
Ile mają topowe procesory? 8 rdzeniowy SB-EP 2,28miliarda, a desktopowe poniżej 1,5 miliarda. Przy czym masz masę pamięci cache. w EP całe 20MB L3.
No więc jak CPU są bardziej złożone od GPU, to ja pytam - gdzie?
#8 . (autor: Qjanusz | data: 22/05/12 | godz.: 21:24) oczywiście ja tam się nie znam, ale taki np i7 980X ma 1,170 mld tranzystorów i tylko 6 rdzeni (keszu i innych pierdół nie wspomnę), z kolei Tahiti 4,31 mld tranzystorów, ale za to 2048 swojskich rdzeni i niewiele ponad setkę MTU.
Mylić się oczywiście mogę, ale liczba tranzystorów per rdzeń, przekładająca się na skomplikowanie rdzenia wypada zdecydowanie na o wiele większe zagmatwanie układu CPU niż GPU.
Inaczej pisząc, GPU to stosunkowo prosty PS tłuczony seryjnie jeden obok drugiego (+ "osprzęt"), z czego biorą się oczojebne cyfry użytych tranzystorów.
CPU to kawał skomplikowanego układu, na którego budowę rdzenia trzeba już pomysłu a nie Ctrl-C / Ctrl-V
@09 (autor: Plackator | data: 22/05/12 | godz.: 21:52) Prosto i dokładnie
@07
I duża część z nich to po prostu zimne luty lub efekt poboczny zimnych łutów, o dziwo w wojsku, medycynie i urządzeniach nastawionych na prawdziwą wytrzymałość nadal są stosowane luty ołowiowe...
Polecam trzymać wszelką elektronikę >70C i nie wystawiać na duże zmiany temp. i dobrze zamocowany radiator.
Też mnie dziwi jak ci producenci projektują... w jednym z laptopów Asusa, spotkałem się z przykręceniem radiatora tylko z jednej strony, co naciskało z jednej strony układu... przez co, nawet 2 lata nie minęły, już zimne luty były.
qjanusz (autor: Aamitoza | data: 23/05/12 | godz.: 00:06) a co to ma wspólnego z wykonaniem w danym procesie? tutaj liczy się skomplikowanie wynikające z ilości tranzystrów.
To dlaczego Intel potrafi tak skomplikowane CPU robić a nie potrafi prościutkiego GPU zrobić??
AMD też sobie nie dało radę więc wchłonęli ATI.
#11 - nie zgadzam się (autor: Qjanusz | data: 23/05/12 | godz.: 10:37) większa ilość wytrawionych tranzystorów przekłada się na większy koszt wytworzenia jednego chipa (mniej tego zmieści się w waflu), oraz na większe prawdopodobieństwo wyprodukowania chipa z defektem. Nic ponad to.
Zapytałeś gdzie CPU jest bardziej skomplikowane od GPU. Wytłumaczyłem. Teraz decyzja co do tego, co jest bardziej skomplikowane należy do Ciebie: duża naczepa do TIRa czy małe Ferrari ;-)
#12 - odpowiedziałeś pokrętnie i tak Ci wyszło. nVidia i AMD swoje klocki mają opatentowane. Dlatego Intel nie mogąc tworzyć PS, eksperymentuje z autorskim EU. Efekt sprzedaży tego substytutu? 59% udziału w rynku! Rynku, który dla firmy NIE JEST rynkiem podstawowym. AMD ma ponad połowę mniej, z mniejszymi marżami, mimo że ten rynek jest ich pierwszym targetem.
Nie robi to na Tobie wrażenia?
AMD przed kupnem ATI, tak samo jak Intel (poza epizodem z i740), nie było producentem kart graficznych tylko CPU. Nawet VIA chcąc produkować GPU, musiało zakupić S3.
Teraz to ja zapytam pokrętnie. Jeżeli budowa CPU jest prosta, to dlaczego AMD ma tak ogromne problemy z zaprojektowaniem prostego układu, podczas gdy Intel zdaje się że ziewać, z nudów wprowadzać sztuczne ograniczenia i segmentację rynku, oraz po prostu czekać na ociągającą się konkurencję. Obie firmy produkują CPU od kilkudziesięciu lat!
qjanusz (autor: Aamitoza | data: 23/05/12 | godz.: 11:39) nadal bzdura. Na podobnej zasadzie jest teżkopiowane wiele jednostek w CPU. To, że cpu ma miejscami bardziej rozbudowane jednostki nie jest komplikacją układu. Przykład?
K10 - 35M tranzystorów bez L2. Po odjęciu L1 zostaje trochę poniżej 30 milionów tranzystorów. Układ podzielony jest na 3 główne strefy - FPU, jednostki integr i frontend - wszystkie mniej więcej w proporcjach 1:2, więc w przyblizeniu każda z tych częsci zajmuje... jakieś 10milionów tranzystorów.
W przypadku GPU masz 32CU które zajmują 50% układu. A kopiowany jest każdy CU - sam simd trzeba całkowicie zaprojektować - frontend, jednostki wykonawcze itd. Jedyne co masz tam skopiowane to 4xFPU, ale to tak jak dublowane jednostki w buldku, czy powiekszanie FPU w innych procesorach).
Więc... 4,3miliarda podziel na 2, potem na 32 i wychodzi nam, że każda CU ma... 67milionów tranzystorów. i jeszcze raz przypomnę - takie CU to mniej więcej to amo co sam rdzeń CPU.
Where is your good now? ;)
Dzielenie ilości tranzystorów przez "2048" jednostek wektorowych jest czystą ignorancją. To tak jak by podzielić te 35 milionów tranzystorów llano przez 3 - tak jak to zrobiłęm powyżej, podzielenie frontendu prze 3 - bo niby 3 dekodery, jednsotek integr przez 3, bo niby są 3 ALU/AGU i FPU przez 2.
@Qjanusz (autor: Marek1981 | data: 23/05/12 | godz.: 15:34) "nVidia i AMD swoje klocki mają opatentowane. Dlatego Intel nie mogąc tworzyć PS, eksperymentuje z autorskim EU"
Oj chyba nie do końca bo z tego co mi wiadomo to zleca zaprojektowanie lub kupuje rozwiązania.
"Jeżeli budowa CPU jest prosta, to dlaczego AMD ma tak ogromne problemy z zaprojektowaniem prostego układu, podczas gdy Intel zdaje się że ziewać, z nudów wprowadzać sztuczne ograniczenia i segmentację rynku, oraz po prostu czekać na ociągającą się konkurencję."
Kolejne bzdety.
a) nikt nie pisze prostego tylko mniej skomplikowanego
b) U AMD dział odpowiedzialny cza GPU został wchłonięty od firmy ATI i tam są specjaliści z tej dziedziny.
c) Intel wcale się nie nudził, ba nawet musiał uciekać się do szantaży i innych sztuczek by nie popaść w kłopoty.
Zresztą Aamizota policzył dokładne wartości per 1 rdzeń, ale to i tak nie jest obiektywne
@Marek1981 - piszesz takie same pierdoły jak te, na które się powołujesz (autor: Qjanusz | data: 23/05/12 | godz.: 17:33) EU to autorskie rozwiązanie Intela. Kupione to jest, ale IGP do Atomów: http://twojepc.pl/news23981.html
ad a) jasne...
ad b) dobrze piszesz, tylko nie rozumiem w którym miejscu miałoby to być kontrargumentem w stosunku do tego co napisałem,
ad c) czasy Pentium IV. Pamiętam starsze tylko jak to się ma do aktualnej pozycji Intela?
Aamizota pierdoły pisze żeby chyba tylko coś sobie udowodnić.
Całe te misterne obliczenia o kant dupy rozbić. Wystarczy spojrzeć np na APU (żeby nie prowokować fanbojskich zapędów którejkolwiek ze stron): http://twojepc.pl/graph0/news12/26807_5.jpg
Rdzeń CPU, jego rozmiar i stopień skomplikowania - toć to gołym okiem widać! GPU z kolei to pięknie ułożonych obok siebie równych 384 puzli Owszem, CPU też posiada powtarzające się elementy, ale ich budowa, stopień skomplikowania oraz powtarzalność przy sekwencji Ctrl-C Ctrl-V ma się nijak do tego, na jaką skalę robi się to przy projektowaniu GPU.
Qjanusz (autor: Markizy | data: 23/05/12 | godz.: 18:07) tylko ty też za bardzo upraszasz, bo nawet jak jest Ctrl-C Ctrl-V to trzeba zaprojektować odpowiednią komunikacje dla tych bloków oraz musi być jakaś jednostką nadrzędna która też trzeba projektować. Dochodzą do tego jeszcze ROP, TMU kontroler pamięci oraz dodatkowe bloki. Tak że nie można powiedzieć że gpu jest prostsze w stosunku do cpu i na odwrót.
... (autor: Aamitoza | data: 23/05/12 | godz.: 18:12) ale co kogo interesuje apu? Poza tym co ma vliw4 do tahiti? Nie wspomnę już o tym, że bulldozer w 60% jest zdublowany - FPU i integr to lustrzanie odbite jednostki.
wystarczy popatrzeć na tahiti - CU to praktycznie 50% układu. jest ich 32. CU - GCN jest z osobna zaprojektowanym układem i dopiero po jego zaprojektowaniu się kopiuje resztę. To, że na skanie rdzenia tego niewidać niczego nie zmienia. - wyliczeni jak najbardziej prawidłowe,bo oparte o skan rdzenia tahiti - więc 32CU zajmują około 2,3 miliarda tranzystorów - a może i więcej, bo kontroler pamięci zjmuje sporo, a w jego wypadku zmniejszanie procesu aż takiego efektu nie daje, a ilość tranzystorów jest stała.
Popatrz na gk104. tam patrząc na skan za nic nie odajdziesz kopiowanych bloczków, a jedynie kopiowane SMX (8 takich). Bo prawda jest taka, że ten SMX jest tak samo projektowany jak rdzeń CPU i jest taksamo interpretowany. Ale żyj dalej w błędnym przekonaniu - proszę bardzo ;)
nawet dam Ci przykład
w rv770 10SIMD VLIW5 zajmowało 40% układu. - więc jeden simd VLIW5 powinien mieć około 30-40milionów tranzystorów. W przypadku cape verde 10SIMD GCN to także około 50% układu (może ciut więcej - około 55%). Układ ma 1,5miliarda tranzystorów Wychodzi, że jeden simd GCN to około 75 milionów tranzystorów (Wartość bliska wyliczeniom dla tahiti) - widzisz jaka jest różnica między VLIW5 i GCN? A ilość procesorów strumieniowych nawet spadła. Więc porównywanie VLIW4 które jest mniejsze od VLIW5, do bulldozera który też jest dublowany ma trochę mało sensu, bo jeden GCN to ponad 2 VLIW4. - więc wychodziło by na to, że podobna wielkość.
... (autor: Aamitoza | data: 23/05/12 | godz.: 18:21) No ale tak - cltr+c ctrl+v.
To, że na skanei tego nie widzisz nie znaczy że takie nie jest, bo na skanach GPU AMD nie widać praktycznie nigdy szczegółów. Nie widać nawet cache mimo, że tam jest, więc jak Ty chcesz oceniać czy coś jest kopiowane i dubloane, skoro nawet takich elementów nie widać?
nawet tak patrząc ... (autor: Aamitoza | data: 23/05/12 | godz.: 18:24) to nie masz "bloczków powklejanych", tylko 5 bloków które są zupełnie inne i z osobna zaprojektowane i składają się na jeden SIMD. Nawet w llano i trinity. (no chyba, że nie wiesz które to SIMD, albo myślisz, że tylko jego połowa to SIMD? :E)
@Markizy (autor: Qjanusz | data: 23/05/12 | godz.: 21:03) akurat Global Data Share jest elementem, którym można zachwycać się w ostatniej kolejności analizując budowę GPU.
@Aamitoza - masz swój świat i ja też mam swój :-) Uszanuję to i nie będę przekonywał. Jako ostatnią deskę ratunku podam Ci jeszcze jedno hasło: długość i skomplikowanie rozkazu x86. Jakie rozkazy przetwarza GPU sam zapewne wiesz dobrze. A x86? Potoki wykonawcze standardowego procka to masakra. Niby RISC, ale w pierwszej kolejności dekodery, układy przewidujące skoki, rejestry obsługujące MMX, SSE1...5, a gdzie AVXy mogące działać nawet na 1024-bitowych rejestrach? Scheduler też nie jest już takim prymitywem jak za czasów AMD K-6
Sam układ logiczny skoków to inżynieria sama w sobie.
Wszyscy trąbią dookoła że x86 to najgorsze i najmniej optymalne ścierwo, które musi zachować zgodność z czasami, w których procesory były projektowane do zupełnie innych zastosowań, niż te które są wykorzystywane aktualnie.
Niestety takie obarczenia, takie skomplikowanie i dokładanie na boku kolejnych rozkazów musi być okupione tym, czym aktualnie jest budowa x86
ps. Dlatego podałem APU, żeby opędzić się od wszelakiej maści Marków reagujących na: Intel vs AMD - to nie jest przedmiotem dyskusji.
@Qjanusz (autor: Marek1981 | data: 24/05/12 | godz.: 08:03) To że procesor ma kupe dodatkowych instrukcji i jest "mądrzejszy" od GPU to nie znaczy że jest bardziej skomplikowany.
Swoją drogą poziom skomplikowania jest tak duży iż "my" troszkę orientujemy się na zasadzie działania procesora ale w drobnych szczegółach już chyba prawie nikt.
qjanusz (autor: Aamitoza | data: 24/05/12 | godz.: 09:46) Bo GCN tych elementów na pewno nie ma.
To, że nie obsługuje instrukcji x86 nie czyni go mniej skomplikowanym. Bo w przypadku CPU x86 i tak cały kod jest tłumaczony na mikroinstrukcje tego tyu co w RISC i dopiero wtedy są wykonywane. Cała różnica polega jedynie na dekoderze, ktory w x86 musi być bardziej zaawansowany. Ale to nie czyni bardziej zaawansowanym całego układu.
Popatrz na SIMD nawet w Llano sekcja odpowiedzialna za dekodowanie wcale wiele mniejsza nie jest od tej w llano (oczywiście gdy uszczuplimy tę sekcję w llano o cacheL1 który zzajmuje jakieś 40% tej sekcji).
A GCN ma blisko 2x więcej tranzystorów od VLIW5. Więc siłą rzeczy w każdą stronę został rozbudowany.
Więc najwet jeżeli nie jest to bardziej skomplikowany ukłąd, to jest przynajmniej równie mocno. - Gdyby był prosciutki i polegał na ctrl+C ctrl+V, to GCN nie pojawił by się 5lat po VLIW5 (VLIW4 to praktycznie to samo co VLIW5, tyle, żę z odchudzonym oblkiem wykonawczym).
@Aamitoza (autor: Qjanusz | data: 24/05/12 | godz.: 10:27) utworzenie GCN wcześniej nie miałoby absolutnie żadnego sensu. VLIW od czasów R300 było idealne do ówczesnych zastosowań (DX9)
Przypomnę Ci że GCN powstał jako odpowiedź na technologię TESLA nVidii i jako komponent APU, które wcześniej nie istniało.
GCN pojawiło się w odpowiednim czasie nie dlatego że było aż tak bardzo skomplikowane do zaprojektowania, ale dlatego że pojawiły się możliwości skorzystania z jego architektury i rynek który po prostu go kupi.
"Bo GCN tych elementów na pewno nie ma." - napiszę tak. Mam w swoim aucie pod maską silnik 3l V6. Absolutnie mnie to nie upoważnia do tego, żeby napisać że żona w swoim miejskim "pyrdku" silnika "na pewno nie ma..."
... (autor: Aamitoza | data: 24/05/12 | godz.: 12:16) wiesz ile zjesz. Wystarczy porównać frontend GCN i K10 żeby zobczyć, że ten w GCN wiele mniej zaawansowany nie jest.
Dopiero teraz pojawiłą się możliwość? A głupie CUDA istnieją od 5 lat i jakoś te możliwości były - no proszę Ciebię - samo AMD pierwsze zainicjowało takie obliczenia projektem close to metal i użyciem do obliczeń shaderów w X18xx. Więc proszę nie opowiadaj bzdur, bo GCN powinno pojawic się już przynajmniej 2 lata temu, a jakoś nie pojawiło się.
to "głupie" CUDA było ryzykiem i próbą wytyczenia nowego trendu na rynku IT (autor: Qjanusz | data: 24/05/12 | godz.: 17:31) nVidia zainwestowała mocne środki w promocję GPGPU i dzisiaj ma tego owoce w postaci dużo większych zysków z tego rynku, niż z rynku "gier"
AMD niestety nie można posądzić o zdolność wytaczania nowych trendów (no może poza Eye-Finity). AMD dobrze się czuje w odpowiadaniu swoją ofertą na rynek już wypracowany.
Dzisiejsza pozycja liczenia równoległego jest zasługą nVidii, która TAK, dużo wcześniej zainwestowała w nowatorską technologię.
Pewnie z punktu widzenia rynku, AMD powinno wcześniej się zaangażować w GPGPU, ale z punktu widzenia AMD ważniejsze wtedy było ratowanie swojego rynku podstawowego, niż eksperymentowanie z czymś nowym, mając przy tym zajebisty debet na koncie.
Close to metal wyszło dokładnie w tym samym czasie co CUDA. To pierwsze przez długi czas było niskopoziomową ciekawostką stworzoną przez programistów dla ekstremalnych programistów, CUDA dało realne korzyści wszystkim zainteresowanym - niestety...
qjanusz (autor: Aamitoza | data: 24/05/12 | godz.: 18:02) Jeżeli dobre pół roku wcześniej to ten sam czas (cuda 1.0 wyszły w okolicach marca 2007), i jeszcze kilka miesięcy wcześniej wsparcie dla radeonów w folding@home to ten sam czas, to okej ;)
no proszę Cię..... (autor: Qjanusz | data: 24/05/12 | godz.: 20:54) "In November 2006 Nvidia launched CUDA, an SDK and API that allows using the C programming language to code algorithms for execution on Geforce 8 series GPUs."
Prace zaczęły się w 2002 roku, a projekt na podstawie którego powstały CUDA nazywał się OpenVIDIA. Gdzie powstał? W Toronto :D
Szpiegi z ATI zaoszczędziły na delegacjach ;-)
qjanusz (autor: Aamitoza | data: 24/05/12 | godz.: 21:22) sprawdź jeszcze 5 razy. w listopadzie to była prezentacja - w marcu dopiero cuda 1.0.
... (autor: Aamitoza | data: 24/05/12 | godz.: 21:26) z resztą prace nad brookGPU też trwały juz kilka lat wcześniej Dla odmiany na stanford.
Widzisz gdzieś tam wzmiankę o cuda? jakąkolwiek? Nie? Bo to nie przez cuda leci, tylko przez direct3d. Wiesz czemu? Bo FX5500 to G71 :D - więc seria 7xxx. W drugim przypadku to samo - tyczy się wszystkich serii, a nie tylko 8xxx.
Więc możesz to wsadzić między bajki. Kiedy pojawiły się użyteczne aplikacje na cuda a kiedy samo cuda.
CUDA 1.0 - marzec 2007. To jest jedyny fakt.
... (autor: Aamitoza | data: 25/05/12 | godz.: 00:25) " "Korzystając z wydajnych procesorów graficznych z serii GeForce 6, 7 lub 8, przeglądanie cyfrowej dokumentacji nie różni się – a w wielu przypadkach jest łatwiejsze – od wertowania dokumentów papierowych. Sprzętowa akceleracja w programach Adobe Reader oraz Adobe Aprobat to znaczący krok naprzód w naszym coraz bardziej pozbawionym papieru świecie".
Cuda pełną gębą! nawet dla serii 6 i 7!
" opracowanych przy ścisłej współpracy firmy Autodesk. Najnowsze testy wykazują, że sterowniki MAXtreme 9 pozwoliły na niemal 100% wzrost wydajności przy wykorzystaniu kart graficznych NVIDIA Quadro FX 5500, zaś sterowniki POWERdraft 2007 działające z kartą Quadro FX 5500 umożliwiły wzrost wydajności programu AutoCAD 2007 o 73%"
Tutaj też cuda pełną gębą! Na serii 7 tym razem. Niezła ta nividia - cuda na karcie bez cuda ;)
no więc jeżeli bawimy się w fakty, (autor: Qjanusz | data: 25/05/12 | godz.: 01:19) odcinamy się od opracowań i projektów akademickich oraz wydań beta,
to faktem test również to, że oficjalnie AMD swoje Stream SDK wydało w grudniu 2007 roku.
Wyciągając Close to Metal, dlaczego nie wspomnisz o innym projekcie, mianowicie BionicFX. Doczytaj sobie które to były lata.
Jeżeli przeszkadza Ci brak nazwy "CUDA" przy równoległym obliczaniu jakie nVidia zapewniła w 2006 roku, to znajdź mi oficjalne wsparcie "ATI Stream" przy Close To Metal.
Z jakiej konkretnie biblioteki korzystał Folding@home w 2006 roku? Dokładnie z d3dx9_30.dll
napisałeś:
"Widzisz gdzieś tam wzmiankę o cuda? jakąkolwiek? Nie? Bo to nie przez cuda leci, tylko przez direct3d."
No patrz pan, jaki zbieg okoliczności!
Aamitoza, coś tam wiesz, ale strzelasz na ślepo informacjami których nawet nie sprawdzasz i jesteś przy tym zbyt pewny siebie. Nie dość że nie potrafiłeś udowodnić że CPU jest mniej skomplikowane od GPU, to jeszcze pogrążyłeś się twierdząc że to ATI a nie nVidia była prekursorem GPGPU. Zrozumiesz chyba jeżeli dyskusję uznam za zakończoną.
Do sklikania przy następnym razie :-)
qjanusz (autor: Aamitoza | data: 25/05/12 | godz.: 01:37) Agdzie ja twierdzę, że to ATi było prekursorem? Ja twierdzę, że to AMD pierwsze zastosowało swoje GPU - x19xx do obliczeń innych niż graficzne.
Już seria FX u nvidia miała częsciowo programowalne jednostki mogące wykonywać obliczenia FP 16/24/32bit, kiedy jednostki w radeonach 98xx jedynie standardowe 24bitowe.
Z drugiej strony Ty także nie potrafisz udowodnić, że to CPU jest bardziej skomplikowane - podanie kilku elementów składowych frontendu nic nie wyjaśnia, bo frontedn w GPU ma te same elementy, tylko innego typu dekoder - nie musi tłumaczyć instrukcji x86 na micro-ops dla jednostek wykonawczych - ale to jedyna poważna różnica. Inna jest taka, że frontend w gpu musi poradzić sobie z 64 procesorami wykonawczymi, kiedy w cpu z kilkakrotnie mniejszą liczbą.
Pominę już fakt, że w GPU musi być także graphics comand processor który musi z kolei przydzielać zadania tym 32CU. A to jest jeden z bardziej zaawansowanych elementów w GPU.
Wiec Twoje udowadnianie jakie to CPU jest skomplikowane za bardzo nie ma racji bytu, bo i jedno i drugie jest równie mocno skomplikowane, tylko na innych płaszczyznach - w przypadku CPU dekodery tłumaczący instrukcjie na micro-ops i podsystem przewidywania skoków, a w przypadku GPU frontend będący w stanie dostarczyć instrukcje do tak dużej ilości jednostek.
D O D A J K O M E N T A R Z
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.