Badacze z Intel Labs zademonstrowali eksperymentalny, 48-rdzeniowy procesor — „Single Chip Cloud Computer” — który ma zmienić wiele zasad obowiązujących w konstrukcji współczesnych laptopów, komputerów stacjonarnych i serwerów. Chip zawiera od 10 do 20 razy więcej jednostek obliczeniowych, niż najpopularniejsze współczesne procesory sprzedawane pod marką Intel Core. Długofalowym celem badawczym jest dodanie zwiększonych możliwości skalowania do przyszłych komputerów, co umożliwi opracowanie nowych aplikacji oraz interfejsów człowiek-maszyna. W przyszłym roku firma planuje zaangażować branżę i świat akademicki, udostępniając sto lub więcej tych eksperymentalnych układów do praktycznych badań nad opracowaniem nowych aplikacji i modeli programistycznych.
Intel, wprowadzający kluczowe funkcje do nowej linii procesorów z serii Core na początku przyszłego roku oraz sześcio- i ośmiordzeniowe procesory w dalszej części 2010 roku, przedstawił prototyp procesora zawierający 48 w pełni programowalnych rdzeni wykonawczych, najwięcej, ile dotychczas zmieszczono na jednej kości krzemowej. Zawiera on szybką, wewnętrzną sieć do współdzielenia informacji oraz nowo opracowane techniki zarządzania zasilaniem, dzięki którym 48 rdzeni może działać niezwykle energooszczędnie, pobierając zaledwie 25W w trybie jałowym lub 125W podczas pracy z maksymalną wydajnością (mniej więcej tyle, co współczesne procesory Intela i zaledwie dwie standardowe żarówki).
Intel planuje dokładniej zbadać szeregowanie i koordynowanie wielu rdzeni eksperymentalnego układu oraz wykorzystać tę wiedzę w przyszłych chipach przeznaczonych na rynek masowy. Na przykład przyszłe laptopy o tak wysokiej mocy przetwarzania mogłyby dysponować „wzrokiem” — wykrywać obiekty i ruch tak samo, jak robi to człowiek, w czasie rzeczywistym i z wysoką dokładnością.
Wyobraźmy sobie, że pewnego dnia komputer udzieli nam wirtualnej lekcji tańca, a sklep internetowy będzie używał trójwymiarowej kamery i ekranu przyszłego laptopa, aby pokazać jak w lustrze użytkownika noszącego ubrania, którymi jest zainteresowany. Kręcąc się i obracając, użytkownik będzie mógł zobaczyć, jak układa się tkanina i czy jej kolor pasuje do odcienia skóry.
Tego rodzaju interakcja może wyeliminować potrzebę korzystania z klawiatur, pilotów i joysticków w grach. Niektórzy badacze uważają, że komputery będą mogły odczytywać fale mózgowe, więc do wydawania poleceń wystarczą myśli, na przykład dyktowanie słów będzie odbywało się bez mówienia.
Naukowcy z Intel Labs nadali testowemu chipowi nazwę „Single Chip Cloud Computer”, ponieważ jego wewnętrzna organizacja przypomina centra danych używane do tworzenia internetowej „chmury” zasobów obliczeniowych w celu dostarczania milionom użytkowników takich usług, jak bankowość online, sieci społecznościowe i sklepy internetowe.
Nowy układ reprezentuje najnowsze osiągnięcie intelowskiego programu Tera-scale Computing Research Program, którego celem jest przełamywanie barier na drodze do przyszłych chipów zawierających dziesiątki lub setki rdzeni. Został opracowany wspólnie przez ośrodki badawcze Intel Labs w Bangalore (Indie), Brunszwiku (Niemcy) i Hillsboro (Oregon, Stany Zjednoczone).
Laboratorium w Brunszwiku – część Intel Labs Europe – opracowało rdzeń procesora, wyspecjalizowany sprzęt umożliwiający rdzeniom komunikację ze zredukowanymi opóźnieniami, a także udoskonalony, energooszczędny kontroler pamięci zoptymalizowany pod kątem konstrukcji wielordzeniowej. Niemiecki zespół, odpowiedzialny za weryfikację całego układu, zastosował swoją zastrzeżoną technologię emulacji mikroprocesora, dzięki czemu badacze z całego świata mogli testować koncepcje programowe i sprzętowe, zanim układ został fizycznie zbudowany. Skróciło to fazę projektową mniej więcej o połowę i przyspieszyło tworzenie oprogramowania. Szczegółowe informacje o architekturze i obwodach nowego układu mają zostać opublikowane w artykule, który zostanie przedstawiony w lutym podczas International Solid State Circuits Conference.
K O M E N T A R Z E
niezły (autor: Promilus | data: 3/12/09 | godz.: 13:13) ciekaw jestem na jakiej dokladnie mikroarchitekturze te rdzenie są oparte.
morgi (autor: mandred | data: 3/12/09 | godz.: 14:15) pociekło?
Sporo lat temu wielki intel chwalił się, że projektuje procesor 128 rdzeniowy i co? No i nie ma, może to było za trudne.
Podejrzewam, że pojedynczy rdzeń będzie dysponował mocą obliczeniową nie większą niż ma atom, a nawet jeszcze mniejszą. Więc nie będzie szału. Tak w ogóle to nie widzę podanego procesu w jakim ma być to wytworzone, no chyba że ma to być produkt pokroju fermi.
... (autor: Michał1988 | data: 3/12/09 | godz.: 14:58) http://pclab.pl/art24856.html
Już kiedyś Intel chwalił się podobnym cackiem i słuch o nim zaginął. Możliwe, że odpowiednio go przerobili (miał nie obsługiwać x86) i stał się kartą graficzną widmo - Larrabee. A może ten 48 - rdzeniowiec to jakaś pochodna Polarisa?
no i masz larabee (autor: RusH | data: 3/12/09 | godz.: 15:05) mialo byc 128 dzialajace, jest 48 w testach :)
mandred (autor: morgi | data: 3/12/09 | godz.: 15:50) 128 core, a to ciekawe, ze 20 lat temu byly prace na tematy podobne, ale nie pokazywano sprzetu, a teraz wysilek wielu labow wchodzi do fazy opracowania otoczenia programistycznego, bo bez tego mamy niewiele warty szrot jak chociazby GPU.
fajna zabawka (autor: bmiluch | data: 3/12/09 | godz.: 15:51) ciekawe czy poza serwerami znajdzie zastosowanie...
@morgi (autor: Michał1988 | data: 3/12/09 | godz.: 16:19) Zatem według Ciebie GMA i Larrabee to też szrot? :-)))
fajny kawałek krzemu (autor: Qjanusz | data: 3/12/09 | godz.: 16:55) ciekawe czy to wejdzie do masowej produkcji, czy zostanie na etapie typowej dla Intela przechwałki.
Michał (autor: morgi | data: 3/12/09 | godz.: 17:30) A co ma GMA wspolnego z superkomputerami, Intel ma plan wrocic na tron wydajnosciowy HPC i klasterki sobie bierze na cel w przyszlym roku, aby ostatecznie osmieszyc przynajmniej ibm i wyssac ile sie da z resztek opteronikow. GPU tutaj ma ambitne plany przynajmniej Nvidia, ale to zostanie poddane probie mlota. Terascale ma zaatakowac szeroko, jak najszerzej sie da, moze zrewolucjonizowac rynek chipow.
@morgi (autor: Michał1988 | data: 3/12/09 | godz.: 17:42) Powiedziałeś, że GPU to szrot, zatem idąc dalej należy przywalić tą etykietę GMA i Larrabee, które tak wychwalasz. Więc jak, usłyszę odpowiedź na to proste pytanie, czy znowu dostanę porcję populizmu i propagandy?
jeżeli Intel chce przegonić Opterony z klastrów, (autor: Qjanusz | data: 3/12/09 | godz.: 17:43) to się będzie musiał mocno napiąć. Jakoś do tej pory mu się to nie udało mając za sobą argument dawania łapówek i straszenia.
Za rogiem Bulldozer i jeszcze większy dystans do AMD, więc Intel może sobie przeganiać ale tylko swoje mniej wydajne jednostki.
well (autor: morgi | data: 3/12/09 | godz.: 18:49) Kiedys Intel dzierzyl dlugo wieniec lidera szybkosci, ale nie mial 80% listy top500 jak teraz, chociaz nie zajmuje czolowych miejsc, bo pozostaje tez kwestia zarobkowania zamiast prestizu, ale w sumie chyba Nehalem zdobyl uznanie i mozna sie bedzie pokusic o wiecej.
Ktos ktos sklada (autor: Wyrzym | data: 3/12/09 | godz.: 18:54) superkomputery z paru tysiecy CPU nie kupi procka ktory ma 20% wiecej wydajnosci za 2x wiecej ceny. Wiec intel sie moze starac ile chce, ale dopuki nie zaswieci odpowiednia cena, to nici z tego :]
wyrzym (autor: dr1zzt | data: 3/12/09 | godz.: 19:32) Gowno prawda, da i 50% wiecej byle miec pelne wsparcie. Support amd jest zenujacy, lowend pelna para, kazda szanujaca sie, dobrze zarabiajaca wieksza firma i bank sklada taki sprzet na intelu. Nowoczesnosc i jakosc kosztuje, nie kazdy jedzie po polaczkowej mentalnosci i procencikowych obliczeniach centusiow taniosc taniosc byle dzialalo.
Ktos ktos sklada (autor: Wyrzym | data: 3/12/09 | godz.: 19:51) superkomputery z paru tysiecy CPU nie kupi procka ktory ma 20% wiecej wydajnosci za 2x wiecej ceny. Wiec intel sie moze starac ile chce, ale dopuki nie zaswieci odpowiednia cena, to nici z tego :]
Wyrzym (autor: morgi | data: 3/12/09 | godz.: 21:48) Tak jakbym widzial reklame Nvidii, po co przeplacac jak Fermi wyjdzie 10x taniej i szybciej, hehe te pieniadze w takich inwestycjach to albo dotacje, albo granty na badania, czyli kto liczy grosz do grosza doliczy sie i kosztow obslugi takich maszyn, a nie samej ceny.
ego rosnie przy jaguar? (autor: morgi | data: 3/12/09 | godz.: 21:56) wtf opteronik six core rozumiem ze te 4 maszyny zlozono na napinke fanow ale na tym trzeba troche zarobic http://www.top500.org/stats/list/34/procgen
morgi znowu bajki opowiadasz o tych dtacjach i grantach (autor: speed | data: 4/12/09 | godz.: 00:10) bladego pojacia widze nie masz jak to dziala a zabierasz glos .Napisalem juz ze milczenie jest zlotem ,Jak nie wiesz to nie pisz i w ten sposob nie bedzisz sie osmieszal. Jak Fermi wyjdzie to bedzie badziewiem ,w tej chwili nie osiaga wydajnosci pojedynczej 5870 :))))
Bedzie szal 10 x szybciej :)))) facet przyhamuj troche bo ile mozna sie smiac.
dr1zzt wiesz dlaczego Fermiego jeszcze nie ma? (autor: Michał_72 | data: 4/12/09 | godz.: 10:49) Bo po wypuszczeniu Radków 5xxx okazało się, że są od Fermiego mocniejsze. Premiera 310ki jeszcze bardziej uprawdopodobnia to przypuszczenie.
Morgi przynajmniej czasami pisze z sensem.
Ale ty piszesz już kompletne brednie.
michal (autor: dr1zzt | data: 4/12/09 | godz.: 11:54) Ale kogo obchodzi teraz fermi i jakies radki? News jest o procesorach.
Jak ja pisze bez sensu, to patrz na swoj post.. wydarty z kontekstu.
Oj tam (autor: Nohrabia | data: 4/12/09 | godz.: 12:21) kłótnia jak zawsze bez sensu.
Coś w rodzaju dziecięcej kłótni "a mój robot ma większy karabin!".
Technologia musi iść na przód i reklama również. Muszą podawać takie informacje, żeby człowiek-klient wiedział, że firma pracuje i działa,
poza tym, trzeba cały czasy myśleć, projektować i testować różne czasem abstrakcyjne rozwiązania bo inaczej zostanie się w miejscu albo co grosza ubiegnie ich inna firma.
Poza tym, w newsie jest mowa, że testują i próbują a nie sprzedają, więc... chyba troszkę wszystkich za bardzo ponosi :)
Speed (autor: morgi | data: 4/12/09 | godz.: 14:30) To znaczy w czym, bo na papier amd nie powoluje swiadkow, bo to do toalety sie nadaje, masz jakies testy obliczeniowe tych radeonkow, bo ostatnio podobno Intel osmieszyl gt200 mlotem, a gt200 polknal jak chcial swojego 'konkurenta' z radeonikow. I ciekawe skad instytuty badawcze i uniwerki maja kase jak nie z grantow i dotacji, bo prywatne firmy to stawiaja na Intel.
.... (autor: Marek1981 | data: 4/12/09 | godz.: 15:55) Koncepcja fajna, pytanie czy nie miało to być już ich chipie graficznym w postaci ponad 100 rdzeni??
@Qjanusz - nie wygoni ponieważ tam przoduje IBM a jak wiadomo AMD współpracuje z IBM....
Marek (autor: dr1zzt | data: 4/12/09 | godz.: 16:40) Dupa jas pierdzi stas. :)
IBM wspolpracuje zarowno z intelem jak i amd.
Z czego ogromna przewage prodoktow maja na xeonach.
morgi ,o dotacjach i.t.d co napisales ,przypomne (autor: speed | data: 4/12/09 | godz.: 16:56) "Tak jakbym widzial reklame Nvidii, po co przeplacac jak Fermi wyjdzie 10x taniej i szybciej, hehe te pieniadze w takich inwestycjach to albo dotacje, albo granty na badania, "
Czy uwazasz ze wtracanie w odpowiedzi uniwersytetow i instytutow badawczych jest OK???
Konkretnie napisales ze firmy a firmy na swoje badania musza zapracowac .I staraj sie nie mowic na cos co jest biale ,czarne bo ja juz z takich dyskusji wyroslem dosc dawno.
Nastepna rzecz karta graficzna jest do grafiki a nie jak myslisz przewalania numerkow.
Zwykly Kowalski czy Malinowski kupuje to po to aby ( w 99%) pograc i choc bys niewiem jak sie zapieral ATI zrobilo dobra robote .
Jak juz o numerkach ,sprubuj czterama najlepszymi procami rozkodowac pasmo 11Ghz .
z czym nie ma problemu procesorek pracujacy tylko 66Mhz .Chcesz sie licytowac na numerki to prosze bardzo jeszcze sporo pamietam:)))
Tak ze staraj sie odpowiadac do rzeczy a nie jak "pan Kazik z pod budki z piwem"
@speed (autor: Wyrzym | data: 4/12/09 | godz.: 18:11) Gowno prawda, co Ty probujesz wcisnac ludziom za kit? chcesz powiedziec ze ludzie kupujacy karty graficzne kupuja je zeby robily to do czego sa robione od X lat? czyli do wyswietlania duzej ilosci FPSow na ekranie w grach? no to chyba niezles popil, przeciez widzialem na wlasne oczy jak pani Krysia z warzywniaka rozmawiala ze przedawca w sklepie o ilosci flopsow w g200, calkiem niedawno tez bylem swiadkiem jak pan Mietek od lopaty wyzywal sprzedawce bo mu chial wcisnac karte ktora ma slabe osiagi w renderowaniu 3D Studio.
Fakty to sa same, przyjdzie mlot i pozamiata.
amd wspolpracuje z ibm (autor: morgi | data: 4/12/09 | godz.: 21:47) chyba dawniej placac im za patenty do procesu i pare innych, ale to juz bylo, bo produkcja amd nie zajmuje sie w tym temacie zbankrutowalo.
GPU to jest chip do tworzenia grafiki, a jego moce sa wielkie tylko w oczach fanow i papierologii, zwlaszcza ati oszalalo na punkcje samokreacji liczby spu, a przeciez to nie zaden rdzen, to nawet nie jest udolna jednotka wykonawcza, to tylko sen o flops.
morgi ,niech sopie snia i o 100mil flops (autor: speed | data: 5/12/09 | godz.: 00:55) mnie jak i prawie wszytkim to wisi ,ale nie wisi mi ile klatek bed mial w 2560x1600 w nowych grach i jak na razie ATI pokazuje i sprzedaje to co ma i do dobry produkt a inni pokazuja atrapy albo mamia ludzi ze juz ,juz cos zrobimy co skasuje wszytkich :))))) na tym swiecie liczy sie to co mozna kupic i pobawic sie a snem i atrapami nie pograsz.
Tak chwalisz intela ze takie dobre robia bo maja kolosalna sprzedarz ,tak maja a wiesz kto i dla kogo kupuje te zabaweczki na atomie??? rodzice dzieciaka na 3-4 urodziny i sprzedaja tego miliony sztuk zaden zdrowo myslacy czlowiek nie kupi tego do pracy bo to za przeproszeniem wiekszy kalkulator i nic wiecej. Jak myslisz dlaczego tak szybko wskoczyli na 10 i 12 calowe ekrany ??? bo dzieciaka znodzilo sie patrzec w mikroskopijne ekraniki a po drugie oczy jeszcze nie sa czescia wymienna .
Intel ma bubla ktorego wstydzi sie pokazac i Nvidzia dala ciala ,chlopaki pracuja i wierze ze cos solidnego zrobia ale przestan sie tak zaslaniac tym"mlotem" bo moze ci na glowe upasc:)))
@morgi (autor: Promilus | data: 5/12/09 | godz.: 09:29) http://anandtech.com/weblog/showpost.aspx?i=659
ojjjj, ale mi przykro. Wygląda na to, że w najbliższym czasie (kilka lat) intel na rynku graficznym to raczej się nie pojawi ;)
A tak ogółem morgi jak nazwiesz element posiadający własną pamięć, własne jednostki wykonawcze, własne instrukcje i mogący komunikować się z zewnętrzną pamięcią? :P
Larrabee (autor: Marucins | data: 5/12/09 | godz.: 10:02) Larrabee został zaprezentowany podczas konferencji SC09.
Justin Rattner, prezes ds. technologicznych, zaprezentował testy wydajności układu. Test SGEMM został najpierw uruchomiony na połowie rdzeni procesora, który w ten sposób osiągnął wydajność 417 gigaflopsów. Po włączeniu pozostałych rdzeni wydajność wzrosła do 825 GFlops, dzięki czemu Intel udowodnił, że układ można skalować 1:1. Po tym, jak Rattner lekko podkręcił procesor, jego wydajność sięgnęła 1 teraflopsa.
Dla porównania kość Core i7-975, czyli najbardziej wydajny procesor z rdzeniem Nehalem, osiąga maksymalną wydajność rzędu 55,36 GFlops.
Wynik Larrabee tylko pozornie jest imponujący. Jak zauważa Jon Peddie z firmy Jon Peddie Research, na rynku jest dostępna karta graficzna ATI, której wydajność wynosi 5 TFlops.
@morgi (autor: Michał1988 | data: 5/12/09 | godz.: 11:36) Jako, że lubię czasami być upierdliwy, więc odpowiedz mi wreszcie: mówisz, że GPU to szrot, więc GMA i Larrabee to też szroty, prawda? :-)))
GMA (autor: Wyrzym | data: 5/12/09 | godz.: 12:29) jest odpowiedzia na wszystko, slyszalem ostatnio jak za pomoca GMA chca rozwiaza problem glodu na swiecie ;]
Promilus (autor: morgi | data: 5/12/09 | godz.: 12:30) Przeliczyli i wychodzi, ze rynek kart jest mniej warty teraz niz projekt rozwojowy mlota, nie trzeba szukac wielu ofiar daleko Nvidia i ati skurczyly sie w ostatnich latach mocno i cena srednia za gpu upadla nisko ponizej 200$ za jednostke. Do tego dochodzi jakosc oferowanej przez karty grafiki i mozliwosci tego rynku, wiekszosc tych GFLOPS zostalaby w blokach, bo silniki gier wspolczesnych naogol to antyki i kotlety nie przystosowane do visual comp. i do multicore. Jest rynek HPC i pro i ceny po kilka tys. $ za jednostke, to mozna juz pogadac.
@morgi (autor: Michał1988 | data: 5/12/09 | godz.: 12:37) Nie odpowiedziałeś na moje pytanie, więc je powtórzę, czy jeśli każdy GPU to szrot, to GMA i Larrabee też?
Wydaje mi się to być prostym pytaniem, więc powinieneś sobie z nim poradzić. Mam nadzieję, że uzyskam na nie odpowiedź. Bełkot marketingowy, który podałeś w poście nr 37 nie wchodzi w grę :-)))
Michał1988 (autor: Markizy | data: 5/12/09 | godz.: 16:20) przecież Larrabe poleciał już na szrot, zrezygnowali z pokazania karty, ale obiecali ze będą jeszcze dłubać ale skończy się pewnie na porzuceniu pomysłu i wzięcie na warsztat nowej architektury.
morgi
Co do sukcesu to GMA to bym nad tym się kłócił. No chyba że sukces ma odnieść w zastosowaniach biurowych i do wyświetlania 2D. To tak tu ma świetlana już od dawna przyszłość, ale tak samo jak relikty jak riva TNT.
@Markizy (autor: Michał1988 | data: 5/12/09 | godz.: 17:57) Ja wiem o tym :-) Ale nie o to chodzi, zobacz komentarz nr 6. Potem porównaj go do tego, co mówił na temat Larrabee i GMA. Czyżby zapomniał, czym są te dwie zabawki Intela, kiedy pisał, że GPU to szrot? :-)))
... (autor: trepcia | data: 6/12/09 | godz.: 01:05) Larrabee - a miał być to taki wielki młot na ATI i NV. A był taki tylko na papierze, szarym, marnym jakości toaletowym :-)
.:. (autor: Shneider | data: 6/12/09 | godz.: 02:29) morgi - no i gdzie Twoj mlot?
smiechu warte...
@Michał1988 (autor: AmigaPPC | data: 6/12/09 | godz.: 09:58) przecież tak na powaznie nie liczych na to, że @Morgi Ci odpowie.
W swoim zaślepieniu po prostu Cię (za przeproszeniem) oleje - tak jak wielu innych, którzy wytykają mu jego hipokryzję i nieudolne, szczeniackie wręcz próby zafałszowania rzeczywistości.
Oczywiście (autor: AmigaPPC | data: 6/12/09 | godz.: 10:02) miało być LICZYSZ.
@AmigaPPC (autor: Michał1988 | data: 6/12/09 | godz.: 10:07) Wiesz, cuda się zdarzają :-) Czasem potrafi odpowiedzieć, jak kiedyś z krzywą Gaussa :-)))
Michał1988 (autor: Markizy | data: 6/12/09 | godz.: 10:45) którą i tak nie rozumiał, a męczony był o nią przez 2 tygodnie ? :P
... (autor: trepcia | data: 6/12/09 | godz.: 13:03) Pamiętam te jego wypociny, jak to bodajże tendencję rynkowe porównał do krzywej gaussa a proszony, by pokazać gdzie teraz znajduje się sprzedaż poszczególnych firm na tej krzywej dał linka do przykładowej krzywej Gaussa z wikipedi :-)
Dobrze pamiętam? Czy coś przeoczyłem?
Tak to z nim bywa, wiele gada a zero treści i faktów. Zupełnie jak PR i marketingowy bełkot :-)
@Marucins (autor: power | data: 6/12/09 | godz.: 17:15) Dzięki za informację, już dawno nie czytałem
wartościowych komentarzy na TwojePC.pl
Ps. Nareszcie ktoś coś ciekawego napisał w komentarzach, bo do tej pory były tylko jakieś przechwałki o młotach i innych bzdurach.
może trochę o GMA... (autor: Qjanusz | data: 7/12/09 | godz.: 16:54) ... gdyby w pewnym czasie nie było dobrej konkurencji dla Rambusów, to do dzisiaj wszyscy byśmy się nimi zachwycali. GMA (jako platforma) miał o tyle więcej szczęścia, że przez długi czas po prostu konkurencji nie miał. Intelowi został niecały roczek na celebrowanie GMA4cośtam...
D O D A J K O M E N T A R Z
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.