TwojePC.pl © 2001 - 2024
|
|
Środa 16 listopada 2011 |
|
|
|
Knights Corner, czyli pogromca Fermi Autor: Wedelek | źródło: Xbit Labs | 17:31 |
(29) | Projekt Larabee był wielką porażką Intela, ale jak to mówią "nie ma tego złego co by na dobre nie wyszło", a producent postanowił przeprojektować swój pierwotny projekt i zmienić rynek docelowy, omijając w ten sposób trudne do rozwiązania problemy. W ten sposób powstała architektura MIC (many integrated cores), która na rynek wkroczy w postaci Knights Corner, czyli urządzenia będącego połączeniem zalet GPU i CPU. Co więcej nowy układ został po raz pierwszy zaprezentowany przez Intela - mowa o wersji wyposażonej w 50 rdzeni x86.
Sam produkt wygląda jak typowy procesor i w przeciwieństwie do Knights Ferry nie łączy się z pozostałymi komponentami przez magistralę PCI-Express, tylko wykorzystuje w tym celu specjalne gniazdo. Jeśli o chodzi o wydajność to Intel zapewnia, że w obliczeniach równoległych podwójnej precyzji liczb zmiennoprzecinkowych jego układ jest w stanie dostarczyć 1TFLOPS mocy. Aby zobaczyć jak ogromny jest to skok w porównaniu do wcześniejszych rozwiązań wystarczy jedynie spojrzeć na najmocniejszą Teslę 2090 od Nvidii z GPU Fermi, która osiąga wydajność "zaledwie" 0.665TFLOPS'ów. Do produkcji Knights Corner zostanie wykorzystany 22nm proces produkcji i tranzystory tri-gate.
Co więcej siłą MIC jest to, że mamy w tym momencie do czynienia z procesorami, które "rozumieją" instrukcje x86, a więc nie potrzeba specjalnie dostosowywać kodu czy uczyć się nowych języków programowania. jak by tego było mało Intel zapewnił na konferencji zorganizowanej w tym roku w Hamburgu, że do 2018 roku wydajność architektury MIC będzie nawet 100-krotnie wyższa od dziś stosowanych rozwiązań, przy maksymalnie dwukrotnym wzroście zapotrzebowania na energię.
|
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- Zgodnośc z x86 i wydajność (autor: pio2 | data: 16/11/11 | godz.: 17:55)
Moc obliczeniowa bierze się nie bezpośrednio z rdzeni x86 a z połaczonych z nimi jednostek wektorowych (512 bit), które na pewno wymagją nowych rozkazów (moze jako rozszerzenie x86). Podobne będzie miało AMD w nowej architekturze GCN (tylko że tam sa 4 takie jednoski na 1 układ skalarny). Z drugiej strony od kiedy z Larrabee wyrzucono wszystko co dotyczyło grafiki, to zrobił sie z tego kombajn obliczeniowy bez zbędnych jednostek. Gdyby z Fermi zrobić to samo, to nVidia miałaby mały i chłodny układ obliczeniowy. Ale nie mogą sobie na to pozwolic, wiec w każdej Tesli grzeje się ponad miliard nieużywanych tranzystorów. Wychodzi na to, że tylko Intel może sobie pozwolić na taki chip niebędący jednoczesnie kartą grafiki.
- pobożne (autor: Markizy | data: 16/11/11 | godz.: 17:59)
życzenia intela, zanim rozpoczną produkcje w 22nm to minie jakieś 1,5 roku, dodatkowo nvidia w następnym roku wyda keplera, a za 1,5 roku możliwe że będzie już poprawiona wersja tej architektury. Podobnie z AMD, chociaż o ich nadchodzącej architekturze niewiele można jeszcze powiedzieć, w kwestii wydajności zresztą to samo nvidia.
Co do MIC może być to dobre rozwiązanie ale trzeba pamiętać że takie urządzenia wymagają sporej przepustowości pamięci i bardzo dobrej komunikacji z CPU. Czyli kolejny quad-chanel, no ale zobaczymy jak na tym wyjdą.
Myślę że przez przywiązanie intela do x86 kiepsko na tym wyjdzie. Bo obsługa rozkazów to jedno ale trzeba pamiętać o zgodności, lepiej jak by coś opracował ala x88 coś na zupełnie nowej architekturze z elementami x86.
- Zgadzam się... (autor: Kenjiro | data: 16/11/11 | godz.: 19:15)
X86 jest jedną z najbardziej chaotycznych architektur, niech biorą przykład z Motorolki 68xxx czy sukcesorów - PowerPC. Nawet ARM jest znacznie lepszy do zastosowania w takim rozwiązaniu.
- @up (autor: Plackator | data: 16/11/11 | godz.: 21:55)
Bierzesz pod uwagę sama architekturę, czy tez budowę procesorów x86, która praktycznie jest RISC'owa?
- szadery na x86 (autor: RusH | data: 17/11/11 | godz.: 01:51)
najbardziej poroniony pomysl Intela, zaraz za nim jest pomysl sprzedazy XScale Marvellowi ( i odciecie intela od lowendu czego nie jest w stanie naprawic od 10 lat bujajac sie z badziewnym Atomem)
- @Wedelek (autor: Conan Barbarian | data: 17/11/11 | godz.: 10:44)
"...nie łączy się z pozostałymi komponentami przez magistralę PCI-Express, tylko wykorzystuje w tym celu specjalne gniazdo"
Dlaczego generujesz takie bzdety? Jakie gniazdo? Ptasie Gniazdo (Bird's Nest) w Pekinie? Od kiedy gniazdo jest magistralą komunikacyjną?
- Knights Corner (autor: Conan Barbarian | data: 17/11/11 | godz.: 10:51)
Knights Corner - 50 rdzeni, x86, 1TFLOPS, 22nm.
Ze wszystkich cudów o jakich Intel nabajał najbardziej prawdopodobny jest rok 2018, kiedy być może zobaczycie coś tam.
Ten produkt ma ZEROWE wsparcie na rynku konsumenckim i bez takiego wsparcia jest tylko ciekawostką, która może być wykorzystana w specjalistycznych zastosowaniach i nic więcej. Obecny soft jest na dodatek kompletnie nieprzystosowany do takich wynalazków i nic tu nie pomoże udawana architektura x86.
Na tym można poprzestać, dorzucając kolejny miliard baksów do już utopionych $3,000,000,000 w słynnym projekcie Srallabee.
- @ Conan Barbarian (autor: Wedelek | data: 17/11/11 | godz.: 14:36)
Chodziło mi o gniazdo w rozumieniu gniazda takiego jak dla CPU. KF to tak naprawdę fuzja rozwiązań stosowanych w CPU i kartach graficznych, a KC to już w sumie sam CPU, tylko odpowiednio zmodyfikowany. Podkreślam, że chodzi o OGÓLNĄ ideę a nie szczegóły:)
- ... (autor: Qjanusz | data: 17/11/11 | godz.: 15:02)
"...układ jest w stanie dostarczyć 1TFLOPS mocy."
Całkiem nieźle. Radeon 6970 posiada 0,683 TFLOPS
Intel odrobił pracę domową z jednej strony, a z drugiej nie wiadomo, bo procek dłubany ma być w 22nm. Radeon i Tesla jest w 40nm. Teraz po przejściu w 28nm i po wprowadzeniu CGN przez AMD, być może że Intel ponownie się rozkraczy i uzna wyższość konkurencji. Tak konkurencji, bo o ile Knights Corner nie jest dedykowany na rynek grafiki, to to tyle karty graficzne z powodzeniem są wykorzystywane do liczenia czegokolwiek. I to bez wprowadzania kolejnych "podstawek"
- Hmm (autor: grafenroot | data: 17/11/11 | godz.: 16:38)
Mam nieodparte wrażenie, że wbrew słowom autora ten układ to połączenie wad CPU i GPU.
- @ up (autor: grafenroot | data: 17/11/11 | godz.: 16:39)
Oczywiście mogę się mylić bo nie znam się na programowaniu.
- ... (autor: pawel.xxx | data: 17/11/11 | godz.: 22:02)
Ocena projektu larrabee prezentowana w newsie i komentarzach mija się z prawdą.
Stanowisko intela w sprawie tego projektu było takie: Intel zrezygnował z wypuszczenia larrabee w 45nm, jednocześnie stwierdzając że produkt który trafi na rynek będzie w 22nm.
Intel zrezygnował z konsumenckiego produktu który miał także pełnić funkcje karty graficznej.
@Kenjiro
motorola 68000 jest a literaturze podawana jako przykład architektury cisc posuniętej do granic absurdu.
@RusH
Z perspektywy czasu sprzedaż xscale okazała się słuszna decyzją. Ty zdaje się utożsamiasz xscale z architekturą arm a to nie prawda - xscale to tylko implementacja architektury arm ver.5, w tej chwili już przestarzała, bo popularne cortexy to architektura ver. 7. Xscale było już przestarzałe w chwili sprzedaży i nie było można nic na to poradzić. Nie było możliwości dalszego rozwoju.
Spójrz na ofertę marvella który kupił xscale ich najnowsze produkty nie korzystają już z rdzeni arm 5tej a z cortexów.
- @pawel.xxx (autor: Conan Barbarian | data: 17/11/11 | godz.: 22:36)
"Stanowisko intela w sprawie tego projektu było takie..."
Oczywiście! Intel zawsze ma rację.
- @up (autor: pawel.xxx | data: 18/11/11 | godz.: 00:05)
http://www.anandtech.com/show/3592
http://www.anandtech.com/...hics-product-to-market
To chyba wyjaśnia jakie było stanowisko intela w tej sprawie. Generowanie faktów pozostawiam "Faktowi" czy innemu "Super Expresowi"
- intel sprzedal cala (autor: RusH | data: 18/11/11 | godz.: 05:35)
dywizje ARM, a co za tym idzie sprzedal swoich klentow wiec dostep do masowego rynku. Dlatego teraz nigdzie nie moze upchnac Atoma, nikt tego nie che bo wszyscy sa zadowoleni z ARMow.
Intel sprzedal Xscale bo jakis debil z MBA stwierdzil ze rentownosc 2% sie im nie oplaca. Teraz za to placa odcieciem od najbardziej dynamicznie rozwijajacego sie rynku (fony, tablety).
Tak samo jest z laraBLEEE, jakis debil z MBA chcial zbudowac silny dzial GPU, ale inny debil z MBA uparl sie na inhouse czyli wykozystanie x86, 3B pozniej dostali przestazale scierwo do niczego sie nie nadajace. Jak poczekaja na 22nm to bedzie to juz antyczne scierwo. Przypomne tylko ze AMD mialo GPU z moca 1Tflopa w 2008 roku czyli tak jakby TRZY LATA TEMU. AMD mialo te GPU NA POLKACH SKLEPOWYCH a nie w laboratorium z proprietary connectorem i bez kompilatorow.
- rrrr (autor: RusH | data: 18/11/11 | godz.: 05:41)
rzrzrzrz
Problem Intela polega na ludziach podejmujachych decyzje (Inzynierow maja genialnych z malymi wyjatkami cough itanium cough p4 cough). Ludzie nie maja wizjii, jesli cos nie rpzyniesie 20% zysku w ciagu roku to zabijaja projekt/sprzedaja calosc.
- @up (autor: Qjanusz | data: 18/11/11 | godz.: 08:47)
niby masz rację, ale tak na prawdę jej nie masz. Spójrz na przychowy Intela i cykliczne zmniejszanie procesu produkcyjnego w fabach. Porównaj to z poczynaniami konkurencji.
- przychody (autor: RusH | data: 18/11/11 | godz.: 09:17)
super, ale tylko z rynku x86 z PCtow i serwerow, a mieli w rekach ogromna czesc rynku embedded i oddali ja konkurencji za nic.
Mam mase sprzetu (routery itd, palmtopy, nawet telefon HP ipaq) z chipsetami intela z lat 2000-2005, teraz wszedzie siedza ARMy broadcoma, marvella samsunga qualcoma. NIGDZIE nie ma Intela. Intel po prostu PRZEGRAL rynek embedded na wlasna prozbe.
- @pawel.xxx (autor: Wedelek | data: 18/11/11 | godz.: 10:30)
Tylko że Larabee w swej pierwotnej formie był porażką - karta graficzna z dużą mocą obliczeniową, idelana do zastosowań HPC. Projekt był na tyle zły, że Intel go anulował, zastrzegając, że na jego podstawie powstanie inny, już w 22nm. W ten sposób mamy KC, którego tu widzimy, ale to już nie jest czyste Larabee.
A czy ten twór odniesie sukces? Możliwe, wiele będzie zależeć od tego co zrobi Intel, ale jakichś wielkich przewrotów na rynku bym nie oczekiwał. Tak Nvidia jak i AMD nie będą przecież bezczynni czekać, a w przypadku tych firm również zobaczymy niższy proces produkcji. Pozatym im dalej w las tym gorzej. Intel ma teraz przewagę - 22nm kontra 28nm, ale zejście z 28nm do 20nm jest łatwiejsze i tańsze niż z 22nm do np. 14nm...
- @RusH (autor: Qjanusz | data: 18/11/11 | godz.: 11:47)
no właśnie... wszędzie jest pełno Texas Instruments, Qualcomm, Broadcom, Freescale, Samsung, Nvidia, Marvell itd...
Kiedyś liczył się tylko Xscale. Tam gdzie jest jeden gracz, jest zysk. Teraz masz całą masę dobrych graczy. A tam gdzie mocna konkurencja, pierwsze skrzypce zaczyna grać cena i w konsekwencji kiepskie żniwa.
Nie pomyślałeś o tym, że Intel wycofał się z rynku w idealnym momencie? Zarobił co miał zarobić, w dobrym momencie sprzedał projekt i zostawił rynek na pastwę coraz mocniejszej i liczniejszej konkurencji.
Patrząc z tej perspektywy, ruch Intela (Xscale) i AMD (Imageon) uważam za dobrze przemyślany i idealnie wpasowany w czasie.
- @20 (autor: bmiluch | data: 18/11/11 | godz.: 12:51)
jeżeli pójdzie tak dalej, to tablet będzie kosztował 200$ a średni ARM wystarczy do wykonywania większości aplikacji; jeżeli będzie można dodatkowo bezprzewodowo przekierować sygnał wizyjny z tableta na domowy TV, to komputer nie będzie 90% ludzi potrzebny, do oglądania video, pisania prostych wiadomości, komunikacji i codziennego grania
wtedy Intel zmniejszy swój rynek 5x i nigdy nie będzie już taki jaki jest
- @RusH (autor: pawel.xxx | data: 18/11/11 | godz.: 12:59)
Nadal utożsamiasz xscale z arm a to nie prawda. Xscale to tylko jedna implementacja rdzenia.
Prześledźmy więc jak to wyglądało w przeszłości.
Jakieś 10-15 lat temu o rynek mobilny i pda walczyły architektury kilku firm - nec'a, Hitachi, samsung, intel z xscale i arm z arm7tdmi i arm9xx.
Szło o zdobycie dominującej pozycji na rynku dla własnej architektury i czerpanie korzyści z wartości intelektualnych z tym związanych.
PXA były w tym czasie naprawdę dobrymi produktami, jednak model biznesowy arm'a doprowadził do tego że to arm zdominował ten rynek. Stało sie tak dlatego ze dzięki rdzeniom arm nawet stosunkowo niewielki producent mógł wypuścić produkt konkurencyjny w stosunku do produktów pozostałych konkurentów nie ponosząc kosztów opracowania rdzenia. Płacił za licencje ale to była jedyna droga by mieć swój produkt.
ARM miał wielu małych klientów którzy jednak łącznie zapewniali wystarczające dochody by rozwijać rdzenie.
Tak wiec arch. arm zdominowała rynek i pozostali producenci mogli albo zacząć korzystać z licencji arm, albo pozwolić by ich architektury powoli zdychały. Korzystanie z licencji wiązało się z dramatycznym spadkiem rentowności bo konkurentem mogły zostać nawet niewielkie firmy.
Intel z xscale miał tę przewagę ze to była jednak arch arm, bardzo dobrze dopracowana, ale jednocześnie już przestarzała i nie dajaca nadziei na rozwój. Rdzeń xscale mógł konkurować z arm11xx ale z cortexami nie miałby już szans.
By pozostać na tym rynku intel musiałby kupować licencje od arm na nowe rdzenie i zadowalać się niewielką marżą. Sprzedali więc nieprzyszłościowe xscale marvellowi, a sami by mieć zapewnione obłożenie linii produkcyjnych które do tej pory produkowały pxa zablokowali innym producentom możliwość produkowania chipsetów dla swoich procesorów.
- @Wedelek (autor: pawel.xxx | data: 18/11/11 | godz.: 14:18)
"Tylko że Larabee w swej pierwotnej formie był porażką - karta graficzna z dużą mocą obliczeniową, idelana do zastosowań HPC."
IMO powyższe zdanie jest sednem konfliktów jakie powstają przy ocenie larrabee. Ocenianie larrabee jako kolejnej karty graficznej jest grubym uproszczeniem. Larrabee miał być czymś zdecydowanie więcej niż karta graficzna. Istotą sporu jest to że dla Ciebie larrabee miało być kartą graficzną z możliwościami HPC, a dla mnie clustrem do zastosowań HPC z możliwościami karty graficznej. Podobne do Twojego stanowiska prezentuje RusH i Conan Barbarian porównując poce obliczeniowe gpu amd czy nvidii z LB.
Zgodnie z planami intela różnica nie miała się jednak sprowadzać do ilościowej różnicy mocy obliczeniowych. Miała tez być fundamentalna różnica jakościowa między gpu nv czy amd a larrabee.
I tak lb miał mieć możliwość implementacji dowolnego API - rzecz niespotykana i póki co nawet nie planowana przez amd i nv.
Na każdym z rdzeni LB miał działać system operacyjny!
Ta fundamentalna różnica sprowadzała by się wiec do tego ze gpu w stylu amd cz nv dla zastosowań HPC prezentują pewien model komputera równoległego. Larrabee natomiast miał prezentować model clustera obliczeniowego.
Naprawdę żałuje że nie pojawi się konsumencka karta graficzna o właściwościach lb. Aż trudno sobie wyobrazić jaki boost uzyskały by najróżniejsze projekty softwareowe gdyby taka karta trafiła w ręce entuzjastów.
- @pawel.xxx (autor: Wedelek | data: 18/11/11 | godz.: 14:25)
Larabee można różnie traktować, ale tak czy siak miała to być również typowa karta graficzna, nie tylko wół do obliczeń jakim jest KC. Intel nie podołał jednak zadania i miast brnąć dalej w dziedzinę, której póki co nie "ogrania" zrobił chyba najlepszy krok jaki mógł. Tak czy siak to wciąż jest uproszczenie sobie drogi.
- pawel.xxx (autor: Markizy | data: 18/11/11 | godz.: 21:47)
czy takiego bosta były dostały to wątpię, wszystko zależy od programistów którzy jak chcą piszą pod wszystko albo tylko pod jedno (CUDA). A i jeszcze jedno to o czym już wspominałem, że ciągniecie balastu jakim jest zgodność z x86 jest głupotą, powinien powstać nowy standard z pewnymi cechami x86.
- hym (autor: plus5volt | data: 18/11/11 | godz.: 23:54)
@wedelek, chyba nie rozumiesz co pisze pawel, intel chcial znalezc inny model budowania procesora, procesor ktory jako produkt konsumencki mialby glownie szanse w roli karty graficznej, ale okazał sie zbyt uniwersalny, zeby pociagnac specjalizowane operacje graficzne do ktorych nv i amd maja specjalizowane jednostki, a nie osiagajac takiej wydajnosci w grafice, nie mial szans na odniesieniu sukcesu na rynku konsumenckim, co taki gracz mial by z masy dodatkowych funkcji swojej grafy, jak w by crysis dzialal mu wolniej niz placac tyle samo za wyższy framerate na nv. Tak jak teraz nv szuka innych odbiorców dla tesli, tak intel zmienił target dla tych procków.
@Markizy, ciekawe czym uzasadniasz ze to jest glupota, nie zdajesz sobie sprawy co to jest wprowadzenie nowej architektury dla aplikacji, i nie zdajesz sobie chyba sprawy, pomimo ze procki intela co prawda sa kompatybilne z x86, ale raczej z zewnatrz, wlasnie z punktu widzenia aplikacji, to tam w srodku od czasu powstania x86 zaszlo sporo zmian, cos mi sie wydaje ze czesc starych instrukcji jest tłumaczona na jakies inne wewnętrzne (kto kupł Transmetę?).
- @20 (autor: Qjanusz @22 (autor: pawel.xxx (autor: RusH | data: 19/11/11 | godz.: 01:42)
Skoro rynek taki fee to czemu Intel teraz pompule miliony dolcow w promoncje Atomow na tym wlasnie zlym rynku? :)
Pawel prawda jest taka ze w 2000-2005 w telefonach routerach settopboxach siedzial w 80% hi-endu (?, wyciagniety z dupy numerek, ale patrzac na moje male domowe muzeum to trafiony) Intel a nie konkurencja. Intel mial dominujaca pozycje i wystarczylo nadal sie rozwijac. Minimalny zysk (w porownaniu do x86) nadal pokrywal R&D
Intel zrobil cos glupiego, mozna by to porownac do Microsoftu oglaszajacego ze sprzedaja swoje wszystkie dywizje skupiajac sie na jedynej przynoszacej zyski - Office. Office to 80% zysku Microsoftu wiec dla debila z MBA logiczne posuniecie, prawda? Jednak malomierki wpompowal 8B dolcow aby wkupic sie w rynek konsol.
Gdybys dzisiaj pojawil sie na zebraniu zarzadu Intela i zaproponowal im dominujaca pozycje w segmencie hiend rynku embedded za super niska kwote 600mil dolarow to by ci tam wszyscy po kolei zrobili loda. Wlasnie za tyle Intel sprzedal Xscale. Pewnie kilka razy tyle wydal na promocje Atoma na tym rynku.
To krotkowzroczne posuniecie teraz zaczyna sie mscic nawet w segmencie Serwerowym gdzie Intel jest gozilla
http://www.theregister.co.uk/...e_calxeda_servers/
bye bye BLADEy na atomach, nadchodza ARMy.
- plus5volt (autor: Markizy | data: 19/11/11 | godz.: 08:30)
wiem że wewnątrz jest to risc, a x86 jest listą rozkazów tylko, z tym że lista ta jest zbyt już rozbudowana prawdopodobnie ponad 300 rozkazów (w tym spora nie używana już). Nowa architektura powinna ukrócić znacznie ta listę a dodatkowo odbiło by się to na dekoderze instrukcji który byłby prostszy co dalej by pociągnęło kilka mniejszych zmian. Bo ciągniecie tego balastu w obliczeniach do jakich intel chce przeznaczyć swój układ jest głupotą, bo i tak trzeba będzie zmodyfikować soft a rozkazami zajmuje się kompilator.
- @27 (autor: pawel.xxx | data: 19/11/11 | godz.: 15:21)
Nigdzie nie pisałem że rynek jest zły. Przedstawiłem sytuacje która jest taka że to mocno konkurencyjny rynek, a wiec i marże są niskie.
Promując atoma intel chce osiagnąć to co nie udało się xscale - zdobyć dominującą pozycje na rynku.
Jaki ma w tym interes to chyba oczywiste jeśli porówna się ceny tegra3 kosztuje ~17$, atom z670 75$.
Na rynku consument electronics jako taką pozycję xscale zdobyło jedynie na rynku PDA. Niestety ten rynek jest juz martwy - czyli w tym kontekście sprzedaz działu była słuszna decyzją.
Routery - tu od powstania tego rynku dominującą pozycje ma architektura mips i produkty broadcoma.
Na rynku network equipment liczy się jeszcze arch powerpc reprezentowana przez produkty freescale.
Telefony - w mainstremowym nurcie intel nigdy nie zdobył popularności bo pxa były za drogie. W czasie który wymieniłeś pozycja noki była bardzo silna a oni korzytsali głównie z chipów texas instruments. Obecnie konkurencja na rynku SOC do telefonów jest jeszcze większa niż w okresie który wymieniłeś.
Intel nie miał dominującej pozycji na rynku, a rozwijać nie bardzo było jak, bo intel miał prawa do arch ver. 4te która nie jest w stanie konkurować z ver. 7.
Jedyną drogą by pozostać na tym rynku było zaprzestanie rozwoju xscale i kupno licencji na nowe wersje rdzeni. Tyle że wtedy intel byłby jednym z wielu producentów tego typu chipów o niskiej rentowności.
Tak wiec xscale w chwili sprzedaży był już spisany na straty. Intel wolał zająć się produkcją chipsetów która jest bardziej rentowna. Marvell kupił xscale dzięki czemu przez okres dogrywania rdzeni xscale nie musiał płacić licencji i też na tym zarabiał. od jakiegoś roku,w nowe topowych produktach marvella rdzenie xscale zostały zastąpione przez rdzenie w w wesji 7 architektury arm.
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|