Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Wtorek 19 czerwca 2012 
    

AMD ostatecznie rezygnuje z technologii SOI


Autor: Wedelek | źródło: Fudzilla | 13:43
(29)
Na łamach TPC już kilkukrotnie pisaliśmy o tym, że Trinity będzie ostatnim układem AMD, do którego produkcji zostanie wykorzystana technologia SOI, opracowana przez IBM'a. Teraz nasze doniesienia potwierdził jeden z przedstawicieli firmy z Sunnyvale - Mark Papermaster, który oświadczył, że przyszłe CPU i APU będą korzystać z procesu 28nm bulk CMOS. Innymi słowy w 2013 roku AMD ostatecznie zrezygnuje z SOI i ujednolici proces produkcji dla wszystkich swoich produktów - zarówno CPU jak i GPU będą produkowane w tym samym procesie produkcyjnym.

Idea technologii SOI polega na zastosowaniu dodatkowej warstwy izolującej, która minimalizuje upływ prądu z tranzystorów, dzięki czemu do przełączenia stanu logicznego na tranzystorach potrzeba mniejszej ilości energii. Niestety nie ma róży bez kolców, a stosowanie tej technologii znacząco zwiększa koszt produkcji i opracowania chipu.

 


    
K O M E N T A R Z E
    

  1. ... (autor: djXone | data: 19/06/12 | godz.: 14:04)
    pewnie to dlatego ze wymyslili to pochlanianie energii i rezerwowanie jej, ktos sie zna to moze cos wiecej sie wypowie na ten temat :)

  2. @1. (autor: Jarek84 | data: 19/06/12 | godz.: 14:15)
    Chodzi Ci o rezonująca sieć zegarową zapożyczoną od Cyclos? Ogólnie rzecz biorąc są to cewki służące do magazynowania do magazynowoania.

    SOI - szkoda, że z niego rezygnują - droższe koszty produkcji, dłuższy czas wdrażanianowych, mniejszych procesów produkcyjnych, aczkolwiek patrząc na to jak dobrze pod względem TDP wypadały procesory AMD na tle konkurencji to - no właśnie - szkoda.

    Swoją drogą o SOI bardzo pozytywnie wypowiadał się kiedyś ARM.


  3. nie rezygnuja z soi (autor: RusH | data: 19/06/12 | godz.: 14:50)
    tlyko przechodza na 28nm
    nikt poza AMD i IBM nie ma fabow potrafiacych robic SOI
    pewnie nikt poza IBM nie potrafi robic SOI w 28nm
    AMD ma raptem jeden fab robiacy 32nm? bez sensu byloby ograniczanie produkcji jesli mozna zmienic proces i zlecic APU TSMC albo Samsungowi


  4. @up (autor: Franz | data: 19/06/12 | godz.: 14:55)
    to amd ma faby jakies ?

  5. @Franz (autor: rookie | data: 19/06/12 | godz.: 15:09)
    AMD ma (a na pewno mialo) duze udzialy w Globalfoundaries.

  6. @rookie (autor: rainy | data: 19/06/12 | godz.: 16:51)
    O ile dobrze pamiętam, AMD całkowicie pozbyło się swoich udziałów w GF w tym roku, więc są obecnie jedną z wielu firm w tej branży nie dysponujących własnymi zakładami produkcyjnymi.

  7. @Wedelek (autor: Conan Barbarian | data: 19/06/12 | godz.: 16:56)
    Może wypadało zacząć od rozwinięcia skrótu?
    Natomiast wytłumaczenie idei SOI o kant tyłka można roztłuc.


  8. @up (autor: Chrisu | data: 19/06/12 | godz.: 17:43)
    to pomóż Wedelkowi a nie krzycz...

  9. AMD sobie może (autor: Qjanusz | data: 19/06/12 | godz.: 23:11)
    co najwyżej zrezygnować z niezależnego Globalika, a nie z SOI...

    btw... szkoda że nie ma tu tego cwaniaka który usiłował swego czasu sprzedać mi ściemę że GPU są bardziej skomplikowane od CPU. Jeżeli tak, to dlaczego CPU potrzebowały SOI a GPU nie ???

    @Conan Barbarian - "Mądremu dwa słowa wystarczą, a..." Czego znów nie zrozumiałeś?


  10. @Qjanusz (autor: Conan Barbarian | data: 19/06/12 | godz.: 23:18)
    Mówi się "mądrej głowie dość dwie słowie", ale w tym przypadku był potok słów o charakterze bełkotu, który najwyraźniej łykasz jak papkę z tvn.

  11. dużo się pisze... szkoda, że nie ma komputerów na rynku (autor: Seba78 | data: 19/06/12 | godz.: 23:31)
    z nowym fusion. Ktoś widział 17 calowego laptopa na tinity? (mającego wejść do sprzedaży)? najlepiej bez dodatkowej karty grafiki (po co dodają w ogóle to badziewie?)

  12. @Conan Barbarian (autor: Qjanusz | data: 20/06/12 | godz.: 00:02)
    no i ponownie nie zrozumiałeś...
    http://demotywatory.pl/...remu-dwa-slowa-wystarcza

    w takich okolicznościach, nawet się nie zabieraj za tvn...
    Skup się na tym, czego dopisać mi nie wypadało.


  13. @9. (autor: pwil2 | data: 20/06/12 | godz.: 02:58)
    CPU nie tyle potrzebowały, co akurat produkcja w fabrykach GF/AMD umożliwiała stosowanie tej technologii. Natomiasty GPU były produkowane w innych fabrykach, gdzie stosowanie SOI było niemożliwe/komplikowałoby produkcję...

  14. Seba78 (autor: Markizy | data: 20/06/12 | godz.: 08:09)
    a ktoś widział w ogóle laptopa z trinity na rynku ?

    pwil2
    nawet nie tyle co "niemożliwe/komplikowałoby produkcję" tylko patenty na to posiadało AMD i IBM, a wiadomo patenty kosztują, i nie wiadomo czy IBM był zainteresowany sprzedażą licencji na tą technologie komukolwiek innemu.

    Qjanusz
    SOI było stosowane w CPU żeby ograniczyć pobór energii, teraz zauważ że najmocniejsze CPU dla stacjonarek mają TDP 125W, a karty graficzne okolice 250W. A wszystko dalej się rozbija o koszty produkcji.


  15. @12 (autor: Conan Barbarian | data: 20/06/12 | godz.: 09:51)
    ignore

  16. pwil2 (autor: Marek1981 | data: 20/06/12 | godz.: 11:58)
    GPU były produkowane w innych fabrykach, gdzie stosowanie SOI było niemożliwe/komplikowałoby produkcję...

    I jedno i drugie. Potrzebna jest umowa z IBM na wykorzystanie tej technologii jak i trudno by było to wdrożyć (też zwiększałoby to niebotycznie koszty opracowania).


  17. Qjanusz (autor: Marek1981 | data: 20/06/12 | godz.: 12:09)
    usiłował swego czasu sprzedać mi ściemę że GPU są bardziej skomplikowane od CPU
    A udowodniłeś że jest inaczej?? Z tego co pamiętam były argumenty po 1 i 2 stronie.
    Z przeliczeń wychodziło, że GPU ma więcej tranzystorów na rdzeń. Ale i to nie jest dobry parametr.

    Wiemy tylko że GPU jest wiele razy mocniejszy od CPU w obliczeniach ale za to jest "głupszy" i musi coś nim kierować.


  18. @Marek1981 - to fakt że argumenty były za i przeciw (autor: Qjanusz | data: 20/06/12 | godz.: 13:00)
    ale jeżeli chodzi o liczbę tranzystorów na rdzeń, to jednak nie GPU a CPU miał ich więcej.

    #15 - adekwatnie do siły "argumentu". Dokładnie tak jesteś odbierany :-)


  19. @Qjanusz (autor: rainy | data: 20/06/12 | godz.: 13:18)
    Tutaj, to się w sam raz mylisz - GPU charakteryzują się znacznie czy wręcz dużo wyższym upakowaniem tranzystorów na mm2 niż CPU.

    http://en.wikipedia.org/wiki/Transistor_count


  20. @rainy (autor: Plackator | data: 20/06/12 | godz.: 13:31)
    Tutaj, to się w sam raz mylisz - rdzenie GPU charakteryzują się nieporównywalnie prostszą budową niż CPU, inaczej w jednym GPU nie zmieściło ich się parę dziesiątek lub setek.

    A przez prostszą budowę, dużo łatwiej uzyskać większe upakowanie.


  21. @Plackator (autor: rainy | data: 20/06/12 | godz.: 13:39)
    Byłoby miło, gdybyś czytał uważnie to co napisałem - wspomniałem o gęstości upakowania na mm2, nie było żadnej wzmianki o budowie rdzenia.

  22. @up (autor: Plackator | data: 20/06/12 | godz.: 13:40)
    Też było by miło gdy byś czytał uważnie, bo Qjanusz pisał o ilości tranzystorów na rdzeń, nie o ilości tranzystorów na cały scalak.

  23. @Plackator (autor: rainy | data: 20/06/12 | godz.: 13:53)
    W ten sposób, to się zawsze można przerzucać argumentami: np. CPU są wyposażone w porównaniu z GPU w ogromną ilością pamięci podręcznej, a ich rdzenie są taktowane dużo wyższymi zegarami.

    Wydaje mi się, że bezpośrednie porównywanie prowadzi nas w ślepy zaułek, ponieważ różnice są jednak dość fundamentalne.


  24. @rainy (autor: Marek1981 | data: 20/06/12 | godz.: 14:16)
    Popieram.
    Niestety Qjanusz nie widzi tej subtelnej różnicy.


  25. chwila chwila... (autor: Qjanusz | data: 20/06/12 | godz.: 15:12)
    chodziło o skomplikowanie budowy CPU i GPU.
    Akurat upakowanie tranzystorów ma się nijak do skomplikowania. Bo w rządku ułożone połacie cache będą skomplikowane jak budowa cepa, w porównaniu do niewielkiej ilości tranzystorów użytych chociażby do budowy wyrafinowanego kontrolera tejże pamięci.


  26. @Qjanusz (autor: rainy | data: 20/06/12 | godz.: 15:33)
    Czyżbyś chciał sugerować, że np. takie Tahiti mające 4,3 mld trazystorów nie jest skomplikowane w swej budowie?

    Zaś fakt, iż GPU zaczynają wchodzić na obszary do niedawna jeszcze całkowicie opanowane przez CPU, świadczy chyba jednak o czymś przeciwnym.


  27. @rainy - czyżbyś sugerował, że sugeruję to o czym nawet nie pomyślałem??? (autor: Qjanusz | data: 20/06/12 | godz.: 18:34)
    Tahiti absolutnie nie jest proste w budowie.

    Twierdzę jednak że Tahiti które w głównej mierze składa się z:
    - 2048 identycznych klocków SP,
    - 32 identyczne klocki ROP
    - 128 identycznych klocków TMU

    jest o wiele prostsze w budowie, niż np mający ponad dwa razy mniej tranzystorów FX-8150, który nie licząc prostej w budowie pamięci cache, składa się z:
    - 8 powiedzmy identycznych rdzeni. Powiedzmy, bo tak na prawdę chodzi o 4 moduły w których sporo komponentów jest zdublowanych. Ale napiszę 8 żeby dać Wam cwaniaczki więcej fory ;-)

    A wejście GPU w sferę GPGPU wcale nie znaczy o większym skomplikowaniu układu, tylko o dojrzewaniu modelu SP i ekosystemu oprogramowania.


  28. @27. (autor: Mariosti | data: 20/06/12 | godz.: 23:24)
    "A wejście GPU w sferę GPGPU wcale nie znaczy o większym skomplikowaniu układu, tylko o dojrzewaniu modelu SP i ekosystemu oprogramowania."

    Owszem, świadczy też jednak o bardzo szybkim wzroście skomplikowania i gigantycznym wzrostem mocy obliczeniowej gpu, co może komuś błędnie zasugerować że cpu których wydajność rośnie powoli, bo głównie zwraca się uwagę na wydajność pojedynczych wątków, nie są tak skomplikowanymi układami. Ale oczywiście jest na odwrót i dlatego tak trudno jest robić szybsze cpu bo te obecnie dostępne są już niewyobrażalnie skomplikowanymi układami, w przeciwieństwie do gpu których prostota i obojętność specyfiki ich pracy względem liczby zaprzęgniętych wątków powoduje że osiąganie kosmicznych wręcz wzrostów wydajności z roku na rok nie stanowi żadnego problemu.

    Chodzi mi po prostu o to że przeciętny czytelnik ma prawo wyciągać takie błędne wnioski, bo poprawne wymagają jednak trochę wiedzy i myślenia, a tego przecież od większości ludzi siłą rzeczy wymagać nie można.


  29. @up (autor: Plackator | data: 21/06/12 | godz.: 10:10)
    Niektórzy dążą do uproszczenia CPU, i wywalenie rzeczy z których się mało korzysta lub wcale.

    CPU i GPU się tak zmieni, jak zmieni się oprogramowanie, problem w tym że to pierwsze zawsze się zmienia przed tym drugim, mimo że dużo efektywniej by to wyglądało gdy by było na odwrót.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.