Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Wtorek 24 kwietnia 2012 
    

Słaby uzysk w technologii 22nm i zbyt mało 28nm układów?


Autor: Wedelek | 13:53
(16)
Wczorajsza premiera procesorów z rodziny Ivy Bridge spotkała się z dużym zainteresowaniem z Waszej strony, a same procesory okazały się całkiem udanymi układami. Niestety według źródeł bliskich Intelowi o ile sam proces 22nm można zaliczyć do udanych, to już uzysk sprawnych układów z jego wykorzystaniem nie napawa optymizmem, a przynajmniej taki obraz jest nam przedstawiany w nieoficjalnych doniesieniach w tej sprawie. Oczywiście w tym zakresie nie ma żadnej winy po stronie producenta, a nowe procesy produkcyjne zawsze na początku charakteryzują się stosunkowo niskim uzyskiem.

Dopiero z biegiem czasu sytuacja ta się poprawia. Intel nie jest jednak osamotniony w tego typu problemach, bo w sieci można już znaleźć kolejny zestaw informacji o problemach TSMC z procesem 28nm. W zasadzie to słowo "problem" średnio tu pasuje, bo uzysk w nowej technologii jest wyższy od tego, przewidywanego przez TSMC, ale z kolei zainteresowanie układami wytwarzanymi w nowym procesie produkcji też jest ogromne i tajwańska firma po prostu nie nadąża z produkcją. Sprawa jest ponoć na tyle poważna, że w najbliższych miesiącach na rynek może trafić zbyt mało nowych GeForce'ów i Radeonów, co z kolei teoretycznie może negatywnie wpłynąć na ich cenę.

Aby temu przeciwdziałać Nvidia pracuje ponoć nad projektem GPU dla GTX 670, tak by jego produkcja była łatwiejsza. Nie wiadomo o jakie zmiany chodzi, ale nie należy się nastawiać na rewolucję, a raczej kosmetyczne poprawki.

 

    
K O M E N T A R Z E
    

  1. Przejście z 32nm na 22nm by osiągnąć 5% wyższą wydajność (autor: ekspert_IT | data: 24/04/12 | godz.: 14:00)
    To przecież żenada. Coś jest z tym procesem nie tak. 5% to mogliby spokojnie przez 200mhz wyższe taktowanie w 32nm osiągnąć. A tak to sztuka dla sztuki i nic więcej. Nic dziwnego że Rory Read powiedział, że nie będzie często zmieniał procesu technologicznego. I dobrze - niech intel się boryka z okiełznaniem 22nm a AMD niech sobie działa na sprawdzonym 32nm.

  2. @ up (autor: Zbyszek.J | data: 24/04/12 | godz.: 14:05)
    proces technologiczny nie zmienia się po to żeby osiągnąć wyższa wydajność, nawet nie ma on na tą wydajność wpływu. Proces zmienia się po to żeby móc zastosować w procesorze bardziej rozbudowane i zaawansowane rdzenie (to one właśnie dają te 5 czy 50% większą wydajność), więcej cache, więcej rdzeni, dodaktowe rzeczy jak kontrolery pamięci DDR3 czy PCI-Express.

  3. ......up (autor: Marek1981 | data: 24/04/12 | godz.: 14:28)
    Z takim podejściem nie powinieneś mieć w nicku ekspert_IT.

    Kto się nie rozwija to sie cofa. A niższy proces technologiczny pomaga w rozwoju.
    Jak nie widzisz za dużej różnicy teraz to porównaj 32nm z 130nm i zobacz jaka różnica w możliwości upakowania dodatkowych rozwiązań.


  4. ... (autor: Sauron920925 | data: 24/04/12 | godz.: 15:01)
    "ekspert IT" :D :D to się uśmiałem.
    Słuchaj geniuszu: nowy, niższy proces technologiczny pozwala zmniejszyć fizyczną wielkość poszczególnych elementów układów scalonych przez co na tej samej powierzchni można ich upchać więcej. Dodatkowo przez miniaturyzacje osiąga się spadek zapotrzebowania na energię oraz co z tego wynika - mniejsze wydzielanie ciepła. Samo przejście na niższy proces technologiczny nie wpływa na wydajność. Ma na nią wpływ nowa architektura bądź zmiany w już istniejącej poprzez dodanie/zreorganizowanie elementów wchodzących w jej skład.


  5. ...@1 (autor: petex | data: 24/04/12 | godz.: 15:15)
    I dodatkowo przechodzenie metoda małych kroków umożliwia rozwój. Nie da się ze względów technologicznych przeskoczyć ze wspomnianych 130nm do 22nm... itd. Do tego im niższy proces technologiczny tym trudniej uzyskać stabilne warunki (dłużej trwa opracowanie technologi i jest bardziej kosztowne).

  6. ... (autor: trepcia | data: 24/04/12 | godz.: 15:17)
    "mniejsze wydzielanie ciepła" teoria a praktyka jest inna :-) Niby IB ciągnie mniej niż SB a jednak juz powoli wielkość samego układu zaczyna być problematyczna aby odprowadzać skutecznie energię cieplną.

  7. trepcia (autor: Marek1981 | data: 24/04/12 | godz.: 15:21)
    sądzę, że coś spartolono lub przyczyna tkwi gdzieś indziej.

    Teoretycznie większy pływ na grzanie się układu ma natężenie.


  8. @ekspert_IT (autor: guziel | data: 24/04/12 | godz.: 15:43)
    wnioskuje z twojej wypowiedzi jedna rzecz z która się zgadzam. Nie opłaca się użytkownikowi kupować nowego procka w 22 nm technologi dla 5% wydajności. Jednak jak inni stwierdzili to by technologia się rozwijała trzeba małymi krokami przeć do przodu. Najpierw zmniejszyć proces technologiczny potem zmienić architekturę TIC-TAK i świat się rozwija :)

  9. sami specjaliści... (autor: TeXXaS | data: 24/04/12 | godz.: 17:01)
    Nie, żebym był specjalistą - no, ale dyplom z elektroniki mam. W każdym razie... Do net burst - zmniejszenie procesu pozwalało na wzrost częstotliwości -> wzrost wydajności. Problem jest jednak taki, że atomy mają swoją wielkość. Taki tlenek krzemu, mimo, że bardzo fajnie pasuje jako dielektryk, bo łatwo go uzyskać, nie oddziela się... Do uzyskania odpowiedniej izolacji wymaga odpowiedniej grubości. Rozwiązaniem jest wprowadzenie materiałów o wysokiej stałej dielektrycznej... Tu jest opis i obrazek - tranzystora, który stanowi podstawę procesora: http://pl.wikipedia.org/wiki/MOSFET Takie małe pytanie, czysto przy okazji - jaka jest definicja wymiaru technologicznego? Jak zrobimy za cienki tlenek (to szare pod bramką) elektrony będą tunelować ( http://pl.wikipedia.org/wiki/Zjawisko_tunelowe ). Czyli nie da się gonić w nieskończoność, nawet z materiałami o wysokim k. Co więcej, jak wszystko będzie mniejsze - między źródłem a drenem też będą upływy i ciężko będzie powiedzieć, czy jest zero, czy jeden. Dlatego AMD używało SOI.
    Osobna sprawa to wytworzenie tego wszystkiego. Z grubsza procesor robi się jak płytkę drukowaną. Smaruje się emulsją, przykłada maskę, utrwala część maski, resztę trawi się i tak kilkanaście razy. Naświetlanie emalii trzeba zrobić światłem, które ma wyraźnie krótszą długość fali. Potem trzeba emalię wymyć, no i domieszkować, czy tam utleniać. http://pl.wikipedia.org/wiki/Domieszkowanie W domieszkowaniu trzeba wprowadzić atomy innego pierwiastka, w strukturę krzemu. Jak na każdym z podejść machniemy się o - 1-2% wymiaru technologicznego - można sobie darować. O ile w przypadku wyższych wymiarów technologicznych zejście miało głęboki sens. O tyle teraz - to raczej kwestia prestiżu.

    Mniejszy wymiar to więcej procesorów z wafla, ale też wyższe koszty, nie tylko fabryka, ale też każdy jeden procesor kosztuje więcej, bo jest mniejszy uzysk. Mniejszy proces to też wyższe upływy, które dość skutecznie ograniczają energooszczędność.

    Szkoda, że IBM i AMD nie opatentowali tego całego 3D. Wtedy może Intel musiałby podzielić się patentami na cache i byłoby ciut równiej. A tak - dalej będzie się mieliło - jak do tej pory.

    Czyli co? A no taki selling point. Z innej beczki może. Wiadomo, że w aparatach nie ma sensu podnosić ilości pikseli, bo już są powyżej rozdzielczości optyki. http://www.igf.fuw.edu.pl/~kasztel/PDF/Opt.pdf - tu jest mniej więcej objaśnione o co chodzi. A firmy gonią w mega pixele - a dlaczego? Po co firmom walka o najszybszą kartę graficzną? Przecież ją kupi może 0.5% klientów? Z punktu widzenia zysków to nie ma większego sensu. A no, jako klienci lubimy mieć dobre uzasadnienie zakupu. Lubimy też być z tymi lepszymi. Niby nic, ale jak ktoś się nie zna? A że większość się nie zna...


  10. TeXXas (autor: Marek1981 | data: 24/04/12 | godz.: 17:20)
    Chyba wszyscy się zgodzimy że firmy znajdują się blisko max granicy opłacalności wprowadzania niższego procesu technologicznego - teoretycznie. W praktyce jak nie opracują innej technologii PC to nie mogą stać w miejscu bo ich konkurencja wykosi i nie będzie sensu kupowania mocniejszych konstrukcji. W tym świecie liczy się pieniądz, a Intel idzie opracowaną ścieżką bijąc to kolejne rekordy przychodów.

  11. @10. (autor: TeXXaS | data: 24/04/12 | godz.: 17:34)
    A jaki jest sens kupowania mocnych konfiguracji dziś? Dla mnie osobiście - jest. Pracuję jako programista - postawienie Oracle i Websphere w debugu - wymaga masę ramu i bardzo mocnego procesora. Mocniejszy procesor, więcej ramu - to oszczędność czasu. No, ale reszta? Te szybsze procesory - do grania? Bo, ja wiem... to co dziś mam - w zupełności wystarcza mi do grania. Co, będziemy grać na 4 monitorach? Tu już się wypada - teraz trzeba sprzedawać tablety, telefony. Dlatego Windows 8 jest taki jaki jest... No, albo te ultra booki Intela. Szukają nowej niszy. Się zobaczy co to z tego wszystkiego wyjdzie.

  12. @11 (autor: Marek1981 | data: 24/04/12 | godz.: 18:32)
    Niekoniecznie na 4-6 monitorach.
    Już powstają tablety o niebotycznych rozdzielczościach a to się przeniesie na monitory.

    Co do ultrabooków to fajny bajer ale bez przesady, już komfortowo na tym nie pograsz a i z filmami bywa różnie.

    Nie ulega wątpliwości, że to rynek gier pozwolił się upowszechnić PC więc nie marginalizowałbym tego działu


  13. @12 (autor: Kosiarz | data: 24/04/12 | godz.: 22:56)
    Tyle ze jak dojdziemy do 300PPI to mozemy sobie darowac AA wiec obecne karty tez beda dawac rade na wyswietlaczu ktory ma 4x pixeli.

  14. No więc właśnie. (autor: TeXXaS | data: 25/04/12 | godz.: 10:14)
    Jakość grafiki można podkręcać, ale już przejście między Dx9 a Dx10 - sporo osób kwestionowało. Skoro nie widać różnicy - po co przepłacać? Desktop z nieograniczonym źródłem zasilania w postaci gniazdka przestaje być atrakcyjny. Głównie dla producentów, bo nie da się gonić w cyferkach, rankingach itp. "Wojna" przenosi się na inne pola. Ludzie mówią, że najlepiej wytworzyć sobie rynek - w sensie uświadomić ludzi, że mają taką właśnie potrzebę. Asus z EEE tak właśnie zrobił. Stworzyli nową klasę sprzętu i do czasu aż się pojawiła konkurencja - zdążyli się nachapać. Intel liczył na ultra booki. No, na razie to reklamy widać... :)

    Mi tam pasuje, że mogę mieć jeden laptop i na nim pracować - gdziekolwiek. Pasuje mi też polityk Lenovo, cały sprzęt pasuje do sprzętu z ostatnich 5-6 lat. Dla mnie - wygrali, bo mam stację dokującą, kieszenie itp - więc kolejny laptop będzie od nich.

    Nie bardzo wyobrażam sobie pracę na tablecie. No, może na takim z dołączoną klawiaturą - transformery tak mają.


  15. @14 (autor: Plackator | data: 25/04/12 | godz.: 11:52)
    Różnica między DX9 a DX10 jest taka, że DX10 przy tych samych zasobach pozwoli na lepszą grafikę, a mit o tym że DX10 wymaga więcej zasobów jest błędny :)

  16. @expert_IT (autor: bmiluch | data: 25/04/12 | godz.: 14:18)
    zapytaj swoich krytykantów ilu z nich studiowało elektronikę i ma jakieś pojęcie o teorii półprzewodników

    jak na mój gust wielu, którzy się z Tobą nie zgadzali, ma średnie pojęcie od czego zależy prędkość przełączania tranzystora i na ile się ona przekłada na wydajność układu

    o tych którzy twierdzą:

    1) mniejszy proces nie wływa na wydajność
    2) mniejszy proces pozwala na budowanie większych układów
    3) większe układy/struktury pozwalają na większą wydajność

    ale nie widzą, że 1 jest w sprzeczności z 2+3 już nawet nie będę gadał


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.