Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 22 stycznia 2021 
    

Intel zapowiada: 7nm procesory w 1. połowie 2023 roku


Autor: Zbyszek | źródło: Intel | 21:46
(35)
Podczas konferencji podsumowującej wyniki finansowe uzyskane w ostatnim kwartale i całym 2020 roku, duża część pytań zadanych w części Q&A (Question&Answers) przez dziennikarzy, analityków i inwestorów giełdowych dotyczyła postępów Intela w dopracowani 10nm litografii i uruchomieniu 7nm. Obecny na konferencji przyszły szef Intela, Pat Gelsinger, stwierdził, że miał już możliwość zapoznania się z dokumentami dotyczącymi opracowania 7nm litografii, i stwierdził, że w ostatnich kilku miesiącach prace te nabrały dużo wyższego tempa. Jak ocenił, pierwsze 7nm procesory trafią na rynek w 1 połowie 2023 roku, czyli zasadniczo mniej więcej za 2 lata.

Przypomnijmy, że jeszcze 13 miesięcy temu, w grudniu 2019 roku, dotychczasowy CEO Intela, Bob Swan, twierdził, że 7nm procesory od niebieskich < a href="https://twojepc.pl/news39479/Intel-proces-7nm-w-4-kwartale-2021-roku-rynek-CPU-x86-nie-jest-juz-priorytetem.html">zobaczymy na rynku w 4. kwartale 2021 roku. Kilika miesięcy później Intel ogłosił dwa opóźnienia swojej 7nm litografii - najpierw o 6 miesięcy, a następnie o kolejne 6 miesięcy, czyli łącznie o rok.

Zamiast zapowiadanych przez Boba Swana 7nm procesorów, pod koniec 2021 roku na rynek trafić maja CPU Alder Lake-S, czyli pierwsze desktopowe procesory produkowane w nowszej litografii niż 6-letnia 14nm litografia wykorzystywana do tej pory.

Ze słów Pata Gelsinger można wnioskować, że po kilkunastu miesiącach zostaną one zastąpione procesorami produkowanymi odrazu w kolejnym procesie litograficznym, czyli 7nm.

Mogą to być CPU o nazwie kodowej Meteor Lake-S, wykorzystujące kolejną po Golden Cove generację rdzenia x86.

 


    
K O M E N T A R Z E
    

  1. Intel 7nm (autor: Conan Barbarian | data: 22/01/21 | godz.: 21:57)
    Bardzo dobrze, oby te 7nm wyszło mniej więcej jak 5nm TSMC, to resztę nadrobi ekipa Intela cudami w krzemie.
    To będzie niesamowite 10 lat walki Apple-AMD-Intel.
    Nvidia też może zaskoczyć jeszcze procami, bo w GPU to niemal dominacja jest.


  2. żeby tylko się nie okzało, (autor: Qjanusz | data: 22/01/21 | godz.: 23:17)
    że te 7nm będzie, ale z fabryk TSMC

    Ciekawo co takiego uczynił Bob Swan, że wyleciał w połowie miesiąca, a na konferencjach o planach i strategii wypowiada się człowiek który de facto nie jest nawet pracownikiem Intela.


  3. ... I 10% wycena akcji w dół... Szybko łapią zasady... (autor: SebaSTS | data: 22/01/21 | godz.: 23:29)
    ... Pierwszego etapu tam na górze :D

  4. Najpierw trzeba miec odpowiednie narzedzia... (autor: gantrithor | data: 23/01/21 | godz.: 07:20)
    wiec albo intel czeka na dostawy od asml i dopiero bedzie modyfikowac istniejace faby albo dogada sie z tsmc i samsungiem...
    W 2023 roku nie widze za bardzo sensu isc w 7nm we wlasnych fabach intela a przeniesienie intelowskiego 7nm do tsmc jest raczej niemozliwe bez przebudowy fabryk a to juz wymaga czasu i pieniedzy pozostaje jeszcze opcja odkupienia maszyn euv od tsmc i montaz u intela...

    Cos tu sie bardzo nie zgadza


  5. Intel (autor: PCCPU | data: 23/01/21 | godz.: 14:15)
    Alderlake we wrześniu :)
    https://videocardz.com/...lder-lake-s-in-september


  6. @4. (autor: pwil2 | data: 23/01/21 | godz.: 18:30)
    Może to być standardowe zagarnie Intela. Obiecać coś w rozsądnym czasie, a następnie opóźniać o kilka rozsądnych okresów czasu.

    Gdyby od razu zapowiedzieli nowe procesory w 7nm na 2025 rok, to za chwilę akcje spadłyby do wartości jednocyfrowych. A żaden CEO Intela nie ma pewności, że utrzyma się aż tak długo, więc obiecać może i za 2 lata rewolucję.


  7. @Qjanusz (autor: PCCPU | data: 23/01/21 | godz.: 19:55)
    Ja myślę że Bob Swan ustąpił pod naciskiem zarządu ze względu wizerunkowego. Do tej pory była stagnacja w PC, serwerach/HPC i w procesie produkcji ale teraz gdy w tym roku Intel może wrócić na dawny tor dzięki RocketLake i Alderlake(E10nmSF) i następnie ShapireRapid(E10nmSF) Intel nie chce by dalej firma kojarzyła się z tym okresem m.in za czasu Boba Swana więc zatrudniają Pata Gelsingera. Takie wizerunkowe przetasowanie.

  8. 7== (autor: Mario1978 | data: 23/01/21 | godz.: 22:00)
    Fajnie napisałeś, że Intel może wrócić na dawny tor z RL i AL ale niestety sam sobie odpowiedz dlaczego mu się nie uda. Żeby Intel mógł powrócić do rywalizacji potrzebuje lepszego procesu produkcji od takich firm jak TSMC czy Samsung.

  9. @Up (autor: PCCPU | data: 23/01/21 | godz.: 22:13)
    Nie musi mieć lepszego procesu bo wystarczy że będzie konkurencyjny wraz z nowymi mikroarchitekturami. Natomiast przewagę w procesie o ile ją osiągną to dopiero przy 7nm.

  10. Pccpu (autor: kombajn4 | data: 24/01/21 | godz.: 07:28)
    Ale z ciebie niepoprawny optymista. Zakładasz że kolejne procesory będą wnosić coś znaczącego w kwestii wydajności. Na dokładkę zakładasz że kolejne procesy technologiczne zaczną być konkurencyjne. No i na koniec zakładasz że konkurencja spocznie sobie na laurach podczas gdy AMD krok za krokiem niezwykle mocno rozwija swoją architekturę. Za dwa lata AMD będzie na nowej platformie z Zen4 i w 5nm. Skąd wiem że planowo wydadzą 5nm procesory? Bo 5 nm w TSMC już jest i nie jest to jakaś niewiadoma pieśń przyszłości zaliczająca kolejne opuźnienia. Żeby się nie okazało że jak AMD będzie się przesiadać na 5 nm to Intel będzie dalej trzepał desktop w 14 nm

  11. @kombajn4 (autor: Saturn64 | data: 24/01/21 | godz.: 09:13)
    Na 1 miejscu jest Architektura procesora a na drugim miejscu dopiero proces technologiczny. Każda architektura to logika matematyczna. Zawsze można rozwiązać zadanie na różne sposoby. Dlatego też przez 10 lat mamy kilka architektur, które są od siebie różne a potrafią wykonywać te same zadania (oczywiście z różną sprawnością energetyczną i wydajnością co ma też związek z nowszym procesem technologicznym ale nie tylko gdyż najnowsze architektury posiadają wyższe IPC). Intel zatrudnia 111 tys osób natomiast AMD 11 tys. dlatego też może sprawniej i szybciej a także posiada więkcej inżynierów potrzebnych do rozwiązania napotkanych problemów. Dlatego nie skreślajmy intela pomimo słabszego procesu technologicznego. Może nadal konkurować. Czy skutecznie to okaże się od zastosowania w praktyce kolejnych architektur od Intela i AMD. Przykładem może być starcie Nvidii i AMD w poprzedniej generacji architektur GPU. 12nm Turing (czyli udoskonalony 16nm) vs 7nm AMD RDNA. I nadal nie mogli nawiązać skutecznej walki z Nvidią.

    Po za tym obecnie w opracowywaniu procesów technologicznych zmierzamy do tzw. ściany. Opracowywanie procesów jest coraz droższe a jednocześnie napotyka na znaczne problemy do rozwiązania. Może być, że 3 nm proces TSMC będzie żył bardzo długo ponieważ firma będzie miała problemy by przejść na 2 nm. Gdzie intel może nadrobić w tym czasie zaległości i nawet wyprzedzić TSMC. (oczywiście na dzień dzisiejszy wydaje się to mało prawdopodobne ale gdy spojrzysz na lata 2013-2015 to nikt nie zakładał wtedy, że ktoś dogoni Intela w opracowywaniu procesów technologicznych i inne firmy takie jak TSMC czy GF były daleko w tyle. Intel kończył produkcję w 22nm i przechodził na 14nm to AMD dopiero co zaczęło produkcję w 32nm/28nm.


  12. Tick tock szok od dawna nie działa (autor: rookie | data: 24/01/21 | godz.: 09:29)
    Cykl tick-tock od czasów c2d miał trwać 2-3 lata i to działało do czasu Skylake, gdzie już znacznie spadły przyrosty mocy względem Haswella. A kolejne generacje Skylake w mojej ocenie nic nie wnoszą. Intel utknął z kolejnymi wcieleniami Skylake jak AMD z kolejnymi generacjami Buldka...

  13. @01 (autor: lcf | data: 24/01/21 | godz.: 09:30)
    Czyli do 2023 będzie królować AMD. I dobrze - będzie trochę równowagi po latach hegemonii Intela.

  14. I taka ciekawostka (autor: piwo1 | data: 24/01/21 | godz.: 10:24)
    https://videocardz.com/...design-up-to-10240-cores

  15. obecnie (autor: pawel1207 | data: 24/01/21 | godz.: 11:52)
    proces jest rownie wazny jak architektora przy x86 takie fakty ba mozna nawet powiedziec ze obecnie wazniejszy bo oznacza mozliwosc wiekszego upakowania tranzystorow i nizsze napiecie co obecnie bezposrednio przeklada sie na wydajnosc i pref per watt z x86 plus krzem wiele sie juz nie wycisnie chyba ze powstanie calkowicie nowa architektora niekompatybilna niczym i inna lista rozkazow ale to juz nie bedzie x86 bez zupelnie nowego pomyslu na x86 wiele tu sie nie zdziala ipc przestalo znaczaco wzrastac juz od pewnego czasy dlatego amd tak cisnelo na multicore nie ma co sie oszukiwac gdyby ryzeny byly w 14nm procesie intela nie mialby zadnej przewagi nad intelina x86 dawno jest juz trupem a kolejne procesy to podtrzymywanie zycia tej gownianej arch ..:D

  16. PCCPU (autor: pawel1207 | data: 24/01/21 | godz.: 11:55)
    jest dokladnie jest tak jak piszesz ..

  17. Intel przetrwa? (autor: Xeno | data: 24/01/21 | godz.: 13:30)
    Nawet jak obudzi się za 2 lata to konkurencja będzie 5 lat przed nimi... Czy intel nie potrafi być już innowacyjnym? Czy stawianie na jedną architekturę i trzymanie się jej to słuszna droga?

  18. @17 (autor: PCCPU | data: 24/01/21 | godz.: 13:49)
    Jakie trzymanie się jednej architektury?

  19. @12. (autor: Mariosti | data: 24/01/21 | godz.: 14:18)
    Między buldkiem a piledriverem jest dość duża różnica, ale w porównaniu do konkurencji i tak była to kiepska architektura po prostu dlatego że jej założenia się nie sprawdziły i okazało się że jednak bardziej istotny jest mocny pojedynczy wątek w kilku rdzeniach niż bardzo wysoka efektywność SMT (bo pod tym kątem buldek był bardzo przyzwoity dość łatwo uzyskując idealne skalowanie w wielu zastosowaniach).

    @temat.
    Po pierwsze, obecny prezes ma chyba więcej doświadczenia pracy w intelu od poprzedniego CEO.
    Po drugie, wygląda na to że zszedł do piwnicy i pogadał szczerze z inżynierami, a nie z project managerami i ogłosił taki a nie inny terminarz i zgaduję że będzie skrupulatnie pilnował postępów wewnętrznych.

    Ogólnie rzecz biorąc jest to przykład tego klasycznego paradoksu, gdzie do zarządzania zespołem/firmą potrzebny jest tzw. soft skill-set który to jest domeną wykształcenia menadżerskiego, zarządzania itp, ale jednak klasycznie tylko takie wykształcenie sprawdza się w sprzedaży, nie w produkcji i projektowaniu.
    Zarazem jednoznacznie mogę stwierdzić że znacznie łatwiej jest doświadczonemu inżynierowi/programiście nauczyć się soft skills na paru szkoleniach niż na odwrót. Zasadniczo doświadczony menadżer bez wiedzy fundamentalnej o swoim biznesie może nie być w stanie nigdy nauczyć się wystarczającej wiedzy na temat ogólnie pojętego IT aby nie walić ogólnikami i nie wyciągać pochopnych wniosków.

    Także sumarycznie, lepszy inżynier/programista z dodatkowymi szkoleniami z zarządzania jako szef, niż na odwrót. Podobny efekt było widać w USA gdzie przyszedł prezydent z doświadczeniem biznesowym a nie politologicznym i nagle okazało się że da się dogadać z Koreą Północną, da się dogadać z państwami muzułmańskimi, da się dogadać z NATO w kwestii zobowiązań, da się renegocjować umowy handlowe itp. itd. Szkoda że media skutecznie zakopały wszystkie jego sukcesy, ale fakty są niezaprzeczalne, biznesmen w polityce wykonawczej sprawdza się 1000x lepiej niż z wykształcenia polityk z 50 letnim doświadczeniem w uzyskiwaniu kolejnych reelekcji i składaniu pustych obietnic. (brzmi bardzo podobnie do CEO księgowego przekładającego terminy, czyż nie?).



  20. @18 (autor: Xeno | data: 24/01/21 | godz.: 16:20)
    Intel przestanie robić x86 proponując wreszcie nową innowacyjną architekturę? Czy taka firma, z takimi możliwościami nie jest w stanie pokazać czegoś nowego, tylko kurczowo trzymać się jednej architektury? Do czerwca 2020 w zasadzie x86 to monopol na rynku PC, teraz Apple pokazuje że architektura ARM jest bardzo dobra, najszybsze superkomputery teraz budowane są na ARM, POWER, wspomagane przez NVIDIE... Intel teraz jest najmniej innowacyjny w całej swojej historii. Mówiło się, że zawsze jest krok przed konkurencją, a teraz jest 2-3 kroki za i nie widać poprawy, tylko plany odbicia się od dna na jakim się znalazł...

  21. @Up (autor: PCCPU | data: 24/01/21 | godz.: 16:46)
    Wszystko zależy od tego czy x86 daje taką możliwość bo jeśli tak to po co porzucać?

  22. @20. (autor: Mariosti | data: 24/01/21 | godz.: 17:42)
    Bzdury.
    Od 2004 roku udział x86 w TOP 500 superkomputerów na świecie ciągle rośnie i aktualnie prawie wszystkie są zbudowane w oparciu o x86 (2019 około 90%).

    Architektury intel faktycznie diametralnie nie zmieniał od 9 lat (wcześniej robił to znacznie częściej), ale właśnie teraz wchodzi z nową architekturą na rynek desktopów po tym jak wprowadził ją już na rynek mobilny (X Cove).

    Zestaw instrukcji (x86, ARM, AMD64) to tylko interfejs programowy dostępu do procesora, mylenie tego z architekturą jest bardzo amatorskim błędem.

    Ogromną częścią sukcesu intela i amd jest fakt iż ich procesory są ciągle mniej więcej kompatybilne z kodem sprzed 20-30 lat. Błędem jest jednak stwierdzenie że nie dodają nowych zestawów instrukcji do swoich procesorów, bo to robią praktycznie co roku od dziesiątek lat. Zrezygnowanie z tego nie ma żadnego sensu logicznego ani technicznego, bo przy obecnej liczbie tranzystorów w procesorach x86 obszar odpowiedzialny za translację starych instrukcji zajmuje w przybliżeniu 0% powierzchni układu, także zrezygnowanie z niego nie da absolutnie żadnego zysku.

    Musisz zrozumieć fakt iż ARM M1 wcale nie ma dużej mocy obliczeniowej w samych gołych rdzeniach wykonujących instrukcje z zestawu ARM. Owszem nastąpił tutaj znaczny postęp dzięki zintegrowaniu pamięci, ale to wciąż nie jest poziom zbliżony do x86 (no chyba że porównujemy do ultra mobilnych procesorów o TDP podobnym do M1 no to wtedy faktycznie procesor Apple wypada super dobrze, ale z drugiej strony nie ma procesora M1 z TDP 105W, a x86 są, więc czemu nie korzystać z ich mocy obliczeniowej?).

    Fakt iż w benchmarkach i testach M1 wypada spektakularnie wręcz wynika z faktu iż jest to procesor zaprojektowany przez Apple specjalnie dla swojego własnego, kompletnego środowiska systemu + oprogramowania, dzięki czemu zawiera kompletny zestaw sprzętowych akceleratorów które mogą się przydać, a zarazem system i oprogramowanie apple mają na start zaimplementowane optymalizacje intensywnie korzystające z tych sprzętowych akceleratorów gdzie to tylko możliwe.

    To sytuacja analogiczna do intela przechwalającego się tym jak super jego nowe procesory radzą sobie z AVX2, z tą różnicą że AVX2 nie ma wielu zastosowań, a rozszerzenia w M1 są stosowane przez praktycznie całe oprogramowanie i system Apple na którym działają, dzięki czemu całość jest porównywalna wydajnością do znacznie mocniejszego procesora bez tych wszystkich rozszerzeń.

    Niemniej jednak ten wzrost wydajności nie obył się bez wad, główna oczywista to 1000zł za dodatkowe 8GB ramu i max 16GB, no i zapewne przyszłe wersje M1 tego problemu nie rozwiążą bo zapewne dowalą im jeszcze wyższą premium cenę za kolejne GB ramu.


  23. Mariosti @19 (autor: Markizy | data: 24/01/21 | godz.: 18:48)
    w którym miejscu Trump dogadał się z kimkolwiek z listy co wymieniłeś? Osobiście podejrzewam że to jego największe porażki + kilka handlowych.

  24. Xeno (autor: Markizy | data: 24/01/21 | godz.: 18:53)
    z x86 trzeba było by usunąć wszystko co jest starsze od x86-64 ale bo by wymagało dopracowania standardu instrukcji, a ewentualne braki dodać jako nowy zestaw. Obecnie z x86 została tylko lista rozkazów która mniej lub bardziej jest używana.

  25. @Up (autor: PCCPU | data: 24/01/21 | godz.: 22:21)
    Trzeba dodać że i tak część starszych rozkazów x86 jest wykonywana za pomocą mikrokodu a żeby pozbyć się starszych rozszerzeń i trybów x86 trzeba by przeprojektować x86-64.

  26. Edit (autor: PCCPU | data: 24/01/21 | godz.: 22:22)
    Ponieważ x86-64 nie jest czymś poza x86 a jest jego rozszerzeniem.

  27. @PCCPU (autor: Promilus | data: 25/01/21 | godz.: 04:11)
    Łał... a wiesz, że x86-64 jest takim samym "rozszerzeniem" jak Aarch64 i jakoś tam jest planowane wywalenie trybu 32bit ?

  28. Promilus (autor: PCCPU | data: 25/01/21 | godz.: 05:58)
    x86 korzysta z części rejestrów x86-64.

  29. @23. (autor: Mariosti | data: 25/01/21 | godz.: 12:00)
    Udowodnij że było inaczej, ze źródłami, a nie na podstawie subiektywnej fałszywej opinii tuby propagandowej demokratów czyli tzw. większości mediów w USA i nie tylko.
    Handlowe też miał same sukcesy na skalę niespotykaną od dziesięcioleci, ale trzeba znać fakty, a nie papkę radykalnych przeciwników.


  30. @PCCPU (autor: Promilus | data: 25/01/21 | godz.: 14:13)
    Nie, nie korzystają. Korzystają tylko z tych rejestrów, które x86 32bitowe ma czyli EAX, EBX, ECX (...), to że są to młodsze 4 bajty RAX, RBX, itp. zupełnie nic nie zmienia. Każdy zestaw (16bitowy, 32bitowy, 64bitowy) to różne opcode i rożny zestaw obsługiwanych rejestrów. Część trybów jest obecnie zupełnie zbędna (legacy, real), część trybów adresowych również. Zawężenie ISA do rozkazów 2, 4, 6 bajtowych (wyłącznie) - jak w Coldfire - pozwoliłoby lepiej wykorzystać możliwości prefetch, ROB, branch prediction - a co za tym idzie usunąć wąskie gardło, które blokuje w dużym stopniu wciśnięcie kolejnych potoków wykonawczych. Nie da się tego osiągnąć z obsługą ISA gdzie rozkazy mają od 1 do 15 bajtów ...

  31. Promilus (autor: PCCPU | data: 25/01/21 | godz.: 16:33)
    Przecież x86-64 to rozszerzenie oryginalnych 8-iu 32 bitowych rejestrów ogólnego przeznaczenia(GPR) do 64 bitów i dodanie kolejnych 8 rejestrów 64 bitowych. Daje to łącznie 16 rejestrów 64 bitowych ogólnego przeznaczenia w trybie x86-64 podczas gdy w trybie x86 dostępnych jest tylko 8 rejestrów 32 bitowych.

    x86-64 to rozszerzenie x86(32).


  32. Edit (autor: PCCPU | data: 25/01/21 | godz.: 16:37)
    Przecież napisałem x86(32) korzysta z CZĘŚCI(NIE CAŁOŚCI)rejestrów x86-64 których to x86-64 jest rozszerzeniem a nie całkowicie osobnymi rejestrami.

  33. Edit (autor: PCCPU | data: 25/01/21 | godz.: 16:47)
    W trybie 64 bitowym x86-64 wszystkie rejestry łącznie z oryginalnymi(x86(32)). Główna różnica polega na tym że w trybie 64 bit wszystkie 16 rejestrów o szerokości 64 bit są uniwersalne podczas gdy w trybie x86 8 rejestrów o aktywnej szerokości 32 bit już nie.

  34. Edit (autor: PCCPU | data: 25/01/21 | godz.: 16:50)
    W trybie 64 bitowym wszystkie rejestry łącznie z oryginalnymi(x86(32)) są aktywne na rzecz x86-64.

  35. @PCCPU (autor: Promilus | data: 25/01/21 | godz.: 17:38)
    W trybie 64 bitowym (long) masz albo rozkazy wrzucające do rejestrów 16 bitowych, albo 32bitowych, albo 64 bitowych. Skompilowane programy pod 64b będą wykorzystywać wszystko - razem z większą przestrzenią adresową, te skompilowane pod 32b będą miały w większości te same ograniczenia, które miały w windowsie 32b i w zasadzie w żaden sposób nie będą korzystać z nowych możliwości, to samo 16bit (z wyjątkiem virtual i real mode, które w tym trybie zwyczajnie nie ruszą). Więc jaki to ma sens? Jaki!? No żaden! Druga sprawa - to jak ty widzisz rejestry względem ISA nie ma większego odzwierciedlenia w samym procesorze. Od Pentium Pro i od K5 przy out-of-order jest wykorzystywany register renaming. Fizycznych rejestrów jest po prostu więcej i są podmieniane w locie. A argument, że x86 wykorzystuje część rejestru x86-64 jest równoważny sytuacji odwrotnej - że x86-64 wykorzystuje część rejestru x86 do którego dokleił swoje 32b.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.