Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2021
Środa 28 kwietnia 2021 
    

ZEN 5 Strix Point w litografii 3nm i koncepcją big.LITTLE


Autor: Zbyszek | źródło: WccFTech | 20:59
(38)
W przyszłym roku AMD zaoferuje nam kolejną nową generację procesorów. Będą to CPU oparte o architekturę ZEN4, i produkowane w nowszym procesie litograficznym 5nm, Jednostki będą też zgodne z nową podstawką AM5, pamięciami typu DDR5, i prawdopodobnie otrzymają więcej rdzeni niż dotychczasowe serie Ryzen 3000 i Ryzen 5000. Doniesienia wskazują też, że każdy CPU z ZEN4 będzie posiadał zintegrowany IGP z architekturą RDNA2, a wskaźnik IPC rdzeni CPU ma wzrosnąć o ponad 20 procent względem tego, co oferuje ZEN 3. AMD pracuje też nad architekturą ZEN 5, i właśnie pojawiają się pierwsze przecieki na jej temat.

Według nich, procesory oparte o architekturę ZEN5 będą wytwarzane w litografii 3nm od TSMC. CPU mają otrzymać nazwę kodową Strix Point, i mają też skorzystać z koncepcji big.LITTLE, czyli łączenia dużych rdzeni o wysokim wskaźniku IPC z mniejszymi rdzeniami o niższym IPC. Procesory w wersji dla laptopów mają mieć 8 wydajnych rdzeni ZEN 5, wspartych przez 4 mniejsze rdzenie o nieokreślonej jeszcze architekturze.


Koncepcja big.LITTLE jest od dłuższego czasu obecna w procesorach smartfonowych z architekturą ARM, jednak jeszcze w tym roku pojawi się w procesorach x86 dla laptopów i komputerów PC, w postaci szykowanej przez Intela serii Alder Lake-S.
Zaletą koncepcji w dzisiejszych czasach jest możliwość umieszczenia większej liczby rdzeni na mniejszej powierzchni krzemowej. W przypadku Alder Lake-S, 8 małych rdzeni ma zajmować powierzchnię tylko trochę większą, niż dwa wydajne rdzenie Golden Cove, a przy tym ich wskaźnik IPC ma wynosić około 60% z tego, ile zaoferuje pod tym względem Golden Cove.

 

    
K O M E N T A R Z E
    

  1. ... (autor: krzysiozboj | data: 28/04/21 | godz.: 21:32)
    W telefonach i laptopach ma to prosty cel - wydłużyć czas pracy na baterii. W stacjonarkach i serwerach już przestaje mieć takie znaczenie, czy przy mniejszym obciżążeniu jest to Wat mniej, czy więcej. Pożyjemy zobaczymy, niemniej i tak dobrze, że czas stagnacji rynku CPU za nami.

  2. @ up (autor: Zbyszek.J | data: 28/04/21 | godz.: 21:36)
    tu już mniej chodzi o oszczędność energii, a bardziej o oszczędność powierzchni krzemu i relację końcowej wydajności do powierzchni krzemu. Te rdzenie mają 30-40% powierzchni dużych rdzeni.

    Taki Intel mógłby do Alder Lake-S dać od 10 do max 12 dużych rdzeni, lub 8 dużych i 8 mniejszych.

    Końcowa wydajność wielowątkowa 8 dużych + 8 mniejszych będzie trochę wyższa niż 12 dużych rdzeni, a powierzchnia całego CPU mniejsza niż gdyby miał tylko 12 dużych rdzeni.


  3. @2. (autor: Kenjiro | data: 28/04/21 | godz.: 22:38)
    Co do rdzeni to się mylisz, bo rdzeń 30% mniejszy będzie dwukrotnie wolniejszy, więc powierzchnia będzie większa przy 8+8 niż przy dużych 12.
    Do tego problematycznie jest rozrzucanie wątków na duże i małe rdzenie, z reguły działa to binarnie, tzn. gdy potrzeba wydajności to włączają się dużej i wszystko na nich chodzi, a gdy nie trzeba, to wszystko działa na małych, nie ma żadnego sumowania. Być może w Windowsie odpowiednio przebudują scheduler kernela, ale wątpię by dawał sobie radę z takim workloadem, jaki np. generują gry, aby poprawnie rozmieszczać wątki, które gra generuje, a tych mogą być setki.

    Summa summarum wcale nie wychodzi to korzystnie, chyba że mowa o rozwiązaniach mobilnych, gdzie ogólna wielkość krzemu się liczy, jak również wydajność jest kwestią względną.


  4. co więcej (autor: Zbyszek.J | data: 28/04/21 | godz.: 22:44)
    spodziewam się pogłębienia tej koncepcji po 2025 roku. I będziemy mieć np. 64-wątkowy CPU mający 8 bardzo dużych rdzeni do wydajnej obsługi zadań małowątkowych, połączone z 48 małymi rdzeniami, mającymi gdzieś około 1/3 powierzchni tych dużych rdzeni, ale ponad połowę ich IPC. Sumarycznie taki CPU wielowątkowo będzie bardziej wydajny niż 32 duże rdzenie + SMT, a powierzchnia zajętego krzemu będzie mniejsza.

  5. PS. (autor: Kenjiro | data: 28/04/21 | godz.: 22:46)
    Jeszcze dodam, że w przypadku ARM to jest mały pikuś, bo rdzenie big relatywnie mało się różnią od rdzeni Little, w zasadzie tylko potokiem i otoczką, jak cache rdzenia.
    W przypadku x86 takie działanie będzie zdecydowanie na niekorzyść rdzeni Little, bo jeśli rdzeń big będzie miał obsługiwać np. AVX512, to rdzeń Little też będzie musiał to obsługiwać, a takie "dodatki" zajmują masę miejsca.

    Oczywiście, można pominąć mnóstwo takich instrukcji, ale wtedy takie procesory będą już zacofane w momencie wydania, a moment gdy programy zaczną ich wymagać będzie gwoździem do trumny tych CPU.
    Teraz nie wymagają, bo tylko jedna ze stron obsługuje dane instrukcje (np. tylko Intel obsługuje AVX512), ale kiedyś to nastąpi.
    Wg zapowiedzi ZEN4 ma obsługiwać AVX512, więc nie spodziewałbym się, aby ZEN5 miał już ich nie obsługiwać.


  6. PS2. (autor: Kenjiro | data: 28/04/21 | godz.: 22:48)
    A i najważniejsze, liczba instrukcji w architekturach ARM jest dużo mniejsza niż x86, więc skomplikowanie wynikające z obsługi rdzeni big.Little też dużo niższe.

  7. @ Kenjiro (autor: Zbyszek.J | data: 28/04/21 | godz.: 22:51)
    zdecydowanie nie mylę się. Jest dokładnie odwrotnie niż piszesz:

    - 30% mniejszy będzie dwukrotnie wolniejszy - to jest nieprawda
    - dwukrotnie mniejszy rdzeń jest 30% wolniejszy - to jest prawda

    Zobacz na to:
    https://images.anandtech.com/...5877/LKF%20TOP.jpg

    4 rdzenie Tremont, każdy o wydajności porównywalnej z Sandy Bridge, zajmują sumarycznie powierzchnię o około 20-30% większą, niż jeden rdzeń Sunny Cove.

    Każdy pojedynczy rdzeń Tremont to ~30% powierzchni jednego rdzenia Sunny Cove, a jego wydajność to 75-80% tego co daje Skylake, i 60-65% tego co daje SunnyCove.

    Takie są fakty


  8. Zbyszek.J (autor: kombajn4 | data: 29/04/21 | godz.: 06:57)
    Odpuść sobie. Kenjiro żyje w świecie w którym AVX512 są tymi najważniejszymi potrzebnymi do 99% rzeczy instrukcjami. Podczas gdy w rzeczywistości... a zresztą co ja będę się rozpisywał. Zastosowania wszystkich generacji AVX ograniczają się praktycznie wyłącznie do programów z których 95% użytkowników nigdy nie korzysta. A najnowsze AVX512to już nisza w niszy.

  9. ... (autor: krzysiozboj | data: 29/04/21 | godz.: 08:33)
    myslę, że trochę czasu będzie potrzeba, nim soft "nauczy się" z tego korzystać. Wchodziło 8/16 od AMD, to też sporo pytań było "na co to komu?" Jeśli miałoby to mieć sens, to też spodziewałbym się tego, co i Zbyszek - dużo małych, których sumaryczna wydajność w bardzo wielowątkowych zastosowaniach wyjdzie lepsza niż dużych, czy to w odniesieniu do pobieranej mocy (to będzie istotne przy pełnym obciążeniu), czy do powierzchni scalaka.
    Ja cieszę się z tego, że coś się dzieje, że szykuje się kolejny etap rozwoju, po 8/16 (i później 16/32) u AMD w cywilnych
    A jeśli okaże się, że to ślepa uliczka? Nie będzie to pierwszy taki przypadek ;)


  10. @temat (autor: Saturn64 | data: 29/04/21 | godz.: 09:50)
    Ja uważam, że małe i duże rdzenie mają sens ale tylko w laptopach. Problem polega na tym, że opracowywana architektura procesorów znajduje zastosowanie uniwersalne (laptopy, komputery stacjonarne i serwery) Laptopy stanowią dużą część rynku procesorów i tutaj też trzeba walczyć o klienta. Intel i AMD wiedzą, że by konkurować z ARM (M1 i jego następcami) muszą tworzyć procesory wydajne a jednocześnie jeszcze bardziej energooszczędne. Dzisiaj na tym polu mamy deklasację. Praktycznie 2 krotnie dłuższa żywotność baterii w procesorach M1 robi różnicę.

  11. @10 (autor: krzysiozboj | data: 29/04/21 | godz.: 10:06)
    Laptopy jakby nie podlegają dyskusji. Tu każde wydłużenie pracy i zejście z masą w dół, to "nowe pokłady" klientów. Wydajności im chyba dzisiaj nie brakuje, tu ZEN2 i ZEN3 sporo wniósł.

  12. @10. (autor: Mariosti | data: 29/04/21 | godz.: 10:48)
    PC'tów też jest dużo, często chodzą 24/7 w odróżnieniu od laptopów no i niestety ale ostatnimi laty pc'ty w idle wcale nie zużywają mniej energii.
    Sumarycznie, skoro nie ma przeciwskazań technicznych
    (a nie ma i zarazem lepiej jest stosować te same układy w pc i laptopach, bo projektowanie i testowanie jest tańsze, no i jedna linia produkcyjna też jest korzystna), to lepiej jest zastosować takie rozwiązania do oszczędzania energii i w pc i w laptopach jednocześnie. PC też znaczną część czasu spędza w idle, więc po co marnować energię na to na skalę globalną.
    Co do rozwiązania technicznego, to nie będą musiały te procesory obsługiwać tych samych instrukcji bo jest to obsługiwane już teraz na poziomie kompilatorów które zawsze budują ścieżki dla różnych zestawów instrukcji dodatkowych do wykonania konkretnych zadań i po prostu w czasie wykonywania korzystają z najwydajniejszych instrukcji jakie obsługuje procesor.

    Gdyby dodatkowo w systemach zaktualizowano scheduler'y tak aby były tego świadome, to rozwiązanie to sumarycznie nie miałoby żadnych negatywnych skutków względem wydajności.

    Główne zaleta big.Little to oszczędność energii, a wyłączanie całych rdzeni to najlepsza metoda na tą oszczędność.


  13. @12 (autor: krzysiozboj | data: 29/04/21 | godz.: 13:14)
    No właśnie są przeciwwskazania, by do laptopów i do PCtów robić te same linie. W blaszakach zejście z poborem mocy przy niskim obciążeniu będzie cieszyło, ale nie jest kluczowe. Tu nie ma potrzeby walczyć o każdy Wat za wszelką cenę. Świetnie to widać po produktach AMD. Czipletowa budowa cepów pozwala upychać masę rdzeni, przy stosunkowo niskich kosztach, ale kosztem większego poboru energii. Są laptopowe Zeny i ich blaszakowe wersje G, te ładnie schodzą z poborem energii, ale robić w takim cepie 16 (lub więcej) rdzeni zaczyna być problematyczne, bo scalak mocno puchnie.

    Problem ma z tym Intel, który nie jest w stanie podjąć rywalizacji z wielordzeniowymi ZENami, tam gdzie potrafimy korzystać z wielu rdzeni. Myślę, że Intel w tym momencie głownie chce jakoś tam nawiązać rywalizację z AMD na polu wielowątkowości, choćby tylko na polu PR.


  14. Najlepiej wykorzysta sytuację samo Apple (autor: Mario1978 | data: 29/04/21 | godz.: 16:37)
    między innymi dlatego, że będzie pierwsze korzystać z litografii 3nm od TSMC. Układy M3 lub M3x a może jeszcze inaczej je nazwą mają mieć premierę już w drugiej połowie 2022 roku a w MacBook Pro ma się znaleźć model z 64 rdzeniami z czego 16 rdzeni będzie energooszczędnych. Jeżeli Apple tak potwornie rozbudowuję sekcję CPU to znaczy, że będzie ona używana. Od premiery Zen pierwszej generacji do tej pory na rynku nie pojawiła się żadna gra korzystająca w pełni chociażby z tego R7-1700 z 16 wątkami więc zastój jest ogromny.
    A wracając do Apple za sprawą litografii N3 czy 3nm w powszechnym nazewnictwie będą moli pokazać przewagę gęstości upakowania tranzystorów, wydajności na Watt i całkowitej wydajności. Epyc Genoa od AMD pokaże tylko maksymalną wydajność bo niestety N5P nie ma szans podskoczyć do N3 no ale Intel w ogóle będzie tylko się temu przyglądał bo oni nie mają w perspektywie do końca 2023 roku żadnych szans.


  15. Przy czym z tym schodzeniem (autor: kombajn4 | data: 30/04/21 | godz.: 05:33)
    z poborem prądu w desktopie to jeszcze chciałbym zwrócić uwagę że desktopy są zasilane z sieci a nie z baterii i każdy kto choć raz widział wykres sprawności (zasadniczo dowolnego) zasilacza komputerowego wie że z tym niskim zużyciem prądu w spoczynku to trochę walka z wiatrakami.

  16. @15 (autor: krzysiozboj | data: 30/04/21 | godz.: 09:24)
    Też to miałem wspomnieć, ale nie chciałem rozdrabniać. Zwyczajnie w blaszaku nie ma sensu walka o każdy Wat. Bo finalnie się okaże, że trzeba dać kilkadziesiąt-kilkaset zł, by rocznie uratować ... kilka zł.
    Sam mam 500 W "bronze", blaszak w porywach nie przechodzi 150 W, a ja od dnia kupna boleję nad jego sprawnością, gdy pecet zużywa 50-100W. Ale był na fajnej promocji, to wziąłem :)


  17. Jaka jest zaleta (autor: piwo1 | data: 1/05/21 | godz.: 13:14)
    Dwóch małych rdzeni o wydajności 50% nad jednym dużym o wydajności 100% poza kosztami?

  18. @up (autor: Saturn64 | data: 1/05/21 | godz.: 13:42)
    Nie wiem czy dobrze rozumuję. Ale myślę, że obecnie procesory nie potrzebują więcej niż 4-8 silnych rdzeni. Reszta zadań mogłaby być wykonywana na słabych rdzeniach (które służyły przedewszystkim do zadań, które są możliwe do wykonywania równolegle. Możliwe by było stworzenie bardzo dużych - szerokich i wyposażonych w znacznie więcej zasobów rdzenie, kosztem oczywiście
    poboru energii i dużej powierzchni wykorzystywanej w krzemie. Jednak może udało by się stworzyć rdzenie o IPC ok 200% szybsze a może i więcej niż obecnie.


  19. ... (autor: pwil2 | data: 2/05/21 | godz.: 01:16)
    W mobilnych ma to sens. W stacjonarnych mam wrażenie, że Intel idzie w to tylko z tego powodu, żeby pomieszać szyki AMD, które ma zaplanowane ZEN4 i ZEN5. Intel wprowadzi słabe rdzenie, by móc w 10nm produkować układy 16-rdzeniowe. Z jednej strony mają mieć mocny wątek, a z drugiej nie wypada w 2022 roku mieć nadal max 8 rdzeni. Większość użytkowników domowych pod obciążeniem nie wyjdzie poza te 8 podstawowych.

    Nie zapominajcie, że duże oszczędności w poborze prądu uzyskuje się przy niższych taktowaniach i napięciach. Nowoczesny rdzeń przy taktowaniu 50% max zje 10-20% mocy.

    Dobrze to widać, jak u AMD procesory z TDP65W potrafią deptać po piętach tym z TDP105W.


  20. c.d. (autor: pwil2 | data: 2/05/21 | godz.: 01:17)
    AMD by nie być gorsze musi zmieniać swoje plany, mając pewnie prawie gotowe ZEN5. Dzięki temu Intel zyskuje na czasie.

  21. c.d. (autor: pwil2 | data: 2/05/21 | godz.: 01:18)
    Jeśli Intel wprowadzi pierwszy 8c+8c to będą się chwalić "przewagą" nad AMD, które od dawna ma po prostu mocne 16c dla desktopów.

  22. PSU - zasilacze (autor: Majster | data: 2/05/21 | godz.: 11:20)
    No niestety ale 500 lub 700W to wcale nie jest tak dużo jeżeli chodzi o PSU. Sam mam zasilacz 700W od ponad 8 lat i gdybym chciał bardzo podpiąć drugi napęd optyczny, to musiałbym też podpiąć dodatkowy kontroler na PCI-Express ze złączami SATA. I żeby to zrobić musiałbym wcześniej zmienić swój zasilacz na inny, bardziej wydajny model.

    Większość ludzi o tym nie wie, ale zdecydowana większość "towarzystwa komputerowego" robi ten cholerny błąd, że kupuje miernej jakości zasilacze. Po pierwsze... za słabej mocy. Po drugie... o ogólnych, słabych parametrach. I stąd się biorą problemy ze startem komputera (na samym początku) i wiele wiele innych. Ludzie wolą na papierosy i wódkę wydać mnóstwo kasy, niż pomyśleć wcześniej o konkretnym PSU. Jakby tak nie jeden z Was zajrzał do obudowy u wielu użytkowników mieszkających po zakamarkach w Polsce, i popatrzył dobrze na "zasilacze", to zapewniam Was że nikt by nawet się nie odważył dotykać samej obudowy, nie mówiąc już o podłączaniu do prądu. To są bardzo często stare "rzympy" pamiętające epokę kamienia łupanego (oczywiście w sensie typowo komputerowym). "Zasilacze" które mają często po 13 lat a nawet i więcej. I teraz pytanie brzmi - jak te konfiguracje mogą poprawnie działać? Komputery "chorują" z powodu byle jakiego zasilania, a wina jest i po stronie kupujących jak i sprzedających.


  23. @up (autor: Saturn64 | data: 2/05/21 | godz.: 11:47)
    AMD może obawiać się, że Intel w kolejnych architekturach tego typu odskoczy im bardzo mocno w wydajności pojedynczego wątku. Dlatego prawdopodobnie adaptują podobne rozwiązania do Zen5.

  24. pwil2 (autor: PCCPU | data: 2/05/21 | godz.: 14:17)
    Intel lada miesiąc ukończy prace nad RedwoodCove a jest całkiem możliwe że już trwają prace nad kolejną generacją rdzenia x86.

  25. Edit (autor: PCCPU | data: 2/05/21 | godz.: 14:23)
    Są zdjęcia zdemontowanych układów SapphireRapids z PCB i widać że na pojedynczy chiplet przypada 20 struktór przypominających rdzenie co dawało by 20 rdzeni na chiplet ale możliwe że na miejscu 2 mogą być kontrolery tak jak w Icelake-SP więc to dawało by 18 rdzeni na chiplet x4 chiplety 72 rdzenie na pojedynczy procesor. Zobaczymy czy to przypuszczenie się sprawdzi.
    https://w5zvthspt3i3pvtxtrab5u4pwi-achv5f5yelsu...


  26. Edit2 (autor: PCCPU | data: 2/05/21 | godz.: 14:26)
    Na początek kilka rdzeni w pojedynczym chiplecie ma być wyłączonych.

  27. Saturn64 (autor: PCCPU | data: 2/05/21 | godz.: 14:46)
    Uważam że duże rdzenie(bardzo szerokie) to przyszłość bo o ile zastosowania dla Epyc/Xeon są zazwyczaj znacznie równoległe to i ilość rdzeni będzie mieć znaczenie ale do zastosowań typowo domowych aż tylu rdzeni nie trzeba i przez większość czasu leżała by odłogiem. Kilka bardzo szerokich rdzeni o możliwie jak najwyższym IPC jest jak najbardziej wystarczające a nawet pożądane dla kodu który działa na 1-2 wątkach a wydajność wielowątkową można dopełnić małymi rdzeniami oszczędzając miejsce a tym samym powierzchnię układu.

    Anandtech przeprowadził wywiad z AMD(z głównym inżynierem Zen) odnośnie czy rdzenie x86 będą szersze w przyszłości a odpowiedzią było że tak, muszą być szersze aby niepozostać w tyle za konkurencją i jest to jedyny sposób na wzrost IPC.
    Natomiast w Intelu inżynierowie nazywają Skylake, SunnyCove i poprzednie generacje super szerokimi rdzeniami x86 podczas gdy GoldenCove to już ULTRA szeroki rdzeń x86.
    Podejżewam że jeśli SunnyCove nając 10 potoków wykonawczych jest super szerokim rdzeniem to ULTRA szeroki rdzeń GoldenCove to co najmniej 14 potoków wykonawczych a osobiście uważam że będzie 16 potoków i około 6-8 potoków dekodowania. Czas pokarze co z tego wyjdzie ale jedno jest pewne że szerokie rdzenie to przyszłość a ich bardzo złożona budowa wymusi stosowanie dodatkowo mniejszych rdzeni dla oszczędności powierzchni matrycy na platformach typu LGA1200/1700.


  28. @PCCPU (autor: pwil2 | data: 4/05/21 | godz.: 05:43)
    Intel ostatnio jest najlepszy w generowaniu kolejnych nazw kodowych i generacji procesorów. A jeśli chodzi o wdrażanie nowych architektur do produkcji to tak nie bardzo.

    Potrzebowałem wymienić starego laptopa na Intelu. Dla równowagi i ciekawości wziąłbym coś na Intelu, ale nie bardzo jest w czym wybierać wśród modeli biznesowych. Albo Skylake pod nową nazwą, albo max 4 rdzenie. Bida.


  29. @PCCPU (autor: pwil2 | data: 4/05/21 | godz.: 05:51)
    Można by pójść w wiele rdzeni w zwykłym desktopie i śmiało pójść z optymalizacjami oprogramowania. Dawniej był ten problem, że rozbijając na wątki, 4 rdzenie niżej taktowane niekoniecznie były szybsze od 2 rdzeni wysoko taktowanych. Narzut na obsługę wielowątkowości, czekania na synchronizację wątków.

    Mając 72 rdzenie można by każdy element strony rozbić na osobny wątek i wykonać na osobnym rdzeniu. Nawet tracąc połowę mocy na zarządzanie wątkami i przerzucanie danych między nimi.

    Możliwe, że Japko pójdzie w tym kierunku i zaoferuje coraz więcej rdzeni w kolejnych M#.

    AMD z racji konkurowania z Intelem musi wybierać niekoniecznie najbardziej optymalną dla klienta ścieżkę rozwoju x86. Jeśli Intel wprowadza 8+8, to Oni choćby sztucznie muszą stworzyć te 8+8, by marketingowo nie zostać w tyle.


  30. c.d. (autor: pwil2 | data: 4/05/21 | godz.: 05:52)
    Jeśli Intel doda do swoich procesorów wihajster, to AMD musi odpowiedzieć również dodaniem wihajstra. Może nawet dodając po jednym w każdym chiplecie.

  31. @25. (autor: pwil2 | data: 4/05/21 | godz.: 05:56)
    Intel zapowiadał pójście w ślady AMD. To dla nich jedyna rozsądna ścieżka, znając ich opóźnienia we wdrażaniu nowych procesów. Na początek uzysk może być bardzo słaby i docelowe 16 rdzeni na chiplet to będzie nie lada osiągniecie. Jak średnio z 8c w 10nm będzie sprawne, to będzie sukces.

  32. c.d. (autor: pwil2 | data: 4/05/21 | godz.: 06:00)
    Dla AMD każde odejście Intela od schematu Skylake jest w pewnym sensie dobre. Bo rynek musi się przestawić i wyjść ze swojej strefy komfortu.

    Widać, że każda zmiana w kierunku lepszego skalowania zaraz wprowadza jakieś opóźnienia i soft musi je uwzględnić, by lepiej działał na nowszym sprzęcie.


  33. @29 (autor: krzysiozboj | data: 4/05/21 | godz.: 08:34)
    Dlaczego AMD musiałoby 8+8? Mają świetne 16/32 (też 12/24), z mocnymi 16 rdzeniami, w wielowątkowych zastosowaniach poza zasięgiem Intela. To Intel tutaj musi cokolwiek pokazać, AMD co najwyżej może wtedy cenę skorygować.
    Podobnie jest z TR, cep sam w sobie poza zasięgiem konkurencji. Tu też Intel może dowolnie udziwniać platformę, ale do czasu jak w wielowątkowych zastosowaniach nie pokaże niczego, co choćby zbliży się do TR, to AMD może to zwyczajnie ignorować.
    Wcale bym się też nie zdziwił, gdyby AMD poszło w 4 wątki na rdzeń, gdy już soft zacznie dojrzewać do tylu wątków.
    Tu tylko laptopy nieco inaczej tzreba potraktować, bo tu małe rdzenie mogą mieć wpływ na czas pracy na baterii.


  34. Patrząc dokąd to zmierza (autor: Mario1978 | data: 4/05/21 | godz.: 12:57)
    już teraz można zakładać, że z całą pewnością najlepsze procesory mainstream będą miały obsługę 64 wątków więc do takich staroci jak 16 wątków w procesorze nie będzie co wracać. Co najwyżej by mieć porównanie jak to się zmieniało w wykonaniu AMD. Trzeba jeszcze poczekać na czasy gdzie 128 wątkowy procesor będzie miał zapotrzebowanie także na rynek rozrywki. Jak entuzjasta z zasobnym portfelem zauważy, że 128 wątków jest lepsze w grach jak 64 wątki a tym bardziej od 32 wątków lub nawet 16 wątków i będzie to spora różnica wynikająca w mocy obliczeniowej tych CPU to wtedy i firmy zarobią. Długo trwają te zmiany na lepsze ale trzeba poczekać.

  35. @33. (autor: pwil2 | data: 5/05/21 | godz.: 20:12)
    Kierując się rozsądkiem to AMD nie ma potrzeby iść w 8+8 i podobne konfiguracje szybkich-wolnych rdzeni, poza segmentem mobilnym.

    Kierując się marketingiem różnie może być. Większość klientów się nie zna i słucha sprzedawcy w sklepie. Oglądają reklamy i testy w portalach, którym na rękę jest dostawać sprzęt na przedpremierowe testy wg schematu narzuconego przez producenta.


  36. @33. i @34. (autor: pwil2 | data: 5/05/21 | godz.: 20:26)
    4 wątki na rdzeń mogą coś przyśpieszyć w pewnych zastosowaniach, ale nie spodziewałbym się generalnie mega przyrostów.

    4 wątki na rdzeń przydałyby się, gdyby pójść w kierunku mega wielowątkowości od systemu operacyjnego po gry/aplikacje. Takie oprogramowanie mogłoby źle działać na starym sprzęcie, nawet mocnym. Legendarny G3258@5GHz miał mocne 2 wątki, ale po chwili gry na nim chodziły kulawo. Najwolniejszy nisko taktowany i3 4-wątkowy sprawdzał się w grach znacznie lepiej.

    W pewnym momencie moglibyśmy mieć na rynku sprzęt różnej wydajności obsługujący równolegle 64 wątki
    R9 64c(i jeszcze więcej wątków)
    R7 32c64t
    R5 16c64t



    Abstrakcja? Karty graficzne mają tysiące jednostek obliczeniowych od lat. Co pewien czas producenci zmieniają ich organizację, by wycisnąć więcej mocy z podobnych jednostek. Ile tej mocy jest zwykle faktycznie używanej? 100% obciążenia nie oznacza, że 100% CU/SP pracuje. To oznacza, że jest 0% pustych cykli oczekiwania na pracę.

    Kiedyś Radki miały 800SP w postaci 160 jednostek wykonujących po 5 obliczeń. Później zredukowali do 640SP w postaci 160 jednostek, co nie wpłynęło negatywnie na wydajność (20% leżało odłogiem), a w zamian podnieśli taktowania zyskując większą wydajność.


  37. c.d. (autor: pwil2 | data: 5/05/21 | godz.: 20:30)
    Czy taki antywirus musi chodzić na pojedynczym lub kilku wątkach. Mając SSD NVME, który ma największą wydajność przy równoległych 32-wątkach z kolejką n poleceń szybciej byłoby rozbić skanowania na dziesiątki wątków i przeczesywać nośniki SSD równolegle.

  38. c.d. (autor: pwil2 | data: 5/05/21 | godz.: 20:32)
    Gry zmierzają ku RT, a tam też łatwiej rozbić zadanie na wiele równoległych wątków, każdy śledzący "swoje promienie". Przy 256 wątkach procesora RT byłoby pewnie wydajniejsze, mając dodatkowo kilka chipletów od RT wspomagających obliczenia.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.