Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Czwartek 19 kwietnia 2018 
    

Oficjalna premiera procesorów AMD Ryzen drugiej generacji


Autor: Zbyszek | źródło: AMD | 15:12
(70)
Firma AMD oficjalnie wprowadza dziś na rynek 2. generację procesorów Ryzen dla komputerów stacjonarnych. Nowe procesory bazują na układzie krzemowym o nazwie kodowej Pinnacle Ridge, i należą do serii 2000, która składa się z dwóch 8-rdzeniowych, 16-wątkowych oraz dwóch 6-rdzeniowych, 12-wątkowych modeli. Flagowym z nich jest Ryzen 7 2700X, taktowany zegarem 3,7 GHz standardowo i do 4,3 GHz z Boost. Pozostałe modele to Ryzen 7 2700 (3,2-4,1 GHz), Ryzen 5 2600X (3,6-4,2 GHz) i Ryzen 5 2600 (3,4-3,9 GHz).

Ulepszony proces litograficzny 14nm (nazywany marketingowo 12nm) pozwolił podnieść maksymalne taktowania o 250 MHz, natomiast architektura ZEN+ posiada około 3% wyższy wskaźnik IPC oraz zmniejszone opóźnienia do wszystkich pamięci podręcznych i pamięci RAM. Do tego dochodzi także algorytm Precision Boost 2, który wraz ze wzrostem liczby wątków zmniejsza taktowania bardziej stopniowo, niż to miało miejsce w pierwszej generacji procesorów.

Sugerowane przez AMD ceny procesorów to 329 USD za model Ryzen 7 2700X (3,7-4,3 GHz), 299 USD za Ryzen 7 2700 (3,2-4,1 GHz), 229 USD za Ryzen 5 2600X (3,6-4,2 GHz) i 199 USD za Ryzen 5 2600 (3,4-3,9 GHz).

W Polsce ceny wynoszą kolejno: 1359, 1249, 929 i 819 złotych.



 


    
K O M E N T A R Z E
    

  1. ... (autor: krzysiozboj | data: 19/04/18 | godz.: 15:48)
    Zgodnie z przewidywaniami, kilka % wyższe zegary, plus kilka % w IPC, łącznie niecałe 10% w stosunku do pierwszej generacji.
    Miła niespodzianka to tylko cena, chyba nieco wymuszona przez intela.


  2. Procesory slabe, kompletnie nieoplacalne (autor: Sony Vaio VPN | data: 19/04/18 | godz.: 15:49)
    dalej pojedynczy watek slabszy od i3 8100.
    Intel za chwile wypusci 8 rdzeni i odpali rakiete. Do tego procesory Intela sa dopieszczone i dostarczaja wiele przyjemnosci i niespodzianek.


  3. testy (autor: Zbyszek.J | data: 19/04/18 | godz.: 15:52)
    https://www.hardware.fr/...ndices-performance.html
    https://www.anandtech.com/...ryzen-5-2600x-2600/15


  4. ja nie uzywam prockow AMD... (autor: g5mark | data: 19/04/18 | godz.: 16:49)
    ...moze i pojedyncze watki sa slabsze u AMD, moze to prawda, ale konkurencja musi byc bo bez tego Intel a takze AMD bedzie przywalalo ceny. Niech miedzy soba walcza a ceny spadaja. Kazdy ma swoje wlasne preferencje, Ja lubie Intela ktos inny AMD.

  5. @temat. (autor: Mariosti | data: 19/04/18 | godz.: 16:54)
    7-14% dodatkowej wydajności jeszcze w niższej cenie na start?
    U intela taki rozwój to były minimum 3 lata, a amd dało radę to załatwić w rok


  6. INTEL po prostu przygotowuje (autor: Mario1978 | data: 19/04/18 | godz.: 17:19)
    się teraz na przyszły rok bo można już zobaczyć testy ,które pokazują ile potencjału ma ZEN+.Znów zwiększenie lepszej kompatybilności z pamięcią DDR4 oraz z niższymi opóźnieniami oddala tą firmę.
    Dla Mnie najważniejsze były testy jaki potencjał ma ZEN w końcu wydany w pełnej wersji i tutaj INTEL został pozamiatany.
    Jak rzeczywiście ZEN 2 będzie osiągał 5Ghz to INTEL musi te swoje 10nm++ dopracować tak by osiągać 6Ghz bo zaraz przerypie nawet z tym zegarem co ma teraz.Zamieszczę tutaj zrzuty do wyników testu IPC dla zegarów bazowych (to nie to samo co stokowe) oraz jak ZEN+ dużo zyskuje gdy ma odpowiednią pamięć DDR4 z odpowiednim zegarem.
    1.https://uploads.disquscdn.com/...eb3f9a4e8c4a9.png
    2.https://uploads.disquscdn.com/...37ff302e93bec.png
    3.https://uploads.disquscdn.com/...eddbb3cdce96d.png


  7. Rozumiem że te procki pasują do zeszłorocznych płyt? (autor: DrLamok | data: 19/04/18 | godz.: 17:28)
    i nie ma takiej rzeźni jak przy intelu gdzie co rok nowa płyta mimo takiej samej podstawki... bo... tak sobie to wymyślili...

  8. @6, Gats, sam te słupki malowałeś? (autor: daver | data: 19/04/18 | godz.: 17:31)
    8700K w CR 15 ST 169? Chciałbyś, prawda? https://images.anandtech.com/...aph12625/97212.png

  9. gry - jest dobrze (autor: Shark20 | data: 19/04/18 | godz.: 21:20)
    https://forums.anandtech.com/...e-28#post-39391339

  10. @up - nie ma tak dobrze w grach (autor: rzymo | data: 19/04/18 | godz.: 21:29)
    testujący z anandtecha już pisał, że szuka i zastanawia się gdzie popełnił błąd, że wyszło mu inaczej niż wszystkim innym ;)
    (trochę szkoda, bo takie wyniki by znaczyły, że Intel musiałby się wziąć ostro do roboty)


  11. test na 4 GHz (autor: Shark20 | data: 19/04/18 | godz.: 21:43)
    http://www.overclockers.com/.../04/gaming-1080.jpg

  12. jak bedza przyspieszac co wersje (autor: pawel1207 | data: 20/04/18 | godz.: 00:33)
    10 % to po kolejnych 6 latach bedzie jakis sens wymiany sb na nowszy model :D.

  13. @rzymo (autor: kosa23 | data: 20/04/18 | godz.: 00:34)
    to czemu umieścił wyniki?


  14. Juz wiadome (autor: Shark20 | data: 20/04/18 | godz.: 07:10)
    Anandtech w czesci aplikacyjnej testu skopiowal wyniki i7z pazdziernikowej recenzji. A test giervzostal wykonamy od nowa z latkami na meltdown i spectre.
    Tech radar jako jedyny zrobil caly test i7 od nowa z latkami na meltdown i spectre i tam w cinebenchu wynik 8700k to 169 single core i 1220 multi core. Redaktor wyraznie zaznacza wplyw latek na wydajnosc intela, przed instalacja latek wynik single core wynosil 204 pkt


  15. kanał Hardware Unboxed robił testy na świerzo (autor: kombajn4 | data: 20/04/18 | godz.: 08:17)
    z wszystkimi poprawkami itd i wyniki w CB15 wyszły im następujące:
    i7-8700K
    198/1419
    Ryzen 7 2700X
    176/1771
    https://www.youtube.com/...=XOOohlyJem0&t=940s


  16. @15. (autor: Mariosti | data: 20/04/18 | godz.: 09:01)
    Łatki w os czy też bios i fw sgp itd?

  17. @15. (autor: Mariosti | data: 20/04/18 | godz.: 09:09)
    Swoją drogą na starcie to porównanie jest słabe bo jak zaznaczyli testowali na boxowych chłodzeniach za wyjątkiem inteli serii k które to chłodzone są wodnym H110iv2... ciężko powiedzieć aby było to sprawiedliwe.

    Wspomnieli o aktualizacjach systemu, sterowników i biosu najświeższych, ale nie wspomniano o łatkach na intel management i sgp, oraz nie wspomniano czy na te konkretne płyty główne były wydane i zainstalowane łatki na meltdown i spectre. Wiele płyt głównych do tej pory ich nie dostało, no i wodne chłodzenie pozwoliło intelowi na maksymalne podbicie turbo w każdej sytuacji.


  18. ostatni bastion CPU Intela został poważnie naruszony (autor: Qjanusz | data: 20/04/18 | godz.: 10:32)
    Intel przez łatki bezpieczeństwa zaniżył swoje osiągi w grach, a ZEN+ podbił wyniki w stosunku do pierwszego ZENa.

    Aktualnie mamy taką sytuację, że w grach z nowoczesnymi i wielowątkowymi silnikami szala jest delikatnie po stronie AMD, a w grach starszych, napisanych na określoną ilość wątków, szala przechyla się na stronę Intela.

    Patrząc na zakup na zasadzie CPU tylko do gier, przy porównywalnej cenie topowych procków Intela i AMD, można się w zasadzie kierować już teraz sentymentem i przywiązaniem do marki. Trzeba też pamiętać że im nowsze gierki, tym bardziej będą one wykorzystywać wiele wątków, a patrząc na konsole, wiele wątków konkretnie architektury AMD.

    Jeżeli ktoś potrzebuje CPU do zastosowań profesjonalnych, lub pracy i gier, to musi już sobie znaleźć dobre wytłumaczenie, chcąc kupić CPU Intela, jak np: nie instaluję łatek Intela, albo chcę konkretne OC, które w przypadku Ryzenów jednak dalej jest słabe.

    Jakiś czas temu czekałem z zakupem CPU na premierę Ryzena, po czym kupiłem i7-7700. Jeżeli sytuacja się nie zmieni, następna zmiana będzie na AM4.


  19. Aktualnie mamy sytuacja taka, (autor: g5mark | data: 20/04/18 | godz.: 10:43)
    ze AMD lekko wyprzedza Intela w osiagach CPU w mulithread, ale przegrywa w singleshtread. Za rok dwa sytuacja bedzie zgola inna. Intel wyda zypelnie nowa architekture i AMD nie pomoze ZEN+ ani ZEN2.Tal bylo w przypadku Athlonow i Core

  20. @g5mark (autor: Qjanusz | data: 20/04/18 | godz.: 10:55)
    zobaczymy co przyszłość przyniesie.

    Póki co, w podobnym tonie pisane komentarze jeszcze rok temu, za bardzo nie znalazły pokrycia w rzeczywistości. Dawno opracowane i pełne wydajnych rozwiązań pomysły Intela, proszące się tylko o pretekst ze strony AMD, odsłoniły luki, liczne błędy w architekturze. Co gorsza, Coffe Lake, zamiast się oddalić od konkurenta, pozwoliło praktycznie wejść sobie na głowę architekturze ZEN+

    Na razie idą łeb w łeb i ma nadzieję że to się utrzyma jak najdłużej.


  21. @18 (autor: kombajn4 | data: 20/04/18 | godz.: 11:46)
    "można się w zasadzie kierować już teraz sentymentem i przywiązaniem do marki. "
    No nie do końca, bo dochodzi jeszcze jedna istotna (przynajmniej dla mnie) kwestia mianowicie kupując platformę AM4 masz zapewniony upgrade co najmniej do 2020r a u Intela wymiana procesora wiążę się z wymianą płyty głównej. Właśnie się przesiadłem na AM4 i Ryzena 2400G i wybór padł na ta platformę, choć za praktycznie identyczne pieniądze mogłem nabyć i5-8400 ale musiał bym na głowę upaść żeby pchać się w martwą platformę (to dopiero paradoks żeby aktualna platforma już była martwa) dla zyskania kilku procent wydajności w starszych grach (kolosalną różnice w wydajności iGPU pomijam bo rozmawiamy o CPU).


  22. @g5mark (autor: rainy | data: 20/04/18 | godz.: 12:59)
    Muszę Cię cokolwiek zmartwić: nowej architektury Intela nie zobaczysz najprawdopodobniej w tej dekadzie, pewnych rzeczy nie da się po prostu przyspieszyć, opracowanie jej zwykle trwa kilka lat.
    Już nie mówiąc o ewentualnych problemach z procesem technologicznym (vide 10nm).

    Btw, nie oczekuj, że AMD będzie stało z założonymi rękoma i tylko się przyglądało temu co Intel robi.


  23. @14, bujdy (autor: daver | data: 20/04/18 | godz.: 13:31)
    Było milion testów analizujących wpływ patchy na meltdown i spectre. W grach i CB róznice są marginalne. Nie szukając daleko, PurePC zaznacza, że patche są zainstalowane i wyniki po staremu https://www.purepc.pl/...el_core_i7_8700k?page=0,5

  24. i7 dostaje w kość w testach (autor: rookie | data: 20/04/18 | godz.: 13:59)
    Cinebench: Ryzen 2700: 1813pkt, core i7 8700k 1393pkt :D
    https://hexus.net/...7-2700x-ryzen-5-2600x/?page=3


  25. @g5mark (autor: rookie | data: 20/04/18 | godz.: 14:03)
    A jesteś pewien? Miało być Tick-Tok, a okazało się że niebiescy jak byli tak są na 14nm. To ma być postęp?
    ''Coffee Lake
    Coffee Lake is Intel's codename for the third 14 nm process refinement following Broadwell, Skylake, and Kaby Lake. ''


  26. @19. (autor: Mariosti | data: 20/04/18 | godz.: 14:49)
    Zresztą zakładanie że magicznie da się znacznie przyspieszyć wydajność pojedynczego wątku bez zwiększania taktowania jest złudna biorąc pod uwagę fakt jak niewiele się posunęła przez wiele lat. I to nie jest tak że tylko intel i amd nad tym pracują... jest rozwijanych wiele architektur cpu i w przypadku uniwersalnych procesorów w pojedynczym wątku procesory x86 są zdecydowanie najmocniejsze, a to oznacza że z dużą dozą prawdopodobieństwa jest w nich najmniej do uzyskania pod tym kątem.

    Szczerze mówiąc jeśli mielibyśmy liczyć na jakiś znaczny wzrost wydajności jednowątkowej procesorów to chyba tylko dzięki nowym procesor, materiałom, technologiom tranzystorów, dystrybucji sygnałów w cpu itd, tak aby np możliwe było taktowanie 10, 20 albo i 100GHz. Wtedy faktycznie będzie postęp.


  27. Ryzen (autor: franiux | data: 20/04/18 | godz.: 15:03)
    Wszystko super, tylko brakuje w ofercie najniższej półki, takich APU na Zen 2/2 i 2/4 - 25/35W w cenie 150-300zł. Tutaj rządzi celeron i pentium i AMD nie ma nic do zaoferowania a powinni mieć. Produkt dla pani Kazi co by mordoksiążka chodziła, płatnik i word.

  28. z procesami to generalnie... (autor: g5mark | data: 20/04/18 | godz.: 16:06)
    ..beda mieli wszyscy juz problem. Bramki coraz mnijesze i coraz wiecej problemow. Jesli Intel sie wylozy na 10 albo 7nm, to co ma powiedziec takie AMD ? My mamy 5nm ? Nie sadze. To juz nie o pieniadze juz chodzi.,ale mozliwosci fizyczne krzemu. Ponoc mieli sie zajac pozniej nano rurkami, ale wyglada na to ze poki mozna wyciagnac z krzemu ile sie da to sobie rurkami glowy nie zawracaja. czy co, czeka nas albo: wojna na rdzenie albo totalny zastoj na runku CPU/GPU prze znajblizsze pare lat, bo "fizyki Pan nie zmienisz, nie badz Pan glab! " :)

  29. Kupowanie procesora (autor: Mario1978 | data: 20/04/18 | godz.: 17:38)
    powinno być uwarunkowane od naszych preferencji ,żeby nie potrzebnie ładować się w koszty.Ostatni raz taki błąd popełniłem mając i3-540 co po miesiącu czasu gry w World of Warcraft wiele lat temu musiałem zmienić na tamtejszy High End i7-870.Jeżeli ktoś gra w przeglądarkowe pozycje to po co mu więcej ale i tak niżej niż 4wątki nie zlazł bym ,żeby móc korzystać płynnie z przeglądarki internetowej otwartej z wieloma kartami.
    To ,że ktoś lubi się męczyć jeszcze na dwóch wątkami albo dwóch i pół wątkach bo tak można nazwać propozycję INTELA z 2r/4w to jego sprawa.
    ZEN mimo takiej prostoty osiąga sporą wydajność i porównajcie to z Kaby Lake chociażby.AMD nawet nie musiało się starać żeby wyciągnąć wyższą wydajność a INTEL pewnie liczy w dalszym ciągu ,że GF i TSMC wprowadzi swoją nową litografię na przełomie 2020/2021roku.Żeby nie kooperacja IBM/SAMSUNG/GF to ZEN w wersji beta byśmy dostali dopiero teraz a na przyszły rok musielibyśmy czekać na to co miało premierę wczoraj.
    Testów jest już tak dużo i co najważniejsze także skrajnych pokazujących ,że ZEN+ stawiane z pamięciami DDR4 2933 i CL16 to pokazywanie najgorszego możliwego scenariusza dla architektury ZEN w lepszym wcieleniu dlatego bardziej zainteresowany byłem testami gdzie pamięć DDR4 miała 2933 i CL11.Niektórzy poszli krok na przód i użyli DDR4 3600 z CL14 a jak wygląda wydajność w takich scenariuszach już widać po testach.
    Nawiązała się spora dyskusja na forum w związku z testami "anandtech" dlatego jeszcze raz podejmą się testów ale pytanie jest czy inne redakcje rzeczywiście korzystały z najnowszej kompilacji Windows 10 nie tylko z patchami dla INTELA do bezpieczeństwa łącznie z nową łatką w BIOSACH płyt ale także z patchami dla AMD.
    Jaki potencjał ma ZEN już widać po tych testach a ogarnięcie 5Ghz dla rdzeni w nowej litografii daje krzyżyk na INTELU na razie tylko ołówkiem kreślony bo nie wiadomo czy 10nm od INTEL w trzecim wcieleniu rzeczywiście nie będzie osiągał 6Ghz na rdzeniu.
    Nikt mi nie wmówi ,która platforma przetrwa bardziej próbę czasu bo to już widać po testach więc nadzieję może mieć każdy ,że nawet i7-8700k starczy na 5lat przynajmniej.Rzeczywistość zostanie "wkrótce" zweryfikowana bo sytuacja typu R7 1800x słabszy od nawet R5 2600 w grach świadczy właśnie o tym ,że wielowątkowość jest olewana tylko na dłuższą metę bardziej przyszłościowa jak chcemy w nowych grach osiągnąć nowe poziomy lepiej wyglądających gier a z jednowątkowości tego się nie wyciągnie.Nie wklejam więcej linków z testów bo nie ma sensu bo dla Mnie INTEL już teraz jest pozamiatany i dobrze bo może w końcu się weźmie do roboty.


  30. g5mark (autor: kombajn4 | data: 20/04/18 | godz.: 17:44)
    Ja wiem że Intel przyzwyczaił wszystkich że główny wzrost prędkości CPU wynika z obniżenia procesu i podniesienia zegarów do oporu ale jak tak czytam te twoje wpisy to nie wiem czy się śmiać czy płakać. Niby dlaczego miałby być zastój w CPU? Zobacz sobie jaki był skok IPC między procesorami serii FX a Ryzenem - w porywach 50% pomimo niższych zegarów. Nie wynikało to ze zmiany procesu technologicznego, a ze zmiany architektury rdzeni. To że fizyczne możliwości krzemu się skończą to nie znaczy że inżynierowie nie będą projektować nowych wydajniejszych rdzeni. Znaczy się w Intelu może i nie będą lol, bo jak zrobili to swoje Core to (z drobnymi poprawkami) tłuką te procesory od ho ho a może i dłużej. Poza tym o tym że fizyczne możliwości krzemu skończą się w okolicy 5nm mówi się co najmniej od 20 lat i co najmniej tak długo prowadzone są badania nad następcą krzemu.

  31. @13, 14 (autor: rzymo | data: 20/04/18 | godz.: 18:08)
    13 - Nie wiem dlaczego zamieścili takie wyniki. Może zrobili swoje a dopiero potem przyszła refleksja "dlaczego wyszło nam inaczej niż całemu światu"...

    14 - Shark20 - test jest zwalony, kolokwialnie pisząc. 165 punktów w singlecore to mam na i5-8400 ;) System oczywiście najświeższy, ze wszystkimi poprawkami/łatami/biosem.


  32. @UP 31 (autor: Saturn64 | data: 20/04/18 | godz.: 18:46)
    13 - a może to było tak: że Intel, każdemu recenzentowi płaci (jak to ma w zwyczaju) dolę by obronić się jeszcze w oczach świata w ostatniej dziedzinie to jest grach. Gdyby przegrał w tej dziedzinie jego procki nikt nie tknął by nawet kijem, więc gra jest warta świeczki. Widocznie jednego recenzenta przez przypadek pominęli i pokazał prawdziwe wyniki jakie mu wyszły.... Za chwilę ekipa Intela odkryła błąd i szybko naprawiwszy go tj wykonano przelew na kont..... a tester zaczął się zastanawiać gdzie popełnił błędy pomiarowe ;)

  33. @30. (autor: pwil2 | data: 20/04/18 | godz.: 19:19)
    Po prostu FXy miały spore niedoskonałości, które można było usunąć w Zenach. Teraz nawet znaczne redukcje czasu dostępu do pamięci podręcznych nie wycisną dwucyfrowych przyrostów. Można iść w stronę wielowątkowości w algorytmach, wykorzystując wszelkie dostępne zasoby.

  34. @Up (autor: PCCPU | data: 20/04/18 | godz.: 19:32)
    Intel nie zwiększał zbytnio IPC(nie rozbudowywał zbytnio rdzeni Core i) ponieważ nie musiał ze względu na brak konkurencji ze strony AMD więc poszli w kierunku energooszczędności i wyższyego zegara.
    AMD Zen stał się bardzo konkurencyjny(zbliżył się niebezpiecznie do procesorów Intela) więc w związku z tym od zeszłego roku pracują nad nową mikroarchitektura(NGC) - Osobiście podejzewam że będzie to mocno przebudowany i rozbudowany Skylake który ma być baza dla generacji procesorów na następną dekadę.
    Next-Generation Core będzie dowodem na to co da się jeszcze zrobić z IPC.
    Moze będzie to znow podniesienie poprzeczki w skomplikowaniu rdzenia np:
    Rozbudowa logiki odpowiedzialnej za przetwarzanie spekulatywne, przewidywanie skoków i rozgałęzień w kodzie, dodanie dekoderów x86, poszerzenie schedulera(przetwarzanie poza kolejnością) i dodanie nowych portów z jednostkami wykonawczymi, zwiększenie pojemności pamięci cache L1 i poszerzenie magistral i może 4 drożny SMT.
    Szklana kula ON:
    L1 Instrukcji 48-64KB
    6-8 dekoderów x86-64
    6-8ALU/4FPU, 4-6AGU
    L1 Danych 48-64KB
    L2 1MB
    L3 1.375-2.5MB
    DDR5 i PCI-Express 5.0
    szklana kula OFF
    Czas pokaże ;)


  35. @32 (autor: rzymo | data: 20/04/18 | godz.: 19:36)
    Tę tezę obala jedna gra - GTA V.
    Wcześniejsze testy, także Anandtecha, wskazują, że jednostki Intela są po prostu wydajniejsze w tej grze.

    Czyli taki Ryż 1600x dostaje baty od i5-8400, a tu nagle 2600x wyskakuje przed Intela. O ile musiałoby wzrosnąć IPC - kilkadziesiąt procent? Przecież to nierealne :)


  36. @Temat (autor: loccothan | data: 20/04/18 | godz.: 21:47)
    Na Anand jest test z Patchem pod AMD i Intela (Spectre oraz Meltdown Patch)

    -> https://www.anandtech.com/...ryzen-5-2600x-2600/15

    Byłem dość zdziwiony takim obrotem sprawy bo i7 ma w Boost 4.7Ghz lol


  37. Co do tego że skończą się możliwości krzemu (autor: Zbyszek.J | data: 20/04/18 | godz.: 22:33)
    To rozwiązanie będzie następujące. Jak wiadomo zużycie energii przez CPU rośnie liniowo z taktowaniem i kwadratowo ze wzrostem napięcia zasilającego.

    Np. dziś taki Ryzen może mieć 4,0-4,2 GHz przy 1,3-1,35V a 3,0 GHz przy 0,95V i 3 razy niższym zużyciu energii: https://i.imgur.com/CGSdAWF.png
    Zatem 1/3 więcej wydajności (4 GHz zamiast 3 GHz) kosztuje w przybliżeniu 3 krotnie większe zużyciem energii.

    Po wyczerpaniu możliwości zniżania procesów litograficznych nastąpi zmiana podejścia w projektowaniu CPU - zamiast procesorów zajmujących 200 mm2 i pracujących w górnym zakresie napięć i częstotliwości, będziemy otrzymywali procesory o powierzchni 500-600 mm2, ale pracujące w niższym zakresie częstotliwości i napięć.

    Rdzenie pod względem powierzchni zostaną rozbudowane 2-3 razy a ich wskaźnik IPC dla single thread wzrośnie np o 50%. Jednocześnie będą pracować z taktowaniem i napięciem o 1/3 niższym niż te mniejsze rdzenie, mając 2-3 razy więcej tranzystorów zużywających 2-3 krotnie mniej energii (przez niższe taktowanie i napięcie).

    Czyli 2-3 razy większy rdzeń z 50% większym IPC będzie pobierał tyle samo W, przy 2-3 razy większej powierzchni. Jednocześnie pojawią się inne opcje wykorzystania mocno rozbudowanych i niżej taktowanych rdzeni - jak SMT4, czyli 4 wątki na jeden rdzeń.

    Procesory staną się 2-3 krotnie większe, ale pracujące z niższymi częstotliwościami taktowania i niższym napięciem. Będą pobierać tyle samo energii co te mniejsze procesory starszej generacji, przy tym będą mieć wyższą wydajność, kosztem większej powierzchni rdzenia.


  38. No dobra (autor: rzymo | data: 20/04/18 | godz.: 23:03)
    ale to się kupy nie trzyma - jakim cudem chcesz dostać 50% wyższe IPC, czyli o połowę wyższą wydajność pojedynczego wątku, dodatkowo niżej taktowanego. Przecież to sci-fi... :/

    Cały czas są i będą zastosowania, w których wydajność pojedynczego wątku będzie miało kluczowe znaczenie... Tego się po prostu nie przeskoczy. Jak zjedziesz z zegarem to owszem wydajność wielowątkowa w kontekście perf/watt może wzrosnąć znacząco, ale cały czas zostaje kwestia wydajności jednowątkowej.

    Po prostu nawet jak dasz 500+ rdzeni @ 2.5GHz, to w pewnych zastosowaniach wydajność będzie znacznie niższa od 8 rdzeni @ 5GHz.


  39. nie zrozumiałeś (autor: Zbyszek.J | data: 20/04/18 | godz.: 23:49)
    o IPC mówiłem takt na takt. Reszta - uwzględnij taktowanie

    Czyli przez rozbudowę architektury powiększamy rdzenie 2-3 razy, mamy +50% (lub więcej) IPC oraz SMT4, i dajemy te rdzenie na 2/3 taktowania i 2/3 napięcia mniejszych rdzeni. W efekcie kosztem większej powierzchni rdzenia uzyskujemy wyższą wydajność, przy bardzo zbliżonym poborze energii. IPC wzrośnie o 50%, taktowanie spadnie trochę, sumaryczna wydajność jednego rdzenia będzie wyższa a wydajność multi thread też wyższa dzięki SMT4, czyli 4 wątkom na rdzeń.

    Ogólnie chodzi o to, żeby krzem pracował na bardziej efektywnym kawałku krzywej częstotliwość / napięcie / zużycie energii.

    Zróbmy 3 razy większy kawałek krzemu, ale taktowany 1/3 wolniej i zasilany o 1/3 niższym napięciem, niż 3 razy mniejszy kawałek krzemu. Taki większy ale trochę niżej taktowany krzem będzie pobierał tyle samo energii co mniejszy krzem, mając większą wydajność (kosztem powierzchni)


  40. Zbyszek.J (autor: g5mark | data: 20/04/18 | godz.: 23:57)
    Zbyszek, mordo ty moja...dlaczego nie projektujsz CPU...CPU Wisla, albo Wroclaw...hehe

  41. @39 (autor: rzymo | data: 21/04/18 | godz.: 01:24)
    "Ogólnie chodzi o to, żeby krzem pracował na bardziej efektywnym kawałku krzywej"
    To jest jasne - ale jak zrobisz np. 10 jajek @ 3GHz, to w typowych zastosowaniach procesor będzie odczuwalnie słabszy od np. 6 jajek @ 4GHz... Zwłaszcza w zastosowaniach rozrywkowych (czyt. gry).

    Cały czas piję do tego, że wydajność pojedynczego wątku jest ważna i cały czas będzie miała znaczenie.


  42. @Up (autor: PCCPU | data: 21/04/18 | godz.: 02:12)
    Napisałeś tak jakby była mowa o takich sasmych rdzeniach tylko że 10(3GHz) vs 6(4GHz) a mowa jest o nowych bardziej rozbudowanych o wydajności takt w takt 50% wyższej.
    coś jak Core2 1GHz vs Pentium III 1GHz.

    Przecież wzrost IPC(Instructions Per Cicle) pojedynczego wątku np o 50% jak napisał Zbyszek.J zwiększając skomplikowanie rdzeni spowoduje że zamiast np 10-16 rdzeni będzie 6 porównywalnie/nieco niżej taktowanych to i tak pojedynczy wątek będzie od kilkudziesięciu do tych 50% szybszy.
    Dodając do takiego rdzenia SMT4 zwiększy się użycie większej ilości jednostek wykonawczych a zarazem zmniejszy to problem synchronizacji danych między rdzeniami w wielordzeniowych procesorach jak obecnie dzięki czemu będzie zysk.



  43. Up EDIT: (autor: PCCPU | data: 21/04/18 | godz.: 02:26)
    Pojedynczy rdzeń:
    Skylake
    SMT(2 wątki)
    L1-I 32KB
    4 Dekodery x86-64
    4ALU/3FPU(SIMD 2x256bit-2x512bit, 3AGU
    L1-D 32KB
    L2 256-1024KB
    L3 2-1.375MB

    Next-Generation Core
    SMT4(4 wątki)
    L1-I 64KB
    8 Dekoderów x86-64
    8ALU/4FPU(SIMD 3x512bit-4x512bit), 6AGU
    L1-D 64KB
    L2 1024KB
    L3 1.375-3MB


  44. Edit 2 (autor: PCCPU | data: 21/04/18 | godz.: 02:47)
    Mam na myśli np 12 rdzeni/24 wątki 3 GHz vs 6 rdzeni/24wątki 3 GHz to pojedynczy a nawet dwa rdzenie i tak mogłyby osiągać ponad 4(~4.5GHz) GHz tyle że pojedynczy wątek byłby takt w takt szybszy o 50%.

  45. Zamiast teoretyzować (autor: kombajn4 | data: 21/04/18 | godz.: 08:09)
    wystarczy popatrzyć na przeskok między topowym procesorem FX ostatniej generacji a topowym Zen pierwszej generacji np w Cinebenchu:
    FX-9590 8R/8W @5GHz 220W
    110/728 punktów single/multi
    Threadripper 1950X 16R/32W @3,7GHz 180W
    166/3000 punktów single/multi
    151% wydajności poprzednika w pojedynczym wątku i 412% wzrostu wydajności w multi przy jednoczesnym spadku TDP o 40W czyli 18%


  46. @Up (autor: PCCPU | data: 21/04/18 | godz.: 08:39)
    Tylko że FX ma 4 moduły/8 wątków które konkurowały z Core i7 4 rdzenie/8 wątków więc porównałbym go z Ryzen'em 4 rdzenie/8 wątków.

    Moduł Piledriver
    4 Dekodery x86-64
    2x blok integer(2ALU, 2AGU(łącznie 4ALU, 4AGU))
    FPU 2xFMAC128bit

    Rdzeń Zen
    4 Dekodery x86-64
    4ALU, 2AGU
    FPU 2xFMAC128bit


  47. @38 (autor: power | data: 22/04/18 | godz.: 17:59)
    rzymo mylisz sie, sugeruje sprawdzic definicje IPC.
    Zbyszek.J ma racje i bardzo dobrze to wyjasnil.


  48. 43-- (autor: Mario1978 | data: 22/04/18 | godz.: 19:29)
    to jak to porównamy z nowym ZEN 2 w 7nm ,który zwiększy wielkość rdzenia o ponad 80% a przy użyciu litografii 7nm zmniejszy wielkość rdzenia o 38%.
    SMT2 (2wątki)
    6Dekoderów x86-64 versus R7 2700x 4Dekodery per core
    6ALU/3AGU versus R7 2700x 4ALU/2AGU per core
    AVX- 4x128 /2x256/1x512 versus R7 2700x 2x128/1x256 per core
    9x16 INT Sheduler versus 6x14
    288 Entry Retire Quene versus 192
    32MB cache per CCX (two block and 16MB per one block)
    6CORE CCX per one block versus R7 2700x 4CORE CCX per one block
    6/8CORE CCX per one block for Threadripper 3 and EPYC 2.


  49. Ryzenow 2 dostaje po dooopie... (autor: g5mark | data: 22/04/18 | godz.: 19:50)
    z Intelem na 6 core. 9th Gen na 8core rozlozy Ryzow dwoch na lopatki ... za taka sama cene. Ojj, fanbojom AMD testosteron nieco przygasnie

  50. @48 (autor: PCCPU | data: 22/04/18 | godz.: 22:18)
    Z naukowego punktu widzenia porównuje się rdzeń do rdzenia takt w takt nie zależnie od tego który ma ile tranzystorów by sprawdzić który ma wyższe IPC(Instruktions Per Cicle) - inaczej ilość przetwarzanych instrukcji na takt zegarowy, więc porównanie pojedynczego rdzenia Zen/+ vs Zen2 będzie miało na celu sprawdzenie ile da dołożenie tranzystorów - rozbudowanie obwodów logicznych rdzenia(m.in dekodery, jednostki wykonawcze itd).

    Do tej pory Intel dawkował wzrost IPC ponieważ ze strony AMD nie było żadnej konkurencji do czasu Zen więc Intel poprawiał efektywność energetyczną i częstotliwość pracy. Zen zmusił Intela do opracowywania nowej(od zeszłego roku), jak twierdzi Intel przełomowej mikro-architektury zwanej Next-Generation Core na 2021-22 rok. Co z tego wyjdzie i o ile wzrośnie IPC czas pokaże.

    Co do NGC to napisałem hipotetycznie dla przykładu ponieważ nikt nie wie i nawet nie spekuluje jak będzie wyglądał rozbudowany/przebudowany rdzeń Intela a najwcześniej cokolwiek dowiemy się dopiero w 2019-2020r.

    Ja spekuluje że skoro nie da się w nieskończoność podnosić zegara procesora a im więcej rdzeni tym w wielu zastosowaniach dużo czasu procesor marnuje na synchronizacje(sprawdzanie spójności w cache) tym gorzej ze skalowaniem to trzeba podnieść IPC rdzeni. Aby podnieść IPC rdzeni trzeba rdzeń przebudować i rozbudować. Dodanie po jednym ALU czy dekoderze wiele nie da skoro NGC ma być mikro-architekturą bazową dla co najmniej kilku generacji CPU następnej dekady. Więc przebudowa i rozbudowa musi być spora aby podnieść IPC i to nie o marne 5 a o 40-50%.
    Rdzeń będzie bardzo skomplikowany ponieważ trzeba przebudować i rozbudować m.in logikę odpowiedzialną przetwarzanie spekulatywne(przewidywanie skoków i rozgałęzień w kodzie, dołożenie dekoderów, poszerzenie schedulera(przetwarzanie poza kolejnością) dodanie portów z jednostkami ALU/FPU, AGU(a także ich rozbudowanie) i wiele jednostek specjalizowanych, poszerzenie magistral wewnątrz rdzeniowych i magistral łączących cache a także zwiększenie pojemności cache L1 i L3. Może dodanie 4 drożnego SMT4.
    Hipotetycznie gdyby taki rdzeń składał się z 2x większej ilości tranzystorów i miał by IPC wyższe o 50% od Skylake/Skylake-X to w tym samym procesie technologicznym zamiast 12 rdzeni/24 wątki(3GHz) byłoby 6 rdzeni/24 wątki(3GHz). lepsze skalowanie przy mniejszej liczbie rdzeni + SMT4 dawało by kopa w wielowątkowości a przy pojedynczym wątku załużmy 4-4.5GHz, Skylake potrzebowałby 6-6.5GHz by się zrównać.




  51. Edit (autor: PCCPU | data: 23/04/18 | godz.: 00:33)
    Miało być 6-6.25 GHz zakładając idealne skalowanie wraz ze wzrostem taktowania.

  52. @50. (autor: pwil2 | data: 23/04/18 | godz.: 13:00)
    Nie tyle sprawdzanie spójności w cache, co czekanie na najwolniejszy wątek.

    Wg mnie podwajanie ilości tranzystorów na rdzeń nie da raczej 50% przyrostów IPC i to raczej ślepa uliczka. Może po prostu trzeba iść śladem kart graficznych i telefonów w więcej rdzeni, dokładając więcej wątków i rozbić oprogramowanie na więcej. Udało się w końcu po latach udowodnić, że gry potrafią korzystać z więcej, niż jednego rdzenia. Następnie było przejście z 2 rdzni, na 4 rdzenie. Po latach zastoju na 4-rdzeniach/wątkach czas pójść w 8, 16 rdzeni (16, 32 wątkowych) w typowym gamingowym PC.

    Za kilka lat przeciętny komp gamingowy będzie miał ~200pkt CB15 1t oraz ~3000pkt CB15 MT.

    Być może należałoby wprowadzić sprzętowe jednostki przejmujące od kernela zarządzanie optymalnym przydzielaniem procesów do dostępnych procesorów/wątków. Rozkładające je tak, by współdziałające wątki na jednym rdzeniu maksymalnie wykorzystywały dostępne jednostki i miały jak najszybszy dostęp do potrzebnych danych.


  53. c.d. (autor: pwil2 | data: 23/04/18 | godz.: 13:29)
    Intel przy okazji nowej architektury powinien skupić się na połataniu wszelkich znanych i jeszcze nieujawnionych luk w swoich obecnych procesorach, by nie okazało się, że wydajność wątka wróci w okolice sprzed SandyBridge po załataniu ich wszystkich...

  54. @ ogólnie (autor: Zbyszek.J | data: 23/04/18 | godz.: 21:52)
    w tym co pisałem chodziło o zachowanie liczby rdzeni bez zmian.

    Wyjaśnię moją myśl na przykładzie. Weźmy architekturę ZEN. Jakby się miało okazać że 12/14nm to ostatni proces, to rozbudowujemy rdzeń dokładnie 2-krotnie. Czyli 8-drożny dekoder / 8 ALU / 4 AGU / 4xFMAC128bit / podwojone rejestry, wszystkie bufory i kolejki (reorder, load/store, itp), pamięci podręczne L1, L2, L3 pamięć L0 (zdekodowane instrukcje).

    Zakładany wzrost IPC 1T: 40%. Do tego SMT4 czyli 4 wątki na rdzeń. Moduł CCX zamiast 44mm2 miałby 90-100 mm2, a cały procesor zamiast ~200mm2 miałby 300-350 mm2.

    Mamy podwójnie większe CCX więc aby zmniejszyć zużycie energii o połowę i uzyskać takie samo zużycie jak dla CCX faktycznego (Pinnacle Ridge), zamiast taktowania 4,0 GHz dla wszystkich rdzeni @ 1,275V, ustawiamy taktowanie wszystkich rdzeni na 3,5 GHz @ 1,0V. Taktowanie Single Thread to 3,85 GHz @ 1,125V zamiast 4,35 GHz @ 1,45V (co po przeliczeniu również daje identyczne użycie mocy)
    https://i.imgur.com/YRWrsuc.png
    https://i.imgur.com/CGSdAWF.png

    Uzyskana wydajność:
    single core wyższa o 3,85/4,35 *1,4 = 24%
    multi core wyższa o 3,5/4 * 1,4 = 22,5% plus zysk z dodatkowych dwóch wątków na rdzeń, łącznie prawdopodobnie 50-60% w multi core.

    To kosztem powierzchni całego chipa większej o około 2/3.


  55. a nawet trochę się pomyliłem na swoją niekorzyść (autor: Zbyszek.J | data: 23/04/18 | godz.: 22:17)
    ponieważ poza CCX reszta układu krzemowego pozostaje bez zmian. Tak więc podwójnie większe CCX puszczone na niższych napięciach i taktowaniach, będą pobierać tyle samo energii co obecne małe lecz wyżyłowane CCX, ale reszta całego układu (część poza CCX) mniej. Czyli 3,5 GHz w multi i 3,85 GHz w single core nie da takiego samego zużycia energii przez cały układ krzemowy jak w realnym Pinnacle Ridge, tylko trochę mniejsze.

    Zatem żeby to zrównoważyć, to podwojone wielkością CCX można by puścić trochę szybciej np. na 3,95 GHz w single i 3,6 GHz w multi. Czyli zysk w single thread wzrośnie do 28%


  56. Pewnie co niektórym (autor: Mario1978 | data: 23/04/18 | godz.: 23:51)
    zrobi się przykro bo jak to tak być tak wydajnym ale ludzie zaczynają wykorzystywać atuty boosta jaki daje PB i posiadając do tego odpowiednią płytę główną już można mieć R7 2800x u Siebie:)I tak INTEL został zaorany:).
    https://uploads.disquscdn.com/...ecef558a84333.png


  57. @54. (autor: pwil2 | data: 24/04/18 | godz.: 08:58)
    W efekcie większy rdzeń będzie miał większe odległości między najdalszymi tranzystorami, więc większe opóźnienia, niższe taktowania, wydłuży się kolejka, a po każdym nieudanym przewidzeniu skoku trzeba będzie ją opóźnić. IPC wzrośnie o 5%, a pobór prądu o 50%.

    Jestem zdania, że po prostu trzeba czasu, aż nowe pokolenia programistów, nie rozleniwione 1-wątkowym programowaniem dojdzie do głosu.

    4-wątkowe HT sprawi, że przy nieoptymalnym rozłożeniu zadań najbardziej krytyczny wątek będzie miał (skrajnie, realnie mniej) do -75% wydajności pojedynczego wątku bez HT. Aplikacje powinny jakoś flagować wątki bardziej krytyczne czasowo i mniej istotne.


  58. @Up (autor: PCCPU | data: 24/04/18 | godz.: 09:40)
    @52
    Wszystko zależy od typu obliczeń i kodu m.in w HPC czy renderingu bardzo łatwo jest rozbić obliczenia na wiele niezależnych rdzeni, ponieważ sama natura instrukcji jest, niezależna od siebie więc skalowanie zależy od magistral łączących rdzenie i cache'u. W tym przypadku im więcej rdzeni tym lepiej analogicznie do układów graficznych.

    Duża część kodu ma, naturę szeregową gdzie wiele instrukcji następują jedna po drugiej, które z kolei są zależne od siebie i rozbicie ich na więcej wątków przetwarzanych na osobnych rdzeniach powoduje spadek użycia zasobów w samych rdzeniach. Inaczej mówiąc, rdzenie się nudzą, gdyż komunikacja między rdzeniami jest znacznie wolniejsza od komunikacji wewnątrz rdzenia więc i skalowanie mocno spada. Jest to problem nie do obejścia i zastąpienie szerokich rdzeni nastoma czy dziesiątkami prostszych rdzeni nie rozwiąże problemu, tylko go pogłębi.
    W grach komputerowych część obliczeń możesz rozbić na większą ilość rdzeni np.: fizykę czy AI, ale główna część kodu nadal będzie wymagała potężnych rdzeni. Zauważ, że gry, które działają na kilku rdzeniach, obciążenie wątków jest dalekie od 100%, a im na większą ilość wątków rozbijesz kod tym gorzej z ich wykorzystaniem i generalnie mija się to z celem, bo często nie da to przyrostu FPS w grach.
    Szerszy rdzeń da wyższe IPC pojedynczego wątku a dodatkowo implementując w takim rdzeniu SMT4, sprawiamy, że na jednym rdzeniu będzie, przetwarzana większa część rozbitego kodu na wątki co sprawi, że komunikacja między rdzeniami będzie miała mniejszy wpływ, ponieważ np.: gra, która obsługuje 8 wątków, zamiast działać na 8 wątkach 4 rdzeni będzie działać na 8 wątkach 2 znacznie potężniejszych rdzeni. Jeden rdzeń prawie zawsze jest używany w 100% a pozostałe w znacznie mniejszym procencie.


  59. @57 (autor: PCCPU | data: 24/04/18 | godz.: 09:51)
    Komunikacja wewnątrz rdzeniowa jest znacznie szybsza niż między rdzeniami.

  60. Edit (autor: PCCPU | data: 24/04/18 | godz.: 19:03)
    Każdy rdzeń ma własną logikę sterującą(Front-End) a komunikacja między rdzeniami wprowadza znaczne opuźnienia dla kodu na to wrazliwego.

    Wyżej popełniłem dużą pomyłkę ponieważ miało być- jeśli IPC pojedynczego wątku NGC hipotetycznie wzrośnie o 50% to przy 4-4.5GHz, Skylake będzie potrzebował 6-6.75GHz by się zrównać. Oczywiście nie twierdze że rdzeń składający się z 2x większej ilości tranzystorów będzie miał IPC o 50% wyższe bo może wzrosnąć o 40, 30, 20 albo tylko 15%. Przekonamy się z czasem co jeszcze można zrobić z IPC.
    Swoją drogą nikt nie sądził że IPC od czasów Core2 wzrośnie tak mocno w kontekście że się nie da a kto wie ile jeszcze można zrobić w tej kwestii.


  61. @ PCCPU (autor: Zbyszek.J | data: 24/04/18 | godz.: 19:53)
    można jeszcze dużo w kwestii IPC

  62. @ Zbyszek.J (autor: PCCPU | data: 24/04/18 | godz.: 20:42)
    W sumie to nie trzeba daleko szukać przykładu:
    Pentium I dostał drugą jednostkę ALU(prostszą) co prawda dzięki temu wydajność nie wzrosła 2x tylko szacowano że jakieś 25% ponieważ w dużym procencie kod przetwarzany jest na pojedynczym ALU to mimo to zyski były spore nie tylko dzięki dodatkowemu potokowi(m.in większy cache) ale jednak.

    Weźmy na przykład rdzeń Zen vs moduł Bulldozer/Pilledriver dla pojedynczego wątku:
    Moduł
    L1I 64KB 2-Way
    4 dekodery x86-64
    2ALU, 2AGU, FPU 2xFMAC-128bit
    L1D 16KB 4-Way

    Rdzeń Zen
    L1I 64KB 4-Way
    4 dekodery x86-64
    4ALU, 2AGU, FPU 2xFMAC-128bit
    L1D 32KB 8-Way

    Rdzeń Zen ma IPC dla pojedynczego wątku wyższe o 50% mimo że Rdzeń Zen nie ma 2x więcej tranzystorów od Modułu Piledriver.


  63. przede wszystkim (autor: Zbyszek.J | data: 24/04/18 | godz.: 20:53)
    jedna z ciekawych funkcji to dodanie potoku pobocznego z jednym ALU, który będzie używany do równoległego wykonywania rozgałęzienia. Następnie kasowany jest tylko wynik błędnej predykcji a procesor jedzie dalej bez konieczności przeładowywania potoków. To da +30% IPC na dzień dobry.

  64. Czyli (autor: PCCPU | data: 24/04/18 | godz.: 21:21)
    Czyli jest pewnie możliwość dodawania większej ilości potoków pobocznych... Ciekawe :)
    Szkoda tylko że trzeba tyle czekać.


  65. Zbyszek.J (autor: PCCPU | data: 24/04/18 | godz.: 22:45)
    Są może jakieś materiały na ten temat o czym można by było poczytać?

  66. tak (autor: Zbyszek.J | data: 24/04/18 | godz.: 23:38)
    poczytaj o DEC Alpha, Itanium, IBM Power PC. Wiele rozwiązań z architektur RISC nie doczekało się jeszcze implementacji w x86.

    Plus polecam mój długi artykuł sprzed wielu lat
    https://twojepc.pl/...y.php?id=droga_ku_wydajnosci


  67. Dzieki (autor: PCCPU | data: 25/04/18 | godz.: 03:01)
    Twój artykuł czytałem dawno temu więc dobrze że mi przypomniałeś.

  68. @63. (autor: pwil2 | data: 27/04/18 | godz.: 19:42)
    Procesory od dawna wykonują najbardziej prawdopodobną ścieżkę o kilka kroków na przód, a zgadywanie jest na poziomie (raczej znacznie) powyżej 90%.

  69. @ 68 (autor: Zbyszek.J | data: 27/04/18 | godz.: 21:16)
    zapominasz, że wpływ skuteczności predykcji skoków na wydajność procesora nie jest liniowy. To znaczy obniżenie wydajności predykcji skoków o kilka procent obniży wydajność procesora nawet kilka razy. Czytałem kilka lat temu na ten temat opracowanie naukowe z wykresami, jak odnajdę ponownie to zalinkuje.

    Ogólnie pierwsze systemy predykcji skoków (era 486-Pentium), o skuteczności około 80 procent, po wyłączeniu powodowały w zależności od kodu od 20 do 50 krotny spadek wydajności CPU.

    Obecnie wydajność systemów predykcji skoków to gdzieś pomiędzy 97-99%, w zależności od kodu. Biorąc 6-9 potoków w obecnych CPU, każdy 16-19 fazowy, i dodając ilość skoków w kodzie można policzyć średnio co ile taktów zegara następuje przeładowanie każdego potoku. Jeśli co 3 instrukcja jest skokiem, skuteczność predykcji 97%, to co 90 cykli zegara.

    A każdorazowe przeładowanie potoku to strata od 50-100 cykli w najlepszym przypadku (dane w L1/L2), do nawet kilku tysięcy cykli, jeśli trzeba sięgnąć po dane do RAM. Załóżmy że średnio 90 cykli - i mamy dokładnie połowę możliwej do uzyskania wydajności tego jednego potoku, bo co średnio 90 cykli potok staje na średnio 90 cykli.

    Przypominam, że kod między potokami często jest powiązany ze sobą, i reszta potoków też może stanąć bo czeka na wynik operacji z potoku przeładowywanego wskutek błędną predykcję. I wtedy z połowy wydajności całego procesora robi się 1/4 albo 1/5 - przy skuteczności predykcji na poziomie 97%. Czyli w tym konkretnym przypadku 100% predykcja dałaby 3-4 razy więcej wydajności.

    Oczywiście pokazałem przykład dość diametralny. Faktycznie średnia skuteczność jest wyższa niż 97% (dochodzi do 99%) a skoki co 3 instrukcje to też dość niekorzystny przypadek i fragment kodu. Nie mniej jakby zrobić równoległe wykonywanie skoku, to jest tutaj dość dużo wydajności do ugrania.


  70. a tu dla ciekawostki (autor: Zbyszek.J | data: 27/04/18 | godz.: 21:17)
    masz wpływ długości potoków na spadek IPC związany z koniecznością przeładowywania potoków (przy założeniu że wydajność predykcji jest identyczna cały czas niezależnie ile potok ma długości):
    https://ai2-s2-public.s3.amazonaws.com/...e3-1.png


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.