TwojePC.pl © 2001 - 2024
|
|
Poniedziałek 17 czerwca 2019 |
|
|
|
Wydajność SunnyCove w benchmarku CPU-Z Autor: Zbyszek | źródło: TechPowerUp | 11:51 |
(16) | Pod koniec maja, w trakcie targów Computex Intel oficjalnie ogłosił premierę mobilnych wersji procesorów Ice Lake. Nowe procesory są produkowane w 10nm procesie litograficznym i posiadają 4 rdzenie z architekturą x86 o nazwie SunnyCove, będącą znacznym rozwinięciem i ulepszeniem dotychczasowej architektury Skylake. Wszystkie wprowadzone zmiany przekładają się na wzrost średniego wskaźnika IPC aż o 18 procent względem Skylake. W najlepszych scenariuszach różnica wydajności przy tym samym zegarze między SunnyCove a Skylake ma wynosić aż 30-40 procent. W sieci właśnie pojawiło się porównanie wydajności w benchmarku wbudowanym w CPU-Z.
W teście tym CPU SunnyCove taktowany zegarem 3,7 GHz uzyskuje wynik jednowątkowy 639 punktów, czyli porównywalny do uzyskanego przez procesor AMD Matisse (Ryzen serii 3000) o taktowaniu 4,7 GHz i Kaby Lake o taktowaniu 5,2 GHz.
Oczywiście, benchmark CPU-Z to tylko prosty test który nie może być uznany za wyznacznik wydajności, jednak wynik uzyskany przez SunnyCove robi wrażenie. Dla uzyskania zbliżonego rezultatu Kaby Lake był taktowany o 40 procent wyższym zegarem, a AMD Matisse o 27 procent wyższym zegarem.
Na zmiany wprowadzone w architekturze SunnyCove składają się: usprawniony system predykcji skoków, pięciodrożna obsługa instrukcji zamiast 4-drożnej, zwiększona liczba portów Shedulera z 8 do 10, wzrost liczby jednostek AGU z 3 do 4, dodatkowa jednostka Store Data oraz dwie dodatkowe jednostki ALU. Powiększono także pamięć podręczną L1 danych z 32kB do 48kB przy okazji podwajając jej przepustowość, a także powiększono pamięć L2 z 256kB do 512kB oraz pamięć L0 przechowująca zdekodowane mikroinstrukcje z 1500 do 2250 pozycji. Kolejne ze zmian to powiększone bufory odpowiadające za przekolejkowanie instrukcji (Out-of-Order) oraz operacji ładowania i zapisu, a także powiększony bufor TLB dla pamięci L2. Rozszerzono także obsługę instrukcji o AVX-512 i VNNI (Variable Length Neural Network Instructions - funkcja DL Boost) oraz dodatkowo o nowe instrukcje numeryczne: IFMA, VBMI, VBMI2 i BITALG. Więcej o tym tutaj
|
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- .... (autor: Aamitoza | data: 17/06/19 | godz.: 12:25)
czyli ten ostatni słupek na wykresie Intela to cpu-z? ;)
- hmmm (autor: mlc | data: 17/06/19 | godz.: 12:59)
Gdyby nie problemy Intela z 10nm, to AMD byłoby w czarnej d... Ale gdyby nie AMD, to SunnyCove i 10nm by pewnie w ogóle się nie pojawiły na rynku, bo i po co.
- @up (autor: piwo1 | data: 17/06/19 | godz.: 13:18)
chyba nie do konca. w czasch buldozera intel co roku odswiezal swoja oferte procesorow zwiekszajac ipc mimo ze nie musial tego robic od serii i7-2600k do serii i7-7700k bo i tak by swoim i7-2600k bil buldozery i ich nastepcow wychodzacych przez kolejne lata. intel zwiekszal wydajnosc by napedzac sobie sprzedaz, zeby co roku coniektorzy wymieniali sprzet na nowy wydajniejszy o 10%. co do sunnycove to na prawde duzy skok jak z zen na ze2 a nawet wiecej. jedyne co intel ogranicza to jego glupota i niechec do wydania tego do desktopow w 14nm. nie wiem co ich blokuje ale mysle ze jakies tam stare plany ze jak sunnycove to musi byc w nowym procesie i koniec. bo w 14nm 20 watkowiec bedzie zajmowac o 10% wiecej miejsca a to i 10% mniejsza sprzedaz i mniej kasy dla nich. nie wiem po co komu ten cometlake.
- @piwo (autor: Saturn64 | data: 17/06/19 | godz.: 13:28)
Skoro rdzeń SunnyCove jest tak bardzo rozbudowany w stosunku do skylake to w 14 nm nie mogliby uzyskać więcej niż 8 rdzeni i to może przy wyższym TDP niż obecnie w CoffeyLake. Tu jest największy problem z tą architekturą. Znowu 10nm ma problemy z uzyskiem wysokich taktowań.
W latach 30 XX wieku były zawody w których startowały łodzie motorowe wyposażone w silniki spalinowe rzędowe. W pewnym momencie zwiększanie mocy poprzez dodawanie kolejnych cylintrów powodowało, że łodzie nie stawały się szybsze (z uwagi na większy ciężar takowego silnika a tym samym jednostki). Podobnie jest procesorach i technologii w jakiej jest produkowany. Gdyby AMD nie poszedł w ilość rdzeni (tym razem 16) to Intel by mógł wyprodukować SunnyCove w 14 nm. Tylko co da, że procesor będzie szybszy w pojedynczym wątku by przegrać z procesorem wyposażonym w więcej rdzeni.
- @piwo1 (autor: rainy | data: 17/06/19 | godz.: 13:31)
Już abstrahując od możliwości, iż jest to po prostu fake, to w jakim stopniu jest realistyczny wynik z tego wbudowanego benchmarka CPU-Z?
- @up (autor: piwo1 | data: 17/06/19 | godz.: 14:00)
nawet nie wnikam w ten test. chodzi o to co deklaruje producent. amd deklaruje 15% ipc. a intel deklaruje sredni wzrost 18% ipc.
mozliwe ze rdzen jest ciut szerszy i nie zmiescilo by sie w rzedzie 5 rdzeni plus cache tak by upchac to na podstawce lga1151
https://en.wikichip.org/...%29_%28annotated%29.png
- ładna zawartość niebieskiej szuflady w końcu się ujawnia (autor: Qjanusz | data: 17/06/19 | godz.: 15:09)
czekamy na resztę istotnych informacji (TDP, możliwy max zegar, odporność na ostatnie błędy CPU Intela itd...)
- Nonono (autor: pwil2 | data: 17/06/19 | godz.: 15:20)
+40% w sortowaniu bąbelkowym. Respect.
;-)
- c.d. (autor: pwil2 | data: 17/06/19 | godz.: 15:22)
Dla Intela problemem we wdrożeniu tego w 14nm jest to, że te przyrosty IPC są w syntetykach, a w całej reszcie +5-10% nie nadrobi utraty 1GHz taktowania.
- Ale (autor: piwo1 | data: 17/06/19 | godz.: 15:28)
W14nm ten sunnycove miałby takty 5ghz.
- Projekt procesora zajmuje lata nie dlatego ze producent sie opieprza... (autor: gantrithor | data: 17/06/19 | godz.: 16:31)
ale dlatego ze procesor jest zbudowany z miliardow tranzystorow.
Przygotowujac przyszly projekt w pewnej rozdzielczosci "14nm czy 10nm" caly proceosor jest optymalizowany pod wzgledem opuznien w przesyle informacji do kazdej czesci procesora , kolizji czy potrzeba kompaktowaniaa to tylko rozplanowanie tanzystorow , nastepnie potrzeba wszystkie te tranzystory podlaczyc do pradu to z kolei generuje ogromna ilosc pracy i projektowania tak aby w wielu warstwach zasilajacych znalazly sie przewody elektryczne a tych sa setki kilometrow tak w tak malenkim procesorze sa setki kilometrow miedzianych przewodow.
Kolejnym krokiem sa testy i wykrywanie hot spotow czyli miejsc zbyt duzego nagrzewania ukladu co znowu wplywa na szybkosc projektowania ukladu.
Kolejny mankament to wybor tranzystorow HPC czy LPP , przykladowo HPC high performance comuting tranzystory sa wieksze maja wiecej finow aby mogly przenosic wieksze napiecia co pozwala na podniesienie zegara ukladu z kolei LPP low power performance dla urzadzen mobilnych posiadaja mniej finow i sa fizycznie mniejsze ale maja nizsza wydajnosc , nizszy zegar ale tez zuzywaja mniej energi elektrycznej.
Kolejnym problemem jest produkcja maski do drukowania procesora , bez euv w 14nm intel potrzebuje od 3 do 5 masek ktore sa bardzo drogie i trudne w wykonaniu kazda z tych masek ma wyciety wzor po naswietleniu wszystkimi po kolei powstaje gotowa struktura "w mocnym uproszczeniu".
Kolejnym problmem jest ulozenie tak masek aby wszytkie do siebie pasowaly wystarczy blad rzedu 1nm i uklad bedzie niesprawny.
Brakuje na rynku producentow masek jak i narzedzi a wysokiej jakosci maski potrzebuja technologi ebeam ktora jest bardzo powolna , pojedyncza maska jest przewidziana na okolo 10.000 naswietlen do tego dochodzi oslona "pelicle" ktora znowu jest kosztowna ale zapobiega uszkodzeniu maski "odpryskami" krzemu podczas naswietlania.
Wszytko to mozna przeniesc z 14nm do 10nm ale trzeba wziasc pod uwage strukture i ulozenie tranzystora odleglosci miedzy nimi oraz sciezki , w dzisiejszych procesorach jest tak wiele pracy prz projektowaniu ze ceny przy 5nm moga siegnac 1 miliard dolarow za procesor a jak wiadomo intel czy amd maja w swojej ofercie wiecej niz jeden procesor dlatego juz od dluzszego czasu stosuje sie sztuczna inteligencje ktora pomaga w projektowaniu i wyszukiwaniu uszkodzen czy kolizji co drastycznie zmniejsza czas jaki potrzeba na zaprojektowanie procesora.
Czyli o co chodzi? o pieniadze nie oplaca sie przenosic ukladow produkowanych w 14nm do 10nm i odwrotnie bo to sa utopione pieniadze ktore nigdy sie nie zwroca taniej jest zaprokektowac zupelnie nowy uklad od podstaw.
- @10. (autor: pwil2 | data: 17/06/19 | godz.: 17:02)
Niekoniecznie. Im więcej jednostek (tranzystorów), rozproszonych na większej powierzchni, tym większe opóźnienia i trudniej uzyskać wyższe taktowania. Prąd płynie z prędkością bliską prędkości światła, ale przy 5GHz przepływa ledwie ok.5cm/takt.
- Tak czytam te wszystkie komentarze i (autor: Mario1978 | data: 17/06/19 | godz.: 23:01)
nikt nie zwrócił szczególnej uwagi na to , że mamy tu do czynienia z odpowiednio zoptymalizowaną wersją CPU-Z dla tych kilku dodatkowych instrukcji AVX512 , które do tej pory nie są dostępne w żadnym innym procesorze.Intel widać idzie mocno w AVX512 tylko teraz oprogramowanie jest z tyłu.Na computerbase został dokonany fajny test Epyc 1 i 2 oraz Xeona.Na jednym z testów dotyczących obliczeń , które przydają się w grach jak Global Illumination widać w jakim kierunku AMD się rozwija.
Rzeczywiście rynek gracza jest dla nich ważny a Zen 2 jest stworzone do takich obliczeń.
W nowych efektach jakie znajdą się w grach nie tylko GPU będzie uczestniczyło w skomplikowanych obliczeniach ale także CPU bo tak nie było by sensu rozwijać tej części CPU.
Tak wygląda renderowanie sceny Global Illumination:
Epyc 1 z 2x64wątki i 2Ghz rdzenie - 15.10sekundy
Epyc 2 z 2x64wątki i 2.35Ghz rdzenie - 8.48sekundy
Xeon Gold 2x40wątków i 2.40Ghz rdzenie - 160.91sekundy
Jak widać wiadome dlaczego Zen 2 musi się znaleźć w konsolach nowej generacji bo sam CPU będzie miał sporo pracy.
Patrząc na te wyniki widać Intel nie ceregielił się z DDR4 dla R7 2700x , który dostał jakieś słabe moduły.
Ludzie zrzucają różne testy i taki R5 1600 kręcony do około 3.9Ghz z pamięciami DDR4 3600MT/s osiąga 447 punktów a tutaj R7 2700x osiąga tylko 488punktów.
U Intela już dawno się pali więc trzeba czekać czy uda mu się ten pożar ugasić.
- Mario1978 (autor: pawel1207 | data: 17/06/19 | godz.: 23:32)
zarzucisz jakims linkiem czy bedziesz nam takie glupoty wciskal..
- pewnie (autor: angh | data: 18/06/19 | godz.: 01:32)
ten: https://openbenchmarking.org/...100-HV-1808233AR35
- @11. (autor: Mariosti | data: 18/06/19 | godz.: 12:44)
Z tego co kojarzę to maska zawsze jest jedna.
To co się robi w celu stworzenia precyzyjnego układu za pomocą światła o zbyt dużym minimalnym promieniu skupienia to właśnie wielokrotne naświetlanie układu ale za pomocą tej samej maski.
Różnica tkwi w mechaniźmie pozycjonowania maski który to pomiędzy naświetlaniami przesuwa maskę w płaszczyźnie 2d, tak aby po tych ~4 naświetleniach uzyskać odpowiednio dokładny wzór naświetlony 4x mocniej niż jego otoczenie.
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|