Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Czwartek 19 września 2019 
    

Ryzen 9 3950X i Threadripper 3. generacji w listopadzie


Autor: Zbyszek | źródło: TechPowerUp | 20:21
(44)
Firma AMD poinformowała, że procesory Ryzen Threadripper 3. generacji oraz zapowiadany wcześniej model Ryzen 9 3950X pojawią się w sklepach w listopadzie. W przypadku 16-rdzeniowego Ryzena 9 3950X oznacza to opóźnienie premiery o 2 miesiące, względem pierwszych zapowiedzi, według których procesor miał być dostępny w sprzedaży we wrześniu. Seria Ryzen Threadripper 3. generacji obejmie natomiast początkowo procesory posiadające do 24-rdzeni, a jednostki wyposażone w więcej rdzeni pojawią się w sprzedaży w 2020 roku.

Oznacza to, że TOPowy Threadripper 3. generacji z 24 rdzeniami powinien zaoferować wydajność wielowątkową zbliżoną do 32-rdzeniowego modelu 2990 WX, będąc przy tym bardziej od niego wydajnym w wielu innych scenariuszach - za sprawą wyższego wskaźnika IPC i korzystania wyłącznie z UMA, zamiast z NUMA.


 
    
K O M E N T A R Z E
    

  1. haha (autor: pawel1207 | data: 21/09/19 | godz.: 00:14)
    to milo ze sami po cichu przyznaja ze wx po tym wzgledem spieprzyli niemilosiernie pewnie dlatego byly takie tanie :D no nic jak fakty cznie poprawia thread rippera i i wersja 32 rdzeniowa zaoferuje podobne opoznienia i wydajnosc na wszystkich rdzeniach to z checia go kupie jesli bedzie to w dzialanu przypominalo wxy gdzie polowa rdzeni sobie a druga pololwa jest polowa z tych pierwszych to podziekuje .. i poczekam na 4 generacje no chyba ze miedzy czasie intel wypusci cos fajnego ..

  2. czyżby AMD nie wyrobiło się (autor: Mario2k | data: 21/09/19 | godz.: 07:11)
    Z selekcją układów dla Ryzena 9 3950X

  3. @up (autor: Conan Barbarian | data: 21/09/19 | godz.: 08:28)
    Do 3950X idą dwa pełne 8c/16t, ale to samo potrzebne jest w serwerach, aby M$ i inne Google miały na czas zamówienia. Przy obecnym popycie na Epyc 2 rynek konsumencki jest drugorzędny i ucierpi na tym.

  4. skad taki wzrost popytu korporacyjnego (autor: komisarz | data: 21/09/19 | godz.: 11:17)
    nie zauwazylem zeby w przeciagu ostatnich dwoch - trzech lat pojawila sie na rynku jakas popularna zasobozerna funkcjonalnosc. I zanim ktos powie ze chmury - przed churami firmy tez kupowaly sprzet, tylko trzymaly go lokalnie. Nie widze wyjasnienia skokowego wzrstu popytu na procesory.

  5. @3. (autor: pwil2 | data: 21/09/19 | godz.: 11:32)
    Miałem to samo napisać. Może nawet prawdopodobny byłby XBOX ONE X2 z 2x6 rdzeni. Na każdego 64 rdzeniowa potrzeba 8 chipsetów więc pewnie z 8 lub więcej 6 rdzeniowych chipsetów powstaje.

  6. c.d. (autor: pwil2 | data: 21/09/19 | godz.: 11:34)
    Albo 2x4 w konsolach, bo na rynku nie ma takich Ryzenów, a może już zbierają na zamówione miliony konsol na przyszłoroczną premierę. 64MB (gamę)cache w konsolach by się przydały.

  7. @04 (autor: Conan Barbarian | data: 21/09/19 | godz.: 12:01)
    Fakty nie docierają: https://www.amd.com/...ere-to-buy/epyc-7002-series ???
    Intel ze swoimi dziurami NIE NADAJE SIĘ do chmurek i tyle.


  8. Ad4 (autor: OSTVegeta | data: 21/09/19 | godz.: 12:14)
    Kalkulacja dociera do księgowych. Zakup nowego sprzętu nie dość, że spowoduje wzrost mocy obliczeniowej, to jeszcze ograniczy koszty jego użytkowania. Mniej miejsca w serwerowni itd. Coś jeszcze trzeba tłumaczyć?

  9. ... (autor: krzysiozboj | data: 21/09/19 | godz.: 16:25)
    Czas ich nie ciśnie. Zarówno TR2 jak i R3900X wystarczy na dzisiaj, cokowliek wyżej, to konkurencja dla własnych układów.
    A EPYCi pewnie idą i tam każdy lepszy kawałek wafla sie zmieści.


  10. @ 1 (autor: power | data: 21/09/19 | godz.: 19:39)
    Co za belkot :facepalm:

    Juz ja widze jak ty kupisz TR, to jest CPU do pracy, a nie do gierek :)


  11. 10** (autor: Mario1978 | data: 21/09/19 | godz.: 20:12)
    Jesteś młody i nie widzisz kierunku zmian do jakiego zmierza cały rynek.Nikt nie będzie w nieskończoność wspierał standardów , które od dawna są przestarzałe.I jeżeli takie firmy jak Intel się nie przestawią to będą musiały być po prostu wykupione przez większego gracza z kraju pochodzenia by jeszcze coś próbować.
    To będzie 5 lat , które wstrząśnie wieloma firmami a i tak na końcu będzie musiał sam potwierdzić dlaczego warto mieć więcej wątków w CPU.


  12. Mario1978, alez pitolisz (autor: komisarz | data: 22/09/19 | godz.: 06:41)
    AMD jechalo na stratach 20 lat, a ty cos o przejeciu intela przez konkurencje. Jaka konkurencje? kto ma tyle kazsy zeby kupic intela?

  13. @komisarz (autor: Saturn64 | data: 22/09/19 | godz.: 10:28)
    Nokia w 2000 roku wyceniana była na 247 mld $. W 2008 roku jej wartość spadła do 150mld $. W 2013 została sprzedana za 5.4 mld $. Przez 13 lat wartość firmy skurczyła się o 46 razy. Im większy moloch tym więcej cierpi na problemach związanych z brakiem postępu i lub złych decyzjach przewidujących rozwój branży. Dla intela w tym momencie balastem są własne fabryki, w których brak oczekiwanego postępu. To powoduje, że inne działy np odpowiedzialne za rozwój architektur też dołują nie mogąc icb wdrożyć. Później muszą się ratować pudrując 7 raz architekture sky lake.

  14. Intel (autor: Conan Barbarian | data: 22/09/19 | godz.: 11:05)
    Oto co teraz robi Intel (niech ktoś zaprzeczy):
    1. Skupuje własne akcje, póki jeszcze kasy starczy.
    2. Wewnątrz firmy stosuje zamordyzm, gdyż zabawa się skończyła.
    3. Pracuje nad swoją wersją sklejki z chipów, gdyż to jedyna słuszna droga.
    4. Naciska na Jima Kellera, gdyż bez nowej architektury nigdy z czarnej dupy nie wyjdzie.
    5. Przynajmniej raz na tydzień zalicza wpadówę, najczęściej przez dział PR.


  15. Conan Barbarian (autor: Markizy | data: 22/09/19 | godz.: 21:59)
    1 - intel ma tyle kasy że przez kilka lat będzie spokojnie je skupował
    2 - jakieś źródło tej informacji?
    3 - tylko ich sklejka jest dziwnym rozwiązaniem bo chcą układy układać jeden na drugim
    4 - przypuszczam ze takich nacisków nie mam, a Jim zna zwoje możliwości i zapotrzebowanie na swoje usługi w innych firmach
    5 - kiedyś amd tez zaliczało wpadki ale to nie ma większego znaczenia, bo wielu ludzi się nie zna.

    @komisarz
    zgadza się że intela prędko nikt nie wykupi bo raz maja spora rezerwę waluty a dwa maja jak coś co sprzedawać.

    @Mario1978
    to że intel ma pecha chwilowo tak jak pecha miał z netburstem. Ale jest to na tyle duży moloch że spokojnie kilka lat może lecieć na stratach jak zajdzie taka potrzeba, ale wiadomo że to nie nastąpi bo nie są niekonkrecyjni wbrew temu co piszesz. Tylko ich produkty są co najwyżej passe w niektórych zastosowaniach.


  16. @up (autor: Conan Barbarian | data: 22/09/19 | godz.: 22:06)
    "Intel ma tyle kasy że ..." musiał ostatnio zdrowo pomyśleć w co zainwestować, aby nie przedobrzyć i wybrał 14++++++++++++++. Faby kosztują ponad $10B za sztukę i Intela nie stać już tutaj na błędy.

  17. @UP (autor: PCCPU | data: 23/09/19 | godz.: 07:53)
    Saturn64
    Nie ma co porównywać Noki do Intela. Nokia produkowała na podzespołach ogólnodostępnych do których dostęp miała bardzo duża ilościowo konkurencja. Nikt Noki nie zabronił korzystania z najlepszych/najszybszych podzespołów.

    Intel ma tylko jednego konkurenta, który korzysta z x86 należącego do Intela.

    Conan Barbaria

    Najpierw AMD miało wydać 2007 roku K10 Phenom który miał gromić Conroe(Core 2)a wyszło marnie tym bardziej że Intel poszedł za ciosem i w 2008 pierwsza seria Nehalem(Core i) która zdeklasowała totalnie Phenom II. Potem znów czekanie na FX Bulldozer do 2012 roku który to miał gromić Core i(Sandy Bridge) a wyszło tak że ten cały Bulldozer zakopał się w haudę śmieci od własnego ciężaru. A potem? Czekanie do 2017 roku do Zen który oferował wydajność procesorów Intela sprzed kilku lat(Sandy Bridge-Haswell) i wreszcie po 13 latach od czasów Conroe(Core 2) pierwszy raz AMD wykonało technicznie lepszy rdzeń x86 o wyższym IPC od Intela. Pierwszy raz od czasów K8 Athlon 64 który to poza dodaniem x86-64 był bardzo podobny do K7 Athlon i nawet w K10 Phenom AMD nie dokonało gruntownej przebudowy a poszerzyło magistrale wewnątrz rdzeniowe, powiększyło niektóre bufory, polepszyło predyktory a SSE 128bit w jednostce FPU zamiast opracować od nowa dokleili tylko obok FPU cześć logiki z K8 Athlon64.

    Podsumujmy
    Intela pełne pomysłów szuflady:
    Pentium III(1999r IPC niższe od K7 o kilka %)
    Pentium III Tualtin(2001r poziom mniej więcej K7)
    Pentium 4 Netbrust(2000r równoległy projekt-eksperyment i totalna pomyłka Intela z marnym IPC)
    Pentium Mobile Banias(2003r IPC wyższe od K7)
    Core Yonah(IPC wyższe od K8)
    Core 2 Conroe(2006r IPC wyższe od K8 o 25%)
    Core iX Nehalem(2008r deklasacja Phenoma II)
    Core iX Sandy Bridge(2011r)
    Core iX Haswell(2013r)
    Core iX Skylake(2015r)
    Core iX Sunny Cove(2019)IPC znacząco wyższe od Zen2)
    Core iX Willow Cove(2020r)
    Core iX Golden Cove(2021r)

    Teraz szuflady pełne pomysłów AMD:
    K7 Athlon(1999r i trochę szybciej od Pentium III który to z kolei był generalnie Pentumem II z dodanym SSE).
    K8 Athlon64(2003r głównie x86-64 a design bardzo podobny do K7)
    K10 Phenom(2007r design bardzo podobny do K8 głównie z zdublowaną logiką FPU)
    Bulldozer(2012r)
    Zen(2017r i IPC na poziomie SB-Haswell)
    Zen2(2019r i dopiero po 13 latach IPC wyższe od Skylake z 2015 roku)
    Zen3(2020r - mogę się założyć iż IPC będzie niższe niż Willow Cove)

    AMD zawsze miało szuflady pełne pomysłów i gromili Intela technicznie aż Intel wręcz się czołga do dzisiaj:E
    Jeśli mam być szczery to szuflady pełne projektów prędzej uwierzę Intelowi ponieważ zawsze je mieli a problem z procesem technologicznym to tylko wyjątek.

    Czas brutalnie zweryfikuje w przeciągu 2-3 lat.


  18. Edit (autor: PCCPU | data: 23/09/19 | godz.: 08:06)
    Według tego co się powszechnie uważa to zasługa AMD w x86-64 to była tylko kwestia czasu, ponieważ rynek PC w końcu musiał mieć więcej niż 4 GB pamięci RAM.
    Wcale bym się nie zdziwił gdyby AMD z Intelem dogadali się co do technicznych aspektów x86-64 ponieważ, x86-64 opiera się o ogólny schemat którego trzymał się Intel.

    x86-16 - 4 rejestry 16 bitowe
    x86-32 - 8 rejestrów 32 bitowych
    x86-64 - 16 rejestrów 64 bitowych


  19. Edit2 (autor: PCCPU | data: 23/09/19 | godz.: 08:10)
    Intel i AMD są z USA, razem współpracują i wymieniają się patentami.

  20. Edit3 (autor: PCCPU | data: 23/09/19 | godz.: 09:53)
    2006r - Conroe(Core2) jest sporym przeprojektowaniem i rozbudową rdzeni Banias/Yonah i jako pierwszy wprowadził 4-ro drożny dekoder x86 a tym samym możliwość przetwarzania 4 instrukcji x86 na takt. Do tego jednostka FPU 128bit powstała od podstaw i była wydajniejsza od tej w K10 Phenom.

    2008r Nehalem - dość poważnie przeprojektowany i rozbudowany Conroe. Poza przeniesieniem kontrolera RAM do CPU i dodaniem L3 rozbudowano Front-end i dodano SMT które to dało potężnego kopa pojedynczemu rdzeniowi w wielowątkowości ale i zmiany w rdzeniu również przyczyniły się do wyższego IPC. Był to pierwszy rdzeń Intela w 100% powstały pod x86-64 ponieważ wszystkie mechanizmy rdzenia były zgodne z 64 bitami.

    2011r Sandy Bridge - Przeprojektowanie rdzenia Nehalem i jego rozbudowa. M.in L1-I 32KB 8-Way(Nehalem L1-I 32KB 4-Way), dodano pamięć zdekodowanych instrukcji L0 i jednostkę FPU AVX256. Dodatkowo wprowadzono magistrale między rdzeniową Ring Bus która w raz z wyższym IPC samego rdzenia x86 dawała w grach nawet 15% względem Nehalema.

    2013 Haswell - przeprojektowany i rozbudowany rdzeń Sandy Bridge. Rozbudowano nieco Front-end, rozbudowa do 4ALU i 3AGU(SB 3ALU i 2AGU) a FPU w trybie AVX + FMA do 2x256bit. ALU do AVX2 256bit.

    2015r Skylake - spora rozbudowa i przeprojektowanie m.in Front-end m.in o 5-cio drożny dekoder x86. IPC m.in w grach często osiągało wzrost 10-15%.

    2019r(planowo miał być w 2017r) SunnyCove - Rozbudowa i przeprojektowanie rdzeni. M.in Front-end jak i rozbudowa do 4AGU, L1-D 48KB 12-Way, L2 512KB. IPC wyższe o ~15%.

    2020r Willow Cove - generalnie Sunny Cove z drobnymi poprawkami + L3 3MB na rdzeń zamiast jak do tej pory 2MB.

    2021r Golden Cove - przeprojektowanie i rozbudowa rdzenia x86 a w tym znacznie wyższe IPC.

    Intel w 2006r wprowadził poraz pierwszy 4 potoki przetwarzania instrukcji a AMD pierwsza próba odbyła się dopiero w 2012 roku w Module Bulldozer i to niezbyt udana. Dopiero po 11 latach AMD udało się z powodzeniem dodać 4 potoki instrukcji x86 w 2017r w rdzeniu Zen.

    Te 5% wzrostów IPC u Intela to spore uproszczenie bo w różnych zastosowaniach było nawet 10-15% więcej.
    Ale nawet przyjmując te 5% IPC na generację to AMD nie było w stanie przez 13 lat przegonić IPC Intela do czasu Zen2. Trzynaście LAT!!!

    To w tym kontekście nawet te wypominanie 5% wzrostu IPC jest śmieszne ponieważ względnie przewidywalny postęp u Intela AMD nie dało rady 11 lat a dopiero pracowali od 2012r by w 2017r wypuścić rdzeń z 4 potokami instrukcji(Conroe(Core 2) 2006r 4 potoki instrukcji x86).

    Intel przez 11 lat nie miał poważnej konkurencji a co kwartał notował kilkunasto miliardowe przychody.

    Taki wzrost IPC w 2 letnim cyklu projektowym był bardzo bezpieczny ponieważ nie było tak dużych zmian w samym rdzeniu x86 jak w Conroe(Core 2) więc był czas na testy i mniejsze ryzyko że coś nie wyjdzie a jak pisałem wyżej Intel nie miał konkurencji przez ponad dekadę(względnie momentami mniejszą ale przez większość tego czasu żadną)

    Im większe zmiany w IPC tym dłuższy czas projektowy i na testy pod kątem błędów trzeba poświęcić więcej czasu. Inna sprawa że Intel może pracować równolegle nad takim rdzeniem od kilku lat.

    Jak wcześniej napisałem, 2-3 lata i będzie wszystko jasne.


  21. Edit4 (autor: PCCPU | data: 23/09/19 | godz.: 12:09)
    Co do rewolucji Conroe(Core 2):
    Conroe(Core 2 2006r) ma IPC wyższe o 25% względem Yonah(Core) i K8(Athlona64).
    Haswell(Core i 2013r) ma IPC wyższe o średnio 28% względem Nehalem(Core i 2008r) a to daje coś około 40% więcej niż Conroe.
    SunnyCove(Core i M 2019r) ma IPC wyższe o ponad 20% względem Haswell.

    Nie można powiedzieć że nie mamy skoków w IPC tylko z generacji na generację jest to w okolicach 5-10% czasami więcej.


  22. 20== (autor: Mario1978 | data: 23/09/19 | godz.: 12:18)
    Rozwój postępuje a nie stoi w miejscu.Wzrosty IPC dla swoich nowych/starych CPU , które zostały dopakowane u Intela wyglądają na mocno solidne jednak dalej to budowa monolityczna.
    Wydajność tych CPU zależy tylko i wyłącznie od wzajemnych połączeń.Intel potrzebował głównego pracownika , który miał wpływ na to jak będzie wyglądać Zen.W przyszłości by móc sprzedawać z zyskiem CPU bo koszt produkcji będzie uwarunkowany od tego jak duży uzysk będzie z tego.Chiplet to błogosławieństwo AMD a takie firmy jak TSMC i Samsung są zbawcami tej amerykańskiej korporacji.
    Popatrzmy sobie kilka lat wstecz kiedy firmy Azjatyckie przygotowywały się na niższe litografie oraz zaczęły budować nowe fabryki pod swoją przyszłość.Kto ma największe doświadczenie w ujarzmianiu mocy EUV.Wiele danych jest ukrytych bo firmy ujawniają to co chcą.
    Dla mnie wygląda to tak na chwilę obecną jakby sam Intel poszedł na sprzedaż i z całą pewnością Apple byłby nic zainteresowany jednak tutaj też jest małe ale... Apple traci wyznawców więc w ciągu 5 lat wyjaśni się sporo.
    Ten okres też pokaże , że firmy Azjatyckie najbardziej się rozwiną a Amerykanie chcąc mieć zaawansowane technologie będą zmuszeni produkować swoje układy w fabrykach takich firm.
    Intela pewnie też to czeka tylko jeszcze ma nadzieję.


  23. Up22 (autor: PCCPU | data: 23/09/19 | godz.: 14:05)
    I bardzo dobrze że monolityczna. AMD gdyby Globalowi z 7nm wypaliło też prawdopodobnie były by większe monolity a tylko konieczność przejścia do TSMC wymusiło chiplety. Chiplety to konieczność w obecnie zaistniałej sytuacji. Intel ma po prostu problem z 10nm. Zobaczymy jak dalej w Intelu z procesem się sprawa potoczy 2020-21r.

    Myślę że do PC AMD wybrało optymalną ilość rdzeni na chiplet ale... Jest jedno ale... Gdyby tylko nie poszli w stronę CCX'ów to było by idealnie. Nawet jeden rdzeń Zen2 miał by szybki dostęp do całości L3 w chiplecie a tak to tylko szybka komunikacja odbywa się między 4 rdzeniami bo do drugiego CCX'a jest już wolniejsza przez IF.

    Idealnym rozwiązaniem było by coś na kształt Intelowskiego ring busa dzięki któremu komunikacja między ośmioma rdzeniami była by szybka. W domowych zastosowaniach byłoby idealnie jaki i w serwerowych.

    Po części widać że Zen dla AMD to być albo nie być więc mając ograniczone środki jak i czas musieli mieć Zen na wczoraj.


  24. PCCPU (autor: Saturn64 | data: 23/09/19 | godz.: 14:25)
    I tu właśnie się mylisz. Architektura monolityczna była dobra przy procesorach o niewielkiej ilości rdzeni. Gdy wchodzimy już w ilości (kilkunastu) i więcej rdzeni to lepszym rozwiązaniem są chiplety. Może i tracą trochę na szybkości w dostępie do cachu, jednak producent zyskuje na ilości sprawnych układów. A sam dostęp do cachu można rozwiązać stosując większy cache co spowoduje rzadsze odnoszenie się do pamięci niższych pamięci (L3, RAM).
    Intel musi zaprojektować kilanaście różnych procesorów (każdy jest osobnym projektem z ilością cache lub ilością rdzeni). Można to obejść np blokowaniem ilości rdzeni i cachu. Jednak gdy mamy 16 rdzeniowy układ jako główny a chcemy wyprodukować inny 4 rdzeniowy to trzeba blokować badzo dużo rdzeni (często sprawnych). W dodatku taka struktura pobiera o wiele więcej prądu niż gdyby była wersją 4 rdzeniową zaprojektowaną od podstaw.
    W AMD łatwiej jest tym operować i zmieniać ilość rdzeni w zależności od potrzeb. Trzeba pamiętać, że przy mniejszym układzie jest mniej błędów w produkcji. Wtedy można zaspokoić bez problemu nawet rynek serwerowy.


  25. @up (autor: Saturn64 | data: 23/09/19 | godz.: 15:00)
    Co do wcześniejszych wywodów też mogę napisać, że wstyd by firma z takim potencjałem jak Intel została wyprzedzona na polu wydaności przez takiego nieudacznika jakim przez 13-14 lat było AMD. To jest dopiero wstyd. Praktycznie cała firma się wysprzedała, żyła tylko ze słabych kart graficznych i jeszcze słabszych procesorów, które niewielu kupowało. Przez lata przetrwali dzięki dotacjom gdy Intel przegrywał procesy sądowe za nielegalne praktyki konkurncyjne....

  26. @14. (autor: pwil2 | data: 23/09/19 | godz.: 15:35)
    Intel skupuje własne akcje (za mld$) by ratować ich kurs. Cała góra u Intela ma w pakiecie akcje firmy i nie może ich sprzedać, póki zajmują stołki. W ich interesie jest by ich wartość utrzymać za wszelką cenę do czasu opuszczenia firmy. Krzanich pozbył się po premierze Ryzenów swoich nadwyżek akcji wieszcząc szybką utratę 20% rynku serwerowego na rzecz konkurencji.

  27. @24. (autor: pwil2 | data: 23/09/19 | godz.: 15:49)
    Dokładnie. Główną zaletą chipletów jest skalowalność oraz elastyczność.

    Można zmienić I/O bez przeprojektowywania układu. Nawet można wyprodukować zapas chipletów korzystając z mocy przerobowych i wykorzystać je później wg potrzeb do serwerów, konsol, laptopów, desktopów, stacji roboczych. Można przenieść produkcję chipletów do nowszego procesu, zostawiając IO w obecnym. Jeśli znajdzie się klient chcący odpowiednio zapłacić, mogą już dziś zrobić CPU 128c256t albo większy umieszczając całość na dedykowanym PCB.

    A przy dziesiątkach i setkach rdzeni nie można już dłużej tak bardzo współdzielić zasobów. Wystarczy zauważyć jak bardzo słabo Intele z 256kB L2 (i dużym L3) się skalują wraz z dokładanymi kolejnymi rdzeniami. Dlatego Intel poszedł w 1MB L2 (i mały wspólny L3).

    Każdy CCX mając własną część/przepustowość L3, może obrabiać paczki 16MB danych bez walki o zasoby z innymi CCXami.


  28. c.d. (autor: pwil2 | data: 23/09/19 | godz.: 15:52)
    Szkoda, że póki co nie da się tak tworzyć GPU z takich chipletów, z których każdy miałby np. 2048 jednostek z własnym cache, współdzieląc pamięć HBMx

  29. Saturn64 (autor: pawel1207 | data: 23/09/19 | godz.: 17:18)
    AMD NIGDY NIE PADNIE bo jest podtrzymywane przez intela jesli amd padnie to urzad monopolowy podzieli intela intel przez caly zywot amd udziela im bezwrotnych porzyczek :D wiec nie dziw sie ze amd przez 14 lat nie padlo bo zly intel supportowal firemke myslisz skad u nich taka dobrowolna wymiana pracownicza :D poza tym zamrdyzm to masz w amd dlatego tyle ludzi z tamtad ucieka .

  30. @up (autor: Saturn64 | data: 23/09/19 | godz.: 18:14)
    Opracowanie przyszłościowej architektury lub założeń do nowej architektury powoduje, że przez kolejne kilka lat nie ma już wyzwań (tj. pracy) dla inteligentnych pracowników, którzy chcą się rozwijać w danej firmie. Dlatego migrują do innych firm, które są w potrzebie opracowania nowych architektur. Teraz AMD będzie spijać śmietankę przez kilka lat tylko dopracowując lub ewentualnie delikatnie zmieniając obecną architekturę. Każdy wie, które to główne architektury a które tylko ich usprawnionymi modyfikacjami, zarówno u Intela i AMD.

  31. @29 (autor: Conan Barbarian | data: 23/09/19 | godz.: 21:09)
    Czas zainwestować w słownik i naukę pisowni polskiej.

  32. Up27 (autor: PCCPU | data: 23/09/19 | godz.: 21:30)
    Mnie się wydaje że 8 rdzeni tak samo walczyło by o 32MB w jaki sposób 4 rdzenie walczą o 16MB w pojedynczym CCX, tylko że w tym przypadku jeśli jakiś soft w tym gra potrafi spożytkować z 6 lub 8 rdzeni a soft jest bardzo wrażliwy na komunikację między rdzeniową to komunikacja między dwoma CCXami na podedynczym chiplecie nie dość że jest znacznie wolniejsza to jeszcze dochodzi walka o dane z L3 drugiego CCX.

    Możliwe że komunikacja w taki sposób w jaki AMD zrealizowało między 4 rdzeniami w CCX dla 8-mio rdzeniowego CCXa znacznie komplikowała by chiplet. Nie wiem czy AMD ma dostęp do patentu Intela na Ring Bus ale to rozwiązanie byłoby najlepsze a opóźnienie w komunikacji między 8 rdzeniami było by bardzo niskie.

    Epyc-om by to nie zaszkodziło a dla zastosowań domowych było by idealnie.



  33. @PCCPU (autor: Saturn64 | data: 23/09/19 | godz.: 21:39)
    Może mi się wydaje ale Infinity Fabric jest magistralą poza rdzeniową łączącą chiplety i IO a Ring Bus istnieje wewnątrz rdzenia i jest sposobem połączenia rdzeni wraz z pamięcią. To dwa różne pojęcia. Dlatego IF zawsze będzie miało wyższy czas dostępu.

  34. @up (autor: Conan Barbarian | data: 23/09/19 | godz.: 21:42)
    walczyło by, między rdzeniową, komplikowała by, było by
    Pierdolenie o technologiach z kosmosu językiem upośledzonego gimba.


  35. @34 (autor: Conan Barbarian | data: 23/09/19 | godz.: 21:43)
    ->@32

  36. @up (autor: Saturn64 | data: 23/09/19 | godz.: 21:53)
    Ani jedno ani drugie rozwiązanie nie jest idealne. Tak jak napisał pwil2 chiplety mają wiele zalet w przypadku gdy np nie dysponuje się własnymi fabrykami (można zlecić jeden układ w dużej serii) wtedy cena jest też niższa (bo nie blokuje innych zasobów fabryki tj. linii technologicznych do produkcji innych zmienionych układów). Można w łatwy sposób opracować inny nowy CPU, poprawić go i szybko wdrożyć do całej serii układów i produkować od razu różne serie procesorów od cywilnych po wersje pro. Po drugie można szybciej reagować na np niespodziewaną odpowiedź konkurencji. Dodaje się wtedy pamięć L4 w IO albo wprowadza kartę graficzną o różnych wydajnościach jako kolejny chiplet. Podobnie można opracować chiplet 12 rdzeniowy przy przejściu na 7 EUV lub dodanie więcej cachu L2 lub L3. Intel musi za każdym razem poprawiać każdy układ i ta różnorodność wymusza większą liczbę lini technologicznych do produkcji różnych układów. To są dodatkowe koszty. AMD poszło po prostu na kompromis. Dlatego Intel ma teraz ogromny orzech do zgryzienia. Podejrzewam, że wszystkie architektury cove nie nadają się do konkurencji wielordzeniowej. Po prostu są szybkie w zastosowaniu jednordzeniowym ale nie można ich włożyć takiej ilości by mogły zagrozić AMD. I tu jest problem. Gdyby było prosto to już w 14nm by używano tej architektury przy taktowaniu 5ghz.... co przez prawdopodobnie dużo bardziej złożony rdzeń nie da się osiągnąć takich taktowań i w tym procesie.

  37. Conan Barbarian (autor: PCCPU | data: 23/09/19 | godz.: 21:57)
    Jestem "upośledzonym gimbem". Ulżyło?

    Saturn64
    Tyle to wiem, tylko łączenie za pomocą IF dwóch grup rdzeni na jednym kawałku krzemu to chyba nie jest najlepsze rozwiązanie. Co innego między chipletami.


  38. Edit (autor: PCCPU | data: 23/09/19 | godz.: 22:09)
    Chyba że w czasie kiedy AMD projektowało mikroarchitekturę Zen i Zen2 w planach były chiplety 4 rdzeniowe? Kto wie, może taki był początkowo zamysł.

  39. @up (autor: Saturn64 | data: 24/09/19 | godz.: 07:53)
    Mogło być tak jak mówisz, a może jest to celowy wybieg by sprawdzić czy jest możliwe szybkie zaadoptowanie np integrując w chiplecie kolejne 4 CCX bez przeprojektowywania całego bloku CCX.

  40. Edit2 (autor: PCCPU | data: 24/09/19 | godz.: 08:04)
    Ciekawy temat na anglojęzycznym forum o roli Jim'a Kaller'a w AMD, a obecnie w Intelu. Szczególnie ciekawy ostatni post:

    https://forums.anandtech.com/...-at-intel.2550732/

    Podaje sporo ciekawych informacji na temat rozwoju procesorów. Twierdzi że ograniczeniem IPC i pojedynczego wątku jest sposób myślenia, który trzeba zmienić a można uzyskać liniowe wzrosty wbrew temu co myśli większość.

    Podaje pewne informacje odnośnie możliwości miniaturyzacji i że do osiągnięcia granic jest bardzo daleko.

    Podał nawet pewne szczegóły odnośnie Sunny Cove który ma okno instrukcji 800 a przetwarza od 3 do 6 instrukcji x86 na takt zegarowy.

    Podaje info na temat wcześniejszej pracy w AMD i jak to z jego punktu wyglądało a także powód przejścia do Intela.

    Dość ciekawe informacje :)


  41. Edit (autor: PCCPU | data: 24/09/19 | godz.: 08:08)
    Keller twierdzi że Intel pracuje nad znacznie potężniejszym rdzeniem niż Sunny Cove.

  42. Edit2 (autor: PCCPU | data: 24/09/19 | godz.: 10:45)
    Według Kaller'a rdzeń Coffelake(Skylake) składa się z 217 milionów tranzystorów a rdzeń SunnyCove to 300 milionów tranzystorów. Wyższe o 15-18% IPC kosztowało dopasowaniem rdzenia tranzystorami o 38%.

  43. *dopakowaniem (autor: PCCPU | data: 24/09/19 | godz.: 10:46)
    *dopakowaniem

  44. @PCCPU (autor: pwil2 | data: 24/09/19 | godz.: 11:59)
    Jeśli postęp jest, można dorzucać tranzystorów. Jednak widać jakie są problemy z wdrażaniem niższych procesów i jak koszta rosną.

    Trzeba pamiętać, że procesor ma (L0), L1, L2 cache i dopiero w ostateczności sięga do L3. Przy rosnącej ilości rdzeni w typowych komputerach, pisząc oprogramowanie należy po prostu grupować procesy w paczki po 4, operując danymi w paczkach jak pojemności kolejnych pamięci podręcznych. 4 rdzenie mielą sobie 16MB danych, w porcjach po 512kB. Nie każdy algorytm można nierównoleglić, ale można go zastąpić innym.

    Karty mają tysiące jednostek, pogrupowanych w mniejsze grupy, warstwy i może nie ma wykorzystania każdej z nich na 100% efektywnie (pewnie średnio z 50% się nudzi), to przy odpowiedniej ich ilości i tak się takie podejście opłaci.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.