TwojePC.pl © 2001 - 2024
|
|
Środa 27 października 2021 |
|
|
|
Procesory AMD EPYC Turin otrzymają nawet 256 rdzeni ZEN 5 Autor: Zbyszek | źródło: ExecutableFix | 23:39 |
(20) | Obecnie dla serwerów AMD oferuje swoje procesory EPYC trzeciej generacji z serii Milan, wytwarzane w litografii 7nm i posiadające do 64 rdzeni z architekturą ZEN 3. W przyszłym roku w ofercie AMD pojawi się już 4. generacja procesorów EPYC, znana pod nazwą kodową Genoa. Będą to procesory wyposażone w do 96 rdzeni ZEN 4 wytwarzanych w litografii 5nm, oraz zgodne z nową podstawką Socket SP5 (6096 pinów) i pamięciami typu DDR5. Z dotychczasowych informacji wiadomo też że AMD opracowuje procesory EPYC o nazwie kodowej Bergamo, będące CPU wyposażonymi w więcej, bo aż 128 rdzeni ZEN 4.
Tymczasem pierwsze nieoficjalnie informacje na temat kolejnych generacji procesorów serwerowych od AMD wskazują, że następcy procesorów Genoa i Bergmao otrzymają nawet dwukrotnie większą liczbę rdzeni.
Będą to procesory EPYC z serii Turin, bazujące na rdzeniach ZEN 5 wytwarzanych w litografii 3nm. Mają one posiadać do 256 rdzeni, kontroler PCI-Express 6.0 oraz podstawkę Socket SP6. Producenci serwerów zyskają też bardzo szerokie możliwości konfiguracji wskaźnika TDP, z możliwością podniesienia go nawet do 600W, co wpłynie na wzrost częstotliwości taktowania rdzeni.
Wygląda na to, że wyścig pomiędzy Intelem i AMD na rynku serwerowym będzie w kolejnych latach coraz bardziej ciekawy. |
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- @temat. (autor: Mariosti | data: 29/10/21 | godz.: 14:28)
No i bardzo dobrze. Może to zmusi intela do popracowania nad efektywnością ich rdzeni, bo już aktualnie Ice Lake pod tym kątem wypada bardzo słabo, a Sapphire Rapids zapowiada się że będzie jeszcze gorszy, patrząc na wstępne informacje o Alder Lake.
W takich wielordzeniowych procesorach serwerowych liczy się wydajność każdego rdzenia ale przy obciążeniu wszystkich na raz z taktowaniem ograniczonym przez TDP, a nie w benchmarku z max turbo 1-2 rdzeni...
- Hmmmm (autor: piwo1 | data: 29/10/21 | godz.: 14:34)
Czyzby przejscie na 16rdzeni w jednym rdzeniu? To by byl kolejny niesamowity skok w desktopach.
- 2__ (autor: Mario1978 | data: 29/10/21 | godz.: 15:48)
Oni tylko przewidują ale zgadzam się z tymi przewidywaniami bo wychodzi na to, że AMD znów porzuci N3 na rzecz ulepszonej wersji N3E. Przejście z N5 na N3 już teraz patrząc na charakterystykę procesu zapowiada się bardziej imponująco niż nawet to co pokazał Apple swoim M1 Max. Wystarczy popatrzeć na teoretyczny i realny przyrost tranzystorów na mm2 w gotowych układach. Tu najgorzej prezentuje się Intel bo u nich Teoretyczne upakowanie tranzystorów a praktyczne dzieli ogromna różnica. Jak Apple przechodził na N7 a potem na N5 to nawet nie było równicy 90MTr/mm2 jeżeli chodzi o przyrost na mm2. Przejście z N5 na N3 to przyrost ponad 130MTr/mm2 czyli niewiele mniej niż dzisiejszy układ M1 Max ma upakowane tranzystorów na mm2.
Wiadome, że to teoria a praktyka to trzeba odciąć 20% tranzystorów na mm2. To pokazuje skalę przejścia jak przyniesie wykorzystanie litografii N3. Samsung zaczął się ostatnio chwalić swoim 3nm GAA i układy w tej litografii mają się pojawić w pierwszej połowie 2022 roku. Na razie nic na temat korzystających z tej litografii ale fajnie widzieć na własne oczy, że coś co można była oglądać z rozdziawioną buzią z Ochami i Achami nagle po tak krótkim okresie czasu czyli 24 miesiącach staje się już stare technologiczne co nie znaczy, że nie nadaje się do użytku. Intel w końcu osiągnie zdumiewający skok w Wydajności na Watt jak właśnie w przyszłym roku zacznie korzystać z N3 od TSMC zajmując miejsce Apple według jeszcze nieoficjalnych wiadomości. Wolałbym zobaczyć A16 w N3 ale wychodzi na to, że N4P powstało po to by A16 mogło osiągnąć kolejny krok w wydajności na Watt ale wiadome, że już nie tak zdumiewający jakby z N3 to uczynili.
- 3++ (autor: Mario1978 | data: 29/10/21 | godz.: 15:52)
I teraz wyobrazić sobie taki CPU z 256 rdzeniami, który przy odpowiednim oprogramowaniu będzie potrafił więcej niż sam RTX 3090 może zrobić.
- Mnie bardziej ciekawi (autor: piwo1 | data: 29/10/21 | godz.: 17:01)
Co pokaza grafiki w 3nm zamiast 7,8nm. Tu sokok ilosci jednostek cieniujacych moze byc tak ogromny ze gry beda chodzic z natywnym rt w 4k bez zbednego balastu w postaci dlss.
- @5. (autor: Mariosti | data: 29/10/21 | godz.: 17:51)
Jeśli chipletowe podejście AMD się sprawdzi w GPU to tak, definitywnie będziemy mieli znowu porządny wzrost wydajności i szybszy rozwój gpu.
W przeciwnym razie raczej nie, bo wraz ze zwiększaniem gęstości procesów, coraz mniej prawdopodobne robi się wyprodukowanie bezbłędnie tak ogromnych monolitycznych chipów jakie to projektuje aktualnie nvidia chociażby.
- @piwo1 (autor: kombajn4 | data: 30/10/21 | godz.: 07:50)
Wiesz odkąd kupiłem kartę graficzną z RT i zobaczyłem w praktyce jak to wgląda to jestem zdania że jeszcze parę lat i nikt nie będzie pamiętał ze w ogóle była mowa o jakimkolwiek RT. Naprawdę różnice są mizerne, bardzo subtelne i wcale nie jestem przekonany że niby coś wygląda lepiej. Co najwyżej inaczej. Za to narzut obliczeniowy..... Ja akurat należę do osób które maja w nosie wysoki poziomy FPS i odświeżania. Powyżej 60 Hz zwyczajnie nie widzę żadnej różnicy (a mam monitor 144Hz) ale to całe RT jest funta kłaków warte.
- @gatts (autor: mlc | data: 30/10/21 | godz.: 09:01)
W ogóle, to dziwna sytuacja, że TSMC zgodziło się na współpracę z Intelem. Intel wykorzysta TSMC krótkoterminowo, dopóki nie upora się ze swoimi procesami. Jak to zrobi, to TSMC nie będzie mu do niczego potrzebne, a Intel stanie się prawdziwą konkurencją dla TSMC. Dodatkowo jest to pstryczek w nos dla Apple i AMD, które przez to tracą moce produkcyjne i mogą zacząć bardziej patrzeć w inną stronę, czyli aktualnie głównie w stronę Samsunga.
- @up (autor: Conan Barbarian | data: 30/10/21 | godz.: 09:31)
TSMC widocznie nie mogło nie zgodzić się a nacisk był czysto polityczny. USA to wielki przyjaciel, ale tylko wtedy, gdy czegoś potrzebuje lub coś chce opchnąć.
- @7. (autor: Mariosti | data: 30/10/21 | godz.: 14:44)
Teoretycznie jak GPU będą miały ogromną moc obliczeniową, tak wielką że będą mogły wszystko renderować w full rt, a nie tylko miejscowe efekty, to wszyscy producenci gier się na to przerzucą, bo to bez porównania mniej roboty niż uzyskanie wysokiej jakości grafiki tradycyjnymi, bardziej zoptymalizowanymi metodami.
- @up (autor: Saturn64 | data: 30/10/21 | godz.: 18:43)
Raczej długo do tego nie dojdzie z tego względu, że zawsze pojawią się kolejne pomysły by to oddalić. Za chwilę zaczną pojawiać się telewizory i monitory 8K lub 16K. Po za tym tego typu karty będą bardzo drogie. Skoro jeden GPU wielkości Radeona 6800XT kosztuje ponad 5000 zł to nie sądze, że 2 układy o podobnej wielkości miały być tańsze. OK gro tej ceny podbijają kopacze kryptowalut ale i tak w dniu premiery miały one cenę ok 3000-3300 zł i tyle raczej będzie za to chciał producent. Dlatego nadal RT będzie popularne. Bo nie chodzi o to by producent gier tworzył je dla 5%-15% graczy tylko dla co najmniej 70%.
- Saturn64 (autor: Markizy | data: 30/10/21 | godz.: 20:29)
do 32 calach raczej nikt nie będzie przekraczał 4k, ewentualnie panoramy 21:9 się upowszechnią. 8k zobaczymy na ekranach +32cale, a telewizja to z 50cali w górę. Oko ludzkie ma ograniczone możliwości.
Nie sugerowałbym się tym że jeśli coś jest promowane to zostanie na rynku. Telewizory 3D też były promowane a technologia umarła, z RT będzie podobnie prawdopodobnie ze względu na zbyt duży narzut obliczeń. Chyba że ktoś faktycznie skonstruuje jednostkę obliczeniową która obetnie wydajność o 20% w najgorszym wypadku i przy pełnym RT.
Ogólnie przypuszczam że obecnie wiele technologii 3D będzie umierać jak będą słabo widoczne na ekranie.
- RT nie ma mzlwosci (autor: mirek190 | data: 30/10/21 | godz.: 22:29)
by umrzec bo to bardzo upraszcza robienie gier.
No i sa w koncu relistyczne powierzchni odbijajace co nie bylo do tej pory.
Nawet nie zdajesz sobie sprawy ile czasu trzeba poswiecic by zrobic oswietlenie recznie.
A tu RT wszystko rozwiazuje samo .
- RT nie ma mzlwosci (autor: mirek190 | data: 30/10/21 | godz.: 22:29)
by umrzec bo to bardzo upraszcza robienie gier.
No i sa w koncu relistyczne powierzchni odbijajace co nie bylo do tej pory.
Nawet nie zdajesz sobie sprawy ile czasu trzeba poswiecic by zrobic oswietlenie recznie.
A tu RT wszystko rozwiazuje samo .
- @Markizy (autor: Saturn64 | data: 30/10/21 | godz.: 22:31)
Nie mówię, że tego potrzebuję. Po prostu producenci wmówią Ci, że tego potrzebujesz. W telefonach komórkowych masz już rozdzielczość ekranu 4K 3840 × 1644 a czy taka jest Ci potrzebna? Czy widzisz różnicę pomiędzy full HD a 4K w telefonie? Nie. I tu będzie podobnie. Producenci Kart graficznych będą nalegali w branży by takie telewizory i monitory powstały. W innym przypadku jeśli do tego nie dojdzie to za 3-4 generacje nikt nie kupi najwyższych modeli kart graficznych do grania bo i po co skoro już wcześniejsze modele osiągną przyzwoitą wydajność FPS w 4K.
- @Saturn (autor: rookie | data: 30/10/21 | godz.: 22:50)
Oj marketingowcy wmówić mogą wszystko. Ludzie kupują iphone za cięzkie pieniądze nie wykorzystując wiecej niż 10% jego możliwości (przeglądają FB, robią fotki na insta czy oglądają filmy 480p o kotach...).
Kiedyś oglądałem film gościa wkręcającego ludzi jakie to nowe 'ficzery' są w nowym iphone - wszystko łyknęli. A prawda jest taka, że tym ludziom Redmi 9A by wystarczył....
- w CPU i GPU (autor: Zbyszek.J | data: 30/10/21 | godz.: 23:08)
wszystko wskazuje na to, że w następnych latach rosnąć będzie wydajność, ale trochę też razem z ceną i poborem energii.
Lata 2008-2018 to generalnie lata dość spokojne, gdzie
1) flagowe GPU miały pobór energii 250W i cenę 500-700 USD
2) flagowe CPU segmentu mainstream miały cenę ~330 USD i pobór energii ~80-100W, a segmentu HEDT miały cenę ~1000 USD i pobór ~140W
Obecnie to się zmienia, i wydajność przyrasta szybciej niż w drugiej połowie okresu 2008-2018, ale oprócz wydajności rośnie tez pobór energii i cena
- w procesorach HEDT liczba rdzeni wzrosła z 8 do 64, pobór mocy ze 140 do 280W, a cena z 1000 USD do 4000 USD
- w procesorach mainstream liczba rdzeni wzrosła z 4 do 16, pobór mocy ze ~100W do 140W (AMD), 250W (Intel), cena z ~330 USD do 600-800 USD.
- w GPU też podobny trend, pobór mocy, i cena w gorę
To wygląda tak, że w nowych generacjach dostajemy wyższe opcje - zamiast np. procesorów tylko 8-rdzeniowych zastępujących stare i7-6700k w podobnej cenie ~350 USD, mamy opcje 2 razy lepszą - 16 rdzeni, ale 2 razy droższą i z większym apetytem na prąd. Podobnie w procesorach HEDT.
W GPU też zaczyna się ten trend i prawdopodobnie zmaterializuje się w 2022 roku - gdzie dostaniemy karty 2-3 razy szybsze niż obecna generacja, ale z TDP 400-450W i w cenie 1500-2000 USD. Za to wersje niższe o wydajności +~50-70% obecnych flagowców, przy TDP 250-300W i cenie 700-1000 USD będą tym, co dawniej Nvidia i AMD zaserwowałyby jako nowy TOP.
- @Rookie (autor: Saturn64 | data: 31/10/21 | godz.: 11:21)
Oczywiście w większości produktów nie wykorzystujesz wszystkich funkcji. Czy to dotyczy piekarnika, pralki, telefonu czy samochodu. Większość z nas wykorzysta 10-30% funkcjonalności ale na początku przy zakupie będziemy zachwyceni, że produkt ma takie ficzery. Tylko, że bez tego nie byłoby postępu. Jak przyglądam się branży telefonów komórkowych to dziwi fakt, że żaden producent nie zastosował np układu flagowego z 2019 (który i tak ma wystarczającą wydajność) ale przeniesionego do nowszego wymiaru technologicznego z udoskonalonym ewentualnie poborem mocy tak by bateria w takim telefonie mogłaby wytrzymać 4-6 dni bez ładowania. Na swoim przykładzie mogę powiedzieć, że zawsze kupowałem praktycznie co roku nowy smartfon począwszy od Samsunga S2. Ponieważ co roku wprowadzano znaczące postępy w smartfonach. I było to między innymi większa pamięć Ram, większa pamięć wewnętrzna, większy wyświetlacz, wyższa rozdzielczość wyświetlacza, inna technologia wyświetlacza, większa bateria, lepszy aparat fotograficzny, mocniejsze szkło ochronne wyświetlacza, mniejsze ramki w około wyświetlacza itd. Te zmiany były widoczne i powodowały chęć zmiany na lepszy model. Dzisiaj producenci nie mają już praktycznie nic do zaoferowania co skłoniłoby do zakupu nowszego modelu (i to jeszcze w tak wysokiej cenie) bo wszystkie te elementy osiągnęły już tak wysoki poziom. Kupiłem w 2019 roku Huawei Mate 30 Pro 5G i do dzisiaj ma wszystko czego potrzebuję a różnice, które wprowadzono w następcach są tak marginalne, że nie przekonują mnie do wymiany telefonu. PS. Z drugiej strony nie podoba mi się, że w nowych modelach telefonów zmieniają proporcje ekranu i są coraz dłuższe i węższe.
- ... (autor: krzysiozboj | data: 31/10/21 | godz.: 14:24)
Przed core był szybki rozwój CPU, ale chyba ciągle były programy, którym brakowało mocy obliczeniowej - inżynierskie, obróbka grafiki, etc. też gry. Weszło core, wykarmiło programy mocą obliczeniową i lata zastoju, w sofcie i sprzęcie. Teraz znów szybki rozwój, ale to chyba sprzęt zaczyna uciekać oprogramowaniu. AM5 prawie na pewno jest przygotowana na podwojenie rdzeni ZEN4/5 i pewnie znajdą się programy, które jakoś z tego skorzystają, ale chyba ciężko znaleźć takie, które to mieć muszą (sytuacja przed core). A blaszak z TR 256/512?
- 17== (autor: Mario1978 | data: 31/10/21 | godz.: 14:51)
Dokładnie tak będzie co wystarczyło zauważyć gdy TSMC chociażby odkryło karty na temat swojego N5. Jedna infografika pokazała jaki jest trend a tranzystory w tym wymiarze technologicznym z inną domieszką pierwiastków jak chociażby z N7 będą potrafiły więcej. Gdzie dla N7 w warunkach domowych było osiągane 100% to dla N5 w przypadku HPC mamy dwa dodatkowe poziomy wydajności ze zwiększonym poborem energii. W tym przypadku Wydajność na Watt takie produktu spada ale zużycie energii jest do przełknięcia. Wersja dla układów mobilnych w początkowym etapie N5 na tle N7 przyniosła +15% do wydajności, potem była wersja Normalna N5 do N5 Low Power i znów 10% wzrost wydajności i +15% do zużycia energii. A teraz wersja N5 HPC do Normalnej N5 to znów wzrosty +15% do wydajności i +25% do zużycia energii. Potem trzeba jeszcze dodać +8% do wydajności na Watt przy N5P. Jak zauważyłem tą infografikę 2 lata temu od TSMC już wiedziałem czym będą nowe układy od AMD w tej litografii. Apple zaś pokazało swoim M1 Pro i M1 Max czego można się spodziewać po Zen 4. Bardziej obawiam się o Intela, którego fabryki będą obciążeniem jak te od GF i będą musieli szukać chętnych na korzystanie z nich. Ale pomysł może być niezły gdzie same rdzenie będą produkowane w TSMC a reszta w fabrykach Intela. Czekajmy na efekty bo rynek Smartfonów też będzie czekał na metamorfozę gdyż brakuje tylko oprogramowania. Mediatek już dogadał się z Tencent i chcą sami wydać oprogramowanie pod gry przyszłej generacji dla Smartfonów z Ray Tracing.
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|