Nvidia przedstawia architekturę Hopper i chip H100 dla centrów danych
Autor: Zbyszek | źródło: Nvidia | 19:57
(8)
Nvidia podczas swojej transmisji online o nazwie GTC 2022 (GeForce Technology Conference) zaprezentowała kilka nowości. Z powodu tematyki poświęconej w całości rozwiązaniom z dziedziny sztucznej inteligencji, wydarzenie odbywało się pod hasłem I AM AI. Szef Nvidia, Jensen Huang, i kilka innych osób zaprezentowało najnowsze osiągnięcia Nvidia w dziedzinie rozwoju technologii i oprogramowania związanego ze sztuczną inteligencją. Entuzjazm z jakim szef Nvidia wypowiada się o tych zagadnieniach możne oznaczać poważne zaangażowane Nvidia w rozwoju tej branży technologii. Główną nowością sprzętową jest architektura Hopper dedykowana dla GPU do obliczeń i centrów danych.
W porównaniu do Ampere, architektura Hopper wprowadza dwukrotny wzrost wydajności obliczeń w trybie INT8 i FP8, oraz jednostki Tensor Core 4 generacji o dwukrotnie większej wydajności obliczeń na macierzach w porównaniu to rdzeni Tensor 3. generacji z architektury Ampere. Nvidia postawiła też na kwestie związane z bezpieczeństwem, chwaląc się przygotowaniem architektury Hopper w taki sposób, aby nie zostały w niej odkryte żadne luki bezpieczeństwa. Tak jak Ampere, GPU z architekturą Hopper otrzymały funkcję MIG (Multi Instance GPU), pozwalająca na jednym układzie graficznym uruchomić do 8 równoległych instancji GPU - symulując obecność wielu mniejszych układów graficznych. Nowością jest jednak pełna izolacja tych instancji poprzez ich wewnętrzną wirtualizację w GPU wraz pełną wirtualizacją warstwy I/O. Nowością są też nowe instrukcje DPX przyspieszające do 7-krotnie obliczenia z użyciem kilku specjalizowanych algorytmów, m.in. obliczenia za pomocą algorytmów Smith-Waterman i Floyd-Warshall.
Na bazie architektury Hopper powstał chip H100, który zawiera około 80 miliardów tranzystorów i jest wytwarzany w litografii TSMC 4nm. Zawiera on łącznie 8 głównych bloków GPC, w których umieszczono 114 jednostek SM (każdy ze 128 rdzeniami CUDA). Łączna liczba rdzeni CUDA w H100 to 14592, czyli ponad dwukrotnie więcej w porównaniu do Nvidia A100. Chip H100 jest zgody z PCI-Express 5.0, NV-Link 4. generacji, i współpracuje z 6 stosami pamięci HBM2e lub HBM3.
Wraz z innymi ulepszeniami, zwiększonymi częstotliwościami taktowania, wydajność chipu H100 ma być 3-krotnie wyższa niż A100, oraz 6-krotnie wyższa w obliczeniach typu INT8, FP8 i obliczeniach macierzowych z udziałem jednostek Tensor.
Nvidia będzie oferować serwerowe karty rozszerzeń z chipem H100 w dwóch wersjach - wersja ze złączem PCIe x16 i wskaźnikiem TDP 350W, oraz wersja z SMX z TDP 700W.
Oprócz architektury Hopper i chipów H100 , Nvidia zaprezentowała szereg nowych informacji na temat rozwoju oprogramowania z dziedziny sztucznej inteligencji oraz oprogramowania Omniverse do tworzenia cyfrowych kopii świata. Więcej o tym można zobaczyć na załączonym materiale wideo (od 52 minuty).
K O M E N T A R Z E
H100 (autor: Conan Barbarian | data: 22/03/22 | godz.: 20:49) Ostra jazda, kosmiczne parametry. AMD właśnie zobaczyło jak F1 odjechało w przyszłość.
nooo (autor: mirek190 | data: 22/03/22 | godz.: 20:53) Mocno sie rozwijaja ....
Mnie osobiście podoba mi się podejście do przyszłych generacji (autor: Mario1978 | data: 22/03/22 | godz.: 21:16) takich układów bez żadnych ustępstw. Przechodzą na N4 a nie ograniczają koszty by móc skorzystać z N5. To są układy cholernie drogie dlatego niech im się dobrze wiedzie bo potrzeba konkurencji. To jest takie napędzanie konkurencji. Byle się nie okazało, że Uniwersalność jednostek w AMD będzie jednak wiodła prym by tej miniaturyzacji i ich architektura jest bardziej / lepiej na to przygotowana. Muszą to robić bo Chińskie marki typu Huawei nie śpią.
@temat (autor: Mariosti | data: 23/03/22 | godz.: 10:39) Jak się spojrzy na specyfikację MI250X to już ten Hopper wcale dupy nie urywa i np w serwerach do renderingu chociażby nikt nawet nie spojrzy na tą kartę nvidii, bo jest wielu zastosowaniach zwyczajnie gorsza.
Ten skok AMD robi ogromne wrażenie, bo przez wiele ostatnich lat nie mieli w ofercie nic porównywalnego do topowych pro GPU nvidii.
Mariosti (autor: Markizy | data: 23/03/22 | godz.: 18:16) bez przesady MI250X wciąga dużo więcej prądu niż hopper, jest to 63% tego co AMD. W przypadku FP64 to AMD nie ma konkurencji, tylko ile obliczeń z tego korzysta? https://www.purepc.pl/...miera-akceleratora-hopper
Pytanie co AMD przedstawi na następcę CDNA 2 oraz kiedy.
wreszcie jakiś postęp ze strony nvidia (autor: josh | data: 23/03/22 | godz.: 18:55) dobrze by było, żeby dotrzymywali kroku konkurencji, bo lepiej mieć więcej niż mniej graczy na rynku :)
5++ (autor: Mario1978 | data: 24/03/22 | godz.: 12:23) Już teraz wiadome jak CDNA 3 będzie zbudowane. Pytanie tylko czy będzie składać się z Czterech chipów połączonych w całość. AMD od dawna do tego dąży i będzie wybierać chipy dla HPC najbardziej wydajne na powierzchnię i na Watt i łączyć w całość. CDNA 3 bez problemu powinno zapoczątkować nową erę GPU do serwerów z TDP 1000W i to aż niewyobrażalne jak dużo będzie wydajniejsze od MI250X. Jeżeli Nvidia skorzystała z N4 to pytanie czy AMD nie zrobi tego samego. Tak po za tym to będzie ostatnia generacja Nvidia gdzie mamy Monolity w N4 bo przy wzroście ucieczki elektronów w N3 TDP dla Monolitów byłoby zbyt ogromne by utrzymać wydajność. Dlatego sama miniaturyzacja przyniesie też to z czego AMD korzysta od dawna w CPU. Wszyscy są na to skazani. Bo chodzi też o lepszy uzysk i większą gęstość upakowanie tranzystorów na mm2 w przypadku mniejszych powierzchniowo Chipów. Nvidia H100 pokazuje jakie jest minimalne upakowanie tranzystorów na mm2 w przypadku układów HPC przy właśnie wielkich monolitach. Mogli by upakować więcej tranzystorów jeżeli układ ten miałby na przykład o 25% niższe zegary taktujące rdzenie ale widocznie się nie opłacało dlatego Nvidia wybrała to. Czas Świetności MCM dopiero się zaczyna.
@5. (autor: Mariosti | data: 28/03/22 | godz.: 12:51) Bzdury.
H100 SXM5 (czyli odpowiednik prezentowanego MI250X) ma zadeklarowane TDP do 700W, podczas gdy karta AMD ma zadeklarowane TDP zaledwie 500W.
Także jeśli już to Hopper wciąga dużo więcej prądu niż AMD bez większej wydajności i to pomimo lepszego procesu w H100. Także ewidentnie nvidia jest w plecy przez monolit. Dokładnie to samo stało się z intelem 3 lata temu.
D O D A J K O M E N T A R Z
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.