Szef Nvidia pokazuje największą kartę graficzną na świecie
Autor: Zbyszek | źródło: Nvidia | 15:38
(14)
Nvidia opublikowała na swoim kanale w YouTube film wideo, w którym jej szef Jensen Huang w dość niecodzienny sposób zapowiada nową, "największą" kartę graficzną na świecie. Jensen Huang chwali się, że ma do pokazania, co jego firma przygotowywała od pewnego czasu, po czym wyciąga z piekarnika nową wersję platformy HGX-2, przeznaczonej dla platform obliczeniowych i serwerów. Wprawdzie szczegóły nie zostały zdradzone, ale można oczekiwać, że jest ona zbudowana z 8 najnowszych układów graficznych GA100 z serii Ampere. Świadczy o tym inny wygląd jednostki, z wyraźnie powiększonymi radiatorami w stosunku do dotychczasowej wersji HGX-2 z chipami GV100 "Volta".
Wideo podgrzewa atmosferę przed jutrzejszą konferencją Nvidia GTC (GeForce Technology Conference), która będzie transmitowana online w YouTube jutro (14 maja) o godzinie 15.00 czasu polskiego, na kanale www.youtube.com/nvidia
K O M E N T A R Z E
Czekam na jakiś oszałamiający pokaz z Szefem Nvidia na czele bo to już jutro. (autor: Mario1978 | data: 13/05/20 | godz.: 16:16) Zobaczymy co tam ujawnią.Muszą się starać bo konkurencję nie mają już tylko wewnątrz kraju jak zależy im na tym by ich układy gdzie obliczenia AI mogły nawiązać walkę chociażby z Huawei.
W tej chwili klaster układów Atlas 900AI od Huawei kończy szkolenie w "ImageNet-1k" w niecałą minutę zajmując pierwsze miejsce w typowym modelu ResNet-50 v1.5.
Teraz to jest walka o przyszłość , żeby być konkurencyjnym także po za swoim krajem.
To się nazywa miniaturyzacja! (autor: ekspert_IT | data: 13/05/20 | godz.: 16:41) Grafen potrzebny od zaraz, bo z krzemem coraz gorzej :P
To już jest i działa, pobiera 15KW, ale zapewnia taka wydajność jak CPU + GPU zjadające ~100-130KW i zajmujące kilka szaf rackowych.
Zaletą jest brak strat mocy na transmisję danych między różnymi scalakami w różnych pudełkach plus znacznie mniejse opóźnienia - stąd zysk wydajności na wat
Ciekawe kiedy Nvidia podejmie rękawice i zrobi GPU Wafer Scale Engine
GPU (autor: Conan Barbarian | data: 13/05/20 | godz.: 18:20) Nie mogę sobie przypomnieć skąd znam tego gościa.
ekspert_IT (autor: Markizy | data: 13/05/20 | godz.: 19:04) zbuduj z grafenu najpierw cyfrowy układ scalony
@Zbyszek.J
a ktoś wie jak chłodzić taki taki układ, bo to raczej rozważania czysto teoretyczne. Tym bardziej że komuś się jednoski pomieszały mm^2 z cm^2.
Największe gpu 815mm^2, podany przez ciebie układ 46mm^2 wiec coś tutaj ewidentnie jest nie tak.
@06 (autor: Markizy | data: 13/05/20 | godz.: 19:06) chyba żeby uznać przecinek jako separator tysiecy ale i tak dziwnie to wyglada. Natomiast nadal jest problem z odebraniem ciepła z kwadratu 21cmx21cm.
ja też kiedyś (autor: Holyboy | data: 13/05/20 | godz.: 20:57) piekłem geforce'a w piekarniku, ale to już było dawno po premierze ;)
Przesłanie (autor: Semy | data: 14/05/20 | godz.: 10:29) jest proste. Będzie to wkład do piekarników firmy nvidia, który rozgrzewa się 10x szybciej niż normalny piekarnik. Możemy piec od razu po włączeniu układu.
pan Huang się myli (autor: pandy | data: 14/05/20 | godz.: 20:10) w historii grafiki komputerowej to nie jest największą kartą graficzną - w przeszłości karty graficzne to było często wiele płyt o podobnych rozmiarach - klasycznym przykładem są karty SGI np RealityEngine albo InfiniteReality.
Generalnie marketingowo (autor: kombajn4 | data: 15/05/20 | godz.: 07:00) to ten pomysł to totalna kompromitacja. Może działowi PR i statystycznemu zjadaczowi chleba się dobrze kojarzy "wypiekanie" karty graficznej ale każdemu kto kupił używaną podpieczoną kartę graficzną już kurna nie, a ludzie odpowiedzialni za zamówienia takiego sprzętu na bank słyszeli o wrzucaniu uszkodzonych kart graficznych do piekarnika. Ręce same składają się do oklasków. Spocone czoło zawsze w formie. Jak to było "it just works" a po premierze był wysyp kart RTX które zdychały.