O liście TOP 500, zawierającej wykaz pięciuset aktualnie najbardziej wydajnych na świecie superkomputerów, słyszał chyba każdy pasjonat techniki komputerowej. Lista tworzona jest od 1993 roku na podstawie wyników uzyskiwanych przez superkomputery w teście Linpack. Obserwowane historycznie podwojenie wydajności znajdującej się na niej urządzeń następuje średnio co około 14 miesięcy. Od momentu powstania listy w 1993 roku do 2015 roku na liście niezmiennie dominowały superkomputery mieszczące sie w Stanach Zjednoczonych. Dość niespodziewanie trend ten gwałtownie zmienił się w ostatnich 2-3 latach, i obecnie większość superkomputerów z listy TOP 500 mieści się w Chińskiej Republice Ludowej.
Stany Zjednoczone maja jednak nadzieję odzyskać swoja silną pozycję na liście TOP 500, za sprawą nowego superkomputera IBM Summit. Jednostka oferuje moc obliczeniową 200 petaflopów - ponad dwukrotnie większą od obecnie najbardziej wydajnego Chińskiego komputera. Wszystko to za sprawą 27 648 akceleratorów Nvidia Tesla V100 oraz 9216 procesorom IBM Power9 - każdym z nich posiadający 22 rdzenie z obsługą 3 wątków na rdzeń.
Superkomputer składa się z 4608 dwuprocesorowych serwerów z 6 kartami Nvidia Tesla V100. Serwery połączone są w klastry wielkości pojedynczej dwumetrowej szafy rackowej. Każdy klaster posiada magistralę NvLink oraz ponad 500 GB własnej pamięci podręcznej HBM i ponad 800GB RAM DDR4. Zużycie energii przez cały superkomputer wynosi około 15 MW. Całość jest chłodzona cieczą.
K O M E N T A R Z E
epyci (autor: krzysiozboj | data: 26/06/18 | godz.: 08:51) W top500 nie ma ani jednego opartego na epycach, dlaczego? Jak opterony wchodziły, to bardzo szybko zadomowiły się tam, nawet top10 potrafiły zdominować.
@krzysiozboj (autor: Qjanusz | data: 26/06/18 | godz.: 09:57) odpowiedź jest prosta. Wykorzystanie hardwaru danego producenta w tym segmencie jest sumą zaufania do niego i jakości oferowanego produktu. AMD dopiero buduje sobie zaufanie wśród partnerów, czego nie zrobi się jedną dobrą serią.
USA musi się pogodzić z tym, że coraz częściej będzie oddawać Chinom palmę pierwszeństwa, nie tylko w dziedzinie IT.
Co do mocy nowych klastrów w TOP500, to poprzez tworzenie dedykowanych serwerom układów GPU, można mgliście powiedzieć ze niemal każde, nowe pierwsze miejsce będzie 2 x wydajniejsze niż serwer, który był na topie jeszcze przed chwilą. nVidia pokazała właśnie jak to robić. Dodatkowo zadała temat Intelowi: http://antyweb.pl/nvidia-koniec-prawa-moorea/
Na podstawie zapału, z jakim Intel wziął się ostro do roboty, wiemy że słowa Huanga bynajmniej nie są życzeniem producenta GPU. A to dopiero początek.
@Qjanusz (autor: krzysiozboj | data: 26/06/18 | godz.: 10:49) Opteron kiedyś wszedł przebojem i to szybko. A powinien mieć gorzej, wcześniej AMD praktycznie nigdy nie istniało w serwerach.
@krzysiozboj (autor: Qjanusz | data: 26/06/18 | godz.: 11:21) ja patrzę na to w ten sposób, że to właśnie Opteron pokazał jak łatwo mozna stracić, inwestując w infrastrukturę AMD.
Przed Opteronem, AMD miało czystą kartę, albo jej w ogóle nie miało, jak kto woli.
@Qjanusz (autor: krzysiozboj | data: 26/06/18 | godz.: 11:55) Może i tak. SUN postawił mocno na AMD i ... (o ile wiem) splajtował, bo nie było następcy opterona.
1,2,3 (autor: Conan Barbarian | data: 26/06/18 | godz.: 14:38) Trzy pierwsze miejsca na ostatniej TOP500 mają w doopie Intela, AMD i całe x86.
Stany Zjednoczone maja jednak nadzieję (autor: Conan Barbarian | data: 26/06/18 | godz.: 14:42) "Stany Zjednoczone maja jednak nadzieję ..."
Autor oczywiście nie sprawdził najnowszej listy TOP500, bo ma też wyrypane na TPC.
ciekawostka (autor: Wedelek | data: 26/06/18 | godz.: 17:04) najmocniejszy z komputerów zlokalizowanych w Polsce to plasujący się na 77 miejscu Prometeusz :)
@Qjanusz (autor: pandy | data: 26/06/18 | godz.: 19:20) Czy naprawde uwazasz ze Massively Parallel Processor jest odpowiedzia na wszystkie problemy obliczeniowe?
Jesli tak to dlaczego nie ma np enkodera software GPGPU H.265 tylko NVidia musi wydzielac specjalizowany ASP na strukturze?
Siedzac sobie przed komputerem odpowiadam panu Jen-Hsun Huang ze przyszloscia jest rekonfigurowalny hardware i to Intel posiada Altere a nie NVidia (NVidia musialaby sobie kupic albo Xilinx albo chociaz Lattice Semiconductor o ile pozwoli jej na to Trump - ewentualnie moze sobie kupic Achronixa).
Intel zreszta juz wypuscil jednego Xeona z rekonfigurowalnym hardware na pokladzie i nie zdziwie sie jesli za jakis czas zobaczymy procesory Intela z dodatkowymi blokami z konfigurowalnym (w locie) hardware - taki hardware bedzie co najmniej rzad wielkosci szybciej realizowal algorytm niz GPU.
Slowa NVidii to zaklinanie rzeczywistosci i Intel o tym wie.
@Wedelek (autor: Sebalos | data: 26/06/18 | godz.: 19:38) Prometeusz jest aktualnie na 103. miejscu.
I pytanie, czy AGH posiada u siebie komorę serwerową taką z prawdziwego zdarzenia? Taką np. z minimum bunkrem ATS Shield, klimą, potrójnym zasilaniem, agregatem prądotwórczym i niezłym zestawem kilkuset akumulatorów potrzebnych na 10-15 sekund czasu aż ten agregat wystartuje?
Ścianki grube na ok 15cm chroniące przed różnymi rodzajami zdarzeń, drzwii okropnie ciężkie. Wewnątrz wszystko pod podłoga, nawiew spod podłogi, potrójne klimatyzatory, podwójne zasilanie + podwójny UPS + podwójny agregat.
@Zbyszek (autor: Wedelek | data: 27/06/18 | godz.: 06:25) Nie mam pojęcia. Nie zdziwiłbym się natomiast gdyby na jakimś ogniwie zaoszczędzono. To takie słowiańskie by było...
@up (autor: Qjanusz | data: 27/06/18 | godz.: 10:02) myślę że w takim projekcie nie ma miejsca na bylejakość
"Cały system obliczeniowy, wraz z niezbędnymi elementami towarzyszącymi, m.in. systemem gwarantowanego zasilania elektrycznego z dodatkowym generatorem awaryjnym, został zainstalowany w nowym budynku Cyfronetu, w oddanej do użytku w roku 2014 hali komputerowej, w pełni przystosowanej do eksploatacji Prometheusa"
@Qjanusz (autor: Conan Barbarian | data: 27/06/18 | godz.: 16:19) Zaraz widać, że jesteś drobnym vatowcem, który w swojej naiwności wierzy, że projekt finansowany z budżetu był solidnie wykonany. Nie wiem jak się uchowałeś, ale bolesna prawda jest taka, że wałek goni wałek przy takich okazjach. Zanim HP skubnęło swoje, to już ze trzy kasty (sam sobie dopowiedz które) obłowiły się. Jeśli masz nadal wątpliwości, to tutaj sobie poczytaj: http://www.newsweek.pl/...l,artykuly,283737,1.html
... a później wracaj do roboty, gdyż ktoś musi zasilać koryto.
@ Qjanusz (autor: Zbyszek.J | data: 27/06/18 | godz.: 22:46) pojedynczy system zasilania awaryjnego... nie gwarantuje tak naprawdę niczego. W agregacie szlak trafi rozrusznik, albo zaśniedzieje jakiś przewód, agregat nie odpali się, i Data Center stoi. Potrójne zasilanie sieciowe, podwójny UPS + agregat to standard minimum. Plus chłodzenie i system gaśniczy - usuwający tlen z komory Data Center - też zwielokrotnione
@Zbyszek.J (autor: Qjanusz | data: 28/06/18 | godz.: 09:21) nie ma niestety w necie info o detalach realizacji zabezpieczeń w tej serwerowni, ale jestem przekonany że ta kwestia nie została potraktowana po macoszemu. Oczywiście, najlepsze i zwielokrotnione zabezpieczenia mogą zostać podważone na wypadek awarii wszystkiego.
@Conan Barbarian - wrong. Nie jestem vatowcem. Nawet drobnym. Moje przekonania są oparte nie na naiwności, tylko podstawach wykonywanej pracy. I tłumacząc matematycznie różne "wałki", potrafimy odróżniać modę (nie chodzi o trend, ciuszki itd...) od wartości ekstremalnych (to tak w kontekście przykładu z HP).