Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2020
Czwartek 24 listopada 2011 
    

Najbardziej energooszczędny superkomputer pracuje w Japonii


Autor: Wedelek | źródło: Legit Reviews | 07:43
(8)
Superkomputery z natury nie są zbyt energooszczędnymi konstrukcjami, ale w przeciwieństwie do komputów PC zmniejszenie zapotrzebowania na energię o 5% przy zachowaniu podobnej wydajności przynosi spore oszczędności i jest grą "wartą świeczki". Co roku publikowana jest nawet lista 500 tego typu urządzeń o najlepszym stosunku wydajności do ilości pobieranej energii. W tym zestawieniu królują superkomputery zbudowane na bazie CPU i GPU, a w tym roku palmę lidera w tej kategorii zdobył Tsubame 2.0 pracujący w Tokijskim Instytucie Technologii - GSIC.

Do jego budowy wykorzystano karty graficzne Nvidia z serii Tesla oraz procesory Intel Xeon. Wydajność Tsubame 2.0 to 1,19 petaflopsów na sekundę, a zużycie energii to 1,2 megawata. W przeliczeniu na jeden Wat Tsubame 2.0 może się pochwalić wydajnością 958 megaflopsów, podczas gdy konkurencyjna konstrukcja, o podobnej mocy, ale zbudowana na bazie samych tylko procesorów x86 - Cielo Cray w Los Alamos osiągnęła wynik 278 megaflopsów na 1W energii.

To właśnie dzięki zastosowaniu kart z rodziny Tesla zużycie energii jest 3-4 razy mniejsze, a układy Nvidia dostarczają w sumie aż 80% całej wydajności Tsubame 2.0.


 

    
K O M E N T A R Z E
    

  1. dlatego właśnie Intel grzebie się ze swoim MICem (autor: Qjanusz | data: 24/11/11 | godz.: 09:03)
    za jakiś czas okaże się że x86/64 będzie służył tylko do wymiany informacji liczonych w całości przez GPGPU.

  2. ... (autor: Sławekpl | data: 24/11/11 | godz.: 11:05)
    dział marketingu nV nadal działa :P

  3. @temat (autor: Mariosti | data: 24/11/11 | godz.: 11:05)
    Po polsku "Tokyo Institute of Technology" to politechnika Tokijska. Dodatkowo warto wspomnieć że jako pamięć masową w węzłach obliczeniowych tsubame wykorzystuje ssd ;]

  4. @up (autor: Plackator | data: 24/11/11 | godz.: 13:18)
    Raczej nie MLC bo by miesiąc pożyła :P no wyniki na HDD.

  5. @4. (autor: Mariosti | data: 24/11/11 | godz.: 14:26)
    To jest nieco bardziej skomplikowane, macierze hdd tworzą tam chmurę na bieżąco backupującą regularnie postępy w obliczeniach. Tak się składa że dwóch doktorów ode mnie z uczelni było tam miesiąc temu i inżynierowie z tsubame narzekali że w porównaniu do hdd dość często muszą wymieniać ssd, ale opłaca się bo znacząco zwiększają wydajność węzłów obliczeniowych (co w pierwszej chwili wydaje się dziwne, ale jednak w praktycznych zastosowaniach superkomputerów nigdy nie ma dość dużo ramu i swap z 1000x szybszym czasem dostępu robi gigantyczną różnicę).

  6. @up (autor: Plackator | data: 24/11/11 | godz.: 16:30)
    No i mniejszy pobór mimo częstej wymiany, ciekawe jakie tam SSD kupują.

    Dobrze by było jak by powstał SPRZĘTOWY system backupowania danych z SSD na HDD, do zastosowań pol-profesjonalnych i domowy.


  7. @6. (autor: Mariosti | data: 24/11/11 | godz.: 17:19)
    http://www.gsic.titech.ac.jp/...FICATIONS_en_0.pdf

    Nie wspominają jakie to konkretnie SSD, ale pojemności sugerują dość jednoznacznie że są oparte o kontrolery sandforce (60 i 120GB w różnych konfiguracjach zależnie od typu węzła).

    Swoją drogą nawet nie jestem przekonany aby były to modele na SLC, bo znacząco zwiększyłyby koszt, a i tak padanie nie stanowi dla nich problemu. Dodatkowo jeśli weźmiemy pod uwagę np takie testy:
    http://www.corsair.com/...series-ssd-life-testing/
    to widać że żywotność nawet nowych ssd na 25nm MLC jest bardziej taka jaką ja zawsze sugeruję, a nie popularni bardzo jasnowidze który myślą że wszystko jest tak proste jak 2+2.
    W skrócie 40GB Corsair Force na SF1200 i kościach 25nm MLC został sprawdzony w skrajnie pesymistycznym teście. Mianowicie mając 37.2GB pojemności zaczęto przeprowadzać bez przerwy cykle Zapis 36GB (96,8% dostępnej pojemności), odczyt 36GB, policzenie sumy kontrolnej odczytanych danych dla sprawdzenia ich integralności, nadpisanie 36GB itd. w kółko.

    Przez cały test, aż do padnięcia ssd nie było ani jednego problemu z integralnością danych, przez cały czas ssd utrzymywał wydajność bardzo zbliżoną do nowej sztuki. Procentowa ocena smart'a w miarę testowania liniowo spadała w raz z zapisami, aż do 10% (przy 140TB zapisów), po czym ssd zostawił wciąż bardzo dużo czasu na wymianę, bo padł dopiero po zapisaniu na nim 240TB danych.
    Zakładając że przeciętny użytkownik zadowoli się średnio 20GB zapisów codziennie, taki ssd wytrzymałby 33 lata, a to tylko wg tego testu który jest dość mocno pesymistyczny z uwagi na to że komórki flash znacznie szybciej ulegają degradacji przy ciągłym zapisywaniu, niż w sytuacji w której mają dłuższe przerwy między okresami zapisywania. Dodatkowo przetestowany był model na 25nm kościach flash, o tylko 40GB pojemności i oparty o kontroler SF1200 który ma o rząd wielkości słabszy mechanizm sprzętowego ECC w porównaniu do aktualnych SF2500.


  8. Do budowy wykorzystano 2816 procesorów 6-Core (autor: Blufox | data: 25/11/11 | godz.: 01:19)
    Intel Xeon X5670 2,93Ghz (12M Cache, 6.40 GT/s Intel QPI i TDP 95W - 32nm). Do tego 4224 układy grafiki NVIDIA Tesla M2050 wraz zpamięcią DDR3 o pojemności 80,6 terabajtów + pamięcią kart nVidia GPU o wielkości 12,7 terabajta. Dyski SSD są prawdopodobnie produkowane przez firmę Intel...

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.