Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Poniedziałek 4 października 2010 
    

Nvidia będzie produkować superkomputery


Autor: Wedelek | źródło: Xbit Labs | 10:11
(34)
Firma Nvidia po raz kolejny podkreśliła swoje aspiracje do miana najmocniejszego z rozgrywających na rynku rozwiązań profesjonalnych. Aby "słowo stało się ciałem" producent postanowił poszerzyć swoją działalność o produkcję wydajnych superkomputerów typu PetaFLOP. Do ich budowy wykorzystane zostaną rozwiązania z rodziny Tesla 2000, które w niektórych rozwiązaniach są nawet kilkadziesiąt razy wydajniejsze niż typowe CPU. Przedstawiciel korporacji z Santa Clara - Andy Keane w wywiadzie dla InsideHPC.com podkreślił jak ważny dla jego firmy jest rynek HPC i rozwój GPGPU. Znany producent kart graficznych ma bowiem zamiar zdominować sektor rozwiązań profesjonalnych swoimi układami i trzeba przyznać, że nie jest pozbawiony szans.

Oczywiście aktualnie wykorzystanie GPU nadal nie jest wielkie ale zalety akceleratorów są coraz mocniej podkreślane a w tym przypadku jak wiadomo głównym aspektem branym pod uwagę jest wydajność, a dopiero później cena. Obecnie istnieją dwa superkomputery zbudowane w oparciu o karty graficzne, a są to Nebulae oraz Tianhe-1. W przypadku pierwszego z nich do budowy wykorzystano 4640 układów Tesla C2050, natomiast w drugim królują Radeony HD 4870 X2 w liczbie 2560.

 


    
K O M E N T A R Z E
    

  1. CUDA (autor: Conan Barbarian | data: 4/10/10 | godz.: 10:16)
    Niech sobie produkują, ale rynku PC lepiej niech nie olewają, gdyż monopol to rzecz jest straszna, co powoli udowadnia nam Intel

  2. trzeba dodac że oba umieszczono w Chinach, (autor: Qjanusz | data: 4/10/10 | godz.: 10:20)
    i Nebulae jest sporo wydajniejsze niż Tianhe-1.

    Oczywiście sporo jeszcze im brakuje do Jaguara zbudowanego na Opteronikach, ale tendencja wykorzystania GPU raczej się nie odwróci.

    W sumie dobrze życzę nVidii na tym poletku. Wzrost zainteresowania GPGPU na rynku PRO, na pewno przełoży się również na markecie konsumenta, zwłaszcza że od dołu akcję będzie wspierał Fusion.

    Generalnie news bardzo pozytywny :-)


  3. @Conan Barbarian (autor: Qjanusz | data: 4/10/10 | godz.: 10:21)
    ... co powoli raczej przestaje udowadniać Intel.

  4. >>> (autor: tompo75 | data: 4/10/10 | godz.: 11:06)
    Intel trochę przesadza z tymi cenami więc traci na rzecz amd/ati, no i ze zmianą podstawek co kwartał.
    A tu pewnie zaraz zacznie się kolejna trolliada, gdzie jedni będą mówić że to przyszłość i super wizja, inni że nv się kończy i musi iść gdzie indziej.
    Pewnie prawda jak zawsze po środku, nie ma chwilowo kasy za vga, to gdzieś trzeba jej poszukać by opłacić przyspieszenie prac nad jej rozwojem i poszukać dodatkowej gotówki w innych segmentach.


  5. Nvidia zdobywa kolejne (autor: Sony Vaio | data: 4/10/10 | godz.: 11:08)
    rynki, mają wizję i finezję, brawo.

  6. Tianhe-I vs Nebulae (autor: accerian | data: 4/10/10 | godz.: 11:16)
    Tianhe-I -1.206 petaflops (2560 grafik)
    Nebulae -1.271 petaflops (4640 grafik)
    Hmm i który jest lepszy ?


  7. Nvidia zawsze była profesjonalna (autor: pomidor | data: 4/10/10 | godz.: 11:25)
    i dużo robiła aby zdobywać nowe rynki. Teraz wejdą do poważnych gałęzi przemysłu, czyli zbrojeniówka, sprzęt medyczny, energetyka, produkcja filmów, obliczenia naukowe itd. Tam są miliardy $ do zgarnięcia, trzeba tylko zaprezentować kompletne rozwiązania sprzętowo-softwareowe wraz ze wsparciem. Zaś ATI w tym czasie będą wytężać wszystkie siły, aby w 3D Marku fusion wypadał lepiej od Sandy Bridge.

  8. hmm (autor: Seba78 | data: 4/10/10 | godz.: 11:28)
    łatwy do przewidzenia ruch. Ciekawe tylko, czy od lat planowany czy raczej wynik chwilowej utraty kontroli na rynku konsumenckich GPU. Jeśli uda się przekonanie rynku do tej technologi to może być to sprytny ruch i bardzo dochodowy. Mogą uciec AMD z trudnego rynku na nowy, bardziej dochodowy i co najważniejsze niemal dziewiczy. No ciekawe jak to wszystko się zakończy.

  9. Czy zauważyliście (autor: bananowy song | data: 4/10/10 | godz.: 11:30)
    że posty pomidora są rozwinięciem postów Sony Vaio? Używają tych samych wyrażeń. Wg. mnie to jedna osoba. Koleś ma po prostu schizofrenie.

  10. Qjanusz (autor: Aamitoza | data: 4/10/10 | godz.: 11:39)
    Ciężko, żeby nie był sporo szybszy, skoro posiada prawie 2x więcej Xeonów ;) - 70k vs 120k. Dodać trzeba też o tego, że Nebulae składa sie z najnowszych 6cio rdzeniowych nehalemów, a Tianhe-1 z 4 rdzeniowych nehalemów i 4 rdzeniowych core2, więc Nebulae jak widać jest dodatkowo napędzany przez HT w dużo większym stopniu niż Tianhe.

    Inna sprawa, że linpak nie lata na GPU z tego co się orientuję, więc wynik w top 500 jest nabity na samych CPU.


  11. sony i pomidory (autor: Qjanusz | data: 4/10/10 | godz.: 11:44)
    skoro nVidia taka innowacyjna, to napiszcie pieski dlaczego Tianhe-1 powstał sporo wcześniej niż Nebulae?

    Serwer z Teslą zawiera również niemal dwa razy więcej GPU niż ten od AMD. Czy wg Was pozycja innowacyjnego lidera przedkłada się na TAKI wzrost wydajności w stosunku do większego upakowania gratów, jaki widać na przykładzie tych dwóch serwerów?

    Proszę o odpowiedzi. Chcę poznać Waszą definicję firmy innowacyjnej :-)


  12. @pomidor (autor: Qjanusz | data: 4/10/10 | godz.: 11:47)
    "Zaś ATI w tym czasie będą wytężać wszystkie siły, aby w 3D Marku"

    jak na razie koleżko, to w kurniku rządzi serwerek zbudowany na starych Opteronikach, który gromi wszelkie GPGPU, Xeony i inne IBMy.

    Zrozumiał aluzję? :-)


  13. @11 (autor: pomidor | data: 4/10/10 | godz.: 11:52)
    Nie jestem żadną kopią ani morgiego ani SV. Co do podobieństwa, to po prostu fani Intela / nvidii posiadają rzeczowe argumenty, które starają się spokojnie i w pełni przedstawić - przynajmniej mnie to tyczy. Zaś fanów ATI / AMD łatwo poznać po emocjonalnych wypowiedziach, fantazjach o niszczeniu dominatorów, bluzgach i obrażaniu innych.

  14. @Pomidor (autor: accerian | data: 4/10/10 | godz.: 12:22)
    Właśnie się sam pogrążyłeś. Rzeczowość SV i Morgiego są na poziomie 7 latków (mam nadzieje że żaden 7 latek się nie obrazi) Natomiast Twoje wypowiedzi nie są poparte żadnymi faktami.

    A zapominałem dodać " Teraz wejdą do poważnych gałęzi przemysłu, czyli zbrojeniówka, sprzęt medyczny, energetyka, produkcja filmów, obliczenia naukowe itd" widać chłopcze że nie bardzo masz wiedzę na temat sprzętu profesjonalnego. Zarówno Ati jak i NV są na tych rynkach od lat i w zależności od firmy i userów jest wybrana jedna albo druga. Teraz powstaje tylko pytanie która z tych firmy przechyli szale na swoją stronę. Nvidia może i ma na ten moment CUDA które jest niezła kartą przetargową ale mają dużo większy problem z niezawodnością sprzętu co jest często jednym z najważniejszych czynników przy wyborze sprzętu


  15. @pomidor (autor: Qjanusz | data: 4/10/10 | godz.: 12:26)
    jako fan nVidii odpowiedz mi profesjonalnie i bez emocji na dwa pytania, które zadałem Ci/Wam w #11

  16. pomidor :P (autor: cyferluu | data: 4/10/10 | godz.: 12:33)
    "Zaś fanów ATI / AMD łatwo poznać po emocjonalnych wypowiedziach, fantazjach o niszczeniu dominatorów, bluzgach i obrażaniu innych."

    tacy ludzie stoją po obu stronach bo to nie fani tylko TROLE!
    komentowanie atrykułów z beczki AMD/NVIDIA/INTEL przypomina mecze. Mamy rozsądnych pełnych kultury kibiców( fanboye rzeczowo komentujący-czasami sie spierający) i pseudokiboli (trole)

    co do arta. to spoko niech nvidia urwie kawałek ciastka intelowi ibm i amd czemu nie :D mnie to w sumie rybka nie mam tam interesu :D tylko,że dla CUDA/STREAM potrzebne są specjalnie pisane programy i wtedy właśnie wydajność takiego rozwiązania jest widoczna. wiec nie ma co się spierać o technikalia ale o soft bardziej :D


  17. . (autor: Lolo64_EX1_rev2.0 | data: 4/10/10 | godz.: 13:33)
    .

  18. No moze sie przyjmie (autor: morgi | data: 4/10/10 | godz.: 13:40)
    w tej chwili jako powazna alternatywa do Xeonow, bo analitycy widza tylko x86, reszta konczy z wielkim hukiem.
    'Microprocessors based on non-x86 are going to extinct, an analyst said. Servers chips from IBM or Sun have no business future, according to Jon Peddie, a leading analyst.'
    http://www.xbitlabs.com/...to_Extinct_Analyst.html


  19. . (autor: tompo75 | data: 4/10/10 | godz.: 13:41)
    .

  20. @up (autor: accerian | data: 4/10/10 | godz.: 13:42)
    "Nie umieją zaistnieć na rynku konsumenckim, to próbują sił w korporacjach. Gówno tam zarobią. NVIDIA się kończy"
    Kolego pieniądze są włąsnie tam. Jak byś spojrzał na zarobki dużych firm sprzedających gotowe rozwiązania (Dell,HP itd itp) to byś zobaczył że zarobek z klientów prywatnych to maksymalnie "zaledwie" 25%


  21. co wy ludzi (autor: Rajq | data: 4/10/10 | godz.: 13:49)
    gadacie ?? Poczytajcie troche
    accerian
    Tianhe-I -1.206 petaflops (2560 grafik)
    Nebulae -1.271 petaflops (4640 grafik)
    Hmm i który jest lepszy ?
    Tylko w Nebuli jest 4,6 k rdzeni
    a w Tianhe ktory tak ochoczo przytaczasz jest kart to prawda 2,5 tyle ze rdzni 5,1k bo tam siedza karty X2.


  22. accerian (autor: Lolo64_EX1_rev2.0 | data: 4/10/10 | godz.: 14:27)
    Ale o czym ty mówisz? Porównujesz śmieszną NVIDIĘ z masa wpaden an rynku konsumenckim do potentantów IT takich jak IBM? Zastanów się trochę.

  23. @Rajq (autor: Promilus | data: 4/10/10 | godz.: 14:31)
    Tak, najnowsze Fermi kontra poprzednia generacja AMD ;)

  24. @up (autor: Qjanusz | data: 4/10/10 | godz.: 14:37)
    Najmocniejsze Fermi z 448 CUDA Cores któremu przyjdzie walczyć z HD6000 porównano do HD4000 :-)

    Ambitnie...


  25. CUDA i gpgpu (autor: Mariosti | data: 4/10/10 | godz.: 17:21)
    Widać pewien trend... Nvidia forsuje CUDA, a więc i swoje karty graficzne. AMD forsuje OpenCL'a który działa na szerokiej gamie sprzętu którego oni nie robią... optymalny kod dla tych urządzeń jest mocno zwektoryzowany (co umożliwia wykorzystanie jednostek SIMD w procesorach wielordzeniowych, jak również umożliwia wykorzystanie potencjału radeonów).
    Nvidia specjalnie nie przestała forsować CUDA na rzecz OpenCL'a bo doszłoby do jednej zasadniczej rzeczy... czyli do konfrontacji radeonów i gf'ów na polu na którym obie architektury mogą pokazać pełnię swoich możliwości. Nvidia wynik takiej konfrontacji zna i dlatego będzie forsować CUDA tak długo jak będzie to możliwe... miło z ich strony że przynajmniej OpenCL'a wspierają... to by było dopiero niemądre posunięcie gdyby spalili za sobą taki most...


  26. Mariosti (autor: morgi | data: 4/10/10 | godz.: 19:32)
    Nvidia promuje swoje technologie i produkty, ba nawet sa do kupienia, a co maja zamiar oferowac inni to Nvidia tez juz ma i bez picu.

  27. Ważna jest rozpoznawalna marka (autor: Sony Vaio | data: 4/10/10 | godz.: 20:09)
    Nvidia robi szum, o amd w pro się nie mówi.

  28. 27. @ (autor: Mariosti | data: 4/10/10 | godz.: 20:34)
    AMD w htpc po prostu się wykorzystuje na dużą skalę od bardzo wielu lat, nvidia dopiero od niedawna próbuje coś osiągnąć na tym rynku swoimi (znacznie słabszymi od radeonów właśnie w tych profesjonalnych zastosowaniach) kartami.

    Chodzi tu i o praktyczną moc obliczeniową pojedynczego gpu i o stosunek tej mocy do zużywanej energii.

    Ale bardzo dobrze, niech tak robią, byle nie zapomnieli o rynku na którym mają ugruntowaną pozycję czyli kart graficznych do pc'tów. Już raz nvidia zrobiła taki głupi ruch próbując konkurować z intelem na rynku chipsetów marnując swoją pozycję jaką mieli na rynku chipsetów dla platform amd. W efekcie zamiast posiadania dużej części rynku chipsetów pod procesory amd, nvidia nie ma ani rynku na chipsetach dla intela ani dla amd.

    Mam wielką nadzieję że nie zrobią znów podobnego błędu, bo jeśli przestaną się liczyć na rynku kart graficznych to powrócą czasy high-end'u za ponad 3tys zł i mainstreamu za ponad 1tys...


  29. Mariosti (autor: morgi | data: 4/10/10 | godz.: 21:22)
    Praktyczna moc obliczeniowa siedzi u Nvidii, inni maja papier i praktyczna indolencje we wsparciu programistycznym, moze beda probowac to urealnic w przyszlosci.

  30. @morgi (autor: Mariosti | data: 4/10/10 | godz.: 22:42)
    Widzę że nie zrozumiałeś tego co napisałem... Porównywałem praktyczną moc obliczeniową... Osobiście programuję w opencl'u i w większości obliczeń równoległych można z radeonów wycisnąć w praktyce około 70% ich teoretycznej mocy obliczeniowej (przy pojedynczej precyzji, przy podwójnej jest to mniej więcej 99%). Biorąc to pod uwagę gf'y są bez porównania gorsze w zastosowaniach profesjonalnych. Nie ma znaczenia jak długo będziesz temu zaprzeczał, bez radykalnej zmiany architektury gf'ów nigdy nie będą miały porównywalnej praktycznej mocy obliczeniowej do radeonów.

  31. @cont'd (autor: Mariosti | data: 4/10/10 | godz.: 22:44)
    A razem z HD6000 przestrzeń dzieląca radeony od gf'ów się tylko pogłębi bo dzięki 4wymiarowym grupom shaderów będzie możliwe ich wykorzystanie w 80-90%.

  32. @Mariosti (autor: Promilus | data: 5/10/10 | godz.: 08:13)
    Programowałeś radki w OCL? To w twoim kodzie nigdy nie przeszkadzał ci podsystem pamięci lokalnej na HD4k? :P

  33. hmmm... (autor: Sandacz | data: 5/10/10 | godz.: 12:15)
    Zastanawiam się dlaczego nagle teraz NV zmienia strategię - odchodzenie od rynku gier i rozbudowywanie obliczeń masowych, a nie wtedy gdy Gforsy były niekwestionowanym liderem???

  34. Jest takie powiedzenie: (autor: mоrgi | data: 5/10/10 | godz.: 17:45)
    "Tonący brzytwy się chwyta..."

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.