Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 19 sierpnia 2016 
    

Xeon Phi nie taki wydajny jak go Intel maluje


Autor: Wedelek | źródło: Hexus | 06:46
(17)
Podczas konferencji ISC High Performance Intel zachwalał wydajność Xeonów Phi, przekonując, że w niektórych zastosowaniach są one o wiele szybsze od tradycyjnych kart graficznych. Szczególnie dużą przewagę nowe układy miały zdobywać na polu sztucznej Inteligencji. Budowane z użyciem Xeonów Phi komputery z oprogramowaniem sieci neuronowej miały być podczas procesu uczenia znacznie wydajniejsze od profesjonalnych kart graficznych. Nvidia postanowiła udowodnić, że to bzdura i przetestowała cztery Titany X oraz cztery Xeony Phi w benchmarku Caffe AlexNet.

Wynik testu okazał się być druzgocący dla Intela, a przy okazji dowiedzieliśmy się skąd wzięła się rozbieżność w testach uzyskanych przez Nvidię oraz Intela. Otóż ten drugi „przez przypadek” wykorzystał przestarzałą wersję oprogramowania testowego. Oczywiście Nvidia nie omieszkała dosadnie skomentować tego faktu, nazywając swego konkurenta „początkującym”.


 


    
K O M E N T A R Z E
    

  1. Xeon Phi (Larrabee) to fajny projekt naukowy, (autor: Qjanusz | data: 19/08/16 | godz.: 08:05)
    ale nie narzędzie komercyjne to raz, a dwa to fajnych czasów dożyliśmy. Niekwestionowany lider CPU musi kłamać żeby udowadniać wyższość swojego.

    nVidia natomiast wyszła z tego wydarzenia na mistrza ciętej riposty :D
    W takich sytuacjach już mniejsza o to, że sama ma dużo za uszami w podobnych tematach.


  2. Zobaczyli pewnie wydajność Zen (autor: Sony Vaio Wracajo | data: 19/08/16 | godz.: 11:14)
    więc go specjalnie przyblokowali do 10% możliwości, po co puszczać pełną wydajność jak i tak mogą odcinać kupony i miażdżyć konkurencję.

  3. BZDURY (autor: komisarz | data: 19/08/16 | godz.: 11:17)
    Intel nie testowal rozwiazania nvidii tylko wzial jej wydajnosc z oficjalnych slajdow nvidii.

    A nvidia niech sie nie rzuca, bo sama co chwila oszukuje - a topodnosi taktowana w 3dmarku, a to obniza filtrowanie anizotropowe, a to doda gdzies chamska teselacje ukrytego kamienia zeby radeon polegl...


  4. Wjanusz (autor: komisarz | data: 19/08/16 | godz.: 11:18)
    Nie narzedzie kompercyjne? A to ciekawa historia, dobrze ze tworcy do niedawna naszybszego superkomputera o tym nie widzieli https://en.wikipedia.org/wiki/Tianhe-2

  5. i byli bardzo zadowoleni (autor: komisarz | data: 19/08/16 | godz.: 11:19)
    i cheili wiecej, ale niestety:
    " In 2015, plans of the Sun Yat-sen University in collaboration with Guangzhou district and city administration to double its computing capacities were stopped by a US government rejection of Intel's application for an export license for the CPUs and coprocessor boards."


  6. @Qjanusz (autor: VP11 | data: 19/08/16 | godz.: 11:39)
    Juz o tym pisano i udowodnili ze NVidia tez klamie. Bo porownuje wydajnosc w roznych wersjach programu, w odroznieniu od intela prezentujacego wyniki w jednej wersji.

  7. @02 Czy jego wysokość troll (autor: kombajn4 | data: 19/08/16 | godz.: 11:48)
    Sony Vaio choćby tak pobieżnie generalnie umie rozróżnić, choćby po obrazku, czym się różni CPU np wspomniany Zen, i7 czy Xeon od karty na PCI-E będącej koprocesorem najczęściej wykorzystywanym do obliczeń naukowych jak np Xeon Phi czy Tesla? Nie? No to tak myślałem. Spróbuje ci to wytłumaczyć na twoim poziomie intelektualnym:
    Na poniższym obrazku widzisz dwa osobniki mające ze sobą sporo wspólnego a jednak różniące się diametralnie.
    https://i.ytimg.com/...OzpmK1iIM/maxresdefault.jpg
    Podobnie rzecz się ma z CPU i koprocesorem.


  8. @komisarz (autor: Qjanusz | data: 19/08/16 | godz.: 12:04)
    twórcy do niedawna najszybszego superkomputera dostali ekstra cenę za możliwość wypromowania Xeona Phi i nie wahali się z okazji skorzystać. To jedyny większy projekt, którego częścią jest Xeon Phi. Narzędziem komercyjnym był w tym przypadku Xeon.

    Wydajność delikatnie ujmując nie gromi w porównaniu z GPGPU (Tesla/FireStream).

    W czasie gdy zbudowano Jaguara na Opteronach, te ostatnie też nie należały do żadnej czołówki. A jednak znalazły się w potworze.

    Co do nVidii, to tak jak pisałem. Wszyscy wiedzą że też ma dużo za uszami.


  9. qjanusz (autor: komisarz | data: 19/08/16 | godz.: 15:28)
    sam sobie zaprzeczasz. Raz ze xeon nie jest narzedziem komercyjnym , raz ze jest... przyklady ktore podajesz tez sa dosc dziwne, bo nie ma znaczenia czy wydajnosc gromi czy nie gromi, tylko to, czy mozna zbudowac cos sensownego i czy ma praktyczne zastosowania. Jak widac mozna i to bardzo.

  10. @komisarz (autor: Qjanusz | data: 19/08/16 | godz.: 16:50)
    Tianhe-2 napędzane są przez zwykłe Xeony i Xeony Phi. Dokładnie tak czytaj mój post.

    Co do reszty i mojego przykładu, to wiesz jak to jest. Zależy jakie kto ma podejście. Jak masz odpowiednie podejście i od cholery kasy, to kupisz "Irysy" van Gogha, wytniesz z ramy i zrobisz z niego serwetkę pod kubek z kawą. Ma praktyczne zastosowanie? Ma! Serwetka to sensowny przedmiot? A i owszem.

    Xeon Phi od czasów jeszcze Larrabee pochłonął mnóstwo pieniędzy, przeszedł po drodze kilka metamorfoz, ale dalej jest ciekawostką technologiczną, dla której a i owszem, przy pewnej dozie fantazji i pieniędzy, może znaleźć praktyczne zastosowania.

    Taki jest mój punkt widzenia i wcale nie nakłaniam Cię żebyś się ze mną zgadzał :-)


  11. @Qjanusz (autor: ligand17 | data: 19/08/16 | godz.: 18:52)
    czy taki mistrz to nie wiem. Zwróć uwagę, że Intel zaprezentował te slajdy w czerwcu. A teraz nVidia pokazuje wydajność na oprogramowaniu wydanym w sierpniu.

  12. @10. (autor: anemus | data: 20/08/16 | godz.: 03:57)
    Phi jest udanym projektem i sprawdza się bardzo dobrze. Ogólnie skaluje się znacznie lepiej niż Tesle.Potwierdza to sama Nvidia uciekając się do kłamstw - testy na różnych wersjach oprogramowania, sztuczne podrasowywanie pod konkretny test i zarzucanie I itelowi kłamstwa mimo, że nic takiego nie miało miejsca.

  13. soft przystosowany jest pod x86. Phi to x86, więc na start Phi będzie szybsze (autor: Qjanusz | data: 22/08/16 | godz.: 12:15)
    ale po dopracowaniu softu pod GPGPU, użyciu komilatora itd... przewaga GPGU nad x86 jest bezdyskusyjna. Stąd istotny czas na dopracowanie rozwiązania, aby zysk z zastosowania GPGPU był bardzo widoczny.

    Tianhe-2 (55 petaflops) zbudowany jest na Xeon Phi, ale jeżeli to rozwiązanie byłoby tak doskonałe, to kolejne zapowiedziane superkomputery (Summit, Sierra 150 - 200 -petaflops) nie byłyby budowane z Tesklą na pokładzie dla rządu USA

    Tianhe-2 to pokazówka, a rdzenie x86 najzwyczajniej nie są tak wydajne jak GPGPU z dostosowanym softem.
    Niezależnie od tego jak obydwa newsowe kłamczuchy będą to pokazywać.


  14. @Qjanusz (autor: Promilus | data: 22/08/16 | godz.: 18:42)
    "soft przystosowany jest pod x86" nope, stary. Algorytmy są uniwersalne, jak nie jest za bardzo pokręcony a ma dużo danych do przemielenia to działa wyśmienicie na GPU, jak jest pokręcony instrukcjami warunkowymi czy rekurencją to Phi zrobi GPU z d... jesień średniowiecza :) Tak, 1 rdzeń Phi nadal znacząco wyprzedza możliwościami jeden cuda core i to się nigdy nie zmieni. MICe zawsze będą bardziej zaawansowane w przetwarzaniu wątku (bo lepsze branch prediction, cache, scheduler & dispatcher, AGU) od cuda cores, ale zawsze będą ustępowały w przetwarzaniu danych (bo mniej ALU). Chyba, że nvidia mocno zmiksuje ARM z GPU, ale nic na to nie wskazuje... poza tym intel też ma już osiągnięcia w IGP DX10+ więc może łatać wydajność jak chce (kosztem tranzystorów). Stać go i jest w stanie to zrobić.

  15. oczywiście że długa instrukcja stanie w gardle GPGPU, (autor: Qjanusz | data: 22/08/16 | godz.: 20:49)
    ale pamiętajmy że właśnie po to wydajnych w maszynkach, nie tylko z TOP500, są klasyczne Xeony i IBM Power, aby na GPGPU został rzucony kod, którym GPGPU się udławi.

    Zgadzam się że jeden rdzeń Phi wyprzedza 1 rdzeń CUDA, ale trzeba pamiętać że w jednej karcie Teska K40 mamy tych rdzeni ponad 2800, a w odpowiedniku cenowym Phi rdzeni mamy niecałe 250.

    Co do łatania IGP DX10+, to może się mylę, ale Quick Sync jest jedynym osiągnięciem Intela w tym temacie. Intel raczej nie podąży tą drogą. Beginner to mało napisane :-)


  16. @Qjanusz (autor: Promilus | data: 23/08/16 | godz.: 17:21)
    QuickSync nie ma nic wspólnego z jakimkolwiek API do gier. Natomiast IGP ma jednak jednostki które obsługują API DX11 (i za jakiś czas DX12), chyba OpenCL też. Skoro tak to nic nie stoi na przeszkodzie by oprócz mocarnych rdzeni do przetwarzania wątków x86 dodać słabe, ale w dużej ilości rdzenie do przetwarzania danych (cuda core like). I różnica jest taka, że NV jest dużo do przodu względem GPGPU, ale nawet z integracją ARM może to nie wystarczyć do tandemu x86 intela + mnóstwo ALU z IGP. Aż dziw bierze, że nikt jeszcze tego u intela nie robi.

  17. @Promilus (autor: Qjanusz | data: 23/08/16 | godz.: 23:55)
    no proszę... a myślałem że QSync na EU Unit stoi.

    Co do IGP i dajmy takie OpenCL, to jest i działa. IrisPro całkiem dobrze sobie radzi. Całkiem dobrze, jak na IGP:
    http://www.anandtech.com/...ore-i74950hq-tested/17

    właśnie dlatego nikt na poważnie sobie głowy tematem nie zawraca.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.