Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Czwartek 15 września 2011 
    

Intel prezentuje na co stać architekturę MIC


Autor: Wedelek | źródło: Xbit Labs | 12:29
(14)
Architektura Intel MIC (Many Integrated Core) ma pozwolić na budowę serwerów, które przyczynią się do rozwoju usług udostępnianych w chmurze, szczególnie tych, gdzie wymagana jest bardzo duża moc obliczeniowa. Podczas tegorocznej imprezy Intel Developer Forum 2011 (IDF) producent postanowił zaprezentować na co stać jego najnowszy produkt wykorzystujący MIC, czyli Knights Ferry. Pokaz obejmował demo technologiczne gry Wolfenstein, odpalonej w rozdzielczości FullHD i odpowiednio podrasowanej efektami głębi ostrości, HDR, refleksami świetlnymi oraz inteligentnym anti-aliasingiem.

Demo było renderowane w czasie rzeczywistym (ray tracing) na komputerze złożonym z ośmiu Knights Ferry, dwóch procesorów Intel Xeon X5690 [3.46GHz, 6 rdzeni, 12 wątków, 12MB pamięci L3] oraz 24GB pamięci RAM typu DDR3-1333MHz.

Specyfikacja Knights Ferry zdradza powiązanie z projektem Larabee, a pojedynczy taki układ składa się z 32 rdzeni x86, taktowanych zegarem 1.2GHz z wsparciem dla technologii quad-HyperThreading (jeden fizyczny rdzeń ma cztery logiczne wątki), które są wspomagane przez 2GB pamięci RAM typu GDDR5 i 8MB współdzielonej poziomu drugiego.

O ile specyfikacja wygląda dość spektakularnie, to już wydajność jest znacznie bardziej przyziemna i wynosi 7TFLOPS dla operacji SGEMM [single precision general matrix multiply].

Jest to już drugi pokaz możliwości architektur MIC, wcześniej na czterech KNF Intel odpalił demo tej samej gry w rozdzielczości 720p.





 
    
K O M E N T A R Z E
    

  1. Te flagi (autor: Irmo | data: 15/09/11 | godz.: 12:33)
    coś mi przypominają, Intel ma jakieś ukryte sympatie ideologiczne?

  2. Cały czas ta sama gra (autor: Plackator | data: 15/09/11 | godz.: 12:38)
    Na dodatek ta gra działała na 1 karcie graficznej parę lat temu, a nie 8 :E

  3. wow! (autor: agnus | data: 15/09/11 | godz.: 12:53)
    Jak zredukują wielkość platformy do normalnych rozmiarów i uzyskają wydajność z pojedynczej KF to możemy gadać, na razie to ciekawostka.

  4. @1 ja bym polecal (autor: biuro74 | data: 15/09/11 | godz.: 13:29)
    odkrycie sympatii do szukania chocby w Google, co to jest Wolfenstein.

    Ja lubie kotleta ze swini. Swinia lubi jesc go*no. To nie znaczy, ze ja lubie jesc go*no.
    Tak samo z flaga. Intel pokazuje demo. Demo pokazuje charakterystyczna flage. To nie znaczy, ze Intel pokazuje flage, tylko demo, w ktorej flaga akurat sie znajduje.
    Go*na nie jadam, jak powiadam.


  5. ostatnio (autor: Rajq | data: 15/09/11 | godz.: 13:53)
    jak pokazywali to demo byl to czysty Ray tracing wiec podejrzewam ze tu bylo tak samo. Wiec Plackator twoja jedna karta graficzna dzialala by z predkoscia 10mpf czyli 10 min per frame.

  6. @up (autor: Plackator | data: 15/09/11 | godz.: 14:44)
    Czyli nie wyczułeś, od razu musisz płakać...
    Zobacz co oznacza emotikon ":E", i domyśl się czym było moje zdanie.


  7. Tia, "mały" progrem oprogramowanie. (autor: MBR[PL] | data: 15/09/11 | godz.: 15:04)
    Już taki R4850 sprzed ponad 3 lat miał wydajność 1 TFLOP, dzisiejsze R6990 mają ponad 5 TFLOP (bez OC). Biorąc pod uwagę że do typowej płyty głównej dostępnej dla każdego Kowalskiego (na AMD 890/990FX) da się upchnąć 4 karty w QuadCrossfire, to daje to lekko ponad 20 TGLOP mocy obliczeniowej dla trochę bogatszego Kowalskiego - dostępne z półki sklepowej. Co z tego skoro nie ma praktycznie oprogramowania potrafiącego to wykorzystać. A jak wygląda wydajność obliczeniowa APP/OpenCL na Radeonach widać choćby po wynikach RC5-72: http://stats.distributed.net/..._id=8&view=tco

    Ten projekt od kiedy pamiętam był bardzo dobrze optymalizowany pod KAZDY CPU/GPU bez sympatii dla danego obozu i pieniędzy za tym stojących jak w przypadku aplikacji komercyjnych, gdzie wspieranie STRAM albo CUDA robi się prawie decyzją strategiczną, a OpenCL prawie nikt się nie interesuje.

    P.S.
    OK - u Intela to rendering w raytracingu, ale biorąc pod uwagę moc obliczeniową i złożoność obecnych procesorów strumieniowych przy odpowiednim nakładzie pracy programistów i na obecnych GPU pewnie by się dało - nikt jednak tak naprawdę tego nie chce. RayTrace rendering będzie pewnie miał swoje 5 minut po premierze GPU wektorowych w przyszłym roku - R79xx od ATI/AMD i odpowiednika nVidii.


  8. zaraz... (autor: Mariosti | data: 15/09/11 | godz.: 15:14)
    8 kart do wolfensteina w fullhd??? Przecież z takim zadaniem radzi sobie obecna średnia półka pojedynczych gpu... a może ten wolf był renderowany z wykorzystaniem raytracing? Ale po screenach nie wygląda na to...

  9. Wiedziałem (autor: Plackator | data: 15/09/11 | godz.: 17:08)
    że intel kiedyś podoła jakiejś grze :E

  10. haha Larabee (autor: RusH | data: 15/09/11 | godz.: 18:03)
    biedny intel ciagle prubuje forsowac na sile szadery na rdzeniach x86

  11. @Mariosti (autor: Promilus | data: 15/09/11 | godz.: 21:15)
    Właśnie realtime raytracing, tyle że ciut uproszczony (czyt. ograniczony względem śledzonych promieni pewnie) dlatego głowy z kaskiem nie zrywa.

  12. @Promilus (autor: Marek1981 | data: 15/09/11 | godz.: 22:08)
    Gdyby nie uprościli to sprzęt raczej by nie podołał.... Ale dobrze że szukają miejsce na spierdzielony projekt.

  13. @Marek1981 (autor: Promilus | data: 16/09/11 | godz.: 10:30)
    Nie jestem specem od raytracingu, ale z tych silników które na GPU obecnie działają (w tym wypadku chodzi mi o luxrays) to jest kwestia taka, że nie ma jakiejś z góry ustalonej granicy jak długo się scena renderuje... sceny które zapuszczałem u siebie po prostu wraz z czasem nabierały wyglądu - gdyby ograniczyć ... nie wiem jak to nazwać... długość i dokładność renderowania to mamy możliwość zrobienia realtime, za to długi rendering bez ograniczeń to fotorealistyczne ujęcia. Nie wygląda mi to na to drugie więc z pewnością jest coś pokombinowane, natomiast sama metoda renderingu to JEST raytracing. Programowy rasterizer jest kilkukrotnie mniej skomplikowany obliczeniowo... może nawet kilkadziesiąt ;) MIC jest świetnym rozwiązaniem, a już intel się o to postara, żeby teslom pogrozić :P

  14. @13. (autor: Mariosti | data: 16/09/11 | godz.: 11:57)
    Zasadniczo w raytracingu można stosować trzy ograniczenia - maksymalną liczbę odbić danego promienia, maksymalną liczbę promieni na które jeden rozprasza się przy pojedynczym odbiciu i minimalna jasność promienia przed jego pominięciem.

    Intel pokazywał już przy testach jakiegoś procesora Quake'a 4 z oświetleniem robionym na rt i wyglądało to doskonale, w odróżnieniu od tego wolfa z newsa.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.