Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Środa 8 lutego 2012 
    

Trwają prace nad wykorzystaniem potencjału układów heterogenicznych


Autor: Wedelek | 15:05
(15)
Najwięksi gracze na rynku procesorów nieustannie pracują nad własnymi procesorami heterogenicznymi, a AMD i ARM uważają, że w przyszłości tradycyjne jednostki CPU nie będą mieć racji bytu, poza zastosowaniami profesjonalnymi. Ale nie tylko wielkie firmy uważają, że połączenie CPU i GPU to przyszłość branży IT. Podobne zdanie podzielają także pracownicy naukowi z Uniwersytetu Północnej Karoliny, którzy opracowali własną technikę zarządzania układami heterogenicznymi.

Według Dr. Huiyang Zhou właściwe podzielenie zadań między CPU (złożone algorytmy) i GPU (proste funkcje) pozwoli osiągnąć wydajność wyższą o ponad 20% w niemal wszystkich zastosowaniach. Działanie wspomnianej technologii jest bardzo proste. Ponieważ CPU o wiele lepiej radzi sobie z ze złożonymi danymi, więc będzie odpowiedzialny za ich podzielenie i przesłanie tak sformatowanych informacji o danych do GPU, które z kolei będzie wykonywać poszczególne funkcje. Ponieważ te fragmenty kodu nie będą przesadnie skomplikowane, więc GPU będzie w stanie wykonać je szybciej niż CPU.

 


    
K O M E N T A R Z E
    

  1. ma to sens (autor: Qjanusz | data: 8/02/12 | godz.: 15:15)
    ale co na to kompilatory Intela?

  2. @Qjanusz (autor: VP11 | data: 8/02/12 | godz.: 15:20)
    albo dostrzeze i wykorzysta, albo straci rynek jako kompilatorow.
    Po co komu kompilator okrojony, jak mozna miec pelnowartosciowy.


  3. Intelowi takie cos nie zagrozi (autor: djXone | data: 8/02/12 | godz.: 15:47)
    maja $ wiec moga pracowac caly czas nad x86, tak aby mimo slabszego ukladu graficznego "by Intel", ich procki nie odstawaly od konkurencji, jako ze roznica jest zbyt mala (20% z grafika, a intel tez ma swoja slabsza co sprawia ze wydajnosc dzieki grafice by AMD zostanie znikomo podniesiona wzgledem Intela). Dlatego moim zdaniem Intel nie powinien stwarzać problemów, bo wcale im to nie stwarza zagrożenia.

  4. Oczywiste odkrycie naukowe (autor: pomidor | data: 8/02/12 | godz.: 15:55)
    Niech sobie doktorek pogra w BF3, to odkryje że GPU to trochę więcej niż 20%.

  5. 20% ??? (autor: Mario2k | data: 8/02/12 | godz.: 15:57)
    Zarty jakies czy cos . Takie niezzlozone instrukcje to gpu policzy 50 razy szybciej niz szescio rdzeniowe cpu i7. Obawiam sie czy cpu nadazy z przygotowaniem tych danych dla gpu.

  6. Intel ma lepsze pomysły (autor: pomidor | data: 8/02/12 | godz.: 16:05)
    W Haswell będzie sprzętowo zaimplementowana obsługa pamięci transakcyjnej. To bardzo ułatwi pisanie upragnionych wielowątkowych aplikacji. Będzie można szybko i łatwo wykorzystać wszystkie rdzenie CPU.
    Czy AMD planuje coś takiego, czy jak zwykle za parę lat skopiuje od Intela ? Napiszcie fandoje AMD.


  7. Intel ma lepsze pomysły - pamiętamy (autor: Qjanusz | data: 8/02/12 | godz.: 16:17)
    http://www.idg.pl/...rabee.gpu.intela.w.akcji.html

  8. @ pomidor (autor: VermilioN | data: 8/02/12 | godz.: 16:22)
    Dlaczego jesteś zgorzkniałym małym człowieczkiem, którego nikt z otoczenia nie akceptuje? Próbujesz zaistnieć swoją miałkością w sieci?

  9. @06 (autor: Plackator | data: 8/02/12 | godz.: 16:41)
    Powiedz co AMD skopiowało od intela
    - Intel wpierw szykanował AMD a potem bezczelnie skopiował i wypromował jako nowoczesna w 95, wstawienie sprzętowego kompilatora i pozostawienie tylko 2 instrukcji pozwalających na dostęp do pamięci RAM.
    - Intel stworzył QPI na wzór AMD'wskiego HT
    - Intel skopiował bezpośrednio od AMD, rozszerzenie x86-x64(AMD64)


  10. @5 chodzi o to ze cpu musi... (autor: gantrithor | data: 8/02/12 | godz.: 17:20)
    rozlozyc zadania na czynniki pierwsze ktore pozniej obliczy gpu narazie programisci osiagneli wydajnosc 20% moim zdaniem to bardzo duzo jak by nie patrzec zawsze o 20% wiecej niz standard.
    Tez nie wiadomo czy to zalozenia dla jednego rdzenie czy dla calego ukladu.


  11. gantrithor (autor: Mario2k | data: 8/02/12 | godz.: 18:57)
    Pitolisz , 20% extra wydajnosci w jakichs tam obliczeniach dzieki wykozystaniu GPU to sa kpiny.

    albo blad w druku


  12. @11. (autor: Mariosti | data: 8/02/12 | godz.: 19:21)
    Domyślam się że idea tych 20% jest taka że jest to przyspieszenie w zadaniach normalnie wykonywanych przez samo cpu, za pomocą implementacji na cpu, nie na gpu. Dodatkowo jeśli jest to jakaś średnia to jest to fantastyczny wzrost wydajności.

  13. CPU-GPU (autor: Conan Barbarian | data: 8/02/12 | godz.: 21:28)
    Niezwykłe - jeszcze nie tak dawno (90's) były problemy z grafiką zintegrowaną w chipsecie a tu za chwilę nie będzie można odróżnić CPU od GPU.

  14. @pomidor (autor: VP11 | data: 9/02/12 | godz.: 08:38)
    Wiesz ze obliczenia MESowe, czyli bardzo zlozone wykonywane sa na rdzeniach CUDA. A taka karta w cenie procka od Intela potrafi znacznie szybciej policzyc (nawet chodzi o 10 przyspieszenie).
    To kwestia jak bedzie rozwijal sie GPU i czy nie pojawia sie bloki ktore w srodku bez wplywu CPU beda w stanie policzyc. Na razie AMD widzi to tak ze w kostce masz na przemian rdzenie CPU i kilkanascie lub kilkadziesiat jak nie kilkaset rdzeni GPU. I w niektorych obliczeniach beda liczyc zamias CPU. Czyli odciazy wolnego potwora duza iloscia rdzeni GPU. Czyli w konsekwencji bedzie znacznie szybsze od podejscia Intela.

    Zakladam ze za kilkanascie lat to liczyc bedzie GPU a rozproszone rdzenia CPU tylko beda pomagac w zarzadzaniu lub zajdzie metamorfoza i cos bedzie tylko przypominalo obcne rdzenie CPU.

    Dlatego intel przemusowo wpycha swoje gowno w dobry CPU. Dlatego kupilo rozwiazania GPU i wstawia te rdzenie, bo sa wydajniejsze od ich G... Ja widze rozwiazanie ze Intel wykupuje NVidia lub zachodzi transfuzja i na rynku CPU i GPU zostaje dwuch graczy.


  15. ... (autor: Teriusz | data: 9/02/12 | godz.: 19:12)
    Ale to i tak nadal jest problem nienadążanie programistów i softu za możliwościami sprzętowymi. Wszystko się rozbija o napisanie odpowiedniego oprogramowania pod szybkie układy obliczeniowe. Jak nadal w sofcie ciężko jest wykorzystać wszystkie rdzenie tak nadal pisanie pod GPGPU idzie mozolnie. Widać trend, że to konstruktorzy CPU/GPU starają się, i to bardzo, ułatwić programowanie pod OpenCL czy DirectCompute, a i nawet umożliwienie pisania w C# pod GPU.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.