Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Piątek 18 marca 2011 
    

iSuppli: wkrótce połowa procesorów ze zintegrowanym GPU


Autor: Zbyszek | źródło: X-bit Labs | 23:44
(50)
Według instytutu badawczego iSuppli jeszcze w tym roku udział procesorów ze zintegrowanym rdzeniem graficznym w rynku układów z architekturą x86 zbliży się do poziomu 50%. W minionym roku udział ten wyniósł 39% wśród procesorów dla komputerów przenośnych i 36% wśród układów dedykowanych komputerom stacjonarnym. Wynik ten jest w głównej mierze dziełem Intela oraz jego procesorów Atom i Westmere. W bieżącym roku zdaniem iSuppli udział procesorów ze zintegrowanym rdzeniem graficznym wzrośnie do poziomu 50% w notebookach i 45% w komputerach stacjonarnych.

Układy ze zintegrowanym GPU będą bardzo szybko zyskiwać na popularności, by w 2014 zawładnąć około 80% rynku procesorów x86.


 

    
K O M E N T A R Z E
    

  1. Dzięki Intelowi oczywiście (autor: pomidor | data: 18/03/11 | godz.: 23:59)
    AMD ma 20% rynku, i dopiero zaczną liano późno wprowadzać, a i tak kiepsko się to będzie sprzedawać. Natomiast Intel już od ponad roku, pełną parą zalewa rynek i nie potrzebował do tego wyrzucać w błoto 5 mld$.

  2. Oczywiście (autor: Mav | data: 19/03/11 | godz.: 00:17)
    że dzięki Intelowi. To dzięki niemu i jego chipsetowej polityce połowa albo i więcej tych zintegrowanych grafik będzie lezała odłogiem.

  3. SZROT (autor: Conan Barbarian | data: 19/03/11 | godz.: 00:28)
    Zgodnie z podstawowym prawem rynkowym (Kopernika) zła moneta wypiera dobrą. Będziemy zatem obserwować jak Intel dewastuje rynek swoimi zbuczkami, które nawet BR nie potrafią odtworzyć.

  4. Ale... (autor: belixa | data: 19/03/11 | godz.: 06:32)
    Ale po co to komu....

    Niech mi ktoś wytłumaczy po co jest rdzeń graficzny w procesorze bo chyba nie rozumiem lub nie doceniam jego przeznaczenia.


  5. C3- polecil bym ci bardzo teorie Copernikusa (autor: josefek | data: 19/03/11 | godz.: 07:06)
    o zawartosci srebra w monetach systemu Carolinskiego jeszcze raz przeczytac....tutaj pomyliles dwie rzeczy...a co do Intella to sie zgadzam, bo jak AMD tylko obiecuje i spi to kogo wina jest, jak mlynarz lenniwy jest i w karty gra to ktos inny musi zboze mielic...

  6. hmm... (autor: rcicho | data: 19/03/11 | godz.: 07:22)
    Tylko że AMD nie musiało na siłę i w pośpiechu tworzyć APU. I tak ich GPU (czy to zintegrowane na płycie głównej czy jako osobna karta graf.) bardzo dobrze się sprzedają i firma nieźle na nich zarabia. Intel aby nie wypaść z rynku musiał coś pośpiesznie zrobić i tak powstały średnioudane Clarkdale. Teraz za to już jest pełnoproawny APU czyli Sandy Bridge.

  7. @up (autor: Conan Barbarian | data: 19/03/11 | godz.: 07:36)
    "Teraz za to już jest pełnoproawny APU czyli Sandy Bridge" - ?!?!?!?!?!?!?!?!?!?!?!?

  8. he..he... (autor: Sandacz | data: 19/03/11 | godz.: 08:02)
    "pełnoproawny APU czyli Sandy Bridge" - co nawet nie potrafi prawidłowo odtworzyć filmów z blue ray'a ??? Sandy Bridge raczej CPU z niepełnosprawnym igp... Do APU AMD to mu brakuje jeszce z jakieś 3 lata...

  9. Wszystko (autor: LoneStarr | data: 19/03/11 | godz.: 08:22)
    Wszystko powinni zintegrować, po co się rozdrabniać. Płyta główna byłaby tylko interface'm do urządzeń zewnętrznych.

  10. dobre sobie :)) (autor: zigg | data: 19/03/11 | godz.: 08:29)
    Sandy Bridge to nie APU.
    To CPU + GPU w 1 kawalku krzemu, w dodatku GPU w nim jest fatalne (BR!!!)


  11. Sandy Bridge = APU ? (autor: Conan Barbarian | data: 19/03/11 | godz.: 08:43)
    Jest naprawdę miło zobaczyć, że zwolennicy Intela pragną APU. Tymczasem APU jest tylko od AMD i szybko to się nie zmieni. W przypadku Intela dostajemy graficzkę niemal dobrą do 2D, gdyż BR nie odtworzy bez przycięć.

  12. Sandy Bridge (autor: bananowy song | data: 19/03/11 | godz.: 09:01)
    to świetny procesor z dolepioną (obsmarowany) kupą. O ile takie rozwiązanie ma sens w przypadku low-end o tyle w high end jest to tylko zbędny szmelc. Ale prawdopodobnie intel wyliczył, że taniej mu będzie zaprojektować i produkować jeden typ układu niż dwa. Dzięki temu w pewnym sensie mogą zyskać także klienci. ale tylko pod warunkiem, że AMD zmusi intela do obniżki cen...

  13. Oczywiscie ze dzieki Intelowi (autor: morgi | data: 19/03/11 | godz.: 10:15)
    i to sie bedzie poprawiac, bo Intel deklaruje na przyszlosc glownie chipy z wbudowana grafika, narazie poza serwerami, gdzie jakas role moze zdobeda akceleratory obliczen, ale to znak zapytania.

  14. @bananowy song (autor: MateushGurdi | data: 19/03/11 | godz.: 10:31)
    Zupelnie sie z Toba zgadzam, po co w high-endzie procesor z integra to nie jestem w stanie pojac, moze intel zaklada ze jak ktos kupi platforme pod SB to juz go nie bedzie stac na karte graficzna? Zreszta przy aktualnym wysypie plyt glownych z integrami wydaje mi sie totalna bezczelnoscia ze strony intela brak procesora bez integry (chodzi tu o SB, a nie starsze modele)

  15. Czy wszyscy zagorzali fanboje <krzyżaki prawie> się już zlecieli? (autor: RoXall | data: 19/03/11 | godz.: 11:00)
    oj chyba nie paru jeszcze nie widzę.

  16. nie będzie 50% tylko 20% (autor: mandred | data: 19/03/11 | godz.: 12:11)
    bo intel nie ma GPU tylko kupkę nawozu. Te badziewie nie może być nazwane GPU bo to nawet nie ma podobnej budowy.

  17. mandred (autor: morgi | data: 19/03/11 | godz.: 12:35)
    Ma i ludzie to kupuja, tak samo jak apu slabizna cpu i przyczepione duzo wieksze gpu, ciekawe tylko po co jak odlogiem lezy, do nowoczesnych gier i tak sie nie nada.

  18. @14. (autor: Mariosti | data: 19/03/11 | godz.: 12:54)
    Ale co tobie przeszkadza że procesor który kupiłeś możesz w razie awaryjnej sytuacji wykorzystać bez dedykowanej grafiki, a kiedy z niej nie korzystasz jest wyłączony? Do mocnego komputera biurowego wymagającego dużej mocy obliczeniowej takie 2500/2600K byłoby jak znalazł... najlepiej w połączeniu z Z68...

    Zrozumiałbym takie bulwersowanie się gdyby to igp w jakiś sposób ograniczało procesor, ale tak się przecież nie dzieje, więc po co takie siłowe najeżdżanie bez sensu? Ivy Bridge być może nawet da się nazwać APU bo jego igp ma wspierać DC i OCL...


  19. @Mariosti (autor: Wedelek | data: 19/03/11 | godz.: 13:09)
    Wszystko fajnie ale:
    -za IGP przecież też płacisz, Intel nie daje go za darmo
    -awaryjnie nie wykorzystasz na razie a przynajmniej do czasu pojawienia się serii chipsetów Z, z którymi płyty będą zapewne droższe niż w przypadku P.

    I znów wszystko rozbija się o pieniądze. Osobiście uważam że do średniej i niskiej półki układy o budowie odpowiadającej założeniom Fusion to świetna sprawa, ale wyżej jest to zwyczajne wyciąganie kasy od klienta. Niestety Intel poszedł tą drogą a i AMD zapewne pójdzie:/


  20. I IGP i APU (autor: ghost12 | data: 19/03/11 | godz.: 13:18)
    W droższych modelach też mogło by mieć sens, gryby w blaszakach wdrożono coś na kształt Nvidiowego optimusa. Po za tym w przypadku AMD wbudowane GPU można by wykorzystać też do innych celów: crossfire, wspomaganie fizyki (ala physix) i wiele innych.
    Jeśli chodzi o SB zupełnie nielogiczne są chipsety P67 (bo skoro już mam tą grafikę w procesorze to dlaczego nie mogę jej używać?)


  21. Na to pytanie (autor: Alt-Computer | data: 19/03/11 | godz.: 13:25)
    "Jeśli chodzi o SB zupełnie nielogiczne są chipsety P67 (bo skoro już mam tą grafikę w procesorze to dlaczego nie mogę jej używać?)" - tylko Pan(owie) Morgi potrafi(ą) wymyślić jakąś "szalenie błyskotliwą" odpowiedź (czytaj bajkę).

  22. APU intela zwycieży (autor: pomidor | data: 19/03/11 | godz.: 13:27)
    ze względu na większą ilość procesorów które są u klientów. A twórcy programów raczej nie wspomagają niszowych rozwiązań typu 3dnow i FMA w buldożer. Wystarczy że Intel stworzy dobre sterowniki OCL i DX i może gwizdać na AMD z jego APU. Grafika w SB jest zgodna z DX10, czyli może wykonywać programy Direct Compute. A Ivy Bridge to już zupełnie odjedzie AMD.

  23. @ up (autor: Sandacz | data: 19/03/11 | godz.: 14:06)
    "A Ivy Bridge to już zupełnie odjedzie AMD" -chyba do tyłu...

  24. Pomidor, pomidor... (autor: Kenjiro | data: 19/03/11 | godz.: 14:10)
    Zamiast pisać bzdury, odpowiedz na pytanie @20, że zacytuję ponownie:
    "Jeśli chodzi o SB zupełnie nielogiczne są chipsety P67 (bo skoro już mam tą grafikę w procesorze to dlaczego nie mogę jej używać?)."

    Intel nie stworzył jak dotąd dobrych sterowników do swojego "zbuczka", mimo wielu lat doświadczeń. Np. taki Quake3 potrafi sypać błędami tekstur na wielu generacjach (GMA3000, 4500 i HD). Ostatnim chipsetem z jako takimi sterownikami był Intel 740.
    Odpowiedz mi w takim razie na kolejne pytanie: dlaczego mimo tylu lat doświadczeń Intel nadal nie potrafi zrobić prawidłowo działających sterowników?


  25. @19. (autor: Mariosti | data: 19/03/11 | godz.: 14:43)
    Produkcja procesorów jest nieco bardziej skomplikowana niż np zbudowanie samochodu z gotowych części. Gdyby intel miał tworzyć nowy projekt i implementację produkcji 4rdzeniowego sb bez igp to i jedne i drugie procesory w produkcji kosztowałyby więcej niż robienie jednego procesora i jego okrajanie przy pomocy lasera/softu. Tak więc w pewnym sensie to igp w topowych prockach sb jest "za darmo".
    Co do P67 to absolutnie się zgadzam, jest to niebywałe zmarnowanie okazji do dodania ciekawej zalety do nowej platformy...

    @22.
    W bazowej specyfikacji Dx10 nie było direct compute, dlatego sprzęt wspierający Dx 10 nie musi wspierać dc, gdyby tak było to już dawno widzielibyśmy przynajmniej jakieś prototypowe wsparcie dla ocl'a (radeony wspierające Dx10.1 w wielu przypadkach wspierają ocl'a, np hd4800).


  26. @24 (autor: pomidor | data: 19/03/11 | godz.: 14:46)
    Bo grafika ta była tylko pod 2d. Ale teraz intel w końcu zrozumiał że od 3d nie ucieknie, więc na pewno polepszą sterowniki. Gdyby mu tylko dalej zależało na 2d, to nie dodawał by DX11 i większej wydajności do IB. A napisanie dobrych sterowników trochę trwa, więc 'be patient'.

  27. ... (autor: pawel.xxx | data: 19/03/11 | godz.: 15:11)
    Z IGP w SB to jest sprawa dyskusyjna.
    Z jednej strony Quick Sync jest tak wydajny że deklasuje konkurencyjne rozwiązania nawet gdy one korzystają z kart klasy 6870 czy gtx 570. Natomiast nie przemawiają do mnie argumenty MateushGurdi że procesor klasy hi-end nie powinien mieć IGP.
    Po pierwsze s1155 to nie jest klasa hi-end, tą będzie dopiero s2011.
    Wg mnie wydajność też jest całkiem w porządku jak na IGP i w zupełności wystarczy wielu użytkownikom, a z tym IGP SB zużywa naprawdę mało energii.
    Są tez jednak argumenty przeciw IGP w SB.
    Wspomniany problem z odświeżaniem 23.976 - gdzie okazuje się że wypadało by jednak kupić jakąś low-endową dyskretną grafikę.
    Oferta intela w segmencie chipsetów SB. Chipsety serii H są ok i byłyby odpowiednio tanie to można pogodzić sie z ich ograniczeniami.
    Natomiast P67 to porażka. P67 powinien być tym czym będzie dopiero Z68. Z kolei jeśli okaże się prawdą to iż Z68 ma być o kilkadziesiąt $ (30-40) droższy od p67 to i Z68 będzie porażką. Taka różnica w cenach pozwala już myśleć o dyskretnej low-endowej karcie graficznej. Wprawdzie system będzie zużywał nieco więcej energii, ale 23.... fps nie będą dla niego problemem.
    Dlatego rozumiem też ludzi którzy twierdzą że IGP w SB jest zbędne.


  28. @25 (autor: pomidor | data: 19/03/11 | godz.: 15:12)
    http://www.geeks3d.com/...-execute-compute-shader/

  29. @28. (autor: Mariosti | data: 19/03/11 | godz.: 15:35)
    Właśnie to napisałem.

  30. ghost12 (autor: morgi | data: 19/03/11 | godz.: 18:37)
    P67 to plyta dla tych co lubia podkrecac i uzywac mocnych kart graficznych, a Intel oficjalnie nie chcial wspierac hybrydowych rozwiazan GMA plus zewnetrzny shitowaty gpu, ktory i tak rozwali oszczednosc cpu. Jednak powstal Z68, ktory umozliwi takie kombo P+H, ale to bedzie raczej okrojone cacko na bazie tegorocznych X68, czyli tylko i wylacznie dla bezkompromisowych entuzjastow podkrecania i niemozliwej wrecz wydajnosci.
    Mariosti
    Ale po co tworzyc cpu w dobie wielkie integracji jaka wprowadza na swiat Intel, do procesora da sie wbudowac wiele rzeczy, trzeba wykorzystac efektywnie moc fabow, w rzeczy samej oferujac ogromnie wydajne chipy. Sandy Bridge jako quad lyka wszystko w sasiedztwie cenowym, nie ma innej alernatywy np. do gier to ogromna roznica i5/i7 miazdza wizerunek nawet starszych braci Nehalem, co widac po nowszych recencjach nawet smieciowych serwisow.
    http://www.tomshardware.com/...-1075t,2859-10.html


  31. @morgi (autor: Wedelek | data: 19/03/11 | godz.: 19:30)
    Tja, powiedz graczowi że jego HD 6990 jest cienki albo grafikowi, że Quadro to shit. Napewno potraktują Cię serio...

  32. @30. (autor: Mariosti | data: 19/03/11 | godz.: 19:50)
    Widocznie nie zauważyłeś, ale w swoich postach broniłem i uzasadniałem dlaczego intel zostawił igp w mocnych 4rdzeniowych procesorach sandy bridge ;]
    Co do hybryd w pc'tach to takie rozwiązanie ma ograniczony sens, bo nawet 300W karty graficzne bez obciążenia zużywają góra 30W... ale nawet w takim przypadku przy przełączeniu na igp zamiast 30W zużywane byłoby np 5W... O ile detalicznemu konsumentowi nie robiłoby to dużej różnicy to już w środowiskach wykorzystujących wielkie ilości komputerów byłaby to co roku zauważalna oszczędność w zużywanym prądzie ;>
    P67 jest porażką dlatego iż każdy (KAŻDY) procesor jaki obsługuje ma wbudowaną zintegrowaną kartę graficzną i aby sytuacja wyglądała jeszcze bardziej kuriozalnie, lepsze igp jest w procesorach z odblokowanym mnożnikiem, czyli tych do podkręcania, nie tych do biura...

    Sam przy ostatniej modernizacji platformy właśnie dla tego nie mogłem sobie pozwolić na 1156 bo nie miałem kasy na jednocześnie całą platformę i porządną grafikę... Na AM3 do dowolnego procesora mogłem mieć i porządny procesor i porządną płytę główną z igp które mogę wyłączyć kiedy chcę. Pół roku kupiłem sobie porządną grafikę i jest po kłopocie... bez nadmiernych jednorazowych wydatków i bez kompromisów.

    Syntetyzując... stoimy przed takim problemem... większość sb jest zupełnie niepodkręcalna, a zdecydowanie najlepsze igp jest w 2500K i w 2600K. Czyli jeśli chciałbym mocny procesor, chciałbym mieć możliwość jego podkręcenia w przyszłości i mieć dobre igp (bo będzie dla mnie wystarczające, a np. dedykowana grafika będzie overkillem dla moich zastosowań... wbrew pozorom z takim profilem można się spotkać bardzo często), to obecnie mogę wybrać albo H67 i stracić zdolność podkręcania (która to przekłada się na wartość i długowieczność procesora), albo tracę igp (podczas gdy nie potrzebuję dedykowanego). Wszyscy byliby szczęśliwi gdyby P67 nie było okrojone z FDI(a niestety ma tę funkcjonalność specjalnie wyłączoną, chipsety podobnie jak cpu i gpu tłuczone są zwykle na jednej linii, a różne modele powstają dzięki cięciu laserem itp.).


  33. @morgi (autor: pebal | data: 19/03/11 | godz.: 20:18)
    To jest śmiech na sali, mieć wbudowany układ graficzny i nie móc skorzystać w nim z OpenCL. Jednak, żeby było śmieszniej, Intel celowo nie daje sprzętowego wsparcia dla OpenCL w hybrydach bo wie, że w tych zastosowaniach nie ma z AMD żadnych szans. Popularyzacja OpenCL ze sprzętowym wsparciem wbudowanych w procesor układów graficznych, to gwóźdź do trumny dla procków Intela.

  34. Wedelek (autor: morgi | data: 19/03/11 | godz.: 21:34)
    Oczywiscie dualik to z definicji szit i nalezy unikac tej niszowej konstrukcji, natomiast Quadro to nisza, ale jedyna sensowna opcja dla profesjonalistow, dla ogromnej wiekszosci calej reszty niedzielnych i mniej niedzielnych graczy i amatorow gpu to wiekszy czy mniejszy szit, ktorym niewarto sie interesowac wystarczy kupic raz od swieta jak jest musik.

  35. @morgi (autor: Conan Barbarian | data: 19/03/11 | godz.: 22:08)
    Jak zwykle masz rację a nawet nie.

  36. @pebal (autor: pomidor | data: 19/03/11 | godz.: 22:36)
    A kto tak bardzo używa OpenCL ? Na komputerach osobistych nikt. Tylko firmy ze specjalnymi wymaganiami kupują GPGPU i jest to raczej CUDA. Oczywiście fanboje nadal wierzą że GPGPU zrewolucjonizuje PC.

    @Mariosti
    "O ile detalicznemu konsumentowi nie robiłoby to dużej różnicy to już w środowiskach wykorzystujących wielkie ilości komputerów byłaby to co roku zauważalna oszczędność w zużywanym prądzie".
    Co jakiś czas widzę tego typu bezsensowne twierdzenia. Że parę - naście wat danego urządzenia * 100(0) komputerów pochłania majątek. Firma która wydaje na pensje użytkowników miliony dolarów, nie będzie się przejmowała paroma tysiącami wydanymi na prąd.


  37. @36. (autor: Mariosti | data: 19/03/11 | godz.: 23:13)
    Zdziwiłbyś się... Zresztą oszczędności w zużywanej energii w biurach szuka się w wielu miejscach... 20W na procesorze, 5W na oszczędnej płycie głównej, 20W na hybrid grafikach, 30W na oszczędnym monitorze, 50W na oszczędnym zasilaczu itd. i w ten sposób można dojść dość szybko do bardzo znaczących różnic. Twoje podejście jest niebywale wąskie i krótkowzroczne.

    Co do gpgpu to z cuda była rozreklamowana szybciej od opencl'a, a wszelkie zakupy i wdrażanie działają z opóźnieniem, ale już na uczelni widzę że zaczynają ludzie zauważać jak debilnym pomysłem jest pakowanie się w taką zamkniętą i ograniczoną technologię. Co do zastosowań gpgpu no to przykro mi ale IE9 i nowy firefox w dużej mierze korzystają sobie z gpgpu do sprzętowej akceleracji html5, różnych grafik, flasha itp. itd. A wraz z popularyzacją apu wspierających Dx11 i ocla i ze strony amd i (w przyszłym roku może) intela baza użytkowników którzy mogą w ogóle na tym skorzystać będzie drastycznie rosła. Nikt nie będzie pisał oprogramowanie dla klienta którego nie ma, dlatego obecnie większość softu korzystającego z gpgpu to oprogramowanie do zastosowań profesjonalnych i naukowych gdzie jego zalety są tak wielkie że nie ma powodów do zwlekania.


  38. pomidor (autor: piobzo | data: 19/03/11 | godz.: 23:14)
    zdziwisz się jak wyjdzie firefox4, od tego momętu wszystko zacznie wspierać przyspieszenie sprzętowe

  39. @pomidor (autor: pebal | data: 19/03/11 | godz.: 23:29)
    Widać, że nie masz zielonego pojęcia o GPGPU. GPGPU nie jest stosowane na szeroką skalę bo ta technologia ma swoje ograniczenia. Jednak te ograniczenia znoszą układy APU.
    Dziś większość zadań które wykonuje CPU, znacznie sprawniej mogą wykonywać rdzenie graficzne. Intel dobrze o tym wie, ale ma zbyt silnego konkurenta, aby mógł sobie pozwolić na popularyzację takiego podejścia do przetwarzania danych.


  40. Intell nie mogac dobrego IGP zaprojektowac) cos na poziomie conajmiej HD 4XXX (autor: josefek | data: 20/03/11 | godz.: 06:17)
    zaczal sie na integracji antywirusowej i wirelessowej koncetrowac i moze znow na tym wygra z prostego powodu ,ze AMD srodkow nie ma { musi zawsze tych swoich zlodziei a zarzadzie nakarmic) aby jakos firme tym sie zakmujaca kupic....

  41. josefek (autor: Markizy | data: 20/03/11 | godz.: 08:34)
    z ochrony antywirusowej skorzysta max co 10ty użytkownik dlatego że nikt mu tego wcześniej nie wyłączy, a Wireless jakoś nie sadzę żeby się przydało w dobie szybkich dysków przenośnych i internetu bezprzewodowego po wi-fi.

  42. @41 sprostowanie (autor: Markizy | data: 20/03/11 | godz.: 08:39)
    miałem na myśli wireless jako połączenie bezprzewodowe w miejscu USB, a koszt modułów zewnętrznych jest dość niski i często stosować lepiej zewnętrzne moduły bo można je łatwo dezaktywować lub wymienić np w lapkach.

  43. @Mariosti (autor: pomidor | data: 20/03/11 | godz.: 13:57)
    Do akceleracji IE9 i FF4 w zupełności wystarczy karta z DX9 i żaden GPGPU nie jest tu potrzebny. Natomiast M$hit chce dobić XP, i dlatego wypuszcza IE9 pod Vista i win7, sprawiając mylne wrażenie że niezbędny jest DX10 lub lepszy. Może liczba użytkowników, ale nadal to będą ilości śladowe. Już od wielu lat propaganda 'GPGPU na desktopie', wyje z całych sił, a okazuje się że nikt tego nie potrzebuje. AMD ze swoim APU nic tutaj nie zmieni. Nadal GPU będzie używane tylko do grafiki,

    @pebal
    Więc podaj konkretny przykład tych ograniczeń. APU w Lino niczym się nie różni od shaderów w Radeonach, więc żadnej rewolucji w architekturze nie będzie. Po prostu gigaflopy w większości programów nie są potrzebne. To tak jakby twierdzić, że jak w Polsce wyprodukujemy milion autobusów, to już nikt nie będzie musiał na piechotę chodzić. Bez sensu.


  44. bardzo nie fajna informacja dla i tak już osłabionej nVidii (autor: Qjanusz | data: 20/03/11 | godz.: 14:35)
    co do APU i Intela, to Intel nie posiada APU z tej prostej przyczyny, bo nie posiada GPU.

    Zbuczek to zwykły interfejs do drukowania grafiki 2D na ekranie monitora, z opcją emulacji 3D w niskich wersjach DX i OpenGL. Zbuczek nie pociągnie ani OpenCL, ani DirectCompute.

    Generalnie wypisana wyżej ułomność jest powodem nieuruchamiania niektórych gier, oraz dość sporej ilości błędów w generowaniu emulowanej grafiki w pozostałych przypadkach.

    Jednak zwolennikom emulacji, podróbki wcale nie przeszkadza ta ułomność, ponieważ nigdy nie zasmakowali oryginału.

    Myślę że zrozumienie, zakończenie fascynacji emulacją jest kwestią czasu. Dyletanci muszą w pierwszej kolejności wyjść z okresu kupowania upominków własnej prawicy w Dniu Kobiet i dojrzenia do związku z prawdziwą kobietą.

    Wielbiciele Addadisów, apeluję o podniesienie własnej wartości o oczko wyżej.


  45. pomidor (autor: Gigant | data: 20/03/11 | godz.: 15:14)
    GPGPU jest ci nie potrzebne bo go nie ma Intel. Jakby Intel go miał to byś inaczej śpiewał ;)
    GPGPU to jest już standard do obliczeń równoległych. Niedługo całkowicie CPU wyprze.


  46. @43. (autor: Mariosti | data: 20/03/11 | godz.: 16:44)
    Ależ APU od AMD zasadniczo zmieni tutaj sytuację. Rozumiesz że oprogramowanie dla "ludu" pisze się tylko wtedy jeśli tego "ludu" jest dużo? Mając APU wspierające dx11 i ocl'a w większości nowych budżetowych pc'tów i lapków, z roku na rok powstanie z niczego gigantyczny rynek na takie oprogramowanie. Jeśli jesteś zdziwiony tym że nikt nie pisze oprogramowania dla garstki graczy i entuzjastów posiadających sprzęt wspierający najnowsze technologie to sugeruję ponowne rozpatrzenie swego stanowiska w tej kwestii.

    Pierwszy akapit sugeruje też że nie rozumiesz co oznacza GPGPU, a mianowicie oznacza ono "obliczenia ogólnego zastosowania na gpu", czyli sprzętowa akceleracja działania przeglądarki internetowej jest już przykładem gpgpu, nawet jeśli nie korzysta z interfejsu programistycznego stworzonego specjalnie w tym celu (ocl/dc/cuda/stream)


  47. @pomidor (autor: pebal | data: 20/03/11 | godz.: 16:50)
    Obecnie wąskim gardłem jest wymiana danych pomiędzy CPU i GPU. Dane muszą być przesyłane do pamięci karty i z powrotem a następnie synchronizowane. Te operacje są tak czasochłonne, że często cały zysk, jaki dają rdzenie graficzne, jest tracony na synchronizacji. APU zmienia ten stan rzeczy.

  48. @Gigant (autor: pomidor | data: 20/03/11 | godz.: 21:01)
    Bez przesady. Wcale nie twierdzę że ja czegoś intel nie ma to nie jest to potrzebne. Zaś GPU nigdy nie wyprze CPU i zawsze będzie tylko dodatkiem.

    @Mariosti
    IE9 i FF4 używają GPU tylko do grafiki, tak jak to zawsze było. Z tą różnicą że GPU będzie pełniej używany.

    @pebal
    Parę GB na sekundę to nie jest mało. Oczywiście angażowanie GPU do dużej ilości małych zadań nie ma sensu, ale do średnich i dużych już ma sens. Intel rozwiązał ten problem, usuwając PCIE pomiędzy CPU i GPU


  49. @pomidor (autor: pebal | data: 20/03/11 | godz.: 21:42)
    Parę GB/s to jest maksymalny transfer dla dużych bloków danych i to tylko w przypadku wysyłaniu danych do karty graficznej, bo w drugą stronę maksymalny transfer to kilkaset MB/s . Jednak dla mniejszych bloków danych z tych kilku gigabajtów robi się zaledwie kilka megabajtów a to są wartości żenująco niskie.

    Karta graficzna nie tylko nie nadaje się do małych zadań. Ona się także nie nadaje do dużych zadań w których dane muszą być często synchronizowane z CPU.


  50. @49. (autor: Mariosti | data: 20/03/11 | godz.: 22:12)
    pebal to nie jest do końca tak. Po pcie 16x na swoim hd5770 osiągałem blisko 8GB/s przy transferowaniu z ramu systemowego na ram karty i z powrotem tyle samo. Problem w przypadku pcie jest inny, ta magistrala ma strasznie duże opóźnienia w transferach, nawet przy pojedynczych, dużych plikach są one bardzo duże i minimalny czas na jakikolwiek transfer do karty, wykonanie obliczeń i przeniesienie ich wyników do ramu systemowego to blisko 0.1sek, a to zabija zupełnie sens ocla/cuda/streama/dc dla operowania na mniejszej ilości danych niż ~100MB (albo i więcej, zależnie od stopnia złożoności algorytmu jaki na tych danych chcemy wykonać). Ten problem rozwiązuje dopiero APU dzięki współdzieleniu dostępu do pamięci systemowej przez super szybką pamięć podręczną, bądź bezpośrednio, kosztem zmniejszonej wydajności samego gpu. Idealnym rozwiązaniem tego problemu byłyby karty graficzne natywnie wspierające np. standard HT3.1 bądź jego intelowski odpowiednik (opóźnienia w transferach po tych magistralach są niebywale niskie, podobnie narzut na transfery który po pcie jest bardzo duży).

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.