Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Piątek 7 stycznia 2011 
    

Nvidia wkroczy na rynek producentów procesorów


Autor: Wedelek | źródło: Xbit Labs | 12:47
(46)
W ostatnich miesiącach jednym z najgorętszych tematów były układy APU od AMD, łączące na jednej płytce krzemowej wydajne IGP z rdzeniami CPU x86. Dokładnie tę samą drogę obrali inżynierowie Intela, którzy procesory z rodziny Sandy Bridge nazwali "swoją wersją Fusion". Oczywiście w obu tych projektach najważniejszym elementem jest procesor, wspierany przez wydajny rdzeń graficzny, który w przyszłości mógłby wykonywać obliczenia typu GPGPU (General-Purpose Computing on Graphics Processing Units). Idei tej hołdują również rozwiązania firmy ARM, jedynym więc potentatem na rynku kart graficznych, który podobnego rozwiązania nie ma w swojej ofercie jest Nvidia.

Ale ten stan rzeczy niebawem się zmieni, a firma z Santa Clara również zamierza stworzyć własną odmianę układu opartego na ogólnych założeniach Fusion. Z tym jednak wyjątkiem że w produkcie "zielonych" najważniejszym elementem będzie GPU, które uzupełniać będzie część CPU. Projekt o kodowym oznaczeniu Denver jest najprawdopodobniej rozwinięciem projektu znanego jako Echelon (1024 procesory strumieniowe + 8 rdzeni CPU). Wzorem SoC Tegra 2 do nowych rozwiązań Nvidia trafią rdzenie zbudowane w oparciu o architekturę ARM. A konkretnie odmiana Cortex-A15, na którego produkcję i modyfikację Nvidia otrzymała już jak donosi CEO prawa patentowe. Innymi słowy Nvidia ma zamiar wkroczyć z hukiem na rynek producentów CPU z własnym produktem.

Brak wsparcia dla architektury x86 wyklucza w chwili obecnej rynek rozwiązań konsumenckich, ale producent ma nadzieję z powodzeniem odebrać znaczną część rynku serwerów i innych rozwiązań biznesowych procesorom AMD Opteron oraz Intel Xeon. A trzeba powiedzieć, że nie jest w tym wypadku bez szans, zwłaszcza, że popularne w tym segmencie Linux'y wspierają architekturę ARM, a i Microsoft zapowiedział na tym polu przełom i system dla tej niszowej w chwili obecnej architektury. Całkiem więc możliwe, że w przyszłości będziemy świadkami zmierzchu ery procesorów x86, choć oczywiście nie nastąpi to jeszcze przez kilka długich lat.


 

    
K O M E N T A R Z E
    

  1. Czyli (autor: MarcinN | data: 7/01/11 | godz.: 12:31)
    ... nici z ugody z Intelem :)

  2. aaa (autor: MarcinN | data: 7/01/11 | godz.: 12:32)
    Zanim NVIDIA umiesci grafike w procesorze to i tak wczesniej zbankrutują.

  3. ARM w domowym pececie... to chyba nie wypali (autor: Qjanusz | data: 7/01/11 | godz.: 12:40)
    mimo to trzymam kciuki za projekt. M$ pisze dużego OSa pod ARMa. Może się coś zmieni. Chociaż jestem trochę sceptycznie nastawiony. Ale z drugiej strony, nVidia bez CPU-cokolwiek pójdzie na zatracenie. Brak licencji X86 oznacza tylko furteczkę ARM. Właściwie to nVidia jest na nią skazana.

    O ile w segmencie serwerów (siła pingwina + bardzo przemyślane GPGPU) mogą uszarpać "co nieco", to w większym lapku, tym bardziej domowej blaszanej maszynie ARM nie ma racji bytu - chodź jak zaznaczyłem, trzymam kciuki gdyby okazało się że nVidia dobrze drąży...

    z innej. nVidia wcale nie ukrywa że mobilne GTX 500 to kotlety:
    http://pclab.pl/news44391.html


  4. nvidia ma szanse (autor: RusH | data: 7/01/11 | godz.: 12:54)
    cos z tym zdzialac, TEGRA ma beznadziejne GPU w porownaniu do powerVR, ale dwa szybsze rdzenie robia swoje i nadrabiaja

  5. Brawa dla Nvidii !!! (autor: pomidor | data: 7/01/11 | godz.: 13:00)
    Za wizje, odwagę i impet z jakim zdobywa nowe rynki. Oczywiście nieudaczniki i ich trole znowu będą coś tam szczebiotać, ale nikt poważny tego nie słucha.

  6. @pomidor (autor: Qjanusz | data: 7/01/11 | godz.: 13:04)
    napisałeś:
    "Za wizje, odwagę i impet z jakim zdobywa nowe rynki"

    fakty:
    "firma z Santa Clara również zamierza stworzyć własną odmianę układu opartego na ogólnych założeniach Fusion"

    słowo klucz: ZAMIERZA :-)

    Inna sprawa to fakt, że tak samo jak intel zrzyna koncepcję, która wywodzi się od AMD.

    Brawa więc dla AMD, która wyznacza standardy warte papugowana przez konkurencję przeróżną.
    :-)


  7. Qjanusz- o czym juz od miesiaca pisze, ale (autor: josefek | data: 7/01/11 | godz.: 13:16)
    ci co udaja, ze lamanego jezyka polskiego nie rozumia, albo tez fanami, zaslepionymi kogos innego sa , wzieli to za urojenia i banki mydlanne, bo zaden z nich dotychczas do czynienia z Ubuntu na netbooku nie mial, tak samo jak do czynienia z Toshiba AC100 tym bardziiej nie mial, a zmuszony jestem dodac, ze juz od prawie 12 lat usiluje sie cos podobnego do Fusion zrobic, wiec Fuzion nie jest zadnym wynalaskiem, ktory mozna opatentowac...polecam Panu do obejrzenia Motorole Astrix....jak Fusion rynek nettopow przegapi, to nic powaznego z Fusion nie zdela...duzym niebezpiecze3nstwem dla AMD jest jak ARM swoj znaczek na telefonach zacznie naklejac i jak ludzie sie z tym znaczkiem oswoja...

  8. @josefek (autor: Qjanusz | data: 7/01/11 | godz.: 13:23)
    oczywiście, niskowydajne sklejki były dostepne już od dawna. Sam sobie odpowiedz dlaczego popyt na nie wahał się między zerowym, a nikłym.

    Druga wskazówka: Dlaczego intel po kampani AMD nazwał swojego zbuczka doklejonego do CPU "NASZĄ WERSJĄ FUSION" ???
    http://twojepc.pl/news22218.html

    W tym newsie masz podobną papugę:
    "firma z Santa Clara również zamierza stworzyć własną odmianę układu opartego na ogólnych założeniach Fusion"


  9. @up/edit (autor: Qjanusz | data: 7/01/11 | godz.: 13:24)
    "Fuzion nie jest zadnym wynalaskiem, ktory mozna opatentowac"

    I BARDZO DOBRZE!!!


  10. ...... (autor: Marek1981 | data: 7/01/11 | godz.: 13:25)
    Teraz NV będzie bawić w 2ognie. Intel nie może ich wykończyć bo sam ma za słabą integrę i nie chce dawać kopa swojej konkurencji, z drugiej strony NV atakuje wejściem w prockiem ARM.

    Coś może się to dla nich źle skończyć, gdyż Intel może wybrać słabszego rywala (AMD) niż NV+ rozwiązania ARM


  11. za duzo (autor: Krax | data: 7/01/11 | godz.: 13:25)
    nie powalczy...chyba ze deweloperzy zmienia swoje podejscie...
    a w serwerach i tak wszystko sie o IBM rozbije....


  12. @1. (autor: Mariosti | data: 7/01/11 | godz.: 13:43)
    Ugoda z intelem to jedno, wydanie przez intela licencji drugiemu konkurentowi na produkowanie procesorów x86 to zupełnie co innego ;>

  13. Mariosti (autor: MarcinN | data: 7/01/11 | godz.: 13:47)
    A co tutaj ma licencja na x86 do tego?

  14. Hmm (autor: Jarek84 | data: 7/01/11 | godz.: 13:49)
    bardzo mnie ciekawi jak to bedzie wygladac w HPC i czy adresowanie do 64GB dla armów wystarczy na tym rynku...

  15. @Jarek84 (autor: Qjanusz | data: 7/01/11 | godz.: 13:53)
    w razie czego, będą bawić się bankami pamięci i multiplexerami ;-)

  16. możę się mylę (autor: cyferluu | data: 7/01/11 | godz.: 14:44)
    ale na PC to szans nie ma z jednym wyjątkiem...
    linuX i wsparcie dla openGL. nie oszukujmy sie mamy windows dla tego że gry działają... jeżeli te same gry działały by tak samo pod linuxem to winda była by niszowa... wiec byc może jest nadzieja że linux ruszy w jakimś kierunku dla normalnego uzytownika i lubiącego grać...


  17. @cyferluu (autor: Qjanusz | data: 7/01/11 | godz.: 14:55)
    absolutnie się nie zgadzam że to tylko gry są dźwignią okienek.

    Główną dźwignią Windowsa jest wieczna wojenka między dystrybutorami kilkunastu odmian tego niszowego produktu, oraz kompletny brak zrozumienia twórców Lunuxa dla potrzeb typowego użytkownika.

    Mimo wszystko jest to ciągle system pisany przez specjalistów, dla specjalistów. Nic tu nie zmieni kolejna nakładeczka na komunikację z userem, który w świecie Windowsów nazywany jest klientem/człowiekiem.

    Rynek sam się pięknie wyregulował. Pingwin dla specjalistów jest w serwerach i kompach "dłubaczy" i "bogów" IT, a Windows w kompach normalnych ludzi, dla których KOMP JEST DLA LUDZI A NIE ODWROTNIE (ponad 90% rynku)

    ps. żeby nie było. Pisze z punktu widzenia osoby doglądającej czasami klastrów pod RedHatem. W domu swego czasu tez sobie testowałem i dłubałem.


  18. Migrowałem ostatnio z XP32 na 7-64 (autor: Michał_72 | data: 7/01/11 | godz.: 15:19)
    spodziewałem się sporych problemów z powodu sterowników , a skaner w kombajnie HP spisałem wręcz w straty.
    Miło się zdziwiłem- Windows Update znalazł sterownik, zainstalował, wszystko bangla az miło.

    Czy w Linie dalej trzeba babrać się w repozytoriach?


  19. C8-tutaj calkiem racji nie masz (autor: josefek | data: 7/01/11 | godz.: 15:54)
    te sklejki byly na rynek tzw Embedded przeznaczony i nawet AMD cos takiego mial jakgeode kupil, AMD majac olbrzymia przewage w GPU ta przewage w dziwne projekty przewalil, mogl juz dawno podwojny chip zrobic, ale sie uparl doskonaly byc, kupujacy i tak nie wie co w srodku siedzi, jak 24 lat temu Sir Sinclair powiedzial, mozna nawet gumowy pasek w komputer wsadzic, konsumatora interesuje cena praktycznosc i wydajnosc, a bylo to z QL, ktory na diadowskim systemie pamieci masowej przepadl....

  20. Najwyższa pora! (autor: fanzboj | data: 7/01/11 | godz.: 16:26)
    Pisałem o tym już dawno tu na TPC że Nvidia powinna wykonać taki krok! Nie mając szans na licencję x86 powinna wejść w układy mobilne. I wcale nie jestem pewien czy to nie ma szans na desktopy. Wiadomo wszystko zależy od Microsoftu. Który przecież MUSI tworzyć swoje oprogramowanie na ogromny rynek smartfonów i tabletów bo przecież nie chce wypaść z gry. Tak naprawdę to oprogramowanie coraz bardziej zbliża się do PC-towego. Wcale by mnie zdziwiło, gdyby wkrótce pojawiły się małe zintegrowane płytki podobne do tych z Fusion dla cichych, energooszczędnych komputerków domowych. Bo przecież oprogramowanie jest prawie gotowe, choć niewątpliwie poza samym systemem operacyjnym liczy się także ogrom aplikacji pod x86. Ale to się może z czasem zmienić. W każdym razie 2 architektury dla domowego PC to jest to! Wreszcie może byłaby jakaś konkurencja, innowacja a nie ciągłe klepanie leciwego x86. Mam nadzieję że to Nvidii się uda!

  21. buhaha, Qjanusz, gdzies Ty taka wiedze lyknal? (autor: daver | data: 7/01/11 | godz.: 16:37)
    z komiksow? "Główną dźwignią Windowsa jest wieczna wojenka między dystrybutorami kilkunastu odmian[...]" Nominacja do idiotyzmu roku murowana, a to dopiero styczen.


    btw. http://www.youtube.com/watch?v=xKc_XGuvNIk


  22. @18.Michał_72 (autor: qrool | data: 7/01/11 | godz.: 16:37)
    4 lata temu spodziewalem sie sporych problemow z powodu sterownikow, a kamerke internetowa logitecha spisalem wrecz na straty.
    Milo sie zdziwilem - Linux Ubuntu znalazl sterownik, zainstalowal, wszystko 'bangla' az milo.

    na pytanie 'Czy w Linie dalej trzeba babrać się w repozytoriach?' mozesz odpowiedziec sobie sam, np. 'wyguglujac' sobie taka informacje.

    Zeby nie byc ci dluznym zadam ci zwrotne jakze rownie 'inteligentne' pytanie.

    Czy w twoim nowym Windowsie nadal daja Inernet Explorer 6? Czy moze zdarzyli juz napisac cos bardziej trzymajacego sie standartow i mniej dziurawego?


  23. @daver (autor: MateushGurdi | data: 7/01/11 | godz.: 17:16)
    Qjanusz ma jak najbardziej racje, a piszac "niszowy produkt" mial na mysli Linuxa, chyba ze pomyslales ze Windowsa, a to tlumaczy wtedy Twoje oburzenie. Swoja droga jak mozna uznac winde za niszowa :]

  24. C22-chce sobie Toshiba AC100 kupic (autor: josefek | data: 7/01/11 | godz.: 17:17)
    myslisz ze tam bez problemow Ubuntu potrafie zainstalowac, na innych PC X86, nie bylo to zadnym problemem..

  25. @morgi (autor: Conan Barbarian | data: 7/01/11 | godz.: 18:29)
    Napisz co o tym myślisz. Podpowiem: Intel ze swoim x86 niebawem zejdzie do nano-skali i zatłucze te wściekłe gnidy ARMowe raz na zawsze.

  26. aahahaha (autor: RusH | data: 7/01/11 | godz.: 19:12)
    inel musi wspierac kompatybilnosc wsteczna, bez niej nie zyje
    ARM jest czysty, nie ma zadnych nalotow, zadnych zhakowanych trybow chronionych i fefnastu sposobow adresowania pamieci.
    Arm jest prosty - RISC, a przez to BARDZO energooszczedny.
    Intel robil Army, ale lamki sprzedaly dywizje Marvellowi ktory obecnie jest w co trzeciej komorce.


  27. lol (autor: rookie | data: 7/01/11 | godz.: 21:18)
    No to fanboje będą mieli zagwozdkę: Geforce CPU czy zamki na piasku ??
    Dla AMD to żadna konkurencja bo wszystkie segmenty obsadzone produktami w dobrych cenach i żadne CUDAki i piaskownice tego nie zmienią.


  28. buhahaha (autor: Gigant | data: 7/01/11 | godz.: 21:19)
    Nvidia atakuje Intela. Morgi get frag yourself ;)

  29. buhahaha (autor: Gigant | data: 7/01/11 | godz.: 21:34)
    gdzie oni się pchają z tym ARM na Bulldozera.
    przecież AMD ich zjedzie równo ;)


  30. rookie (autor: Gigant | data: 7/01/11 | godz.: 22:17)
    Teraz będą trzy rodzaje fanbojów. Intel vs AMD vs Nvidia.
    Już nie będzie Intel/Nvidia vs AMD


  31. MateushGurdi, ke? (autor: daver | data: 7/01/11 | godz.: 23:39)
    chyba jasno zacytowalem fragment, do ktorego pilem, wiec o czym Ty do mnie?

  32. @Gigant (autor: Promilus | data: 8/01/11 | godz.: 14:37)
    Gdzie oni się pchają z ARM? Wszędzie gdzie nigdy nie uświadczyłeś x86. Bynajmniej na komputerach PC świat się nie kończy, a zyski w wielu innych dziedzinach jak np. motoryzacji (komputery pokładowe), telekomunikacji (smartphone itp.) to całkiem łakomy kąsek do rozwijającej się firmy jak nv. AMD stoi w miejscu i zamiast inwestycji woli wyprzedawać swój majątek.

  33. @Promilus (autor: Wedelek | data: 8/01/11 | godz.: 18:23)
    Pozwolę sobie się z Tobą w jednej kwestii niezgodzić:) A mianowicie chodzi o zdanie: "AMD stoi w miejscu i zamiast inwestycji woli wyprzedawać swój majątek". Dokładnie ten sam zarzut można przypisać Intelowi, Nvidii i tysiącu innych firm i będzie on tak samo niesprawiedliwy. Krok Nvidia jest bardzo dobrym wg mnie posunięciem, ale to nie znaczy że inne firmy działają źle, bo nie podążają tym krokiem. To tak jak gdyby zarzucać AMD, że nie produkuje samochodów, albo Intelowi że nie wytwarza lodówek. Nie możliwym jest rozwijanie wszystkich gałęzi rynku na raz, bo "jak coś jest do wszystkiego to jest do niczego". Boleśnie przekonał się o tym Intel ze swoim projektem Larabee, który przecież z założenia powinien całkowicie zmasakrować rynek, co się oczywiście nie udało, a przecież inżynierowie "niebieskich" znają się na rzeczy. Pozatym Nvidia wcale nie będzie mieć tak z górki z tym swoim projektem. Konkurencja przecież nie wyjedzie w tym czasie na wakacje i nie mówię tu tylko o AMD i Intelu... Wystarczy zresztą spojrzeć na bardzo udany produkt jakim jest Tegra, który pomimo usilnych starań producenta dopiero teraz zaczyna pokazywać pazury.

  34. @Wedelek (autor: Promilus | data: 8/01/11 | godz.: 18:32)
    Intel inwestuje w FABy. NV inwestuje w nowe rynki. AMD pozbyło się FABów, SoC nie ma i nie planuje (jak na dzień dzisiejszy). Nie inwestują zbytnio w narzędzia, nie inwestują zbytnio w propagowanie swoich rozwiązań. Przykład Tianhe-1. Chińczycy wybrali początkowo RV770 bo na rynku nie było żadnej szybszej w DP karty graficznej. A nie dlatego, że im AMD udostępniło super narzędzia. W końcu to były 4870X2 a nie FireStream. Tymczasem teraz jak wyszły porzadne Tesle to zaraz w nie zainwestowali, bo za teslami szła siła w postaci CUDA i mnóstwa różnych aplikacji które do dynamiki molekuł, badań sejsmicznych, fizyki płynów itp. NV już przygotowała. Rozumiesz? Nie wystarczy wrzucić na rynek kawałek przyzwoitego krzemu. Potrzebne są KOMPLETNE rozwiązania, a tego AMD do teraz nie potrafiło (jeśli chodzi o GPU) dostarczyć. AMD obecnie jest ze 2 lata za intelem i rok za NV w kwestii implementacji GPGPU, jeśli chodzi o wykorzystanie GPGPU to też ze 2 lata w plecy. Jak się nie opamiętają w porę to ich ani HD7k, ani Bulldozer nie poratuje. Zejdą do lowendu z którego się tyle lat dźwigali.

  35. Promilus (autor: Gigant | data: 8/01/11 | godz.: 18:46)
    Głupi jesteś. AMD udostępniło kompletny framework w postaci OpenCL oraz Streama SDK a ty twierdzisz, że są za Intelem który nawet nie ma GPGPU ani nic. Rozejrzyj si dookoło bo widać magia CUDActw przysłoniła ci własny rozum i racjonalne rozumowanie.

    Albo twierdzenie, że zunifikowane gówno może być szybsze od heterogenicznego dedykowanego układu świadczy tylko o twojej głupocie.


  36. Promilus (autor: Gigant | data: 8/01/11 | godz.: 19:03)
    Wiesz co ja myśle o ARM i Nvidzie? Kopiowanie designu ARM to nie dowód na innowacyjność a na bezradność. Dlaczego sami nie zaprojektują swojego CPU a nie zaporzyczają licencje i pomysły od kogoś innego? Nie stać ich na to? Nie mają pomysłu na siebie, że jadą na cudzych projektach?

    A taki ARM to nie ma szans z Bulldozerem. BD to procesor OoO zaprojektowany do spekulatywnego wykonywania kodu seryjnego (reverse hyperthreading, runahead execution).
    ARM nadaje się jedynie do telefonów czy kalkulatorów bo do PC czy serwerów to ten CPU to jest lipa do kwadratu. Nvidia porywa się z motyką na wiatr.


  37. @daver - wiedzę czerpię z pracy, życia, obserwacji, szkoleń, konferencji... (autor: Qjanusz | data: 8/01/11 | godz.: 19:29)
    i taka jest prawda, a Twoją reakcją absolutnie nie jestem zaskoczony.

    Po prostu Wy tak macie ;-)


  38. @Gigant (autor: Promilus | data: 8/01/11 | godz.: 19:30)
    Zważaj na ton, w przeciwieństwie do morgiego głupot nie wypisuję. Są za intelem w dziedzinie procków i BD nic tu nie poradzi, bo ma "oszukanego" AVX. Dlaczego "oszukanego"? Bo czy będzie się stosować nowe rozszerzenie, czy stare, wydajność bez zmian (2x 128 bit SSE, albo 1x256 bit XOP) - dzięki, postoję. FMA4 może owszem podnieść poprzeczkę lekko, ale szału nie ma. I o to chodziło z porównaniem do intela. Nie o GPGPU.
    Twierdziłeś, że robienie ROP programowo to głupota, albo że w R520 czy G71 Pixel i Vertex shader miały tą samą konstrukcję. Wróć do tamtej dyskusji, jest link potwierdzający że nie masz o tym zielonego pojęcia. A ROP wklepane do potoku pixel shadera znajdziesz w nowiusieńkim GeForce ULP z Tegry 2 w postaci, jak to nazywają, programmable blend unit. Implementacja OpenCL AMD jest tak dojrzała, że czasem same ich sample dołączone do SDK się wysypują. Hehe. I nie, za krótko tu jesteś by mieć jakiekolwiek pojęcie co do moich sympatii czy antypatii. Ale wystarczy zburzyć czyjś domek z kart by nagle stać się zawziętym fanboyem, lol.
    "że zunifikowane gówno może być szybsze od heterogenicznego dedykowanego układu"
    Oczywiście, zunifikowane gówno 9600GSO+ (rev2) z 48 shaderami deklasuje dedykowany heterogeniczny układ Radeona X1950XT z 48PS i 8VS w 3DMarku, shadertoymarku, gluxmarku itp. itd. ;) Tak samo jak dość często Xenos z Xboxa często łoi RSX z PS3 ;) Ale co ja tam wiem. To, że x87 ma osobną listę rozkazów i rejestry to przypadek. To, że VMX (z PPC) ma osobną listę rozkazów i własne rejestry również. To, że SPE Cella ma wiele rozkazów i strukturę rejestrów zbliżoną do VMX z rdzenia PPC to już zupełna bajka ;) Jak widzisz... od dawna nie ma czegoś takiego jak homogeniczny sprzęt. Samo FPU czy SIMD w procach to już coś odmiennego od podstawowej wersji, ale wiesz co się z tym stało? Rozmyło się, trafiło do środka proca i teraz rozkaz FPU to x86, rozkaz SSE to też x86 ;) I tak za 5 lat rozkaz Stream Processor w APU to też będzie x86 ^^


  39. @Gigant (autor: Promilus | data: 8/01/11 | godz.: 19:34)
    "Kopiowanie designu ARM to nie dowód na innowacyjność a na bezradność"
    Brak u ciebie wyobraźni. Nowe rozwiązanie to konieczność zbudowania nowych narzędzi (kompilatory, zestawy developerskie) i przekonania do niego rynku. ARM ma ugruntowaną pozycję, sporo softu i dobre narzędzia. Po co wymyślać koło od nowa? A tak minimalnym kosztem mają rdzeń CPU z dobrą bazą oprogramowania i możliwościami, podrasują swoim GPU i jazda. Wydajny SoC i kasiorka dla nv za każdą sprzedaną sztukę. A AMD w tym czasie będzie się drapać po głowie, bo na graczach i fanboyach nie zarobi na utrzymanie. Mam AMD i pewnie następny sprzęt też będzie AMD. Pozwalam sobie po AMD pojeździć, bo im się gdzieś wizja rozwoju zgubiła i chciałbym, żeby ją odzyskali. Ty zaś lubisz jeździć jak widzę po firmach (i co gorsza ludziach) zupełnie bez powodu. Wyluzuj człowieku.


  40. @Promilus (autor: Wedelek | data: 8/01/11 | godz.: 19:56)
    Z tym, że narzędzia AMD są otwarte, a Nvidia zamknięte. Owszem, firma z Santa Clara sporo wydaje na swoje CUDA i SoC, ale widać, że obrali inny kierunek niż AMD. Zresztą wszystko może się jeszcze zupełnie diametralnie zmienić. Myślę, że liczą oni na automatyczne zainteresowanie takową opcją ze strony innych gdy tylko GPGPU wejdzie do APU, co może mieć różne skutki. W przypadku wielkich firm samo oprogramowanie nie jest wielkim problemem, bo itak jest inne wprzypadku każdego podmiotu. Względem Bulldozera, to może być różnie, ale tąpnięcia zapewne nie będzie bo też i AMD ma zbyt mało środków by tak mogło być. NAMD stoi w miejscu i zamiast inwestycji woli wyprzedawać swój majątek. ARM ma swoje zalety, ma i wady, tak jak i w przypadku x86, a wszyscy zarobią swoje. Nam pozostaje liczyć na rozwój AMD i Nvidia na rynku rozwiązań konsumenckich.

  41. @Wedelek (autor: Promilus | data: 8/01/11 | godz.: 20:18)
    Tak, otwarte, otwarte. OpenPhysics, Open 3D i kto wie co jeszcze. Tyle, że... NV ma zamknięty PhysX (i nieźle działający choć w bardzo ograniczonej liczbie gier i do tego z lekko przymulonym 'software mode' na CPU) od dłuższego czasu tak jak i 3DVision. OpenCL bulleta ciągle nie ma a inicjatywa z wyświetlaniem 3D ogranicza się do dosyć nierównych produktów np. iz3D (gdzie dość często źle działa w grach, a w każdym razie gorzej niż rozwiązania NV). Zatem stojąc z boku mamy z jednej strony kompletny i działający silnik fizyki na GPU oraz wyświetlanie 3D w wielu tytułach, a z drugiej wersję alpha której nie ma w żadnej grze oraz 3D które wymaga zewnętrznych aplikacji (o ile nie specjalnych monitorów) i nie zawsze działa jak należy. Ale dla sprawiedliwości Eyefinity robi na mnie większe wrażenie bo w wielu grachach FoV ma decydujące znaczenie, a 3D to tylko umlacz który w ponad połowie przypadków powoduje ból (prędzej czy później) ;)
    Co do tąpnięcia... AMD po serii K5 i K6 też kasą nie sypało na lewo i prawo a wydali takiego skur... że 90% redaktorów po testach 3x sprawdzało czy aby napewno wyszły dobre wyniki... bo to było zbyt nierealne. K8 to prawie to samo, dość spory wzrost i więcej niż dawała konkurencja. A teraz już jakiś 4-5 rok w plecka.


  42. @Promilus (autor: Wedelek | data: 8/01/11 | godz.: 20:41)
    Święta racja, ale PhysX może odejść w niepamięć, bo DirectX 11 wspiera fizykę, działa na wszystkich kartach i dodatkowo ma za sobą wsparcie ze strony Microsoftu. Jeśli chodzi o 3D, to jest to wg mnie straszne g***o i to w wykonaniu wszystkich firm, bo i sama technologia kuleje. Jeszcze najlepiej robi to NV ale itak jest to tylko marny substytut tego co być powinno. Zresztą ta sytuacja zmieni się dopiero w chwili gdy nie trzeba będzie korzystać z okularów. AMD ma potencjał i myślę, że dadzą radę, jeśli tylko Intel nie zacznie znowu swej "mrocznej" polityki, która skompromitowała w mych oczach tę zasłużoną na polu IT firmę.

  43. Promilus (autor: Gigant | data: 8/01/11 | godz.: 21:13)
    Nie AMD a tobie się wizja skończyła. Jesteś gorszy niż morgi bo morgi to przynajmniej swojej głupoty nie kryje.

    BD potrafi przerobić 4x128bit i 2x256bit AVX na rdzęń więc znowu pierdzielisz od rzeczy.

    Co do zunifikowanycj jednostek pixel i vertex shader to już ci tłumaczyłem, że to te same jednostki i powinny być od zawsze przeznaczone do obliczania pixel i vertex.

    Natomiast unifikacja CPU i GPU to zupełna inna sprawa niż unifikacja shaderów. Nie da się zunifikować rdzeni OoO z rdzeniami Inorder. Albo robisz coć do szeregowych obliczeń albo do równoległych. Tutaj nie ma co unifikować bo układ stanie się mało wydajny i będzie do dupy.


  44. @Gigant (autor: Promilus | data: 8/01/11 | godz.: 22:46)
    "BD potrafi przerobić 4x128bit i 2x256bit AVX na rdzęń więc znowu pierdzielisz od rzeczy"
    http://techreport.com/articles.x/19514
    Spójrz jeszcze raz... Bulldozer Concept NIE został zrealizowany, za to jest to co poniżej. A masz tam dwie (!) 128 bitowe (!) jednostki FMAC które połączone są w stanie przetwarzać 256 bitowe dane z rozkazami AVX. Łączone są jednostki, łączone są rejestry, przetwarza się w cykli TYLE SAMO. Nie wiem skąd wziąłeś 4x128bit per core, ale 'lekko' przegiąłeś. Tymczasem u intela mamy również 2 FMAC, tylko że 256bit z 256 bit rejestrami dla AVX a redukowane do 128bit dla SSE. Zatem w SSE wydajność TA SAMA, w AVX wydajność 2x większa co potwierdzają praktycznie wszystkie redakcje na świecie (tutaj cytat z Anandtech)
    "The upper 128-bits of the execution hardware and paths are power gated. Standard 128-bit SSE operations will not incur an additional power penalty as a result of Intel’s 256-bit expansion.

    AMD sees AVX support in a different light than Intel. Bulldozer features two 128-bit SSE paths that can be combined for 256-bit AVX operations. Compared to an 8-core Bulldozer a 4-core Sandy Bridge has twice the 256-bit AVX throughput. Whether or not this is an issue going forward really depends on how well AVX is used in applications.'
    Jedyną praktyczną możliwością zrównania się w SZCZYTOWEJ wydajności jest FMA4 które BD mieć powinien od razu, a którego SB mieć nie będzie (ani FMA3 które chyba będzie w Ivy Bridge). Jak widzisz chyba jednak to JA mam rację.
    Teraz odnośnie 'integracji' o której pisałem a którą wyśmiałeś...
    "McKinney told us the main motivating factor was the presence of more integer math in important workloads, which makes sense. Another explanation we've heard is that, with AMD's emphasis on CPU-GPU fusion, floating-point-intensive problems may be delegated to GPUs or arrays of GPU-like parallel processing engines in the future."
    Czy jest możliwe że te "arrays of GPU-like parallel processing engines in the future" utworzą nowy silnik SIMD? Tak. Jest taka możliwość i do tego dość dobrze umotywowana.
    "już ci tłumaczyłem, że to te same jednostki "
    Proszę o dowód że to w RSX, G71, R520, R300, R200 czy tego podobnych GPU są TE SAME JEDNOSTKI. Ja dałem wystarczający w innej dyskusji gdzie jasno i wyraźnie widać że to były ZUPEŁNIE ODMIENNE ARCHITEKTURY z różną budową i możliwościami. Dopiero od 2007r. mamy zunifikowane PS i VS które mają dokładnie tą samą budowę i przeznaczenie (choć nie wszędzie, w każdym razie jeśli chodzi o DX10, np. PowerVR, SiS i starsze GMA).
    "Albo robisz coć do szeregowych obliczeń albo do równoległych"
    in order i out-of-order nie mają nic wspólnego z szeregowymi czy równoległymi algorytmami. ooo to po prostu mechanizm reorganizujący kolejkę rozkazów tak by maksymalnie wykorzystać jednostki wykonawcze (tzn. żeby nie było przestojów w oczekiwaniu na jakieś tam wyniki które są daleko w kolejce).
    "Albo robisz coć do szeregowych obliczeń albo do równoległych" eee... to jeszcze raz, po co to multicore? Do obliczeń szeregowych? A może szerszy SIMD jest do obliczeń szeregowych?
    "Nie da się zunifikować rdzeni OoO z rdzeniami Inorder" Nie bardzo rozumiesz... co ma piernik do wiatraka? Skoro te 'rdzenie' w GPU to tak naprawdę odpowiedniki ALU/FPU w procku a nie prawdziwe w pełni funkcjonalne procesory w jednej strukturze. Tak to tylko nazwali i tyle. FPU/SIMD w BD może się podzielić na cztery 64 bitowe jednostki albo połączyć w jedną 256 bitową. A teraz podziel to jeszcze niżej (AMD takiej możliwości nie przewiduje, ale... teoretycznie...) wychodzi 8 jednostek 32 bitowych. A teraz jak wygląda liczenie w GPU Cayman? Są 4 jednostki 32 bitowe i w razie potrzeby łączą się w pary 64 bitowe do liczenia FPMADD. Nietrudno domyślić się, że skoro intel przewiduje rozszerzanie AVX do 512 a nawet 1024 bitów najlepiej będzie łączyć mniejsze FPU równolegle (czyli tak jak to ma miejsce w Caymanie do liczenia 64bit). A skoro tak to będzie potrzebna pewna struktura jednostek przetwarzających... dla 1024bit to będzie macierz kilkudziesięciu 32bitowych ALU. Czy teraz już rozumiesz do czego od początku zmierzam? Czy nadal tego nie widzisz. 'rdzenie' GPU to tylko proste kalkulatorki które RÓWNIE DOBRZE mogą być wykorzystane w kolejnej generacji SIMD na procach x86. Nie dlatego że są tak zajebiaszcze, a dlatego że można będzie je podzielić między integrę (gdzie policzą piksele, werteksy itp) a ciężkie obliczenia na szerokich wektorach (AVX512, 1024) - bez dublowania tranzystorów. I nie, nie chodzi tutaj o to że znikną karty dyskretne i GPGPU. Po prostu igp w procu stanie się takim standardem jak FPU te 16 lat temu. Pełna integracja i współdzielenie zasobów. Nie sądzę, by techniki generowania grafiki wytyczały trend w dziedzinie obliczeń, bo 64 bit precyzja jest obecnie w grafice mocno na wyrost (a udar w przypadku stosowania tych obliczeń jest straszny, a zresztą TMU i ROP i tak nie operują na 64bit składowych), w obliczeniach często bardzo ważna. Bardziej prawdopodobne, że z obecnego GPGPU wyjdą dwie ścieżki. Jedna to stricte obliczenia i tam będą potężne układy z wieloma rdzeniami TYLKO DO OBLICZEŃ (Keppler? Maxwell?), a druga ścieżka to układy do generowania grafiki (i też obliczenia, ale w mniejszym stopniu i z mniejszą ilością rozwiązań General Computing). Dlaczego? Bo w pewnym momencie balansowanie pomiędzy będzie zbyt nieopłacalne. Już teraz znacząca część rozwiązań w tesli jest zupełnie nieprzydatna. To ma liczyć i tylko liczyć. ROP i TMU, Pure Video, RAMDAC... to tylko niepotrzebne tranzystory podnoszące pobór prądu.
    Jak zatem widzisz MAM wiedzę i bzdur nie wypisuję, dlatego wypraszam sobie nazywanie mnie głupkiem. Radzę jeszcze raz przejrzeć dokumentacje, także starszych układów.


  45. Promilus (autor: Gigant | data: 12/01/11 | godz.: 00:59)
    Gdzie ty widzisz FMAC u Intela? SB ma jedno FPU które przerabia 256bit ADD+256bit MUL na cykl zegara. Natomiast Bulldozer posiada dwie 128bit jednostki FMAC(ADD+MUL) co daje 4x128bit. BD potrafi przerobić 4x128bit/2x256bit na rdzeń czyli jest to więcej niż u SB który przerabia 2x128bit/2x256bit.

    I przestań mi tu wklejać jakieś durne cytaty. W morgiego się bawisz? Nie ma szans aby 8 rdzeniowy BD był 2x słabszy w AVX od 4 rdzeniowego SB. 2x więcej rdzeni i 2x słabszy? Chyba kogoś pogieło.

    GPU to właśnie silniki SIMD takie same jak w FPU u CPU więc nie ma mowy o integracji GPU z CPU bo to jest niepotrzebne i tylko zwolni układ.

    Co do jednostek vertex i pixel shader to o co ci chodzi kaman stary? Nie widzisz, że to te same jednostki są dokładnie więc nie ma problmu je zunifikować skoro jeden stream procesor może obliczać dane związane z pixel czy vertex.

    Mechanizm OoO i Inorder to zupełnie dwie odmienne architektury i połączenie ich nie jest możliwe bo albo robisz procesor do obliczeń szeregowych czyli OoO albo do równoległych czyli Inorder. Po co projektować rdzenie 0o0 do obliczeń równoległych jak one się na nic nie zdadzą?
    Myśl trochę człowieku.

    A multicore CPU jest potrzebne właśnie do wydajnych obliczeń szeregowych i multitaskingu. Obliczenia równoległe które do tej pory były wykonywane przez FPU zostaną przeniesione na barki GPU.

    Tak więc zapomnij o unifikacji CPU z GPU , przyszłość to heterogeniczne układy do konkretnych zastosowan a nie zunifikowany szajs.


  46. @gigant trąba co nic nie wie o procach (autor: Promilus | data: 14/01/11 | godz.: 15:23)
    "co daje 4x128bit." Od kiedy 2x128bit = 4x128bit?
    Nie. Są 128 bitowe jednostki (dwie) i rozkazy FMA o podwójnej wartości. Jeśli nie zauważyłeś to o tym pisałem jeśli chodzi o peak perf. I wyraźnie to zaznaczyłem, ale jak zwykle musisz pierdolić 3 po 3 bo najprostrzych rzeczy nie potrafisz doczytać. W instrukcjach SSE (czyli tam gdzie FMA, XOP i CVT możesz wsadzić sobie w tyłek) jest taka sama maksymalna wydajność, a w AVX (przypominam... AVX!) SB ma 2x większą. Potrafisz to przyznać czy będziesz dalej biadolił? SB nie ma FMA3 ani FMA4. FMA3 ma mieć ponoć Ivy Bridge, ale są to zestawy instrukcji wzajemnie niekompatybilne. Co prawda AMD zapowiadało fallback mode pozwalający na przetwarzanie FMA3, ale jak będzie się okaże. Teraz zagwozdka dla ciebie... skoro wyrównanie szans z AVX w BD WYMAGA wykorzystania nowych instrukcji FMA dlaczego sądzisz, że ktokolwiek je użyje a NIE użyje AVX tylko zostawi SSE? Co to kurna za porównanie? Zestawiasz wydajność aplikacji korzystających z FMA BD z aplikacjami SSE SB? Masz ty coś pod czaszką czy tylko nitkę trzymającą uszy? Jeszcze raz - FMA nie zmienia absolutnie nic jeśli chodzi o SSE, czy to 1, 2, 3 czy też 4. Wydajność SSE obu proców (szczytowa) jest JEDNAKOWA więc nie pisz bzdur że jest inaczej.
    "Nie ma szans aby 8 rdzeniowy BD był 2x słabszy w AVX od 4 rdzeniowego SB. 2x więcej rdzeni i 2x słabszy?"
    8 rdzeni = 4 podwójne FMAC. 4 rdzenie SB to także 4 podwójne FPU (Add i Multiply). Już zaczynasz jarzyć czy jeszcze nie? W trybie AVX 4 podwójne FMAC BD zamieniają się w 4 pojedyncze AVX. W SB zamieniają się w 4 podwójne AVX. Jasne?
    "Nie widzisz, że to te same jednostki"
    Nie. Ty nie widzisz. Przykład.
    R520:
    pixel shader:
    1)Vec3+scalar Add+input modifier
    2)Vec3+scalar Add/mul/madd
    vertex shader:
    Vec4+scalar madd
    To jest wg ciebie ta sama budowa? Robiąca to samo? Nie. To teraz popatrz i pomyśl jak wygląda zunifikowany shader w R600. VLIW5? 4D+1? Vec4+scalar? Aaaaa. No patrz. Niesamowite kurna... wzięli vertex shader starszej generacji i przerobili dodając r/w cache na zunifikowany! Który w niezbyt efektywny sposób może robić i PS, i VS, i GS i CS. Ale dzięki tej zmianie mogli uprościć dispatcher i zwiększyć liczbę tych zunifikowanych jednostek. Tyle że jest to dla ciebie zbyt trudne do pojęcia.
    "Myśl trochę człowieku. "
    Ja myślę, ty nie bardzo. Kup sobie książkę porządną, przestudiuj, później wdawaj się w dyskusje.
    "A multicore CPU jest potrzebne właśnie do wydajnych obliczeń szeregowych i multitaskingu."
    Większej bzdury nie słyszałem od dawna.
    "Obliczenia równoległe które do tej pory były wykonywane przez FPU zostaną przeniesione na barki GPU"
    Bzdura. FPU ma się nijak do obliczeń równoległych.
    "przyszłość to heterogeniczne układy do konkretnych zastosowan"
    Czyli? Karta do grafiki robiąca obliczenia? Czy to nieco się nie kłóci? Ależ kłóci, dlatego GPGPU nie jest żadną przyszłością, jest ścieżką która poleci równolegle do rozwoju proców...


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.