Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 10 czerwca 2011 
    

Załamanie sprzedaży GPU Nvidia na rynku chińskim


Autor: Wedelek | źródło: Barrons.com | 20:09
(59)
Michael McConnell, główny analityk z Pacific Crest opublikował raport dotyczący sprzedaży kart graficznych Nvidia na rynku chińskim w drugim kwartale bieżącego roku. Wspomniany dokument okazał się być krytyczny dla firmy z Santa Clara, wywołując spadek wartości tej firmy o 2% (33 centy) do 17,24 dolarów na akcję. Z raportu dowiadujemy się, że w Maju wartość sprzedanych, dedykowanych kart graficznych tego producenta była niższa o aż 40-45% w stosunku do poprzedniego miesiąca. Początkowe informacje wskazywały że spadek ten będzie znacznie mniejszy i wyniesie 10-15%.

Winowajcami tak drastycznej straty Nvidia okazały się nowe procesory Intela z rodziny Sandy Bridge, które oprócz bardzo mocnego CPU mogą się pochwalić całkiem wydajnym IGP, który dla wielu osób jest wystarczający. Sytuacja ta wpłynie znacząco na wyniki finansowe producenta kart graficznych z rodziny GeForce ponieważ na rynek chiński trafia 35% wszystkich kart graficznych Nvidia, w tym 30% to modele desktopowe.

Według analityków sytuacja ta nie powinna być permanentna, chociaż w obliczu nadchodzącej premiery APU Llano od AMD niczego nie można być pewnym.

 
    
K O M E N T A R Z E
    

  1. No ładnie (autor: Conan Barbarian | data: 10/06/11 | godz.: 20:27)
    To na 100% wina Covec!
    Można się zatem spodziewać, że następna generacja APU i Ivy Bridge bardzo zmieni rynek.
    Mam jednak nadzieję, że GPU z prawdziwego zdarzenia przetrwa, choć dynamika rozwoju nie będzie już taka jak w AD2010.


  2. to się (autor: popierdulka1234 | data: 10/06/11 | godz.: 20:32)
    porobiło że huhu, ciekawe co się stanie jak wypuszczą buldka w integrze z radzionkiem
    jestem naprawdę ciekaw, ale jedno jest pewne podejście do pc-ta zmieni się totalnie, podejrzewam że to będzie takiego rodzaju konsola, do gier i maszynka do roboty w jednym za ciekawe pieniądze


  3. prawie (autor: bogo126 | data: 10/06/11 | godz.: 21:44)
    jest mi ich żal... pamiętacie 8800 ultre po 2600 zł albo teraz absurdalnie drogiego gtx 560. Widać chłopaki się przejechali na wspaniałej wydajności swoich kart, która idzie w parze ze zbyt wysoką ceną. Używam Opery Turbo, więc obrazek mam skompresowany. Możecie mi powiedzieć czy typek na zdjęciu jest spocony ? :)

  4. to jest (autor: piobzo | data: 10/06/11 | godz.: 21:47)
    problem obecnego rynku grafik... spoko karty- ale za drogie

  5. znak czasów (autor: Qjanusz | data: 10/06/11 | godz.: 21:55)
    Tak jak po kilkunastu latach Książę został wskrzeszony, tak nVidia po takim samym czasie zaczyna zchodzić do piachu.

    Za kilka lat nVidia sprzeda dział GPU Intelowi i skupi się na zbijaniu kokosów na ARMach.


  6. ... (autor: Mav | data: 10/06/11 | godz.: 22:08)
    Sad Jen-Hsun is sad :(

  7. AMD pewnie tez poleciało (autor: pomidor | data: 10/06/11 | godz.: 22:18)
    zresztą oni już i tak są w ogonie, nawet bez SB.

    Prawdziwy spadek będzie po premierze Ivy Bridge który ma 2x szybszą grafikę. Będą kupowane już tylko mid i high endy.

    O nvidia nie ma się co martwić, bo przed nią wspaniała perspektywa wymiatania CPU swoimi Tegra i Denver.


  8. pomidor (autor: Markizy | data: 10/06/11 | godz.: 22:44)
    długo nad tym myślałeś?

    bo z twojej wypowiedzi wynika że nie masz bladego pojęciu o obecnym podziale na rynku.


  9. @Up (autor: Alt-Computer | data: 10/06/11 | godz.: 22:44)
    2x szybszą od czego?
    2x zero (bo tylko tak można nazwać "GPU" Intela) zawsze będzie zerem.


  10. ... (autor: Aamitoza | data: 10/06/11 | godz.: 23:07)
    Pomidor 2x szybszą, to będzie mieć tylko w Twoich marzeniach ;)

    Z 12 do 16EU i ciut większe zegary nie dadzą Ci 2x mocniejszej grafiki. Jak będzie o połowę szybsza - to będzie SUKCES. Tylko, że wtedy dopiero dogoni GPU w llano, a AMD będzie mieć znowu blisko 2x szybszą grafikę ;) O tyle dobrze, że GPU w IB będzie wspierać openCL.


  11. @Aamitoza (autor: MateushGurdi | data: 10/06/11 | godz.: 23:17)
    nie znecaj sie nad nim, dlugo swoja bajke pisal.

    A co do samego newsa to coz: oczywista oczywistosc. Jezeli zakladali 10-15% spadku dedykowanych w momencie gdy intel wypuszcza swoje sklejki a AMD juz sie szykuje z APU to nie ma o czym rozmawiac, bardzo optymistyczne zalozenia zrobili. Swoja droga spocone czolo musi byc zawiedziony ze go rodacy zdradzaja


  12. taka tendencja kompletnie mi się nie podoba (autor: Teriusz | data: 11/06/11 | godz.: 00:08)
    Wyjdzie jeszcze, że ludziom kupującym PC będzie wystarczał "GPU" w procach lub samo APU. Może to doprowadzić do większego regresu tworzenia gier pod piece, co nie jest dobre. Jeżeli konsole jeszcze bardziej przejmą rynek gier dla siebie to czarno to widzę. Wtedy to nawet Blizzard nie pomoże.

  13. teriusz (autor: Aamitoza | data: 11/06/11 | godz.: 00:13)
    Bardziej zwolnić się nie da. Już gpu w llano jest szybsze od tego co siedzi w X360, a za 3 lata będzie tam siedzieć coś pokroju obecnego highendu i zapewne następnego xboxa. Jak dla mnie dobry kierunek, bo gry będą optymalizowane na pc, a nie będzie się wrzucać niezoptymalizowanych gniotów, które wyglądają tak jak na konsoli na kilka x mocniejszym sprzęcie, a chodzą słabiej. Oczywiście najpierw te GPU muszą osiągnąć odpowiedni poziom mocy - bo GPU w SB jest za słabe, a w llano na styk.

  14. A ja se mysle (autor: biuro74 | data: 11/06/11 | godz.: 01:25)
    ze to nie przez Intela, tylko Chince naumieli sie juz podrabiac poczciwego GeForce 2MX i dodaja do niego biblioteki DX10 albo 11 i sprzedaja pod nowa nazwa jako "GeeForce GT220, GT420" ;-)

  15. Nvidia tonie (autor: ekspert_IT | data: 11/06/11 | godz.: 07:38)
    Brak jakiejkolwiek rozsądnej oferty w segmencie low-mid-performance dał o sobie znać. Ile sprzedaje sięsprzętu high-endowego w którym nvidia może jeszcze konkurować? Bardzo niewiele. Nvidia spada po równi pochyłej...

  16. EKSPERT (autor: agnus | data: 11/06/11 | godz.: 08:34)
    nVidia tonie? A wiesz na czym tak naprawdę nV zarabia? Lata monopolu zrobiły swoje. Zieloni mają teraz takie kontrakty że nawet gdyby odpadli z rozrywkowych GPU - poradzą sobie. zresztą jakiś czas temu nV zapowiedziała przeniesienie swoich głównych mocy projektowych.

  17. tylko Nvidia ta sytuacje zrozumiala (autor: josefek | data: 11/06/11 | godz.: 08:45)
    i juz probuje cos innego robic....a AMD ze swoimi opoznieniami producentow plyt i przenosnych PC tylko na straty naraza, bez ATI byl by AMD juz uwazony....

  18. ... (autor: Deathraw | data: 11/06/11 | godz.: 10:25)
    Może jak NV padnie to AMD ich przejmie i physx będzie na kartach ati?

  19. @josefek (autor: MateushGurdi | data: 11/06/11 | godz.: 11:16)
    akurat problemy AMD zaczely sie po wykupie ATI, chociaz przyczyna byl Intel i jego zagrywki

  20. @Aamitoza (autor: pomidor | data: 11/06/11 | godz.: 14:14)
    To jest pewne na bank, że w Ivy Bridge będzie 2x szybsza grafika niż w SB.
    http://www.anandtech.com/...-22nm-ivy-bridge-wafer
    Jak widać rdzeń graficzny zajmuje 1/3 powierzchni, i ma taką samą wielkość jak ten w SB. Dodaj do tego kilkaset MHz więcej z racji TriGate. Intel nie jest głupi i wykorzysta przewagę w procesie, aby wybić GPU od AMD i NV.


  21. pomidor (autor: Markizy | data: 11/06/11 | godz.: 14:50)
    żebyś się nie rozczarował, w każdym razie za rok się przekonasz czy podbili wydajność dwa razy, bo 1,5-1,7 jest realne.

  22. Josefek (autor: Aamitoza | data: 11/06/11 | godz.: 15:36)
    Gdyby nie mieli AMD, to pewnie rozwój procesorów był by inny. Nikt nie myślał by o żadnych apu, o mocnych integrach, tylko było by po staremu - intel tłukł by słabe integry, bo po co mocniejsze, skoro nie ma konkurencji, nvidia walczyła by tylko na rynku GPU i powolutku rozwijali swoje cuda, opencl leżał by zapewne odłogiem, Ati trzaskało by swoje GPU i być może lepiej by weszli w GPGPU (w końcu to oni pierwsi wykorzystali GPU do obliczeń innych niż grafika bardziej komercyjnie).

    A tak mamy co mamy - AMD walczące na 2 fronty łączące zalety CPU i GPU. Intel widząc konkurencję w postaci apu wzmacnia swoje dość kulawe IGP (które z roku na rok się powoli wyrabia), efektem czego nvidia traci udziały w rynku tanich GPU Z racji tego, że trzeba zarabiać nvidia planuje zrobić swoją wersję apu, a windows na ARM jest dla nich praktycznie ratunkiem. Innymi słowy paradoksalnie po raz kolejny M$ wesprze nvidia, po tym jak pomogli im wchłonąć 3DFX.

    @pomidor


  23. @pomidor (autor: Aamitoza | data: 11/06/11 | godz.: 15:50)
    Śnij dalej. Widziałeś jak skaluje się HD3000 względem HD2000? 2x więcej jednostek przy tym samym zegarze dają +60%, A skoro IB ma mieć tylko 1/3EU więcej, to da to góra 20% wzrost wydajności.

    max zegar HD3000 to 1350mhz w SB. To teraz to sobie policz. Nawet jak zwiększą zegary do 2Ghz! to i tak maksymalny wzrost to będzie 1,8 licząc, że względem zegara będzie skalować się liniowo, a tak kolorowo nie jest, więc będzie w takich okolicznościach około 50-60% wzrostu (HD3000 po zwiększeniu zegara o 23% z 1100 na 1300 skaluje się na poziomie 10-16% w grach, więc blisko o połowę mniej niż wzrost zegara). Aby to GPU było 2x wydajniejsze musieli by ustawić mu skromne 2,5-3Ghz. No tak, Trigate które ma zalety tylko przy niskich napięciach coś tutaj pomoże OFC - takie IGP dla 2,5Ghz na pewno będzie zadowalać się niskimi napięciami ;]


  24. @pomidor (autor: rainy | data: 11/06/11 | godz.: 16:03)
    Zwiększenie EU z 12 do 16 i ewentualne podbicie zegra ma zaowocować dwukrotnym wzrostem wydajności - śnij dalej.

    Podam prosty przykład: HD 4870 vs HD 5870.

    Pomimo, iż nowszy układ dysponuje dwa razy wiekszą ilością jednostek wykonywawczych, a także wyższym taktowaniem (rdzeń 850 vs 750 MHz, pamięci 4,8 GHz vs 3,6 GHz) nie zdaża się, aby był dwukrotnie szybszy od poprzednika (średnio jakieś 60-70 procent lub tego typu wartość).

    Tak jak napisał Ci Aamitoza - podbicie wydajności o 50 procent będzie dobrym wynikiem.


  25. ... (autor: Aamitoza | data: 11/06/11 | godz.: 16:12)
    pomyłka w poprzednim wpisie.

    "(HD3000 po zwiększeniu zegara o 23% z 1100 na 1300 skaluje się na poziomie 10-16% w grach, więc blisko o połowę mniej niż wzrost zegara"

    oczywiście 1350, a nie 1300. Żeby pomidorek nie szukał dziury w całym.


  26. Aamitoza (autor: Gigant | data: 11/06/11 | godz.: 16:49)
    A co jak zrobią wersje z 32EU i podniosą zegary o 20%?

    12EU*1350MHz=162
    32EU*1620MHz=518

    3.2x wieksza moc!!! 16EU to ma mieć wersja słabsza. Wersja top będzie miała 32EU....


  27. gigant (autor: Aamitoza | data: 11/06/11 | godz.: 17:09)
    jak zwykle trollujesz? intel miał wstawić najpierw 24EU, ale na ostatnich zapowiedziach zmienili plany i IB ma mieć tylko 16EU, a słabszy model 8.

    Trolujesz już chyba dla sportu. 32EU w IB, 6dekoderów w llano... no dawaj, wymyśl coś nowego! ;)


    Czy nie ma tutaj czegoś takiego jak ban, za szerzenie bzdur z premedytacją?

    A tal dla wyjaśnienia sprawy:

    "Intel is targeting a 30 percent graphics performance and 20 percent CPU performance boost compared to Sandy Bridge"

    Myślę, że więcej dodawać nie trzeba?


  28. Aamitoza (autor: Gigant | data: 11/06/11 | godz.: 17:24)
    mała poprawka w Husky core jest 12 dekoderów ;)

  29. Gigant (autor: Teriusz | data: 11/06/11 | godz.: 18:17)
    Ale intel jest mocny właśnie w CPU i nie zrezygnuje z wydajności swoich rdzeni na rzecz GMA. W układach hybrydowych i tak już jest walka na ilość zajmowanego miejsca między rdzeniami CPU, a GPU. U AMD w APU już widać, że rdzenie x86 tracą na swojej wydajności przez wciśnięcie w układ i tak dużej ilości tranzystorów w części GPU.
    Także są 2 koncepcje. Intel nadal będzie bardziej szedł w moc obliczeniową CPU, a AMD bardziej w multimedialność.


  30. gigant (autor: Aamitoza | data: 11/06/11 | godz.: 20:07)
    tak, jest 12 dekoderów - w 4ro rdzeniowym modelu. Twoja głupota zaczyna już Cię przerastać ;)

    Teriusz


  31. Teriusz (autor: Aamitoza | data: 11/06/11 | godz.: 20:10)
    Jakie tracenie wydajności? Po prostu stary K10.5. W przyszłym roku APU będzie mieć taką wydajność jak bulldozery.

    Kolejna sprawa, że AMD nie idzie w multimedialność, tylko integrację. W kolejnych odsłonach apu GPU będzie mocniej integrowane z CPU i będzie można cześć obliczeń zmiennoprzecinkowych przenieść na ten układ.


  32. Aamitoza (autor: Gigant | data: 11/06/11 | godz.: 20:30)
    w jednym core jest 12 dekoderów... taka jest prawda...

  33. i zbastuj (autor: Gigant | data: 11/06/11 | godz.: 20:33)
    bo z trollami nie chce mi się kłócić... przekonasz się za kilka dni że miałem racje...

  34. gigant (autor: Aamitoza | data: 11/06/11 | godz.: 21:19)
    Daj dowody, a nie troluj - proste. AMD nie pisze o dodatkowych kontrolerach, na zdjęciach rdzenia też ich nie ma. - zdajesz sobie sprawę, że dokodery nie mogą byćtak samoistnie wrzucone w bylejakie miejsce w CPU bez schedulerów, pamięci mokrokodu, czy innego rodzaju buforów? Nie no, dekodery istnieją same sobie - spoko wierz dalej w te bajki ;]

  35. ... (autor: Aamitoza | data: 11/06/11 | godz.: 21:22)
    Serio pytam - czy nie ma żadnych banów za szerzenie bzdur? Bo gigant przebija pod tym względem emu i sony'ego razem wziętych.

  36. C19 i C22- problemy AMD powaznie sie zaczely jak za ATI przepalcili (autor: josefek | data: 12/06/11 | godz.: 08:30)
    i tez jednym microprocessorem 35 % rynku chcieli zdobyc, do wzrostu wartosci akcji doprowadzajac, co ich z 5c szef6w b6gatych 34dz5 zrobilo ale tez di nierentownosci doprowadzilo...

  37. Aamitoza (autor: Gigant | data: 12/06/11 | godz.: 17:39)
    Jakie mam ci dać dowody? Zwiększenie EU z 12 do 16 to śmiech na sali... Intela HD3000 jest 2x wolniejsze w grach od GPU w Llano...
    Muszą ostro nadrabiać... 32EU to minimum aby mieli z czym konkurować z Llano/Trinity...

    Zresztą spójrz na zdjecia IB. GPU stanowi aż 1/3 układu i jest 2x większe od tego z SB. Bez problemu da się tam władować 32EU...


  38. gigant (autor: Aamitoza | data: 12/06/11 | godz.: 18:26)
    A gówno mnie obchodzą Twoje sugestie. Intel podał że będzie 16 i to jest fakt, a nie jakieś liczenie, do tego poadli, że będzie 30% wzrost - i tyle mnie interesuje - mogą być nawet i 64 jednostki, ale wzrost będzie 30% bo to oficjalne info od intela. AMD też nigdzie w manualu (a przede wszystkim tam powinni!) podać informacje o jakiś wymyślonych dekoderach, a ta nawet o tym słowa nie ma. To, że IGP w SB zajmuje tyle miejsca? No chyba normalne prawda? DX11 + openCL. Widocznie trzeba było co nieco zmodyfikować aby działało skoro na obecnym nie działa. Przypomnę Ci tylko, że cedar jest większy od RV710 o 20% tylko z powodu dostosowania go do DX11. Więc intel dorzucając teselator do GPU z SB i zwiększając ilość jednostek o 33% prawdopodobnie właśnie osiągnie tę 1/3 chipu - GPU w SB to 1/4 układu.

  39. Są już testy Llano (autor: Gigant | data: 12/06/11 | godz.: 18:32)
    http://crazyworldofchips.blogspot.com/...sted.html

    Llano leje HD3000 o 100%. Trinity będzie miało jeszcze więcej SP co da 3x większą wydajność od HD3000.

    Intel musi ostro nadrabiać z GPU inaczej będzie w ciemnej doopie...
    http://imageshack.us/...y-images/840/unledlkl.jpg/


  40. Aamitoza (autor: Gigant | data: 12/06/11 | godz.: 18:50)
    Geniuszu czytałeś manuala o 12h? No to powiedz mi do czego służą te 2 nowe elementy obok FPU i LoadStore które dodali...

  41. ... (autor: Aamitoza | data: 12/06/11 | godz.: 19:45)
    tak czytałem i nie ma mowy o żadnych dodatkowych dekoderach.

    No tak, bo minimalne zmiany (mniejsze niż przejście z K8 na K10!) muszą nieść za sobą kosmiczne zmiany - daj sobie na wstrzymanie, skończ brać to co bierzesz i zacznij myśleć logicznie. To są po prostu zwykłe zmiany usprawniające architekturę.


  42. ... (autor: Aamitoza | data: 12/06/11 | godz.: 19:46)
    A to ile będzie szybszy llano czy trinity od intela, to już problem intela - oni chcą o 30% przyspieszyć.

    Inna sprawa, że trinity za wiele nie przyspieszy jak nie zmienią pamięci na DDR4 albo nie dołożą kanałów dla kontrolera.


  43. Aamitoza (autor: Gigant | data: 12/06/11 | godz.: 21:29)
    Jak nie ma mowy to wytłumacz to dlaczego nie ma? Spisek? Ano właśnie...

  44. Aamitoza (autor: Gigant | data: 12/06/11 | godz.: 21:34)
    Jesteś głupszy niż myślałem. Pytam się ciebie do czego służą te nowe elementy a ty wyjeżdżasz, że to nie dekodery pomimo że w manualu nic o tych elementach nie napisali. Skąd do jasnech cholery wiesz że to nie dekodery skoro nic o nich nie napisali?

  45. Gigant (autor: Markizy | data: 12/06/11 | godz.: 22:52)
    a ty skąd wiesz że są to dekodery?
    może są to układu do zaradzania energią w rdzeniu lub odpowiedzialne za tryb turbo ?


  46. gigant (autor: Aamitoza | data: 12/06/11 | godz.: 23:04)
    rzeczywiście logika u Ciebie nie funkcjonuje.

    Gdyby to były dekodery to by o nich napisali - na pewno ułatwiło by to wiele rzeczy programistom - nie musieli by zgadywać jak to działa ;]

    A skoro nic nie napisali, to najwidoczniej nie są to zmiany które wpływają w jakikolwiek znaczny sposób na układ. Po prostu wprowadzili jakieś drobne zmiany. W końcu CPU dostał turbo, pozbył się HT, dostał nową szynę, tryby oszczędzania energii... zmiany w układzie nie tylko po to aby zwiększać wydajność.


  47. Panowie, nie klucta sie ;) (autor: Jarek84 | data: 13/06/11 | godz.: 00:19)
    http://www.youtube.com/...;feature=player_embedded

  48. ... (autor: Aamitoza | data: 13/06/11 | godz.: 00:26)
    widać, że na standardowych zegarach turbo działą w drugą stronę dla single thread ;) Co dziwniejsze po OC (i pewnie wyłączeniu turbo) wszystko jest w porządku - wyniki są na poziomie deneba, a nawet wyższe (cinebench).

    szkoda, że nie widać wpływu tych "12 dekoderów" ;D


  49. Jesli wydajnosc zegar w zegar (autor: Jarek84 | data: 13/06/11 | godz.: 01:38)
    jest porownywalna do Deneba, to w mobile procki AMD maja szanse na walke z i3 jak i starszymi i5 w multithreadingu - przydalby sie rzacz jasna wyzszy zegar bazowy (na co juz wczesniej narzekalem) jak i brak problemow z turbo (miejmy nadzieje ze takowych nie bedzie)

  50. Aamitoza (autor: Gigant | data: 13/06/11 | godz.: 12:43)
    Ale nie troluj tylko tłumacz się dlaczego w manualu słowem nic nie powiedzieli o tych dwóch elementach które jak byk widać że są największe ;)

  51. To było do przewidzenia (autor: xernos | data: 13/06/11 | godz.: 13:03)
    Tak se patrzę na minę Michael McConnel i odrazy przypomina mi się że w tym roku raczej nagrody za modelarstwo se nie przydzieli :D.

    A tak na poważnie to jeżeli nVidia wiąże swą przyszłość z Windows ARM to IMHO się przejedzie. Tak jak niektórzy na WM niby Windows, ale nie kompatybilny z oprogramowaniem firm 3 wydanych na desktopowe wersje systemu z Raymond i w dodatku mało kompatybilne w stecz - pzdr.


  52. gigant (autor: Aamitoza | data: 13/06/11 | godz.: 13:14)
    skoro te 2 elementy nie są ważne dla programistów to w manualu o tym nie piszą rozumiesz, czy zgrywasz dalej idiotę? W manualu nie opisują każdego pojedynczego tranzystora i za co on odpowiada - uogólniają bloki i tyle - w sekcji o load/store nie dopisali nic o "wielkich zmianach i 12 dekoderach" podobnie w sekcji FPU też nie ma żadnych nowości.

    Ale spoko - żyj w przekonaniu, że jest tam te 3... czy też 12 dekoderów ;] - szkoda, że w wynikach testów tego nie widać ;]


  53. Aamitoza (autor: Gigant | data: 13/06/11 | godz.: 22:17)
    Nie ja te 3 dodatkowe dekodery wymyśliłem a Hans de Vries... więc jak masz jakieś wąty to do niego z nimi...

  54. Gigant (autor: Markizy | data: 13/06/11 | godz.: 22:25)
    a ty uparcie twierdzisz ze tam jednak są. a gość tylko naprawdę przewiduje co tam może być.

  55. ... (autor: Aamitoza | data: 13/06/11 | godz.: 22:47)
    Ale on ich nie wymiślił, stwierdzi rok temu, że to możliwe. Ale AMD nie napisało nic w manualu, więc nie istnieja.

  56. ... (autor: Aamitoza | data: 13/06/11 | godz.: 22:49)
    poza tym wybacz, ale czy Hans pracuje w AMD? Nie, więc o czym my w ogóle mówimy?

  57. Aamitoza (autor: Gigant | data: 14/06/11 | godz.: 19:08)
    To że AMD nic nie napisało o tych dekoderach to ja wiem i nie musisz mi tego powtarzać jak debilowi. Hans jest architektem więc wątpie aby się mylił w tym przypadku i nie potrafił odróżnić dekoderów od jakiegoś innego ustrojstwa...

  58. Gigant (autor: Markizy | data: 14/06/11 | godz.: 21:07)
    jak widać nie potrafi, bo nie widzi przybliżonego schematu połączeń, dwa jego działanie można porównać do odgadywaniu marki i modelu samochodu przy użyciu zdjęć satelitarnych.

  59. Markizy (autor: Gigant | data: 14/06/11 | godz.: 21:49)
    Odgadywać to może ktoś taki jak ja co tam jest ale Hans ma skan w oczach...

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.