Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 21 stycznia 2011 
    

Llano będzie można łączyć w tryb CrossFire z Radeonami


Autor: Zbyszek | źródło: DonanimHaber | 13:52
(77)
Jak wynika z najnowszych informacji nadchodzące 32-nanometrowych procesory APU Llano firmy AMD będzie można łączyć z kartami graficznymi Radeon, w celu uzyskania jeszcze wyższej wydajności przetwarzania grafiki. Procesory w najmocniejszej wersji będą wyposażone w 4 rdzenie x86 oraz układ graficzny z obsługą bibliotek DirectX 11, którego wydajność ma odpowiadać dzisiejszym Radeonom HD 5500 i 5600. Zintegrowany GPU będzie posiadał wszystkie właściwości serii HD 6000 - w tym dekoder UVD 3.0, obsługę Eyefinity, złącz DisplayPort 1.2 i HDMI 1.4a oraz obrazu stereoskopowego. Mało tego - układ będzie mógł pracować w parze z zewnętrzna dedykowaną kartą z serii Radeon, dzięki rozwiązaniu o nazwie AMD Dual Graphisc.

Wygląda więc na to, że zakup Llano nie będzie równoznaczny z brakiem możliwości zwiększenia wydajności graficznej, a w przypadku używania bardziej wydajnej karty dedykowanej - z marnotrastwem połowy zakupionego procesora.



 
    
K O M E N T A R Z E
    

  1. Najwazniejsza rzecz (autor: Jarek84 | data: 21/01/11 | godz.: 14:44)
    uzywanie grafiki z APU gdy nie gramy, smigamy po necie ewentualnie ogladamy filmy (ewentualne profilowanie wg uzywanej starszej gry) celem oszczedzania energii.

    Z drugiej strony (nie wiem jak to wyglada teraz w przypadku CF) ale bedzie wiecej OCL devices niz 2 ;)


  2. tia, a głównym hamulcowym (autor: Sony Vaio | data: 21/01/11 | godz.: 14:51)
    będzie procek, już teraz trzeba topowych i7 by karty rozwijały skrzydła. całe to fusion to taki obojnak, ani szybkie, ani oszczędne w sam raz dla fanbojów, co nie wiedzą czeg9 chcą.

  3. Znawcy tematu (autor: neuron | data: 21/01/11 | godz.: 15:12)
    wiedzą że to będzie swietne rozwiązanie ze strony AMD. No cóż rozwscieczonym dzieciom pozostaje prosić rodziców o większe kieszonkowe. Bo ich ulubiona firma zmieniła jeden pin w sockecie i już nie będą działać nowe super wydajne procki, na skale NASA. Jakie to smutne :(
    Dobrze że chociaż mają super wydajną zintegrowaną grafike w serii procesorów iX....


  4. @sv (autor: popierdulka1234 | data: 21/01/11 | godz.: 15:12)
    ja tego chcę więc mnie to cieszy :)

  5. No tak (autor: morgi | data: 21/01/11 | godz.: 15:27)
    paradoks, ktore moze latwo przerodzic sie w oszustwo na kliencie, reklamowac ze szybsze od i7, a w pewnym momencie o polowe wolniejsze..hiehie.

  6. @morgi (autor: popierdulka1234 | data: 21/01/11 | godz.: 16:17)
    intel również robi podobnie

    jest szysbszy od AMD (prawda)
    szybsze jest droższe (prawda)
    droższe jest wydajniejsze (prawda)

    wbudowana grafika jest wydajna (prawda ale na pulpicie)
    wbudowana grafika generuje dx10 (prawda ale pomaga jej procek)
    generowanie obrazu 3D jest idealne (a to już fałsz)
    uruchammia wszystkie gry (pobożne życzenia)


  7. popierdulka (autor: morgi | data: 21/01/11 | godz.: 16:27)
    Intel robi dobre zestawienia wydajnosci graficznej i jesli juz porownac to do starych swoich produktow i nie generalizowac, bo w ogolnosci procesor jest szybszy w zastosowaniach czysto cpu, nawet jesli by wsadzic tam Fermi na dualcore nie bedzie szybsze niz najszybsze dualcore bez zmiany architektury cpu.

  8. Tak wiec ten slajd (autor: morgi | data: 21/01/11 | godz.: 16:28)
    to czysta manipulacja, bo nie dotyczy wydajnosci procesora, tylko kombinacja cpu+gpu.
    http://img43.imageshack.us/...cpunghybridcross.jpg


  9. Morgi (autor: Aamitoza | data: 21/01/11 | godz.: 16:36)
    A słyszałeś o czymś takim jak platforma? Wsadź do długiej i słabozwrotnej limuzyny silnik ferrari, a i tak nie pojedzie tak dobrze jak dobrze zgrany mercedes ze słabszym silnikiem. - Może na prostej wygra, ale na torze dostanie mocno po tyłku.

  10. @morgi (autor: popierdulka1234 | data: 21/01/11 | godz.: 17:02)
    rozwiń myśl "Intel robi dobre zestawienia wydajnosci graficznej" bo nie kojarzę o co ci biega

  11. @08 (autor: Takeya | data: 21/01/11 | godz.: 17:03)
    wiec co? utna polowe procesora, zeby bylo "fair"?

  12. Aamitoza (autor: morgi | data: 21/01/11 | godz.: 19:10)
    Taaa, to gdzie sprzedaja te platformy? Rozumiem w mobilnych jest sens budowac cale zestawy z mieszanymi grafikami, ale w desktop marnie to widze.
    Takeya
    Nie wystarczy osobno robic cpu perf. i gpu perf., a potem podsumowac np. slabiutkie cpu przecietne gpu, albo jak Sandy Bridge czyli wspaniale cpu i przyzwoite gpu.


  13. Pewnie NVidia zaraz skopiuje rozwiązanie (autor: SweetDreams | data: 21/01/11 | godz.: 19:15)
    rzadko sami tworzą coś nowego

  14. SweetDreams (autor: daver | data: 21/01/11 | godz.: 19:29)
    O RLY? Hybrid SLI, dokladnie sprzed 3 lat.

  15. daver (autor: Markizy | data: 21/01/11 | godz.: 21:00)
    http://pclab.pl/art32241-21.html
    Hybrid CrossFire też ma 3 lata :)


  16. Morgi... (autor: Sandacz | data: 21/01/11 | godz.: 21:07)
    "to czysta manipulacja, bo nie dotyczy wydajnosci procesora, tylko kombinacja cpu+gpu." - a i owszem niestety twój niebieski bożek choćby chciał nie potrafi tak zrobić :-)

  17. @ SweetDreams & daver (autor: Qroń | data: 21/01/11 | godz.: 21:09)
    Z jedenj strony Sweet się nie popisał, z drugiej Hybrid SLI został stworzony w odpowiedzi na technologię ATI.
    Także pogódźcie się Panowie zamiast wbijać sobie te szpile. Świętych nie ma.
    Ja tylko się zastanawiam jak w jednym zdaniu GPU Llano można nazwać "przeciętnym", a to z SB "przyzwoitym"?


  18. no cóż Morgi... (autor: Sandacz | data: 21/01/11 | godz.: 21:11)
    "jest szybszy w zastosowaniach czysto cpu" - jakbyś nie zaklinał rzeczywistości i mieszał ludziom w głowach - CPU mięknie... dzisiejsze multimedia to macierze danych - i tutaj cpu coraz bardziej jawi się jako relikt przeszłości - samo AVX to tylko proteza - namiastka tego co może GPU...

  19. Co do samej technologii łączenia tego "IGP" z GPU (autor: Qroń | data: 21/01/11 | godz.: 21:13)
    uważam, iż to świetna sprawa.
    Jak dotąd uważałem, że APU dobrze odnajdzie się jedynie w rozwiązaniach mobilnych/biurowych, ale teraz to zaczyna mieć ręce i nogi.


  20. To jeszcze nie koniec... (autor: Sandacz | data: 21/01/11 | godz.: 21:17)
    Ja wam mówię 4 do 8 APU na jednej płycie serwerowej i spóła CPU + grafa (ostatnio modne połączenie na top500) tez zaczyna jawić się jako relikt w obliczeniach masowych. AMD ma najbardziej dalekowzroczną wizję rozwoju x86-64. I wszystkie APU z jednej linii (maski) fotolitograficznej.

  21. Sandacz (autor: morgi | data: 21/01/11 | godz.: 21:21)
    A co moze gpu w kwestii procesorow, a tak wspomagac obliczenia fp, ale wlasnie AVX to wielka poprawa w tym kierunku.

  22. @Up (autor: pebal | data: 21/01/11 | godz.: 21:28)
    Napisz to po polsku.

  23. @ 21 (autor: Sandacz | data: 21/01/11 | godz.: 21:45)
    "AVX to wielka poprawa w tym kierunku" - to tylko poprawa - tak jakby do fso 126p zapodać silnik 50 kW - owszem będzie to pewnie znacznie szybsze autko (pomijając różne aspekty natury mechanicznej), ale do F22 raptor (pgu) raczej nie wystartuje , GPU nie stoją w miejscu, chyba rozwijają się nawet szybciej od CPU. Już Cell IBM i Toshiby był taką jaskółką co nie czyni wiosny, obecnie średni 2-rdzeniowy CPU da rdę większosci zastosowań a kiedy ma do dyspozycji GPU jako macierz dla obliczeń masowych daje to moc jaką 15 lat temu miały superkomputery, a wszystko to za parę centów (bo taka jest surowa cena produkcyjna takich układów - mówię o APU)

  24. re up (autor: Sandacz | data: 21/01/11 | godz.: 21:46)
    fsm maiło być oczywiście...

  25. @21. (autor: Mariosti | data: 21/01/11 | godz.: 22:10)
    Niech najpierw aplikacje z sse zaczną porządnie korzystać, to wtedy będzie można o realnym wykorzystaniu AVX pomyśleć. Dwie aplikacje na krzyż to nie wykorzystywanie...

  26. Sandacz (autor: Grave | data: 21/01/11 | godz.: 23:20)
    Skąd wiesz czy z pomocą Nvidii Intel nie wpakuje do swoich CPU GPU z prawdziwego zdarzenia? Na coś w końcu te 1.5 mld USD poszło....

    Poza tym też nie przesadzaj, może w przyszłości będzie inaczej, ale na razie wydajność ogromnej większości programów opiera się na wydajnosci CPU a nie GPU.

    GPU czasami wspomaga - głównie w odtwarzaniu dekodowaniu i przetwarzaniu video oraz zdjęć (notabene Intel sporo z tej funkcjonalności nadrobił w dedykowanym procesorze video wbudowanym w Sandy Bridge)

    Ale czy aby tego wsparcia jest tak dużo? Śmiem wątpić. CUDA czy Stream są na rynku już dobrych parę lat a ciągle liczba aplikacji wspierających to ciągle garstka.

    Weź pod uwagę, że GPU może pokazać swoją siłę tam gdzie obliczenia da się w łatwy sposób rozbić na bardzo wiele wątków. A.... niestety w wielu wypadkach NIE DA SIĘ tego zrobić.

    Ciągle to CPU decyduje o wydajności większości programów, a nie GPU. Możliwe że kiedyś to się zmieni za sprawą nowego oprogramowania ale na razie jest jak jest.


  27. @Grave (autor: pebal | data: 21/01/11 | godz.: 23:39)
    "CUDA czy Stream są na rynku już dobrych parę lat a ciągle liczba aplikacji wspierających to ciągle garstka."

    Bo często zysk jaki daje GPU jest tracony na transferach danych z i do GPU. APU to zmieni.

    "Weź pod uwagę, że GPU może pokazać swoją siłę tam gdzie obliczenia da się w łatwy sposób rozbić na bardzo wiele wątków. A.... niestety w wielu wypadkach NIE DA SIĘ tego zrobić. "

    Większość operacji da się zrównoleglić.


  28. gpgpu (autor: Krax | data: 22/01/11 | godz.: 01:16)
    jest poprostu jednak zalezne od programistow.... nawet niema napisanego sustemu....a od tego nalezalo by zaczac...
    a co do obliczen...niema znaczenia bo gpu moze wykonywac wszystkie obliczenia jakie wykonuje procesor...
    tyle ze i7 920 ma moc okolo70 giga flopa... a karta graficzna...?;)
    sama nV zrobila kiedys badania przeprowadzając rozne testy o ile razy szybsza jest karta ile razy szybciej odbywa sie wykonywanie operacji.
    tyle ze przezucenie wszystkiego na karte wiazalo by sie ze zmiana myslenia programistow.... w zasadzie we wszystkich dziedzinach....co innego zaprogramowac aplikacje by wspolpracowaly z procesorem...a co innego oprogramowac karte......program dla procesora moze napisac debil.....
    kiedys juz byl taki skok...gdy przeniesli "tworzenie obrazu" do kart graficznych, tak zeby robily cos wiecej niz wysfietlaly....tyle ze to bylo konieczne bo procki nie wyrabial:)


  29. @28 (autor: Arlic | data: 22/01/11 | godz.: 02:58)
    Utrudnienie pracy programistą = Zwiększenie kosztów w opracowywaniu danego programu.

  30. @ Grave (autor: Sandacz | data: 22/01/11 | godz.: 09:05)
    Skąd wiesz czy z pomocą Nvidii Intel nie wpakuje do swoich CPU GPU z prawdziwego zdarzenia? Na coś w końcu te 1.5 mld USD poszło.... " - a czy ja gdzieś napisałem że intel tego nie zrobi? Znów wychodzi u cibie atawizm. A do DX11 dużo łatwiej obliczenia masowe przerzucić na GPU więc furtka zostałą otwarta, zobacz jak może działać nawet najnowszy IE z i bez GPU... To już nie jest ciekawostka - tylko ogromne możliwości przetwarzania - nvidia próbowała to robic po swojemu ale do tego potrzeba takiego 'narzucacza' standardów jak MS żeby to 'trafiło pod strzechy'. Teraz jest to łatwiejsze.

  31. hmm... (autor: rcicho | data: 22/01/11 | godz.: 09:33)
    Wyjdzie za ok pół roku to Llano to się oceni co jest warte. Do użytku domowego nic więcej niż wydajność zwykłego Athlona X2 250 czy Intel e5300 nie potrzeba, bo zwyczajnie się tej mocy nie wykorzysta. Za to wydajna grafika zintegrowana jak najbardziej się przyda jeśli ktoś chce zaoszczedzić kilkset złotych na zakup karty graficznej. Jesli takie Llano będzie w cenie od ok 300zł to będzie masowo wkładane do tanich zestawów sprzedawanych w Media Markt czy innych tego typu sieciach. Dla was czyli wymagajacych userów te procki nie są przeznaczone. Będzie Buldozer jest Sandy Bridge. Nie każdy produkt jest dla każdego. O powodzeniu APU zdecyduje cena.

  32. hmm... (autor: rcicho | data: 22/01/11 | godz.: 09:42)
    Problemem Llano być może będzie sama polityka AMD. Nie dosyć że ma być na zupełnie nowej podstawce (FM1 czy jakoś) ale nie będzie ona zgodna ani z AM3 ani z żadną inną. Dodatkowo za ok rok mają wyjśc Buldożerki z wbudowanym GPU i kto wie może całkowicie zastąpią Llano. No chyba że będa one zgodne z podstawką dla Llano ale z tego co gdzieś czytałem to nie. Do momentu aż nie wyjasni się ten problem (co dalej z podstawką dla Lano) to nie warto nawet rozważać jego zakupu.

  33. rcicho (autor: Markizy | data: 22/01/11 | godz.: 11:35)
    bulldozerki z GPU podobno mają wejść na podstawkę Llano F1.

    Prawdopodobnie przez 1-3 lata (maks) będą procki na AM3+, później umrze to na rzecz FM1 lub FM2.


  34. rcicho (autor: morgi | data: 22/01/11 | godz.: 11:52)
    Jak podalem w slajdzie oni uwazaja, ze jest to wolniejsze niz ich biezace athlonki to wymiana nie ma sensu na nowe platformy jak to wszystko miazdzy stara oferta Intela na dualcore i3.

  35. I3 ma za słabe GPU... (autor: Kenjiro | data: 22/01/11 | godz.: 13:10)
    By się nadawało do czegoś więcej niż wyświetlenie pulpitu Windows XP, bo już przy wspomaganiu 3D w przeglądarkach jest za słabe. A co to oznacza? A to, że takie i3 nadaje się do komputera biurowego, ale na multimedialny lub domowy już nie, bo trzeba do niego dołożyć choćby najtańszą, ale wielokrotnie mocniejszą, kartę PCI-E.

  36. @Kenjiro (autor: Promilus | data: 22/01/11 | godz.: 13:45)
    Kto cie tak okłamał że za słabe do akceleracji w przeglądarkach? Jest tylko ciut słabsze od tego w Zacate :] A to jest aż nadto jeśli chodzi o akcelerację w HTML5 :]

  37. hmm... (autor: rcicho | data: 22/01/11 | godz.: 14:14)
    Llano ma być stosowane głównie do laptopów ze średniej półki oraz domowe komputery. Jesli zastosowana w nich grafika rzędu Radeona 5570 to będzie to doskonała sprawa. Byle tylko zyżycie energii nie było pietą achillesową tych APU.

  38. Kenjiro (autor: morgi | data: 22/01/11 | godz.: 16:06)
    Stare i3 jest ciut slabsze od nowego opartego o Sandy Bridge, a te z kolei miazdzy multimedialnie wszystko co wczesniej bylo.

  39. Szkoda (autor: Alt-Computer | data: 22/01/11 | godz.: 16:31)
    tylko, że na nowych i3 nawet SubiektGT się wykłada.
    Najpierw pokazuje kaszę na ekranie, a później wychodzi do windowsa.


  40. a ja uważam że (autor: cyferluu | data: 22/01/11 | godz.: 16:44)
    AMD wie co robi. w końcu ci ludzie tam pracujący zarabiają spore sumy za głowkowanie.

    U intela CPU wspomaga GPU
    U AMD GPU wspomaga CPU.

    uważam ze bardziej uzyteczne jest APU amd, oczywiscie nie zaklinam rzeczywistosci i zdaje sobie sprawe ze jest mniej wydajne w okreslonych warunkach od rozwiązania Intela. lecz mimo wszustko dzieki normalnej karcie graficznej zaszytej w APU zakres uzytecznosci jest większy.


  41. C40-jedno jest prawda (autor: josefek | data: 22/01/11 | godz.: 17:30)
    Ludzie tam zarabiaja wiecej niz u konkurencji, moze ci do srednich stopni robia doskonala robote, ale ci na wysokich stolkach na jedyna rzecz ma ktora powaznie mysla jest jak wlasne kapse wypelnic...maja doskonale produkty, ale nie wiedza ,jak je sprzedac....i najgorsze komu....nie wystarczy cos zrobic, ale cos co uzyteczne musi byc,
    Nie wiem jakie wielka oszczednoscpa jest to, na jednym chipie troche slaby CPU z silnym ( ale z powodu niewystarczajacego chlodzenia, ograniczonymi mozliwosciami) GPU niz na odwrot...rynek o tym osadzi...i tez zdolnosci sprzedawcze--


  42. @41. (autor: Mariosti | data: 22/01/11 | godz.: 19:10)
    Jest to taka oszczędność że dla większości użytkowników będzie to kompleksowe rozwiązanie o wystarczająco nadmiernej wydajności. Taniej będzie zasilić jeden scalak zamiast dwóch oddzielnych urządzeń. Taniej będzie cicho schłodzić jeden scalak i jedną sekcję zasilania. Przejście na mniejszy proces technologiczny będzie dotyczyło od razu całego układu. To wszystko sumuje się w coś bardzo atrakcyjnego dla klienta, dodatkowo zintegrowane gpu obsługując DirectCompute i OpenCL'a będzie znacznie powiększać możliwości procesora w takim komputerze... Zgaduję że intel dąży do tego samego, ale na razie to neguje bo nie ma po prostu konkurencyjnego rozwiązania ani w sklepach, ani w fazie testów.

  43. C42-aby tylko z czyms nie wyskoczyl (autor: josefek | data: 22/01/11 | godz.: 19:23)
    co bedzie sie Nucleo nazywalo....i znow w slady Atoma idac rynek opanuje---dopiero co podano ze sprzedano w zeszlym roku okolo 100 milionow netbookow opartych na Atomie, dla Intela to malo ,ale AMD mogl by z tego zyc....

  44. @37 (autor: Takeya | data: 22/01/11 | godz.: 22:26)
    jesli apu bedzie wylaczac zewnetrzne gpu na czas pracy na pulpicie, to tdp moze dla mnie wynosic i 120/150w (dla 2/4 rdzeni).
    @12 przyzwoite gpu u intela? gpu intela to jedna wielka porazka i gorzej spisuja sie tylko unichrome i inne tego typu smiecie. dla mnie intel w ogole moze nie pakowac gpu do cpu, bo albo bedzie sie brac takie procki tylko do firm, albo bedzie dokladac sie osobne gpu. na apu amd mozna jeszcze pograc, renderowac grafike, a i IE9 bedzie szybciej chodzic na llano ;d
    no i gdzie stawiasz "przyzwoite gpu"? wyzej czy nizej "przecietnego"?
    a do procesorow to sie nie zgodze - mam 2x c2d (e6550 i t5750) - ani jeden, ani drugi nigdy nie byl rewelacyjny, kiedy ze starego athlona (2500+) i "nowego" phenoma 970 be jestem zadowolony.


  45. może mi ktoś wytłumaczyć po co Intel papuguje AMD? (autor: Gigant | data: 23/01/11 | godz.: 02:19)
    To pomysł AMD był żeby władować GPU do CPU. AMD zapłaciło za ten pomysł aż 5.4mld dolców a Intel sobie bezczelnie to wszystko kopiuje, ba nawet nazwy GPU kopiują od AMD HD2000/3000.

    Intel to plagiator! Kradną cudze pomysły i idee za które AMD zapłaciło ciężkie pieniądze!


  46. @Gigant (autor: Promilus | data: 23/01/11 | godz.: 07:16)
    Nie kradną. Taką umowę o wymianie patentowej mają z AMD. Intel daje im nowe instrukcje i licencję na x86, AMD daje wszystko co opracuje, lol.

  47. @up (autor: Promilus | data: 23/01/11 | godz.: 08:51)
    BTW patrz na co natrafiłem dziś ;)
    ""We have begun sampling our 32nm Bulldozer-based Orochi parts in volume with customers worldwide. We expect Orochi for desktops to ship in production in early summer and the Orochi for servers in late summer," said Thomas Seifert, interim chief executive of AMD"
    Hmm... ar ju siur orochi is ded?


  48. C45-gdyby to takie latwe bylo... (autor: josefek | data: 23/01/11 | godz.: 08:59)
    polaczenie CPU i GPU na jednym chipie takie latwe nie jest i tutaj sie boje, ze trzeba z czegos zrezygnowac, przy Brazos pewien sens widze, bo kupujacy urzadzenia na tym APU zbudowane, duzo od urzadzenia nie oczekuja jak dobra cene, srednia wydajnosc i male uzycie energi...przy Liano to juz watpliwosci mam i to dlatego, ze nie mozna dobra karte graficzna na jednym chipie z dobrym CPU polaczyc...albo cos rzeczywiscie nowego sie zrobi( przy tym we wlasna stope strzelajac,ograniczajac sprzedaz wlasnych HD), ale na to AMD pieniedzy nie ma i dlugo nie bedzie mialo jak kazdemu odchodzacemu CEO ciezka kase placi...

  49. he..he... (autor: Sandacz | data: 23/01/11 | godz.: 09:31)
    "miazdzy multimedialnie wszystko co wczesniej bylo" - tak, tak morgi - 'miazdzy' ale chyba dotychczasowe GMA intela.

  50. @josefek (autor: Promilus | data: 23/01/11 | godz.: 09:39)
    HKMG gate-first SOI 32nm. Tak, oto obraz Llano. Gdzie Zacate to 40nm SOI. Co to może oznaczać? Ano raz, że jeśli nie interesuje nas ile CPU zjada papu to Llano powinno naprawdę ładnie się kręcić, jego IGP również. Jeśli zaś zależy na poborze prądu to za niewiele więcej od Zacate mamy dużo większą wydajność. Takie tylko przewidywania i spekulacje, a jak będzie zobaczymy.

  51. @48. (autor: Mariosti | data: 23/01/11 | godz.: 12:17)
    Łącząc przyzwoite gpu z takowym też cpu amd zyskuje, ponieważ na tanich dedykowanych kartach graficznych zarabiają mało - wynika to z tego że mają na nich bardzo małą marżę, karta ma swoich wykonawców którzy też mają swoją marżę itd. Proces wyprodukowania i sprzedania dedykowanej grafiki jest dłuższy i bardziej kosztowny, mniej zostaje dla samego producenta układu.
    A teraz takie apu działają dodatkowo jako karta przetargowa do zakupu ich platformy, a na procesorach jako producent mogą bez problemu osiągnąć znacznie wyższe zyski.


  52. hehe (autor: piobzo | data: 23/01/11 | godz.: 14:43)
    pamięć gddr5 wykorzystywana jako pamięć podręczna procesoraXD

  53. C51-z tym sie calkowicie zgadzam.... (autor: josefek | data: 23/01/11 | godz.: 19:26)
    ale plyty glowne tez moga discretna grafike miec i tutaj Liano troche mozliwosci wybory obniza...bo ci ktorzy sie na tym nie znaja beda sie w strone intela orientowac, a ci ktorzy sie na tym znaja w strone Buldozera orientowac ale tych niestety nie duzo jest...w mobilnych to wedlug mnie wszystko inne jest...

  54. @53. (autor: Mariosti | data: 23/01/11 | godz.: 20:24)
    Klienci którzy wciąż będą zainteresowani dyskretną grafiką to już inna klientela (5400-5600 to właśnie ten dyskretny low-end na którym zarabia się mało, ale sprzedaje się go bardzo dużo i właśnie te układy z powodzeniem może zastąpić mocniejsza wersja igp z llano) i dla nich bardziej zorientowany będzie jednak buldozer.

  55. C54 (autor: josefek | data: 23/01/11 | godz.: 21:12)
    wyobrazam sobie pewne problemy z nowym dla LIano Sockel, cos troche go w desktop zle widze...w ciagu ostatnich 10 dni mialem okazje na roznych Mobilnych mi udostepnionych popracowac, rozne intella i tez AMD jezeli jakis zle chodzi to to od ustawienia OS zalezalo , wlasciciele tych PC nawet nie wiedzieli jaki processor w nich jest....mysle ze sredniej klasy portable jest latwiej sprzedac niz sredniej klasu Desktop..

  56. Promilus (autor: Gigant | data: 24/01/11 | godz.: 02:27)
    Ale AMD w życiu nie dało by Intelowi patentów na Fusion. Oni się wymieniają patentami ale tylko niektórymi a nie, że wszystkie patenty.

    W AMD Fusion GPU jest połączone z CPU po przez kontroler pamięci natomiast u Intela przez cache L3. To swidadczy, że AMD nie dało im patentów na ten projekt APU a Intel poprostu kopiuje pomysł AMD i probuje zrobić swoje Fusion.

    Przecież to jasne jak słońce, że SB ma zintegrowane GPU dlatego, że AMD to zaczeło robić. Papugują bezczelnie złote myśli AMD.


  57. Promilus (autor: Gigant | data: 24/01/11 | godz.: 02:36)
    Orochi to była dla desktów czterordzeniowa wersja Buldożera. Potem dali 8 rdzeniowego Zambezi. Zatem projekt został skasowany a jak nie to możliwe, że AMD ma dwa procki do desktopów. Jeden to natywny 4 rdzeniowiec a drugi to 8 rdzeniowiec.

  58. Bajki w stylu (autor: Gigant | data: 24/01/11 | godz.: 02:39)
    że Orochi to proc dla desktopów i serwerów możesz sobie wsadzić. Nie kupuje tej ściemy stary ;)

  59. C56-a co jest lepiej (autor: josefek | data: 24/01/11 | godz.: 06:27)
    bo boje sie ze przy silnym CPU lepiej L3 jako waspolne urzywac jest....

  60. I jeszcze dwie dziwne nowiny (autor: josefek | data: 24/01/11 | godz.: 07:01)
    1- Process 28 nm bedzie robiony u TSMC, tluma .czac to tym ze nie maja srodkow na oplacenie dwoch grup inzynierow- dziwne ,ale srodki aby dac temu Meyer 14 mil $to mialo.
    2. Intel bedzie dostarczal NOKII , atom 1,2 GHz, ktory Nokia umiesci w mobilnym telefonie N9, czyli na bogaty rynrk Smartphone juz Intel z gotowymi Atomami sie pcha, a NOKIA chyba od AMD juz nic, nigdy nie kupi...


  61. i nie mowiac juz o tym, (autor: josefek | data: 24/01/11 | godz.: 07:11)
    ze ktos chce Sandy Brigde wTablets zastosowac....moze ma AMD dobre produkty ale nie na zaufania u swoich klientow i to bardzo powazne jest...

  62. Co do tego ze (autor: PCCPU | data: 24/01/11 | godz.: 08:41)
    AMD mialo miec 4 rdzenie Bulldozer w desktop to proste poniewaz poczatkowo moduly mialy byc rdzeniami jak w patentach AMD. Ale by podkreslic calkiem nowa a wlasciwie innowacyjna architekture rdzenie nazwano modulami a klastry INT rdzeniami. Tak jak juz wczesniej pisalem te rdzenie w BD to marketing.

  63. Ktos napisal (autor: PCCPU | data: 24/01/11 | godz.: 08:51)
    w komentarzach pod ktoryms niusem ze Bulldozer to poprawione Phenomki. Tak to po czesci prawda. Pewne elementy Bulldozera bazuja z K10 ale to nie znaczy ze te elementy sa te same co w K10. Te elementy zostaly przeprojektowane i rozbudowane. Poczatkowo BD mial byc projektem nie zwiazanym z K10 ale w ostatecznosci postanowiono polaczyc najlepsze elementy obu architektor.

  64. Ktos napisal (autor: PCCPU | data: 24/01/11 | godz.: 08:51)
    w komentarzach pod ktoryms niusem ze Bulldozer to poprawione Phenomki. Tak to po czesci prawda. Pewne elementy Bulldozera bazuja z K10 ale to nie znaczy ze te elementy sa te same co w K10. Te elementy zostaly przeprojektowane i rozbudowane. Poczatkowo BD mial byc projektem nie zwiazanym z K10 ale w ostatecznosci postanowiono polaczyc najlepsze elementy obu architektor.

  65. Tak wiec (autor: PCCPU | data: 24/01/11 | godz.: 09:06)
    Bulldozer bazuje i az tylko bazuje na pewnych elementach K10. Tak jak Sandy Bridge bazuje na pierwszym Core ktory bezposrednio wywodzi sie od Pentium III(architektura P6). K10 to bardzo dobra architektura acz kolwiek jak na owe czasy przestarzala. No ale Bulldozer w drodze. Intel mial nauczke w postaci Pentium 4 projektujac ten CPU calkowicie od nowa a wszyscy wiedza co z tego wyszlo :-)

  66. @Gigant (autor: Promilus | data: 24/01/11 | godz.: 09:07)
    To nie "moja" ściema bo jasno w cacytowanym fragmencie jest napisane kto w ten sposób się wyraził. A że to źródło jest milion razy wierzytelniejsze od mojego I TWOJEGO widzimisię to można przyjąć, że jednak TY nie miałeś racji.
    Co do patentów - intel NIE MOŻE korzystać z np. mikrokodu AMD, ale z ogólnych zarysów stosowanych technologii z całą pewnością (QPI, HyperThreading, 3 stopniowy cache, zintegrowany kontroler pamięci ...)
    Teraz integracja. Misiek, a kojarzy takie procki jak i3 oraz i5? W jaki sposób tam GPU było zintegrowane z CPU? Czy aby IGP+IMC to nie była jedna kostka a potem ta kostka połączona z CPU? Pierwsze wydanie w postaci MCM, ale już to było zintegrowane u intela przez kontroler pamięci zanim pierwsze Bobcaty wyszły do producentów lapków.


  67. Dodam (autor: PCCPU | data: 24/01/11 | godz.: 09:18)
    ze K7 Athlon bazuje na K6. Bulldozer to drugi po K7 tak powaznie przeprojektowana i rozbudowana architektura AMD w dodatku pierwsza tego typu w x86 bazujaca na dwoch klastrach INT dajacych dwa pelnowartosciowe watki (Intel symulowane przez HT).

  68. @josefek (autor: popierdulka1234 | data: 24/01/11 | godz.: 09:39)
    błędów tyle że nawet nie spróbuję ci ich tu wytknąć bo epopeja by wyszła

    @promilus
    "Pierwsze wydanie w postaci MCM, ale już to było zintegrowane u intela przez kontroler pamięci zanim pierwsze Bobcaty wyszły do producentów lapków"

    a jak w ciągu roku zrobić coś co AMD szykowało kilka lat, widać nawet największe fortuny do tego nie wystarczą, podejrzewam że nawet w IVY nie zobaczymy tego równie dobrze zrobionego, a dopiero w następnej generacji procków intelowskich


  69. @popierdulka1234 (autor: Promilus | data: 24/01/11 | godz.: 10:10)
    A może wyjaśnisz co jest takiego zajebiaszczego w Zacate czy Llano że Intel nie ma startu? Wydajność 3D? Może troszkę, w niektórych tytułach. Ale i tak wszędzie 1024x768 low czy HD3000 czy też Zacate z HD6350 (czy jak to tam sie nazywa) to zasadniczo jaka różnica? Dekodowanie filmów? Okazuje się że quick sync kładzie uvd na łopatki, a dodatkowo konkretnie wspomaga transkodowanie. Jasne, jasne. Wszystko ma swoje ograniczenia, ale akurat z SB intel odwalił kawał dobrej roboty i sporo z zalet które miały ukazać się z fusionem od AMD przejął intel. Więc AMD została tylko ciut lepsza wydajność 3D i GPGPU. Nic poza tym.

  70. miły news... (autor: Qjanusz | data: 24/01/11 | godz.: 10:49)
    mniejsza z łączeniem mocy integry i karty dedykowanej.

    Fajniejsze byłoby np zupełne wyłączenie zew. Radka (łącznie z wiatrakami) w 2D i przejęcie roboty przez IGP.
    Albo np w gierkach liczenie fizyki przez IGP, oraz render przez kartę :-)

    Łączenie mocy silnej karty i przeciętnego IGP poprzez klasyczne CF to chyba bardziej pitolenie marketingu niż rzeczywista wartość dodana.


  71. @promilus (autor: popierdulka1234 | data: 24/01/11 | godz.: 12:49)
    dziś nie chce mi się sprzeczać z tobą, więc polemikę sobie daruje

  72. Promilus (autor: Gigant | data: 24/01/11 | godz.: 16:57)
    Ja nie mogę nie mieć racji. Coś co się kłóci z logiką jest oczywistą bzdurą. I nie ważne kto te słowa wypowiedział czy był to prezes AMD czy może sam Bóg to gówno mnie to obchodzi.

  73. @Gigant (autor: Promilus | data: 24/01/11 | godz.: 17:38)
    "Coś co się kłóci z logiką jest oczywistą bzdurą"
    Z logiką to się kłóci twoja postawa wobec oczywistych, rzetelnych faktów.


  74. Promilus (autor: Gigant | data: 25/01/11 | godz.: 16:35)
    o jakich oczywistych faktach bredzisz? to że prezes AMD jak skończony idiota twierdzi że Orochi jest dla serwerów i desktopów jest dla ciebie oczywistością? już ci tłumaczyłem, że z logiką nie ma co się kłócić bo logika jest jedna.

  75. @Gigant (autor: Promilus | data: 25/01/11 | godz.: 17:27)
    Oczywistym faktem jest dla mnie to, że koleś twierdzący że studiował prawo, nie mający pojęcia o architekturze procesorów strumieniowych, nie pracujący w AMD ma czelność poprawiać pełniącego obowiązki SZEFA tej firmy. Dla ciebie mega mądralo zagadka z obrazkami
    http://www.dvhardware.net/...anbul_die_picture.jpg
    http://www.lostcircuits.com/...uban/thuban_die.jpg
    Nie licząc zmienionych kolorów... znajdź wszystkie różnice!


  76. Promilus (autor: Gigant | data: 26/01/11 | godz.: 15:09)
    no i co chcesz mi udowodnić? że niby thuban i instanbul mają jedną i tą samą nazwę? daj se na luuz stary.

  77. @Gigant (autor: Promilus | data: 26/01/11 | godz.: 16:41)
    Rozumiem, że nie znalazłeś ani jednej. To dobrze. Bo nie ma. To jest ten sam rdzeń i ma wewnętrznie tą samą nazwę (bo to idiotyzm nazywać różnie jedną i tę samą rzecz). Ten rdzeń wkłada się potem na kawałek epoksydowego laminatu, łączy drucikami do padów (LGA) lub pinów (PGA) i nadaje odpowiednio nazwy kodowe rdzeni (oficjalne, dla CPU-Z na przykład) Istanbul i Thuban (i do tego odmienne CPU ID). W przypadku procesorów z ARCHITEKTURĄ BULLDOZER (wcześniejsza architektura to STARS lub K10 zarówno w przypadku Ageny jak i Deneba... K10.5 dorobili fani i dziennikarze) rdzeń ma nazwę kodową Orochi, w przypadku procesorów desktopowych procesor będzie identyfikowany jako Zambezi, a serwerowych Interlagos. Jeśli to jest zbyt trudne dla ciebie do zrozumienia to nie mój problem. K8, K10, Bulldozer - nazwy architektur. Orochi nazwa RDZENIA nowej rodziny opartej na architekturze Bulldozer. Na tym rdzeniu będą oparte PROCESORY desktopowe Zambezi oraz serwerowe dla platform na C32 (Valencia?) oraz socket F (Interlagos?).

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.