Llano w wersjach dwu i czterordzeniowej i z różnymi IGP
Autor: Wedelek | źródło: Fudzilla | 16:00
(37)
Nie dalej jak wczoraj mieliśmy okazję bliżej przyjrzeć się wydajności najnowszego APU firmy AMD o kodowej nazwie Llano. W teście przeprowadzonym przez pracowników firmy z Sunnyvale wzięły udział czterordzeniowy APU (rdzenie x86 + układ graficzny Radeon HD 6620M) taktowany zegarem 1.8GHz kontra Core i7-2630QM (również cztery rdzenie x86 + IGP HD3000) pracujący z częstotliwością 2.0GHz. Test składał się z czterech uruchomionych jednocześnie aplikacji - demo gry Final Fantasy, arkusz programu Excel, Film w jakości HD oraz symulacja obrotu modelu 3D w nieznanym programie.
Platforma AMD wygrała we wszystkich testach, pobierając do tego w niektórych momentach 10-15W mniej energii. Ale jak zdradzili pracownicy AMD obecni na targach CeBit nie będzie to jedyna wersja APU, na rynku zadebiutują zarówno wersje dwu jaki cztero rdzeniowe, z różnymi kartami graficznymi. Tak, by każdy mógł wybrać coś dla siebie. Premiera nowego rozwiązania od AMD będzie mieć miejsce przed rozpoczęciem się sezonu wakacyjnego, prawdopodobnie na targach Computex.
K O M E N T A R Z E
... (autor: Aamitoza | data: 3/03/11 | godz.: 16:03) A kiedy zdjęcia płyt głównych dla APU? Rozumiem, że w desktopy wejdą w tym samym czasie co w notebooki? W takim razie skoro pokazują się płyty na AM3+, to i powinno pokazać się coś na FM1... bo na dobrą sprawę nawet nie zaprezentowano socketu.
To byl test integry i tyle kontra liczacy procesor Intela (autor: morgi | data: 3/03/11 | godz.: 16:12) i nie bylo tak wielkiej roznicy, hehe.
skoro zapuscili numer hd6k to chyba bedzie wydajnosc kiepska, gorsza niz kart graficznych za 300 PLN, hiehie.
... (autor: Aamitoza | data: 3/03/11 | godz.: 16:17) spoko, GPU intela ma gorsza wydajność niż karty za 100zł, więc problemu nie widzę ;]
ech... dobrze się dzieje... :) (autor: okonio | data: 3/03/11 | godz.: 16:26) Ciekawe jak wydajne będą graficzki w tych llano. Przy obecnych trendach, dobra akceleracja to klucz do sukcesu ;) Myślę, że z czasem intel straci swoją samodzielność w wyznaczaniu topowej wydajności kompów. Sprawność komputera w większym stopniu będzie zależała od karty graficznej. A zatem o wiele bardziej liczyć się będzie współpraca między producentami chipów graficznych, jak nvidia, i procesorów, jak intel. A tu bywało różnie. AMD ma ten problem z głowy.
okonio (autor: Aamitoza | data: 3/03/11 | godz.: 16:29) wydajność na poziomie (lub ciut wyższa) HD56xx z DDR3.
Aamitoza (autor: morgi | data: 3/03/11 | godz.: 16:35) A komu to przeszkadza, do nowych gier nie wydoli i za 300 PLN, a do starych GMA spokojnie daje rade i ciagle zostaje bardzo mocny, warty duzo wyposazony w najnowsze technologie proc, a wyllano moze miec nieco mocniejsze gpu, a o cpu dowiemy sie na koncu, czy jest mniej warty niz gpu, bardzo mozliwe. hiehie.
To jest właśnie (autor: dratom | data: 3/03/11 | godz.: 16:41) ten cały Intelowy FUSION ;)
... (autor: Aamitoza | data: 3/03/11 | godz.: 16:43) tak? odpal mi wowa cataclysm na nowym gpu intela... ;)
na llano pograsz w nowe gry w niskich lub średnich detalach, a na intelu możesz sobie pomarzyć ;) - szczególnie że w notebookach dedykowane gpu dla intela wcale nie będą mocniejsze (tylko w najdroższych platformach 17" ;])
Aamitoza (autor: morgi | data: 3/03/11 | godz.: 16:55) Co da sie odpalic a co nie zalezy tez od producentow, niektorzy jednoznacznie pomijaja GMA i tyle. Granie na low detalach, czyli typowo dla integr zawsze bylo i bedzie, a zapomniales dodac, zeby odpalac to w okienku na wiekszym ekranie, albo uzywac malych monitorow, bo full hd nie podejdzie. hiehie
Morgi (autor: Aamitoza | data: 3/03/11 | godz.: 17:07) ludzie grają na notebookach na przeciętnych GPU - dla cepów odpowiedniki są w cenie 200-400zł i jakoś nikt nie robi problemu tak jak Ty.
C1 dobre spostrzezenie (autor: josefek | data: 3/03/11 | godz.: 17:25) moze znowu chcieli kogos zaskoczyc i jak zwykle sami sobie ie zaskoczyli...
Aamitoza (autor: morgi | data: 3/03/11 | godz.: 17:39) W laptopach nie widze innej opcji jak Sandy Bridge sparowane z Nvidia Fermi do gier, a reszta to kompromisy, namiastka do gier, chyba ze ktos potrzebuje sprzet do sims i innych casuali, to takie combo jak Sandy Bridge samo wydoli.
... (autor: Aamitoza | data: 3/03/11 | godz.: 17:50) Ty widzisz. Problem w tym, że Ty jesteś zaślepieon - jedno oko na niebiesko, a drugie na zielono ;]
Nie wszyscy musza grać w ultra detalach i nie muszą w tym celu wydawać 5-10k zł na wielkiego 17" notebooka. Są tacy którzy kupią llano (zapewne dużo taniej niż i7 + turks lub gpu od nvidia).
z Brazos mam nadzieje, ze sie czegosc nauczyli (autor: josefek | data: 3/03/11 | godz.: 18:51) aby te same bledy z tym liano nie powtorzyc, a co do naszego morgi, to czasami pisze, bo musi....ale czasami,tego nie mozna zaprzeczyc w plet trafia...
bardzo dobra wiadomość. (autor: Qjanusz | data: 3/03/11 | godz.: 19:05) management Intela osiąga kolejne odcienie purpury na twarzy, mogąc pochwalić się tylko jednym odszczepem GMA błędnie odtwarzającym BluRay, oraz miernie emulując efekty pod API DirentX i OpenGL.
AMD ma prostą drogę do celu, którym jest pogrom intelowej dominacji na rynku.
Oby tego nie zaprzepaścili...
@morgi (autor: Conan Barbarian | data: 3/03/11 | godz.: 19:12) Pierniczysz jakbyś miał zamontowany H67/P67 i odpalał BR na Sandy BITCH.
sorry (autor: cyferluu | data: 3/03/11 | godz.: 19:46) ale nieartykułowany JAD jakim niektórzy plują w stronę AMD udowadnia mi, że są na szczęście ludzie z połową ( mam nadzieje, że aż połową ) mojego IQ.
Llano ani do grier ani do aplikacji (autor: pomidor | data: 3/03/11 | godz.: 20:52) Tani (oby) procesor typu 'good enough", dla użytkowników bez wymagań. Lub też w wymaganiami typu: aby był i działał. Powinni go nazwać 'Basic CPU", aby nie było wątpliwości.
ale co niektórzy głupoty piszą (autor: ditomek | data: 3/03/11 | godz.: 21:07) tacy to pewnie zamiast zaawansowanego maja mózg zwykły, taki "basic brain"
... (autor: Wujofefer | data: 3/03/11 | godz.: 21:46) Najciekawsze w tym wszystkim jest to, że największy producent komputerów czyli HP w swoich notebookach stosuje tylko grafiki AMD (cała seria Pavilion/Envy/ProBook), jedynie EliteBooki mają jeszcze Nvidie ale tylko stare GPU, nowych układów tam nie ma.
Nawet elitarne Apple powiedziało "baj baj" Nvidii.
niech (autor: Krax | data: 3/03/11 | godz.: 23:17) jakis program typu cad przetestuja:)
do tej pory na produktach intela niektore programy sa.....hmmm nie do uzycia:D
up. zobacyl bym jak sobie procki amdz grafa daja rade z taka catia^^
@23 (autor: RoXall | data: 4/03/11 | godz.: 13:57) 3d Maxa na renderach i wszystko jasne.
Apu srapu - denerwuje mnie już ta podnieta gpu w procesorze jakby to główny wyznacznik jakość procesora był (o przepraszam apu - pfff).
RoXall (autor: morgi | data: 4/03/11 | godz.: 14:42) Nie dosc, ze to nie nowosc koncepcyjna i wykonawcza, to jeszcze gpu wbudowane jest tanie i slabe. O tym sie nie mowi, ale to proces integracji, ktory zainicjowal Intel, a ma na celu poprawe po stronie kosztowej produkcji i lepsza kompatybilnosc.
@ up (autor: Sandacz | data: 4/03/11 | godz.: 20:43) "to jeszcze gpu wbudowane jest tanie i slabe" - twój bożek to jeszcze lata całe zmarnuje swoim fanom zanim ten poziom osiągnie.
he..he... morgi (autor: Sandacz | data: 4/03/11 | godz.: 20:46) "O tym sie nie mowi, ale to proces integracji, ktory zainicjowal Intel, a ma na celu poprawe po stronie kosztowej produkcji i lepsza kompatybilnosc." - ty też lepiej o tym nie mów bo te słowa ewidentnie opisują manię prześladowczą a stąd tylko krok do pokoju bez klamek...
Sandacz (autor: morgi | data: 4/03/11 | godz.: 22:06) Lepiej belkotac jak marketingowiec pewnej firemki, ze Intel daje za malo tranzystorow w gpu, a ja moge swobodnie odwrocic teze, ze inni marnuja tranzystory na marne cpu.
Sandacz (autor: Gigant | data: 4/03/11 | godz.: 23:07) pokój bez klamek dla wirtualnego morgiego? buhaahahahaaha
morgi (autor: Gigant | data: 4/03/11 | godz.: 23:13) a po co ci mocne CPU w APU jak masz GPGPU które rozwala każde CPU? ty myślisz wogóle zanim cokolwiek coś napiszesz?
2 28 (autor: Sandacz | data: 5/03/11 | godz.: 08:21) "ze inni marnuja tranzystory na marne cpu" - masz całkowitą rację - ostatnio jedna firma dorzuciła marny 1 (słownie jeden) tranzystor i patrz jak afera się zrobiła!
Sandacz (autor: morgi | data: 5/03/11 | godz.: 19:52) A co to ma wspolnego z cpu, niestety jedyny ratunek dla oplacanej przez Intela konkurencji to poprawne skopiowanie jego rozwiazan i uiszczenie patentow w formie czytelnej. Jesli cos tam bedzie w nich do uzytku Intel wykona to po swojemu i lepiej.
Panie Morgi (autor: Alt-Computer | data: 5/03/11 | godz.: 20:59) przecież sam Pan zaczął pisać o GPU więc z czym do ludzi, sam Pan nie kontroluje tego co pisze (czytaj pier..li) czyż nie Readaktorze TPC???
@ morgi (autor: Sandacz | data: 6/03/11 | godz.: 06:58) Wysil trochę czachę bo kiedyś z twoich postów to można było się chociaż pośmiać, teraz są już tak bidne że raczej smutne... ja wiem że każdy tydzień przynosi ci kolejne smutne wieści z niebieskiej twierdzy, ale trzeba iść dalej przez życie. Spróbowac tchnąć w nie jakąś iskierkę optymizmu. Pójść na spacer i poobserwować czy są już pąki na drzewach, na lody sam lub z dziewczyną, obejrzeć wiosenną rundę piłki (zalecana inna liga niż nasza dla poprawy nastroju).
Usiąść na kozetce i opowiedzieć zaufanej osobie co cię boli...
@up (autor: Qjanusz | data: 6/03/11 | godz.: 17:29) "teraz są już tak bidne że raczej smutne... "
niestety z naginania rzeczywistości (bo ta realna nie rozpieszcza), zawsze wychodzi żenująca groteska.
morgi (autor: Gigant | data: 6/03/11 | godz.: 18:30) Jedyną firmą która tu kopiuje jest Intel. AMD pierwsze zaczeło mówić o integracji GPU z CPU to Intel wyskoczył z SB, taka nasza wersja Fusion. ;)
Intel już nawet probuje oznaczać tak samo swoje GMA jako HD3000 aby ludzie kojarzyli ich GPU z Radeonami HD.
SB to tania podróbka Fusiona. Intelowi do szczęścia brakuje skopiować szadery, GPGPU ale tego im się nie uda wdrożyć bo te wynalazki są zapatentowane przez paczkę stowarzyszenia AMD/Nvidię/S3.
Gigant (autor: Markizy | data: 6/03/11 | godz.: 22:12) nie S3 tylko VIA.
Intelowi został jeszcze SIS ale oni też nigdy poważniejszego GPU (poza Xabre) nie zaprojektowali.
D O D A J K O M E N T A R Z
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.