Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Czwartek 24 września 2009 
    

Działające Larrabee oraz 32nm Sandy Bridge na IDF


Autor: Zbyszek | źródło: TechReport | 21:47
(50)
Podczas drugiego dnia konferencji IDF prezes firmy Intel, Paul Otellini wraz ze swoimi współpracownikami przedstawił działające układy graficzne Larrabee oraz procesory kolejnej generacji korzystające z architektury Sandy Bridge. Niestety na temat pierwszego z układów nie powiedziano praktycznie nic. Pracownicy firmy Intel nie zdradzili żadnych szczegółów technologicznych na temat Larrabee, ograniczając się jedynie do zaprezentowania dema technologicznego, renderowanego przez próbkę Larrabee. Zgromadzeni na konferencji zdołali jedynie dowiedzieć się, że układy są już wysyłane do developerów celem zapoznania się z ich architekturą oraz przygotowania odpowiedniego oprogramowania. Znacznie więcej informacji podano na temat procesorów kolejnej generacji z architekturą Sandy Bridge.

Przedstawiciele Intela zaprezentowali pierwsze próbki procesorów Sandy Bridge, które trafią na rynek pod koniec 2010 roku.

Układy wyprodukowane zostały kilka tygodni temu w 32-nanometrowym wymiarze technologicznym i nie miały najmniejszych problemów ze sprawną obsługą systemu operacyjnego Windows 7.

Nowe procesory będą wyposażone w zintegrowany w rdzeniu procesora układ graficzny oraz zestaw instrukcji multimedialnych AVX, który pozwoli wykorzystać moc zintegrowanego GPU do wspierania obliczeń wykonywanych przez główne rdzenie procesorów. Oprócz tego Sandy Bridge wyposażony będzie w bardziej zaawansowane metody oszczędzania energii, obejmujące także zintegrowany w rdzeniu procesora układ graficzny.




 

    
K O M E N T A R Z E
    

  1. .:. (autor: Shneider | data: 24/09/09 | godz.: 22:15)
    czyli nie pokazali nic.
    szkoda, NV rowniez milczy.

    ale to dobrze, teraz AMD niech zbiera zniwa swojej pracy. kolesie od ATI sie doskonale sprawdzili.

    a co do intela to chyba w koncu zrozumial ze zawojowac rynkiem grafik nie jest latwo. zapowiadali rewolucje, a tu nawet ewolucji nie ma ;-)


  2. Pokazali wszystko co chcieli (autor: morgi | data: 24/09/09 | godz.: 22:19)
    raytracing to jutro, rasteryzowane zabawki w formie piekarnika w obudowie to dzisiaj, niech sie bawia jeszcze troche.

  3. screen jest z ET:QW (autor: vaneck | data: 24/09/09 | godz.: 22:41)
    ta gra jest pod OpenGL, ciekawe czy Larrabee daje radę w DirectX? I jeżeli tak to w którym? :)))

  4. .:. (autor: Shneider | data: 24/09/09 | godz.: 22:55)
    morgi - to faktycznie zaszaleli.
    [ http://twojepc.pl/news13601.html ]

    "Zadaniem Larrabee Development Group jest stworzenie układu graficznego, który miałby przyćmić dotychczasowe dokonania ATI, przejętego przez AMD, oraz nVidii."

    ;-)

    faktycznie niech sie bawia jeszcze troche ;-)


  5. heh (autor: Mario2k | data: 24/09/09 | godz.: 23:29)
    Do sensownego wykozystania Raytracingu w grach potrzeba GPU 5-10x szybszego niz obecne demony .

    Co do GPU intela to mam nadzieje ze nie spiernicza i dotrzymaja obietnic , maja potencjal ,tylko Jaj im brak widac same chlopaczki tam pracuja


  6. @vaneck (autor: pawel.xxx | data: 25/09/09 | godz.: 06:11)
    dowolne api nie stanowi problemu. Uniwersalne jednostki przetwarzające mogą wykonywać dowolny program. Udostępnienie nowego api sprowadza się jego implementacji w firmware lub nawet w sterowniku jeśli zdecydujemy się na dynamiczne ładowanie.

  7. ET:QW ... (autor: sid67 | data: 25/09/09 | godz.: 07:57)
    Chciałem zobaczyć jak wyglądał ten raytraceowany Quake i znalazłem filmik z zeszłorocznego GC, wtedy pokazali to samo.

  8. sid67 (autor: Markizy | data: 25/09/09 | godz.: 08:33)
    ciekawe, może wygenerowali to komputerowo, i wtedy i teraz puszczają tylko jako film w sposób taki żeby się nikt nie pokapował że nadal karta nie istnieje poza fazą projektu :)

    W każdym razie dalej czekamy na ta kartę pomimo że kolejny rok już mija :)


  9. Pewnie AVX będzie tak samo niewykorzystane jak MMX w grach (autor: rookie | data: 25/09/09 | godz.: 09:19)
    "Nowe procesory będą wyposażone w zintegrowany w rdzeniu procesora układ graficzny oraz zestaw instrukcji multimedialnych AVX, który pozwoli wykorzystać moc zintegrowanego GPU do wspierania obliczeń wykonywanych przez główne rdzenie procesorów."
    Pamiętacie może technologię MMX z 97 roku? Dosłownie pojedyńcze gry z tego korzystały. Prawie wszystkie natomiast wprowadziło obsługę legendarnego Voodoo i....szybko wszyscy zapomnieli o obsłudze MMX w grach. Tak samo pewnie będzie i tym razem. CPU to CPU a grafika to domena akceleratorów:tych na PCIex i AGP lub tych na płytach głównych.


  10. @rookie Świat się zmienia... Fusion w drodze. (autor: KuTeR | data: 25/09/09 | godz.: 09:34)
    Ale i tak sądzę, że Intel raczej nie stworzy choćby równorzędnych do AMD i nVidii rozwiązań graficznych. Więc karta może się nagle odwrócić i Intel przestanie być potentatem. Byłoby śmiesznie jakby AMD (niegdyś mała firemka pracująca na zlecenie wielkiego Intela) wyrosła na potentata Nr 1.

  11. @rookie (autor: dr1zzt | data: 25/09/09 | godz.: 09:46)
    Nie masz racji. Z instrukcji mmx korzystalo praktycznie wszystko, przez dlugie lata.
    Pamietam jak na pentium pro kolegi, wszystko burzylo sie o mmx :)


  12. @rookie jeśli chodzi o gry, to MMX miał jeden mały problem. (autor: Mcmumin | data: 25/09/09 | godz.: 10:05)
    Cytując: "Pentium MMX (233, 200 i 166 MHz) ukazał się 8 stycznia 1997"

    "3Dfx Interactive powstało w roku 1994, a dwa lata później wydało swój pierwszy układ graficzny Voodoo Graphics (znany później jako Voodoo 1)"


  13. Shneider (autor: morgi | data: 25/09/09 | godz.: 10:24)
    Przynajmniej do 2012 musimy poczekac na komercyjny produkt w RT, nie ma powodow do pospiechu, wtedy faktycznie bedzie okazja pokpic sobie z rasteryzowanych plastikow, ktore osiagnely juz dno dna w kwestii jakosci i 'rewolucji' obiecywanych fizyk, teselacji, fotorealizmu opisywanego od wielu lat, a tymaczasem najlepiej wypada w mozliwosciach starenkie dx9.

  14. KuTeR (autor: morgi | data: 25/09/09 | godz.: 10:26)
    W ktorej bajce tak jest? 1001 i jednej wpadek amd? Tej firmy jaka byla pierwotnie juz prawie nie ma, powoli to przechodzi w rece arabskie.

  15. Jeszcze w tym grzebia? (autor: Galnospoke | data: 25/09/09 | godz.: 10:42)
    Przeciez to ma akceptowalna wydajnosc w 640x320 (taka rodzielczosc na najmocniejszych procesorach Intela na pokazach z tego roku). Przeciez to smieszne! Chyba mowia aby mowic, nikt tego powaznie nie traktuje, wlacznie z nimi - to sama animacje pokazywali rok temu.

  16. @morgi (autor: shadowxxz | data: 25/09/09 | godz.: 10:57)
    Intel też miał wpadki, tylko startował z wyższej pozycji, więc utrzymał pozycję. A co do rt to nie wiem czemu nie ma już teraz tego na kartach graficznych. Jest kilka minigierek np "let there be light", na athlonie x2@3ghz w 512x384 jest 20-25fps. Karta graficzna ma dużo większą moc a obliczenia tego typu chyba dość dobrze prowadzi się w wielu wątkach...

  17. .:. (autor: Shneider | data: 25/09/09 | godz.: 11:17)
    morgi - skad masz takie informacje? ;-)

    powiem tak, intel niech robi to na czym sie zna.


  18. @morgi (autor: ligand17 | data: 25/09/09 | godz.: 11:39)
    No, to faktycznie Intel zaszalał, nie ma co. W 2008 roku pokazał produkt, który ma trafić do produkcji - kiedy? W 2012? Ciekawe, jak będzie wtedy wyglądała sprawa z jego wydajnością na tle konkurencji. Jeżeli po drodze nie będzie jakiejś rewolucji, to będzie kolejny hit na miarę GMA - tylko, że tym razem _nikt_ tego nie kupi.

  19. lingad17 (autor: komisarz | data: 25/09/09 | godz.: 13:04)
    i oczywiscie Intel zbankrutuje, bo kto by go kupowal, kiedy amd ma takie wspaniale wynalzaki - 32nm to u AMD chleb powszedni, a nowa architektura nie tylko zaprezentowana (i dzialajaca), ale juz praktycznie dostepna u hurtownikow... Strasznie ten intel zacofany, nie ma co, shit produkuje jakich malo.

  20. @komisarz (autor: ligand17 | data: 25/09/09 | godz.: 13:10)
    Kolejny, który nie umie czytać ze zrozumieniem.

  21. ligand17 (autor: morgi | data: 25/09/09 | godz.: 13:50)
    Nie napinaj strun glosowych, w tej chwili rynek GPU dla graczy jest bardzo nisko wyceniany, sprzedaja sie glownie karty tanie i mniej wydajne, a i z tym problem. Kto powiedzial, ze Intel ma walczyc o kieszenie gracza tylko iloscia pkt w benchach i klatek w coraz gorszej jakosci grach. Moze by tak zaproponowac cos wiecej i dla developerki, zeby ta znalazla nowe weny, bo im najwyrazniej brak, ledwo zipia jesli nie sa w kombinacie typu EA, Activision.

  22. Sa juz testy (autor: Galnospoke | data: 25/09/09 | godz.: 14:24)
    SLI co prawda, ale sa.
    http://www.guru3d.com/...-crossfirex-test-review/1


  23. Ech (autor: Galnospoke | data: 25/09/09 | godz.: 14:27)
    W zlym miejscu.

  24. .:. (autor: Shneider | data: 25/09/09 | godz.: 21:35)
    morgi - jak narazie to jedynie zmniejszaja proces by wepchnac wiecej rdzeni.

    wiec tak naprawde zadnej zapowiadanej rewolucji nie ma.

    fajny zbior [ http://forum.pclab.pl/t313531.html ]

    w sumie to juz sam nie wiem gdzie intel chce startowac ze swoim "patentem". grafiki sa obstawione przez AMD i NV, dodatkowo zastosowania prof trzyma w garsci NV ze swoja tesla.

    miala byc karta w 2008 roku, a w rzeczywistosci? ;-)

    ale dobrze, niech pchaja kase w badania, stac ich (do czasu)


  25. Shneider (autor: morgi | data: 26/09/09 | godz.: 10:49)
    Miala byc? Wg plotkarskich serwisow to ma byc nadal karta? A Intel w dalszym ciagu mowi enigmatycznie, bo to bedzie akcelerator przyszlosci? Na badania ich zawsze bedzie stac, taka prawda ci co maja odwage dotrzec tam gdzie inni nie moga, bo sa kopistami to wygrywaja.

  26. .:. (autor: Shneider | data: 26/09/09 | godz.: 11:43)
    morgi - no tak zapomnialem. "plotki" dot. intela nie sa zobowiazujace ;-D

  27. Shneider (autor: Markizy | data: 26/09/09 | godz.: 14:54)
    wszystko zależy o czym mówią :D
    Jak są dobre to prawdziwe, jak złe to na pewno nieprawdziwe :P


  28. Co do tego 2012 (autor: Wyrzym | data: 26/09/09 | godz.: 20:33)
    to morgi ma racje, chociaz ja bym obstawial nawet 2014, jaki jest sens zeby intel teraz wyskakiwal ze swjim rozwiazaniem, jesli wszyscy robia gry na shaderach? i co nagle wszyscy producenci zaczna grac pod intela? slabo...

  29. @morgi (autor: ligand17 | data: 26/09/09 | godz.: 22:02)
    Skoro rynek dla graczy jest tak nisko wyceniany, to niby dlaczego Intel chce tam wskoczyć? Dlaczego nVidia i ATi walczą o każdy procent rynku? Dlaczego tak dzielnie za każdym razem przypominasz, że karty nVidii będę najwydajniejsze?
    A co do developerki to sorry, ale Intel na razie nic nie pokazuje w tej gestii - tylko rendery grafiki. Poza tym kupowanie karty za 2000 do wspomagania CPU w obórbce danych zupełnie mija się z celem. Znacznie lepiej pod tym względem spisują się rozwiązania typu klastrowego czy cloud computing.


  30. @ligand17 (autor: pawel.xxx | data: 27/09/09 | godz.: 07:37)
    "Poza tym kupowanie karty za 2000 do wspomagania CPU w obórbce danych zupełnie mija się z celem. Znacznie lepiej pod tym względem spisują się rozwiązania typu klastrowego czy cloud computing.
    "

    Nie powiedziałbym, że kupowanie karty za 2000 do GPGPU mija się z celem. Obecnie najbardziej zaawansowane rozwiązania w tej dziedzinie oferuje nvidia z technologią cuda. Pomimo że same cuda ma ograniczenia jest wykorzystywane, a w sprzedaży znajdują się kompy z kartami tesla, a to dlatego że GPGPU oferuje najtańszą moc obliczeniową. Układ larrabee z uniwersalnymi jednostkami x86 pozbawionymi ograniczeń cuda zaoferuje nową jakosć w tej dziedzinie.

    Co masz do zarzucenia układom GMA?


  31. @pawel.xxx (autor: Promilus | data: 27/09/09 | godz.: 08:08)
    Taaa...16-64CPU x86 na PCI-e 2.0 choćby to stosunkowo mało...trzeba by dość pokaźną pamięć RAM im władować i to o sporej przepustowości. Bo chyba nie sądzisz, że skoro i7 zaspokaja się dopiero przepustowością ~16GB/s przy 4 rdzeniach, to kilkanaście, albo i kilkadziesiąt choć prostszych to zdolnych do skomplikowanych obliczeń wektorowych rdzeni zaspokoi się przepustowością 8GB/s złącza pcie :] Nie ma co liczyć także, by te rdzenie na karcie były widziane przez system jako równoważne CPU na płycie...zapomnij. By wykorzystać te x86 na karcie potrzebne będzie odpowiednie oprogramowanie. Intel z różnych względów będzie za Larrabee+soft brał konkretną kasę, myślę że więcej niż NV za Teslę. Przy okazji - jaką wydajność DP ma TESLA? Bo może się okazać że TESLA<i9 ;)

  32. @pawel.xxx (autor: ligand17 | data: 27/09/09 | godz.: 09:44)
    Oczywiście, że się mija z celem. Samo CPU to nie wszystko, co wyjaśnił już Promilus.
    A co do GMA to mam im do zarzucenia dużo: kiepską jakość obrazu, fatalną wydajność w 2D (3D litościwie przemilczę), problemy ze sterownikami, niewspółmiernie duży pobór mocy do wydajności... Mogę tak dłużej.


  33. ligand17 (autor: morgi | data: 27/09/09 | godz.: 11:36)
    Nie odwracaj kota ogonem, to nie Intel tam chce wskoczyc, bo juz tam jest i karty kiedys robil, ale to Nvidia chce wsiasc do akceleracji obliczen hpc i Intel na to szykuje terminatora. Skoro Nvidia jednak ledwie zipie z Tesla, to nie ma pospiechu bedzie czas na poprawe produktu, przygotowanie glebokich kastratow w cele najbardziej dochodowe. Tak jak uderzyl sromotnie Atom, vpu musi w podobnym stylu.

  34. @ Promilus (autor: pawel.xxx | data: 27/09/09 | godz.: 11:38)
    Pokaźna pamięć ram wcale nie jest konieczna. To algorytm determinuje zapotrzebowanie na ram.
    Stosując przetwarzania równoległe zależy nam na zwiększeniu mocy obliczeniowej. Przetwarzane algorytmy wykonują wiele kosztownych obliczeń. To nie są trywialne algorytmy kopiujące bloki pamięci.
    Obliczanie wymaganej przepustowości na podstawie analogii do i7 jest nieporozumieniem. Powinieneś rozważyć konkretny algorytm, jakie instrukcje są wykonywane, uwzględnić cache itd.
    Larrabee, podobnie jak wszystkie karty graficzne będzie miał dedykowaną pamięć, złącze pci-e podobnie jak w obecnych kartach służy tylko do dostarczania danych i odebrania wyników. Tak więc Twoje obliczanie przepustowości pci-e nie odnosi się do przepustowości pamięci karty.
    Nikt nie pisał że rdzenie larrabee będą równoważne i symetryczne w stosunku do CPU. Oprogramowanie oczywiście będzie potrzebne. Twoje spekulacje na temat cen są tylko spekulacjami i nie ma sensu się nimi zajmować.


  35. @ligand17 (autor: pawel.xxx | data: 27/09/09 | godz.: 11:51)
    "Samo CPU to nie wszystko, co wyjaśnił już Promilus."

    Możesz rozwinąć co przez to rozumiesz?

    Oczywiście, że się mija z celem. Samo CPU to nie wszystko, co wyjaśnił już Promilus.
    "A co do GMA to mam im do zarzucenia dużo: kiepską jakość obrazu, fatalną wydajność w 2D (3D litościwie przemilczę), problemy ze sterownikami, niewspółmiernie duży pobór mocy do wydajności... Mogę tak dłużej."

    Po argumentach "kiepską jakość obrazu", "fatalną wydajność w 2D" widać że chrzanisz dla samego hałasu.


  36. Hmmm... (autor: ligand17 | data: 27/09/09 | godz.: 14:23)
    @pawel.xxx:
    Może Ty jesteś onanistą fps'ów, ale ja mam nieprzyjemność pracować na tym syfie, który nazywa się GMA. I to na kilku komputerach (służbowy laptop, desktop klienta, etc.). Więc piszę z autopsji. Jakość obrazu przez D-Sub jest tragiczna, wydajność w 2D czasem przyprawia o atak furii, sterowniki cały czas wywalają artefakty w grach, a całość grzeje się bardziej, niż integra ATi/nVidii.

    @morgi - Pokaż mi palcem, gdzie Intel jest na rynku grafik dla graczy. Czekam. Był jakieś 12 lat temu z i740. I przez te 12 lat cały czas sprzedaje ten sam syf.
    Odnośnie "terminatora" to, jak pisałem już niejednokrotnie - pożyjemy, zobaczymy. Na razie nie zapowiada się żadna rewolucja, żaden "terminator". Na rynku HPC panują zupełnie inne relacje, niż w MR.


  37. @ ligand17 (autor: pawel.xxx | data: 27/09/09 | godz.: 15:48)
    zabawne że zarzucasz mi że jestem onanistą fpsów i jednocześnie stękasz na artefakty w grach. To jakby niekonsekwencja w rozumowaniu :)
    Reszta Twoich argumentów także nie trzyma się kupy, bo nie dotyczą GMA tylko sposobu implementacji jaki wybrał konkretny producent. O wydajności 2d nawet nie warto wspominać. Ostatni test badający wydajność 2d widziałem jakieś 10 lat temu, od tego czasu nie miały juz racji bytu bo oferowana wydajność i tak przekraczała potrzeby.
    Jak w kontekście do Twoich doświadczeń postrzegasz fakt że GMA jest najpopularniejszym chipem graficznym. Czy twoim zdaniem te rzesze użytkowników tych układów także gnębią takie problemy jak Ciebie, czy może jesteś odosobnionym przypadkiem?


  38. @pawel.xxx (autor: Promilus | data: 27/09/09 | godz.: 16:06)
    "Obliczanie wymaganej przepustowości na podstawie analogii do i7 jest nieporozumieniem. Powinieneś rozważyć konkretny algorytm, jakie instrukcje są wykonywane, uwzględnić cache itd"
    Zaraz, a co ma kur** robić ten GPU, grać w pasjansa? Czy ma być 'liderem GPGPU'? No to do cholery jasnej powiem ci coś takiego...GPGPU nie polega na wykonywaniu skomplikowanego logarytmu z olbrzymią ilością rozwidleń, a do przetwarzania olbrzymiej ilości danych - i tylko w takich zastosowaniach można odczuć przyspieszenie korzystając z GPU. Tesle NV nie bez powodu mają i po 4GB pamięci. Zatem nie kłóć się ze mną bo też i nie wiesz o czym gadasz. Larrabee na 64 rdzeni będzie potrzebowała mocnego GDDR5 na 512 bitach. Inaczej po prostu jej wektorowe jednostki będą GŁODOWAŁY. A by nie korzystać za bardzo z stosunkowo wolnego pcie jednocześnie potrzebna będzie dosyć obszerna pamięć na karcie.


  39. ligand17 (autor: morgi | data: 27/09/09 | godz.: 17:01)
    Haha jest w ponad polowie grafik, takze dla graczy, no ale wolisz pozniewazac tych ludzi, dla ktorych pasjans 3D to 100x chetniej brana rozrywka niz te twoje kryzysy o niepelnosprawnej grafice. Czy Intel produkuje karty AIB, nie moze zacznie, ale te wlasnie nie dostarcza wiekszych zyskow niz tanie jak barszcz i liderujace GMA. Twoje argumenty wyssane z mlekiem fana sa mierne, bo GMA nie odstaje od stawki w zagresie tylko li i wylacznie ilosci klateczek na sek. i tak zalosnych akceleratorow igp jakby je przymierzac do gier sprzed 2-3 lat nawet w biurowych resach, a gdzie im do skali HD.

  40. @Promilus (autor: pawel.xxx | data: 27/09/09 | godz.: 17:48)
    "No to do cholery jasnej powiem ci coś takiego...GPGPU nie polega na wykonywaniu skomplikowanego logarytmu z olbrzymią ilością rozwidleń, a do przetwarzania olbrzymiej ilości danych - i tylko w takich zastosowaniach można odczuć przyspieszenie korzystając z GPU. "

    To ty piszesz bzdury. W GPGPU wykonuje skomplikowane algorytmy (nie logarytmy jak piszesz). GPGPU wykorzystuje się przy łamaniu haseł metodą siłową, modelowaniu białek, przewidywaniu pogody, dynamice płynów, czy jak w przypadku panda antivirus do skanowania plików.
    Twoim zdaniem skąd są pobierane dane do przetwarzania i co się dzieje z wynikami, są pobierane z dysku, sieci ...? Chciałbym wiedzieć jakie medium dostarcza tych gigantycznych ilości danych i jakie jest w stanie spożytkować te gigantyczne ilości wyników?


  41. @pawel.xxx (autor: Promilus | data: 27/09/09 | godz.: 19:11)
    Hueh, każdy może się przejęzyczyć, szczególnie jak pisze szybko...to raz.
    Dwa - zobacz sobie to obciążenie GPU przy tym skanowaniu ;) a potem zobacz obciążenie CPU. Co do modelowania białek...przeciętny niskotaktowany quad osiąga w f@h więcej punktów niż mój HD4670 z teoretyczną mocą 10x większą ;) Pomyśl zatem ile procent na 99% obciążonego GPU w przypadku algorytmów nie pasujących do modelu GPU idzie 'w powietrze'. A brute force i dictionary attack to normalnie skomplikowany algorytm jak cholera. Miło że o tym wszystkim wspominasz...powiem ci zatem że kiedyś była sobie aplikacja na BOINC o nazwie milkyway at home. Jakiś cwany miszczu zrobił port wykorzystujący GPGPU ATI. Było to ładne kilkadziesiąt razy szybsze niż CPU. Potem zrobili to samo dla NV. A potem przyszedł jeszcze jeden mistrzu, przepisał aplikację pod CPU, zoptymalizował pod SSEx i okazało się że topowa grafika zamiast kilkaset razy szybciej robi obliczenia zaledwie kilka razy szybciej niż topowy CPU (x86-64 ofkoz). Mam nadzieję, że teraz rozumiesz dlaczego napisałem, że do skomplikowanych, rozwidlających się algorytmów GPU się nie nadaje...a pisanie na siłę pod GPU jest zupełnie bez sensu. Dynamika płynów, badanie klimatu...heh, wezmę Power XCell i8 i napiszę to samo na chipie zużywającym 10x mniej energii niż RV770 a będzie działało z podobną prędkością. Przy okazji - nie kojarzę by Climate Prediction @ home korzystało z aplikacji GPU...skoro twierdzisz że GPU jest takie świetne do tego ;)


  42. morgi (autor: Markizy | data: 27/09/09 | godz.: 21:32)
    uściślijmy dwie rzeczy.
    Gdyby intel nie zabronił ATi i Nvidi projektowania chipów pod swoje procesory to 1/4 GMA leżała by w magazynach. Oczywiście nvidia ma jakieś dwa chipsety ale nie specjalna rewelacja (ale lepsze od GMA i tak)

    A druga sprawa to gdyby producenci notebooków tak namiętnie nie czyścili by magazynów intela z GMA i stosowali ich w tanich lapkach to by mieli kolejna 1/3 układów w magazynach. Ale polityka intela i producentów jest jaka jest. I nie jeden może się bić się w pierś ale to nic nie da. Bo pod wieloma względami rozwiązania konkurencji Nvdi i ATi są po prostu lepsze.

    A większość ludzi nie ma pojęcia czym się różnic GMA od karty ATi i Nvidi, bo grunt żeby był wysoki numerek np HD4500 intela.


  43. @Promilus (autor: pawel.xxx | data: 27/09/09 | godz.: 21:37)
    Zacznę od tego że amdFieStream jest nadal technologią w bardzo wczesnym stadium rozwoju. Wyniki Twojego 4670 nie powinny nikogo dziwić. Takie rzeczy będą się zdarzać na tym etapie ozwoju technologii.
    CUDA jest znacznie bardziej zaawansowane. Co potwierdzają wyniki w różnych aplikacjach GPGPU, w których karty nvidii o teoretycznej mocy obliczeniowej zbliżonej do konkurentów ATI osiągają znacznie lepsze rezultaty.
    Co do optymalizacji x86-64 nie chce sie wypowiadać, bo nie znam przypadku, nie wiem jakiej jakosci był kod dla GPGPU, czy w przyadku optymalizowanego kodu x86 zastosowano ten sam algorytm, czy może inny bardziej efektywny. Generalnie widać jednak, że GPGPU ma potencjał.
    Ty piszesz o algorytmach nie pasujących do modelu GPU, ja z kolei wyzej pisałem o ograniczeniach CUDA. Myślę że piszemy o tym samym. Rzecz sprowadza sie do tego że w obecnych GPU API jakie implementuje GPU determinuje jego możliwości i implementacje w krzemie. Inaczej mówiąc obecne uniwersalne jednostki przetwarzające są uniwersalne tylko z nazwy a w rzeczywistości są ograniczone przez implementacje fizyczną.
    Przykład: któraś wersja DirectX wymagała by można było wykonać pętle w której licznik pętli był 10bitowy. Producenci GPU by zmieścić setki unishaderów w chipie implementują je jako bardzo proste jednostki godząc się na tego typu ograniczenia. To dlatego implementacja nowej wersji API pociąga konieczność implementacji w krzemie nowego układu. Gdyby unishadery były w pełni uniwersalne wystarczyło by zmienić bios lub sterownik, o czym pisałem w pierwszym moim poście w tym wątku. To właśnie z powodu ograniczoności unishaerów efektywność kodu GPGPU zależy od implementowanego algorytmu, o czym również pisałem w tym wątku, a co Ty jak sądze nazywasz "algorytmami nie pasującymi do modelu GPU"
    I w tym momencie wracamy do larrabee i przyczyn dla których tak duże nadzieje wiąże z tym układem. W larrabee unishadery w pełni zasługują na swoją nazwę - są w pełni uniwersalne, a na dodatek są wykonują kod x86 czyli nie będzie trzeba pisać kompilatorów od nowa. Za tą uniwersalność larrabee zapłaci mniejszą liczbą rdzeni, w grach prawdopodobnie nie osiągnie takiej wydajności jak setki ograniczonych rdzeni konkurencji, za to w GPGPU...


  44. Promilus (autor: Markizy | data: 27/09/09 | godz.: 21:44)
    Masz racje GPU do skomplikowanych algorytmów się nie nadaje, ale do liczenia jak najbardziej. Zastosowanie cella podanego przez ciebie też nie wiele wyprzedzi GPU. Jedynym zastosowaniem sensownym dla GPU obecnie jest jako jednostka czysto obliczeniowa, a CPU jako analizator kodu programu i przypisujący obliczenia dla karty.

    Takie rozwiązanie chce stworzyć intel w jednym chipie, tylko że układ przy 64procesorach będzie wymagał tak jak pisałeś bardzo dużej magistrali danych, nie mówiąc o bardzo złożonym kontrolerze pamięci. AMD ma już dobra architekturę GPU, teraz muszą dopracować połączenie jej z CPU, a następnie podnieść wydajność CPU przez zmianę jej architektury. Ale takie połączenie będzie wymagało bardzo dużej przepustowości pamięci, i może to jest jeden z powodów użycia w podstawce G34 (o ile się nie mylę) 4 kanałowego kontrolera pamięci. Bo liczba rdzeni będzie na poziome 8 rdzenie, z tym że dołożą FPU i ALU z zewnętrze grafiki. W każdym razie to jest takie gdybanie.


  45. @pawel.xxx (autor: Promilus | data: 27/09/09 | godz.: 22:05)
    CtM poszukaj to zobaczysz jakie to ma stare korzenie ;)
    Co do tej wydajności to też bym się kłócił, w tym milkyway to HD4850 >GTX295, w Collatz Conjecture korzystającym z FP32 też można zauważyć, że CAL daje radę i radki dają radę. Jedynie w zasadzie Folding@home w dziwny sposób preferuje NV, nic dziwnego, kompilowany jest na wersji pod HD2k/3k bez LDS i paru innych ciekawych dodatków. Roadrunner nie bez powodu ma Celle 'pokrojcowane' z Opteronami. W zasadzie gdyby było odpowiednie środowisko programistyczne i GPU mogłyby zająć miejsce Cella, tyle tylko że są mało efektywne względem poboru prądu. I w tym superkomputerze IBMa opterowniki przetwarzają kod, zajmują się praktycznie całą obsługą programu, a jedynie wysyłają dane do przetworzenia do Cella, który potrafi ich przetworzyć kilkadziesiąt razy więcej. Intel chce pogodzić jedno z drugim - przetwarzanie równoległe dużej ilości wątków, jednoczesną kontrolę programu i przetwarzanie dużej ilości danych. Nie ma lekko, jak coś jest do wszystkiego to jest...do bani.


  46. Po co ten larrabee (autor: havik | data: 28/09/09 | godz.: 06:42)
    Po przeczytaniu wszystkich postów przychodzą mi na myśl tylko dwa powody.
    1. Intel jest nr 1 na liście ILOŚCI sprzedanych grafik. Więc pomimo kiepskiej wydajności układ ten może mu gwarantować tą pozycję przez dłuższy czas. Sprzedając np. te procesory do nisko budżetowych lapków.
    2. Intel może słusznie może nie słusznie przewiduje, iż jednak przyszłością jest technologia fusion. Wtedy mając zrobiony pierwszy układ może skutecznie blokować konkurencję na swoich patentach, których w ochrona w usa może nawet doprowadzać do wstrzymania sprzedaży nowych produktów. Jeśli Microsoft opatentował stosunkowo niedawno działanie myszki, to za same pierwowzory rozwiązań technicznych intela, może trzeba będzie intelowi w przyszłości płacić grubą kasę.


  47. Markizy (autor: morgi | data: 28/09/09 | godz.: 19:55)
    Co ty bzdurzysz, Intel niczego nie zabronil, pod Core 2 bylo pelno tego nonIntel badziewia i w starciu z GMA rozpadlo sie w perzyne, choc Nvidia ma jakies istotne udzialy jeszcze. Taka prawda, ze roznice w chipsetach byly zadne, ale na Intelku krecilo sie jak zlotko bo swoj swojego zna najlepiej. Tyle narzekan jest na GMA, a w prasie w zasadzie to im przeszlo, bo przeszli do porzadku dziennego, uznali ze firma sama sie dotrze i w sumie ma racje stawiajac nie na wydajnosc, ale na efekt calosciowy.

  48. @morgi (autor: Promilus | data: 29/09/09 | godz.: 09:01)
    Zabronić nie musiał. Licencja na QPI robi swoje chociaż...P55 wykorzystuje DMI, a nie QPI...DMI to samo co w P45 i wcześniejszych, a gdzie te tony VIA, NV, SiS i nie wiadomo jeszcze jakiego badziewia? ;) Nie widzę...dziwne ;)

  49. Promilus (autor: morgi | data: 29/09/09 | godz.: 10:37)
    Wyszukaj se, VIA sama podniosla raczki, a SiS ma sie dobrze w swojej malej piaskownicy taniochy c2d/c2q, wiec z definicji czekaja pewnie na tanie Nehalemki.

  50. morgi (autor: Markizy | data: 29/09/09 | godz.: 14:57)
    A jak wytłumaczysz taką małą różnorodność chipów pod intela ? u AMD jest znacznie więcej, pomimo że samy świetne chipy mają. Co do VIA zajęła się projektowaniem chipów pod swoje procki.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.