Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2020
Piątek 5 czerwca 2009 
    

Larrabee osiąga wydajność GeForce GTX 285


Autor: Zbyszek | źródło: TechConnect | 14:08
(67)
Larrabee to jeden z projektów Intela, który przez dłuższy czas owiany był tajemnicą. Szczegółowe informacje na temat układów podano dopiero na początku kwietnia obecnego roku podczas konferencji IDF w Pekinie, gdzie zaprezentowane zostały również wafle krzemowe z układami. Wiadomo już, że Intel zamierza wykorzystać Larrabee do stworzenia własnych kart graficznych, które trafią do sklepów na początku przyszłego roku i będą konkurować z produktami firm AMD oraz Nvidia. Najnowsze informacje wskazują na pełną kompatybilność z DirectX 11 oraz wydajność zbliżoną do oferowanej przez GeForce GTX 285. Kluczem do sukcesu Larrabee może okazać się jednak zgodność z kodem x86 typowych procesorów, dzięki czemu możliwe będzie elastyczne wykorzystanie jego mocy obliczeniowej, zarówno do animacji gier jak i typowych aplikacji.

Larrabee produkowany jest w 45nm procesie technologicznym i składa się z kilkudziesięciu mniejszych rdzeni x86, z których każdy wyposażony jest we własną pamięć podręczną. Pod koniec 2010 roku produkcja układów ma zostać przeniesiona do 32nm procesu technologicznego.

 

    
K O M E N T A R Z E
    

  1. czyli... (autor: LOLO64 | data: 5/06/09 | godz.: 16:52)
    dużo szumu o nic.

  2. Jest jakaś (autor: shadowxxz | data: 5/06/09 | godz.: 17:03)
    minigra albo choć demo które wykorzystuje raytracing obliczany na shaderach? Ja znam tylko takie działające na cpu ale na x2@3ghz max grywalna rozdzielczość to 512/384 czy jakoś tak

  3. Intel (autor: AmigaPPC | data: 5/06/09 | godz.: 17:21)
    dotychczas nic ciekawego w tej dziedzinie nie pokazał i mimo posiadanej technologii brakuje mu doświadczenia w projektowaniu wydajnych GPU.

  4. no to zapowiada sie konkurencja dla ION NVidii (autor: cp_stef | data: 5/06/09 | godz.: 17:34)
    i dobrze dla nas klientow zawsze lepiej :)

  5. hmm (autor: 123er | data: 5/06/09 | godz.: 17:39)
    Po premierze nowych kart Ati i nV (pewnie jeszcze w tym roku), larrabee będzie wydajnościowo w średniej półce, a przy takich rozmiarach rdzenia cenowo pewnie będzie w highend'zie

  6. ... (autor: kubaswielgus | data: 5/06/09 | godz.: 17:41)
    Pytanie do grafików - Czy zgodność z kodem x86 oznacza, że Larrabee będzie mogło wykonywać proces renderingu w programach typu 3D Studio? Jeżeli tak to byłby to wielki przełom i gwarantowany sukces karty.

  7. Zbyszek! (autor: Sajron | data: 5/06/09 | godz.: 18:03)
    skąd masz te info o 650mm2 w 45nm?
    to jest niemozliwe żeby Intel tak wtopił.
    rv790 w 40nm ma powierzchnie 160mm2 a larrabee o podobnej wydajnosci ma aż 650mm2? nie ma takiej opcji aby taka rozbieżnosc była bo Intel nie miał by z czym walczyc , totalna wtopa by była.


  8. Sajron (autor: Markizy | data: 5/06/09 | godz.: 18:12)
    no bo larrabee jest x86 :P

  9. bzdury ludzie nie wklejajcie tych bzdur! (autor: Sajron | data: 5/06/09 | godz.: 18:21)
    RV790 w 40nm ~160mm2 (shrink 256-37%)
    GT200 w 40nm ~295mm2 (shrink 470-37%)
    Larrabee w 45nm ~650m2?
    żarty sobie robicie?
    Intel nie miał by najmniejszych szans konkurowac cenowo z 4x mniejszymi produktami ATI.


  10. Markizy (autor: Sajron | data: 5/06/09 | godz.: 18:39)
    o lol jakbym tego nie wiedział.

    zbyszek intel pokazywał wafel larrabee 2 lata temu i z obliczen zdjecia chip miał powerzchnie 650-700mm2. a wtedy to mieli proces 65nm a nie 45nm.
    więc z obliczen wyniak że larrabee bedzie miec około 400mm2 w 45nm i 250mm2 w 32nm. Nie siejcie zametu dobra!


  11. sajroniku. Dalej pitolisz od rzeczy. (autor: Aamitoza | data: 5/06/09 | godz.: 18:44)
    Własnie intel nie kwapi się do szybkiego wydania larrabee bo czeka zapewne na 32nm i 45mn zobaczymy pewnie moment przed 32nm, a 45nm poleci do obliczeń w kosmicznych cenach - bo na rynku HPC można ceny śmiało windować ;]

    Ale intel wiadomo, nie może wtopić bo jest bóstwem :)


  12. .:. (autor: Shneider | data: 5/06/09 | godz.: 18:50)
    Sajron - pokazywac wafle sobie moga. dopoki nie ma oficjalnego produktu nie mozna byc niczego pewien.

    tym samym 90% Twoich poprzednich wywodow sa oparte na marnyj zdjeciu z jakiejs prezentacji. ;-)


  13. Sajron (autor: Dzban | data: 5/06/09 | godz.: 18:51)
    przecież były właśnie niedawno prezentowane wafelki z larrabe więc sobie policz. Góra 2 miesiące temu.

  14. Shneider (autor: Sajron | data: 5/06/09 | godz.: 19:09)
    tak masz racje moje wywody są oparte na marnyJ zdjeciu :P
    Dzban
    gdzie co jak kiedy? ps jaką masz pewnosci że to był wafel 45nm a nie stary 65nm?


  15. sajroniku. (autor: Aamitoza | data: 5/06/09 | godz.: 19:16)
    http://pclab.pl/...9-04/Intel_Larrabee_IDF09_1.jpg

    ładny? :)

    na oko 12 w pionie w poziomie chyba też - 25x25 - 625mm^2.


  16. Aamitoza (autor: Sajron | data: 5/06/09 | godz.: 19:31)
    takie same zdjęcie widziałem 2 lata temu i było to w 65nm.
    na oko to ma 10 w pionie i 13 w poziomie co daje jakies 690mm2.


  17. sajron (autor: Aamitoza | data: 5/06/09 | godz.: 19:35)
    to pokaż te zdjęcie z przed 2 lat z larrabee z MNIEJSZĄ ilością rdzenii w 65nm. ;)

  18. Aamitoza (autor: Sajron | data: 5/06/09 | godz.: 19:38)
    larrabee był projektowany domysle jako wersja 32rdzeniowa. najlepsza skalowalnosc, powyzej tej wartosci zalamuje sie już wydajnosc więc zapomnij o 16 ;)

  19. sajron... skończ z tymi domysłami. (autor: Aamitoza | data: 5/06/09 | godz.: 19:43)
    2 lata temu mowa była o 16-24 rdzeniach.

    Larrabee is a processor which will be composed of 16 or 24 cores in its initial version. These will be simplified IA cores (x86), in other words, in-order and stripped of a large part of the logic part in order to concentrate on execution. Thus, the vector calculation unit will be 512 bits wide (not to be confused with a precision of 512 bits) and will allow, for example, to process 16 FP32 operations in a single action.

    oto informacje z przed 2 lat.


  20. @Aamitoza (autor: MariuschM | data: 5/06/09 | godz.: 19:45)
    tylko nie wiadomo czy to jest w procesie 45nm czy 65nm:/

    wiadomo jeśli dane które Zbyszek podał są prawdziwe to Intel zaliczył faila z 2 powodów... po pierwsze tworzył układ który nie jest w dzisiejszych czasach najlepszy a drugi to to że nowe układy od AMD i Nvidii będą o coś lepsze od aktualnych układów

    co z tym idzie?
    larrabee nie będzie rewolucją a jeśli cena będzie jeszcze wyższa od cen Nvidii to intel zostanie wyśmiany

    jeśli będzie można moc obliczeniową Larrabee używać przy renderowaniu to widzę dla tej karty tylko jedną przyszłość i aż taka zła nie jest tylko o zastosowaniu domowym może już zapomnieć


  21. @Zbyszek (autor: MariuschM | data: 5/06/09 | godz.: 19:47)
    skąd wziąłeś te informacje na temat larrabee??

  22. MariuschM (autor: morgi | data: 5/06/09 | godz.: 20:01)
    ...cyganka z Inq. prawde ci powie, zajrzy w tarota, przeciez o przyszlych produktach nic nie wiadomo, do krotkiego czasu przed premiera, kiedy sample dotra do plotkarzy..

  23. morgi (autor: Markizy | data: 5/06/09 | godz.: 20:12)
    poniekąd cyganka ma czasem intel na imię ;p

    Przykład ten pan z dziwną miną ;p


  24. gpgpu (autor: pawel.xxx | data: 5/06/09 | godz.: 20:20)
    Larrabee należy traktować jako gpgpu (general purpose gpu) a nie jak zwykłego gpu. Główna przewagą i tym co decyduje o rewolucyjności larrabee jest to że potrafi on wykonywać kod x86. Ten układ dostarcza 32 sprzętowych wątków, taktowanych między
    1.5-2.5GHz, zdalnych wykonać 64instrukce x86w cyklu.
    Obecne 4rdzeniowce potrafią wykonać max 16 instrukcji w cyklu


  25. pawel.xxx (autor: Markizy | data: 5/06/09 | godz.: 21:35)
    a zdajesz sobie sprawę ze taktowanie larrabee jest nieznane? karta jak wyjdzie to znajdzie zastosowanie jako układ wspomagający CPU, ale o efektywności będziemy rozmawiać dopiero jak karta się pojawi.

    A co do architektury x86 to będzie zgodna z EMT64 ? bo autentycznie już teraz nie wiem , a o układzie kiedyś coś czytałem.


  26. 3xSLI (autor: konkurs | data: 5/06/09 | godz.: 22:08)
    Połączyć tak Geforce (dla PhysX, CUDA), Radeon (dla Havok i Stream) i Larrabee (jako wspomaganie CPU) na jednej płycie z 3xPCIe :]

  27. Markizy (autor: pawel.xxx | data: 5/06/09 | godz.: 22:19)
    intel w różnych zapowiedziach prasowych wspominał o taktowaniu na poziomie w okolicach 2GHz. Oczywiście masz racje i póki karta nie wyjdzie to nadal spekulacje.
    Tym niemniej te zapowiedzi wydają się prawdopodobne.
    http://techreport.com/discussions.x/16920
    Owszem rdzenie larrablee będą zgodne x86-64 poza tym będą miały specyficzne instrukcje do obsługi imponującej jednostki wektorowej 512b


  28. Aamitoza (autor: Sajron | data: 5/06/09 | godz.: 22:43)
    masz zdjecie larrabee w 45nm:
    http://www.dvhardware.net/...wafer_idf_april09.jpg
    na oko układ ma jakies 350mm2 a nie 650mm2.


  29. pawel.xxx (autor: Markizy | data: 5/06/09 | godz.: 22:54)
    to może będzie ten układ mieć jakaś przyszłość, bo przy 32bitach organicznie 4GB ramu obrazu się pojawia, a tak to go nie ma (wiem ze przy 32bitach można więcej adresować, ale to już dłużej trwa) :)

  30. ahahaa (autor: Aamitoza | data: 5/06/09 | godz.: 22:56)
    Chcesz mi powiedzieć, że nagle spłaszczył się i został pomniejszony tylko w jedną stronę? ;>

    rozrysuję Ci to inaczej.

    I7 ma 731milionów tranzystorów i powierzchnię około 263mm2, a larrebee około 1700milionów tranzystorów (1,7miliarda). Gdzie tuaj będzie te 350mm2? To co pokazałeś może być w 32nm jeżeli już, albo któryś ze słabszych (pociętych modeli).

    350mm2 może by było, gdyby miał 700milionów tranzystorów mniej :)


  31. Skasowałem wstawkę o powierzchni (autor: Zbyszek.J | data: 5/06/09 | godz.: 22:56)
    ponieważ nie wiadomo jaka jest faktycznie. Podając ją opierałem się na informacjach z IDF-u sprzed dwóch miesięcy, kiedy to mówiono o powierzchni 650-700 mm^2...

  32. ... (autor: Faraonix | data: 5/06/09 | godz.: 23:02)
    a napewno na tym waflu to Larrabee, a nie UL1111 ? :)

  33. GPUCPU ? (autor: M1ras | data: 5/06/09 | godz.: 23:04)
    Na początek witam wszystkich userów TPC :)
    Larrabee a raczej jego rdzenie (są to `procesorki`) przypominają swoją budową Pentiumki MMX z rozszerzonymi rejestrami i dodanym SSE. Nie można zapominac o mozliwosci wykonywania kodu x86 z tego względu te GPU będą rewolucyjne ;).
    Intel moim zdaniem wyda je w 45nm


  34. Aamitoza (autor: Sajron | data: 5/06/09 | godz.: 23:17)
    ślepy jestes czy co? układ larrabee jest prostokątny:
    http://www.cowcotland.com/...sual,R-C-210936-3.jpg

    przu zmniejszaniu procesu zazwyczaj tak jest że elementy nie skalują się liniowo dlatego układ mógł ulec lekkiemu spłaszczeniu.


  35. M1ras (autor: Markizy | data: 5/06/09 | godz.: 23:17)
    co do 45nm nie ma większych wątpliwości, tylko czy to będzie rewolucja ? obecne procesory core 2 duo to penitum pro udoskonalone. A x86 w zastosowaniach GPU to według mnie krok w tył a nie w przód. Krokiem dużym będzie w przód jeśli AMD albo Nvidia udoskonali na tyle swoje architektury GPU że będą mogły obsługiwać wszystkie DX (oczywiście z uwzględnieniem strat, związanych nowymi polecaniami)

  36. sajron (autor: Aamitoza | data: 5/06/09 | godz.: 23:24)
    ale 1,7miliarda tranzystorów tam nie wejdzie jezeli będzie to 45nm ;) Więc, albo są to 32nm, albo coś zupełnie innego.

  37. Aamitoza (autor: Sajron | data: 5/06/09 | godz.: 23:30)
    a te 1.7mld tranzystorów to też z dupy wyjołeś. lol te 1.7mld tranzystorów to było obliczane na podstawie wielkosci rdzenia a nie oficjalne info z reki Intela. w dodatku zle to obliczyli bo wafel był 45nm a nie 65nm zatem układ ma napewno mniej niż 1.7mld

  38. .:. (autor: Shneider | data: 5/06/09 | godz.: 23:30)
    sajron - a moze ma 700 czyli 2x 350 ;-)

    http://www.xtremesystems.org/...read.php?p=3791566

    [ http://download.intel.com/...r_2009/PatSpeech2.JPG ], [ http://www.dvhardware.net/...wafer_idf_april09.jpg ]

    ;-)


  39. Shneider (autor: Sajron | data: 5/06/09 | godz.: 23:37)
    buhahaha trzymajcie mnie!
    te zdjecie obok układu larabbee to jest Tukwila jakbys nie wiedział. 2mld tranzystorów i die size ~700mm2.


  40. Markizy (autor: M1ras | data: 5/06/09 | godz.: 23:38)
    core 2 duo to dla mnie takie Pentium M wywodzące się z Pentiumka III czerpiące z P Pro z tym się zgodzę ;).
    Larrabee będzie rewolucją jeżeli będze w stanie 'pociągnąc' oprogramowanie x86 bez większych modyfikacji kodu aplikacji.
    Współczesne GPU nadają się do specyficznych zastosowań poza generowaniem grafiki, i owszem potrafią szybko (b.szybko) przetwarzac dane ale zapychaja się gdy dochodzimy do rozgałęzień programu, instrukcji warunkowych itp.


  41. Shneider (autor: Sajron | data: 5/06/09 | godz.: 23:38)
    mistrzu rozwaliles mnie :D

  42. .:. (autor: Shneider | data: 5/06/09 | godz.: 23:43)
    Sajron - milo ze poprawilem Ci humor.

    widzisz, Twoje komentarze sa na identycznym poziomie.

    ZERO dowodow i konkretow, tylko domysly i wlasna opinia niczym nie potwiedzona.

    zycze dalszego bujania w oblokach, ja chetnie w momencie premiery zweryfikuje to ;-)


  43. M1ras (autor: Markizy | data: 5/06/09 | godz.: 23:47)
    no to ze grafika się zapycha wynika ze sposobu programowania, ale widać że można dużo na nich zdziałać, a obecne procesory mogą odpowiednio przygotowywać dane, resztę można liczyć na innym układzie ;)

    Tak czy owak, zobaczymy co wyniknie z działa intela larrabee po premierze jej :) ale raczej wiele się spodziewać nie można przynajmniej w grafice 3D :)


  44. Markizy (autor: M1ras | data: 5/06/09 | godz.: 23:52)
    Przynajmniej nie w tym roku ... a po drodze mamy R800 i GT300

  45. Shneider (autor: Sajron | data: 6/06/09 | godz.: 00:18)
    zero dowodów? to jest info prasowe z IDF.
    Intel na tegorocznym IDF demonstrował swoje 2 topowe produkty które mają wyjsc niedługo na rynek Larrabee i Tukwile oba układy są w 45nm.
    buhahaha


  46. .:. (autor: Shneider | data: 6/06/09 | godz.: 00:27)
    Sajron - http://twojepc.pl/news18741.html tez dowod? ;-)

    45nm i 600mm.


  47. @Sajron (autor: rainy | data: 6/06/09 | godz.: 00:35)
    Żeby być w zgodzie z faktami, to Tukwila miała być w 65nm ale sobie odpuścili bo byłby to zbyt kosztowny w produkcji układ.

    Nie zdziwię się, jeśli Intel postapi podobnie z Larrabee i wypuści go od razu w 32nm.


  48. Shneider (autor: Sajron | data: 6/06/09 | godz.: 00:59)
    no i co ty mi pokazujesz? ten wafel to Tukwila
    Zbyszek opiera swoje newsy na informacjach z innych portali , wystarczy jeden pusci błedne info i potem efekt lawinowy powstaje. nie raz tak widzialem ze jeden portal tworzy błednego newsa a potem dziesiatki innych go powiela.

    rainy
    Tukwila miała byc w 65nm ale Intel zmienił plany i jest teraz w 45nm , a Larrabee ma wyjsc w 45nm najpierw wiec wszystko się zgadza.


  49. Tak się rodzą mity. (autor: havik | data: 6/06/09 | godz.: 09:06)
    Kilka kontrolowanych przecieków wystarczy, aby fanboye na forach wywnioskowali, że układ będzie rewolucyjny.
    Pamiętam jakie były tzw. przecieki przed premierą PS3. Np. "znany overklocker i hacker stwierdził że PS3 jest szybsza od GF 8800 ponad siedem razy". Na forach ludzie zaczęli popuszczać z podniecenia. I co. Gry na PC są takie same jak nie lepsze niż na PS3.
    Powiem wam w czym ten układ będzie rewolucyjny dla Intela. W tym, że skoro procesory x86 będą w pełni programowalne, Intel wreszcie nie będzie się martwił że wychodzi jakieś nowe API, którego nie obsługuje jego układ. Dlatego jeśli wyjdzie nowy DirectX 18.5 zawsze będzie można zmodyfikować programowo procesor tak, aby je obsługiwał. Oczywiście wystarczająca będzie pewnie zmiana jakiegoś biosu karty, ale raczej takich uaktualnień nie będzie, bo po co skoro można sprzedać nowe. Stara karta się zestarzeje, to wypuści się tą samą kartę z nowym biosem (może trochę wyżej taktowaną lub z większą ilością rdzeni lub cashu), i kotlet będzie mógł być odświeżany w nieskończoność.
    Osobiście jestem zdania, że programowalne jednostki nigdy nie zastąpią wyspecjalizowanych. Nawet jeśli Intel deklaruje, że oczywiście doda wyspecjalizowaną jednostkę teksturującą i opracuje specjalną magistralę komunikacji między rdzeniami - nie wiele to da, bo kotlet zawsze pozostanie kotletem. A zjedzą go ci, którzy nie wiedzą, że ten kotlet ma ponad dziesięć lat, a jest podany tylko na nowym talerzu. Świeża sałatka obok niczego niestety w smaku kotleta nie zmieni.
    Po kilku miesięcznym okresie zachwytu i zwodzeniu intela, że układ nie jest tak szybki jak zakładano bo sterowniki nie są jeszcze dopracowane. Układ zostanie wreszcie skierowany na rynek MAINSTREAM zgodnie zresztą z planami intela bo tu jest największy kawałek tortu do podziału. A na nim nawet za 10 lat wytresowany sprzedawca zawsze będzie mógł powiedzieć większości klientom (np. rodzicom (lub co gorsza dziadkom) kupującym dziecku na komunie pierwszy komputer), że karta Intela obsługuje najnowsze gry, bo jest zgodna z DirectX 18.5. Rodzicom takie zapewnienie wystarczy, bo nie zastanowią się dlaczego laptop jest taki super to kosztuje połowę. Komputer to komputer większość używa go do pisania maili, dokumentów i przeglądania internetu. Jeśli Intel ładuje się w projekt to nie po to by wyhaczać z rynku entuzjastów których jest 3% rynku tylko całą resztę, która decyduje kto rozdaje karty, kto potrafi przetrwać kryzys, kto ma kasę na płacenie supermarketom aby nie sprzedawać rozwiązań konkurencji.


  50. havik - masz sporo racji pod koniec (autor: Dabrow | data: 6/06/09 | godz.: 10:19)
    tyle że intel już swoje wyhaczył - generalnie sprzedaje więcej grafik niż ATi i nVidia -nie mówimy tu o ich przeznaczeniu ale jednak...

  51. Mam nadzieje, ze (autor: vasc | data: 6/06/09 | godz.: 16:29)
    tym razem intel nie pokusi się o podpłacanie sprzedawców :)

  52. sdaf (autor: gindek | data: 6/06/09 | godz.: 21:48)
    Co jest najszybsze w 286?
    - Wiatraczek


  53. gindek (autor: Luke Jadi | data: 7/06/09 | godz.: 08:52)
    w sumie smieszne, tylko jak ktos wie ze 286 nie mialo wiatraczka to juz mniej :P

  54. Luke Jadi (autor: Markizy | data: 7/06/09 | godz.: 10:00)
    zawsze pozostaje liczyć na ten w zasilaczu :)

  55. havik! (autor: Sajron | data: 7/06/09 | godz.: 17:58)
    Juz przestan wyzywac Larrabee od kotletów bo ten układ to pierwsze poważne GPU od Intela. Ja naprawdę nie wiem jak coś co powstaje pierwszy raz można nazywac kotletem.
    W pełni programowalne GPU to jest właśnie przyszłosc. Jeśli uważasz że programowalne jednostki nigdy nie zastąpią wyspecjalizowanych to jesteś w błedzie. Intel dokładnie udokumentował że za pomocą efektownych algorytmów proces rasteryzacji można spokojnie obliczac za pomocą rdzeni SIMD. Pozatym w przyszłości gry będą renderowane w technice raytracingu zatem predzej czy pozniej stałe jednostki takie jak ROPy zostaną zastąpione programowalnymi jednostkami.
    Odnośnie zapowiadanej wydajnosci Larrabbe to nie jest zle. Wydajnosc GTX285 to jest to dosc sporo jak na pierwsze sample. Po dopracowaniu sterownikow i zoptymalizowaniu gier pod nowe instrukcje LRBni, Larrabee powinien wyprzedzic GTX285 o nawet 50%, wiec jak na układ do mainsteremu to czego chciec więcej. :P


  56. @Sajron (autor: MariuschM | data: 7/06/09 | godz.: 18:06)
    nie ma co gadać teraz na temat larrabee bo wszystko to po prostu baju bajki i nic więcej... jak wyjdzie to się dowiemy czy larrabee to przyszłość czy nie a jak do tej pory to nie ma z czego się cieszyć bo wydajność na poziomie GTX285 to nie cud

    a te 50% co podałeś to zdecydowanie baju bajki... jeśli osiągnie wydajność 20-30% wyższą to już można się cieszyć ale wszystko się dopiero okaże

    tak samo można powiedzieć że nowe układy AMD w 40nm technologii będą 100% albo nawet 200% lepsze od aktualnych a to jest po prostu bzdura

    dopiero gdy wszystko wyjdzie to się dowiemy jaka jest prawda a teraz to można sobie tylko pomarzyć jakie mogą być nowe układy i nie opowiadać bajek


  57. MariuschM (autor: Sajron | data: 7/06/09 | godz.: 19:16)
    jeśli chodzi o wydajnosc to może to i nie cud ale jesli chodzi o funkcjonalnosc to GT300 wymiękka. pozatym policz sobie o ile larrabee jest wydajnejszy od IGP. 10x -100x? widziałes kiedyś aby ATI czy Nvidia wydała 100x szybszą kartę? Intel własnie to robi.

  58. @Sajron (autor: Promilus | data: 7/06/09 | godz.: 19:21)
    układy specjalizowane mają tylko 1 wadę - algorytmy są na sztywno zaimplementowane w samej strukturze.
    Za to mają też jedną zaletę - są niebywale wydajne w tym do czego zostały stworzone.
    Niektóre procesy związane z współczesnym generowaniem sceny w zupełności mogą być na sztywno wpisane w strukturę...m.in. nanoszenie tekstur czy przekształcanie 3D w 2D. I nie ma absolutnie żadnej potrzeby (obecnie) by to zmieniać.


  59. @Sajron (autor: MariuschM | data: 7/06/09 | godz.: 22:47)
    "Intel właśnie to robi"
    może i robi ale efektu jeszcze nie widać bo układu nie ma i nie można tego powiedzieć

    tak samo nie znamy wydajności nowych kart od ATI i nie możemy na ich temat nic powiedzieć

    wiadomo przypuszczenia zawsze są ale ile w tym prawdy??

    niestety larrabee ma wyjść w pierwszym kwartale 2010 roku więc Intel może jeszcze w nim wiele zmienić a my możemy sobie długo poczekać aż wreszcie je ujrzymy:/

    mam nadzieję że po wyjściu serii HD58** ATI będzie planowało coś nowego by nie pozwolić Intelowi na wydanie Larrabee znając właściwości aktualnych najlepszych kart


  60. Zgadzam się z Promilusem. (autor: havik | data: 8/06/09 | godz.: 11:20)
    Można było zaakceptować zunifikowanie Pixel Shader, Vertex Shader , bo to dalej są wyspecjalizowane jednostki. Ale rdzenie Larrabee będą zmodyfikowanymi rdzeniami Pentium MMX. W biosie będzie musiał siedzieć chyba cały system tłumaczący operacje API na rozkazy x86. A w ogóle to będą niezłe jaja, jak pojawią się jakieś virusy wchodzące w system Larrabee. @Sajron "Intel dokładnie udokumentował że za pomocą efektownych algorytmów proces rasteryzacji można spokojnie obliczać za pomocą rdzeni SIMD." Tak udowodnił, ale jeszcze nie udowodnił znaczącego zwiększenia wydajności renderowania tą metodą. Robiąc Larrabee Intel nie musi płacić żadnych praw patentowych Ati czy Nvidii za stosowanie ich sprawdzonych rozwiązań. Chciałbym wierzyć , że jest intel ma dalekosiężny plan związany z integracją CPUGPU. Intel wybrał drogę opartą na przestarzałej jak wszyscy wiemy architekturze x86. Jeśli rdzenie GPU i CPU będąc w tej samej architekturze będą mogły się bezpośrednio komunikować (bez przekształcania rozkazów na risc i odwrotnie), może da to efekt, kiedy GPU i CPU będą na jednym kawałku krzemu. Mam nadzieje że kiedyś intel zrobi użytek z tych dodatkowych nóżek na LGA 1366. Wtedy okaże się czy czeka nas faktycznie rewolucja w systemach graficznych czy będzie to kolejna ślepa uliczka w ewolucji pecetów.

  61. Co do LGA 1366 (autor: havik | data: 8/06/09 | godz.: 11:24)
    Chciałem tylko powiedzieć, że wycielenie trzeciego kanału na potrzeby podsystemu graficznego byłoby niezłym pomysłem.

  62. Co do LGA 1366 (autor: havik | data: 8/06/09 | godz.: 11:26)
    Oczywiście wydzielenie zamiast wycielenie :)

  63. havik (autor: Markizy | data: 8/06/09 | godz.: 18:27)
    sprawę z dostępem do pamięci bardzo ładnie załatwia kontroler krzyżowy używany w procesorach AMD, GPU z NB nie ma problemów z dostępem do pamięci.

  64. @havik (autor: pawel.xxx | data: 8/06/09 | godz.: 22:12)
    "W biosie będzie musiał siedzieć chyba cały system tłumaczący operacje API na rozkazy x86. "

    Nic takiego nie będzie miało miejsca, api nie są tłumaczone. Api jest interfejsem który współpracuje ze sterownikiem urządzenia.
    http://en.wikipedia.org/wiki/Direct3D#Architecture
    Sytuacja w przypadku larrabee będzie bardzo podobna jak przypadku kart innych producentów. To sterownik zajmuje się tym w jaki sposób wykorzystać sprzęt by osiągnąć efekt wymagany przez api. W przypadku larrabee istnieje możliwość zaimplementowania dowolnego api.


  65. @pawel.xxx Dzięki (autor: havik | data: 8/06/09 | godz.: 22:54)
    Fajnie się czegoś dowiedzieć na tym forum

  66. havik! (autor: Sajron | data: 9/06/09 | godz.: 18:58)
    "Tak udowodnił, ale jeszcze nie udowodnił znaczącego zwiększenia wydajności renderowania tą metodą"
    Wykonywanie operacji rasteryzacji przez rdzenie SIMD nie da żadnego zwiększenia wydajności. Technika ta tak naprawdę zmniejsza wydajnosc FLOPs układu o 20-30% w zależności od gry gdyż rdzenie SIMD muszą by zagarnięte do pracy zadaniami ktore do tej pory wykonywały dedykowane jednostki.
    Jedyną potencjalną korzyścią z zastosowania takiego sposobu renderowania jest sytuacja gdy ROPy są wąskim gardłem i blokują wydajnosc jednostek SIMD. Wtedy to rdzenie Larrabee dzieki swojej dużej mocy SIMD będą mogły przeznaczyc więcej zasobów do procesu rasteryzacji.


  67. Wybacz Sajronie (autor: havik | data: 10/06/09 | godz.: 09:27)
    Nie jestem tak obeznany w tych klockach jak Ty wiec nie mogę co do takich detali technicznych dyskutować. Nie będę już wieszać psów na larrabee bo w sumie cieszę się że ewolucja kart graficznych znalazła nowy kierunek.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.