Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Środa 1 września 2010 
    

AMD Fusion w konsolach następnej generacji?


Autor: Zbyszek | 08:30
(77)
Według spekulacji nowe procesory Fusion firmy AMD, będące połączeniem klasycznego procesora x86 oraz układu graficznego w jednym chipie krzemowym mają szansę stać się sercem konsol kolejnej generacji. Dzięki zastąpieniu dwóch oddzielnych układów jednym wykorzystanie Fusion pozwoli znacznie uprościć budowę konsol. Wiadomo między innymi, że jednym z głównych powodów dla którego przyśpieszono pracę nad PlayStation 4 jest chęć zdecydowanego obniżenia kosztów produkcji konsoli - Sony zamierza między innymi zrezygnować z niewspółmiernie drogich pamięci Rambus XDR, zastępując je bardziej tradycyjnymi kośćmi DDR3. W osiągnięciu tego celu pomocne byłoby również zastosowanie jednego układu krzemowego, łączącego w sobie funkcje CPU i GPU.

Tutaj Sony niestety nie ma wielkiego wyboru - w zasadzie jednym rozsądnym posunięciem jest w chwili obecnej użycie procesorów AMD Fusion, które są wyposażone w wystarczająco wydajny układ graficzny. Dodatkowo według specjalistów z branży firma AMD mogła by na specjale zamówienie wyprodukować wersję Fusion dedykowaną specjalnie dla konsol, wyposażoną w układ graficzny z większą liczbą procesorów strumieniowych, zwłaszcza, że historia bogata jest już w szereg podobnych przypadków. Specjaliści zwracają jednak uwagę, że Sony może poczekać z premierą PS4 na pojawienie się wydajnych układów CPU + GPU innych producentów, lub zlecić ich opracowanie innej firmie.


Zastosowanie Fusion możliwe jest również w kolejnej konsoli firmy Microsoft. Aktualnie oferowany Xbox 360 korzysta już z układu graficznego ATI Xenos, obie firmy mają więc przetarte szlaki. Jak do tej pory zainteresowanie układem nieoficjalnie wyraziła już firma Nintendo, która chciałaby zastosować Fusion w kolejnej wersji swojej konsoli Wii.


Zobacz także:

02.06.2010 | 11:50 | AMD prezentuje działające 32nm Fusion [wideo]
17.12.2009 | 07:45 | Sony nadal traci na sprzedaży PlayStation 3
03.10.2008 | 07:23 | Pierwsze spekulacje na temat PlayStation 4



 

    
K O M E N T A R Z E
    

  1. i nagle wszystkie konsole beda takie same w srodku ;) (autor: Kriomag | data: 1/09/10 | godz.: 08:42)
    i tak na prawde beda pc-tami ;) lol

  2. to jakas lipa (autor: robgrab | data: 1/09/10 | godz.: 08:48)
    taka stara i malo wydajna architektura jak x86 w konsolach? nie ma takiej opcji, to bedzie fusion ale z jakims ppc ala to co jest w nowym xbox360 aby zmaksymalizowac proporcje wydajnosc/wielkosc ukladu/wydzielanie ciepla.

  3. @up (autor: skyler | data: 1/09/10 | godz.: 08:52)
    przypomnij sobie co siedzialo w xboxie:)

  4. sądzac (autor: Kris1st | data: 1/09/10 | godz.: 09:11)
    po obrazku układ musi być dość oszczędny i posiadać dużą moc, ale jak zawsze ktoś ma polsie korzenie i wykombinuje żeby wsadzić takich z osiem fuzionów i to dopiero będzie :)

  5. Co do CPU + GPU (autor: Drow | data: 1/09/10 | godz.: 09:12)
    na jednym chipie - najnowszy x360 jzu z takiego rozwiazania korzysta.

  6. ps4 (autor: hideox | data: 1/09/10 | godz.: 09:15)
    Sony nie wrzuci cpu x86 z powodu piractwa

  7. komputery typu desktop (autor: buceek | data: 1/09/10 | godz.: 09:22)
    Jeżeli tak się stanie to konsole zostaną zwykłymi komputerami typu desktop tylko że ich głównym przeznaczeniem będą gry...
    Z drugiej strony widać że nie tylko Intel kombinuje nad zdobyciem nowego rynku dla swoich produktów. Ciekawe który producent wyjdzie na swoim najlepiej :)


  8. @skyler (autor: robgrab | data: 1/09/10 | godz.: 09:32)
    wiem ze w pierwszym xbox siedzial p3 ale ten piewszy xbox to dlamnie bardziej pc niz konsola

  9. . (autor: R.I.P. TPC | data: 1/09/10 | godz.: 09:34)
    .

  10. . (autor: R.I.P. TPC | data: 1/09/10 | godz.: 09:37)
    .

  11. . (autor: R.I.P. TPC | data: 1/09/10 | godz.: 09:39)
    .

  12. Do konsol trzeba czegoś innego (autor: pomidor | data: 1/09/10 | godz.: 09:45)
    Fusion to przede wszystkim CPU, zaś GPU jest dodatkiem. W konsolach trzeba mocnego GPU z dodatkami CPU. Może to być kombinacja 5870 + kilka rdzeni Bobcat, lub Geforce + kilka ARM. Szybkość CPU już nie jest tak ważna, ponieważ grafika, fizyka i inne wymagające algorytmy mogą być wykonywane na GPU.

  13. . (autor: DYD_morgi | data: 1/09/10 | godz.: 09:53)
    .

  14. nVidia (autor: Gakudini | data: 1/09/10 | godz.: 09:59)
    Jeśli prawdą jest to co nVidia opowiada o możliwościach programowania oFermy to byłby to znacznie lepszy kandydat, oczywiście przy założeniu przejścia na 28nm i zredukowaniu zużycia energii. Gdyby udało się zejść do ok 100W z 512 CUDA-kami i jakimś ARM x2 lepiej x4 to platforma pasowałaby do konsoli idealnie. W 2012 może to być realne.

  15. pomidor (autor: cichy202 | data: 1/09/10 | godz.: 10:03)
    Patrz, a ja mam wrazenie ze PS3 to dokladna odwrotnosc tego co mowisz dupny 7900 + mocarny Cell.

  16. . (autor: Gakudini | data: 1/09/10 | godz.: 10:07)
    .

  17. @cichy202 (autor: Gakudini | data: 1/09/10 | godz.: 10:11)
    PS3 nie jest dobrym przykładem, biorąc pod uwagę jak miało pod gorę przy starcie. Z mocnego Cella programiści wykorzystywali tylko rdzeń PPC.

  18. info (autor: DYD-Admin | data: 1/09/10 | godz.: 10:28)
    moderacja jest, kropki to usunięcia wpisów userów, którzy spamują serwis

  19. ... (autor: Wujofefer | data: 1/09/10 | godz.: 10:32)
    AMD ostro atakuje. Wygryza Nvidie w produktach Apple, niedługo da im w kość prezentując najszybszą jedno chipową grafikę (R6870), na TPC mowa o Fusion w PS3 a na FrazPC o Fusion w nowym XboXie:
    "W sieci pojawiła się także informacja o tym, że AMD opracowuje procesor Fusion, który zostanie wykorzystany w następnej konsoli Microsoft Xbox. "
    http://pclab.pl/news43091.html
    Jeśli poproszono ich o opracowanie nowego procesora to muszą dysponować na prawdę szybkimi CPU. Żaden z producentów konsol nie wpakowałby układu CPU, który na starcie byłby co najwyżej średni.
    Układy w konsolach muszą być ekstremalnie wydajne by ich moc wystarczyła na te 5, 7 czy teraz nawet 10 lat.
    Z pewnością nadchodzący Fusion i Bulldozer mocno zamieszają na rynku CPU.


  20. @15 (autor: pomidor | data: 1/09/10 | godz.: 10:38)
    W czasie konstruowania PS3, 7900 był najszybszym dostępnym GPU jakim nvidia dysponowała, i jaki mogli na szybko przerobić aby pasował do PS3. Jak wiadomo 7900 nie miał tak rozwiniętych shaderów jak obecne GPU, dlatego Cell był konieczny. Teraz GPU łatwiej programować i cała dziedzina GPGPU jest dużo bardziej rozwinięta.

  21. @ Wujofefer (autor: Gakudini | data: 1/09/10 | godz.: 10:39)
    CPU w dzisiejszych czasach nie musi być super wydajne, biorąc pod uwagę jaka ilość obliczeń przejęło GPU. Nie zapominajmy, że to są konsole na które grę się optymalizuje. Jeśli fizykę będzie liczyć GPU, to CPU nie musi być mocarne.

  22. Nio (autor: morgi | data: 1/09/10 | godz.: 10:48)
    minimalni jak zwykle spoznieni, na koncu stawki z apu, konsole przynajmniej czesciowo juz to maja. Teraz beda starali sie wydac 'nowa' architekture, czyli kopiowanie innych jak sie da, powerow, Intel Core.

  23. Taaa (autor: Wyrzym | data: 1/09/10 | godz.: 11:05)
    Jeszcze mogli by ci specjalisci z branzy napisac na czym jada, bo tez chce miec takie jazdy jak oni :]
    x86 i konsole :] to juz bylo, MS juz probowal, wyszlo jak wyszlo.
    Czy nie ma innego rozwiazania niz AMD fusion? jakos IBM ostatnio zaprojektowal cos podobnego do xbox slim.


  24. @DYD (autor: cana | data: 1/09/10 | godz.: 11:06)
    fajnie z tą moderacją, tylko dlaczego naczelny spamer dalej farmazoni w najlepsze?

    [replay: spokojnie, na każdego przyjdzie czas - od Admina]


  25. . (autor: jagdtiger | data: 1/09/10 | godz.: 11:15)
    .

  26. . (autor: bananowy song | data: 1/09/10 | godz.: 11:31)
    .

  27. Up@ (autor: jagdtiger | data: 1/09/10 | godz.: 11:36)
    zaraz napisze ze papier wszystko przyjmie, ze to fake i takie tam bzdury jak zawsze....

  28. @pomidor (autor: Wujofefer | data: 1/09/10 | godz.: 12:11)
    Tylko, że cała historia z Cellem to pasmo porażek Sony.
    Japończycy mieli ambitne plany wpakowania do PS3 jednego Cella odpowiedzialnego za wszystkie obliczenia, nie udało się to, to chcieli wpakować dwa, jeden jako CPU a drugi jako GPU. Ten pomysł też nie wypalił więc na gwałt szukali jakiegoś dobrego producenta GPU. Widząc, że 360-tka będzie miała układ ATI zwrócili się o pomoc do Nvidii jako ich głównego konkurenta. Nvidia nie mając zbyt dużo czasu musiała zaproponować im coś na bazie 7800, ówczesnego ich najszybszego układu. To co siedzi w PS3 jest tylko przeprojektowanym lekko układem znanym z PCtów a to co siedzi w XboXie 360 jest GPU projektowanym od początku dla konsol.
    Co do procesora Cell układ z jednej strony jest niewypałem z drugiej wybiegał aż za bardzo w przyszłość. Miał być od wszystkiego a okazał się do niczego. Jego żywot zakończył się na PS3. Gdzieś tam starano się pakować go do telewizorów, lodówek, laptopów, serwerów czy zestawów kina domowego jednak układy te były zbyt prądożerne i ostatecznie porzucono tą architekturę.
    Co ciekawe M$ zaoszczędził dzięki Sony sporo kasy bo układ siedzący w XboXie 360 jest pochodną Cella tylko bez zbędnych udziwnień, uproszczony ale za to z większa liczbą (3) rdzeni ogólnego przeznaczenia. Przez co teoretycznie Cell ma większą moc obliczeniową jednak w praktyce już nie zawsze tak bywa.
    W konsolach potrzebne są silne GPU i CPU, w końcu sprzęt ten ma wystarczyć na min. 7 lat a nie na 2-3.


  29. . (autor: Krax | data: 1/09/10 | godz.: 12:18)
    .

  30. up. (autor: Krax | data: 1/09/10 | godz.: 12:21)
    *powtórze się

    [ od Admina, trochę rozpędziłem się kasując Twojego posta, staraj sie pisać bardziej poprawnie i z polskimi znakami i bez błędów ort. :) ]


  31. @Krax (autor: AmigaPPC | data: 1/09/10 | godz.: 12:29)
    ciekawe rozważania, ale może coś w tym jest.

  32. heh Krax (autor: piobzo | data: 1/09/10 | godz.: 12:34)
    już wszystkie przeglądarki wprowadzają obliczenia gpu... myślę, że następnym krokiem będą systemy operacyjne:)..

  33. piobzo (autor: morgi | data: 1/09/10 | godz.: 13:11)
    Taaa to od tego powinni zaczac, a w przegladarkach troche dyskoteki dla mlodziezy zawsze potrzebne.

  34. @33 (autor: Jarek84 | data: 1/09/10 | godz.: 13:28)
    Widać że GDI jest według Ciebie wydajniejsze niż Direct 2D?
    Hmm bardzo ciekawe....

    Co do konsol, to zobaczymy, wg mnie ATI wyszły do poprzednich generacji lepsze GPU dla MS i Nintendo, a jeśli do nowych generacji wrzuciliby Fusiona stworzonego z bulldozera z dwoma modułami + ewentualnie Turksa - to kto wie, może to i miałoby jakiś sens.


  35. . (autor: emu@mixbox.pl | data: 1/09/10 | godz.: 13:45)
    .

  36. @Wujofefer (autor: pomidor | data: 1/09/10 | godz.: 13:47)
    Ja jednak obstawiam za rozwiązaniem typu silny GPU zintegrowany z kilkoma małymi rdzeniami CPU. Na chwilę obecną najlepszy byłby Fermi oraz kilka małych rdzeni ARM. Pomijam tu obecne problemy Fermi z poborem prądu, czy niepotrzebnymi rzeczami typu ECC czy podwójna precyzja.
    Jest dużo zalet z takiego rozwiązania
    - Fermi umożliwia stosowanie wskaźników z C++, co jest podstawą do przenoszenia programów na GPU
    - rdzenie ARM są dużo wydajniejsze od x86, mają mały pobór prądu i zajmują niewiele miejsca
    - już teraz nvidia ma najlepsze rozwiązania GPGPU, a za 2-3 lata będą jeszcze lepsze
    - dzięki zintegrowaniu CPU i GPU, nie trzeba umieszczać specjalnych interfejsów do przesyłania danych, które zajmują miejsce, pobierają dużo prądu (patrz termograf z clarkdale) i spowalniają komunikację CPU i GPU
    - płyta główna jest mniejsza, tańsza, prostsze są obwody do zasilania i łatwiej jest chłodzić jeden większy procesor niż dwa mniejsze.
    - sony już się sparzyło na forsowaniu nowych rozwiązań za wszelką cenę. Nie tylko ten cell im nie wypalił, ale też musieli sporo dopłacać do produkcji konsol oraz do narzędzi dla programistów, aby im pomóc z wyciągnięciem odpowiedniej mocy z tych cudenek. O ile mają trochę oleju w głowie, już się nie wpakują w takie bagno.


  37. @35 (autor: zbychter | data: 1/09/10 | godz.: 13:52)
    A tak w temacie to bardzo mnie cieszy że w nowych konsolach zagości Fusion. z niecierpliwością czekam na Xboxa małego (takie coś jak PSP). jak będzie z APU to większa wydajność i dłuższy czas na baterii

  38. . (autor: jagdtiger | data: 1/09/10 | godz.: 14:02)
    .

  39. Wujofefer (autor: Grave | data: 1/09/10 | godz.: 14:14)
    Ten Xenos od ATI to też żaden cud. W końcu jego znacznie mocniejsza wersja trafiła do PC jako Radeon HD 2900XT a i tak okazała się wydajnościową porażką.

    Różni się w budowie od RSX-a Nvidii, ale... w praktyce widać że oba układy dysponują podobną mocą, nawet z lekkim wskazaniem na układ Nvidii.

    Wydajność wypełniania jest wyższa u Nvidii. Oba układy mają po 8 ROP-ów ale RSX jest 10% wyżej taktowany (550MHz vs 500MHz u ATI).

    Także wydajność teksturowania jest wyższa w RSX. Układ Nvidii ma 24 TMU przy 16 TMU w Xenosie.

    Za to Xenos jest wspomagany przez 10MB bardzo szybkiej pamięci oraz oferuje teoretycznie wyższą wydajność shaderów.

    Sumarycznie mimo może mniejszej innowacyjności w budowie to GPU w PS3 jest mocniejsze (nieco) od układu montowanego w X360.


  40. @39 (autor: Jarek84 | data: 1/09/10 | godz.: 14:29)
    Sam stwierdziłeś że Xenos jest bardziej nowatorski - ja dodam że głównie z powodu zunifikowanych shaderów - które w teorii dają przewagę nad RSX - nie są one wąskim gardłem jak w przpadku PS, VS w zależności od złożoności sceny.

    W przypadku GPU czy CPU nie zawsze brute force wykrzesany poprzez więcej MHZ jest rozwiązaniem wydajniejszym;)


  41. ... (autor: Mariusch1 | data: 1/09/10 | godz.: 14:30)
    Trochę dziwi mnie że wszystko teraz będzie bazowało na prockach lub grafikach od AMD. Apple będzie miało karty graficzne od AMD. Sony i M$ dają do swoich konsol fusion. Ostatnio co raz więcej laci jest z AMD. Jeśli się to nei zmieni to istnieje duża szansa że do końca następnego roku AMD będzie miało 50% rynku. Choć jest to bardzo wątpliwe to jednak możliwe.
    Tak w ogóle widzę że TwojePC ożyło:)


  42. Fajnie (autor: zbychter | data: 1/09/10 | godz.: 14:37)
    Czemu Admin usunął połowę mojego posta. To że Emu@cośtam wypisuje bzdety rozumiem mżna usunąć. ale nie jak ktś pisze anegdote a potem na temat bo to się mija z celem. wg. mnie oczywiście dyskusja to dyskusja.

  43. Mariusch1 (autor: Grave | data: 1/09/10 | godz.: 14:44)
    Apple nic oficjalnie nie potwierdziło, a póki co wykorzystują w swoich komputerach TYLKO (!) CPU Intela oraz ARM-a w telefonach/tabletach etc

    Co do GPU to także nie AMD zgarnęło dla siebie najwięcej z oferty Apple tylko.. Nvidia. To GPU Nvidii są montowane we WSZYSTKICH laptopach Apple, a także w Macu Mini.

    GPU AMD na razie stosowane jest w Macu PRO oraz iMacu czyli sumarycznie w mniejszej liczbie modeli niż GPU Nvidii.

    Odnośnie Sony to w PS4 ma się znaleźć GPU PowerVR skonstruowany specjalnie dla tej konsoli. AMD nie ma tam czego szukać.

    Następca X360 otrzyma GPU AMD i to jest pewne. CPU - nie wiadomo.

    Wątpię żeby Sony czy MS pakowało się w X86 mając do dyspozycji "natywne" CPU w architekturze RIS. Nie miałoby to większego sensu.

    Ogólnie chętnie zobaczyłbym źródło tego "newsa" bo jest on dla mnie kompletnie nieprawdopodobny.

    Fusion jako koncepcja połączenia CPU I GPU - ok. Ale to jest już teraz (vide X360 slim). Natomiast Fusion jako chip od AMD - wątpię.


  44. @Grave (autor: Promilus | data: 1/09/10 | godz.: 15:23)
    Nie pitol bzdur. Nie masz widać pojęcia o Xenosie jak go porównujesz do HD2900.
    "Wydajność wypełniania jest wyższa u Nvidii"
    Ale ATI ma lepszego HyperZ niż odpowiednik u nvidii więc nie potrzebuje takiego fillrate.
    "Także wydajność teksturowania jest wyższa w RSX" - 24 texture filtering units (TF) and 8 vertex texture addressing units (TA) kontra 16 texture filtering units (TF) and 16 texture addressing unit (TA) ...yhym, mam nadzieję że wiesz, że TF=/=TMU.
    "Za to Xenos jest wspomagany przez 10MB bardzo szybkiej pamięci oraz oferuje teoretycznie wyższą wydajność shaderów. " Nie tylko, także bardzo szybki AA z pewnymi ograniczeniami (ze względu na rozmiar właśnie). I dodatkowo wspomaganie przy z-stencil i alpha blending dzięki unikalnej logice dołączonej do eDRAM. Za to Cell w PS3 pomaga... Morphological AA (MLAA), inna sprawa, że to intel wymyślił i nieźle śmiga na dwujajowych x86 więc na 3 jajowym Xenonie też pójdzie.


  45. @39 (autor: Sony Ericsson | data: 1/09/10 | godz.: 15:25)
    "w praktyce widać że oba układy dysponują podobną mocą, nawet z lekkim wskazaniem na układ Nvidii."

    Co za bzdura. Powszechnie wiadomo, ze o ile cpu w ps3 jest mocniejsze od tego w x360, to przewaga w gpu jest po stronie konsoli M$. Nawet fanboje Sony sie z tym nie kloca, ale przeciez Grave musi naprostowac rzeczywistosc, bo nie moze byc tak ze nvidia jest w czyms gorsza od ati/amd.

    http://www.pcvsconsole.com/...thread.php?tid=19237


  46. @Grave (autor: Mariusch1 | data: 1/09/10 | godz.: 15:26)
    Nie zaprzeczam temu co napisałeś. Aktualnie Apple ma CPU od Intela i tak tez zostanie. Ale GPU będzie inne i zostało to już potwierdzona przez Apple. Nie widziałem by Apple zapowiedziało coś z nowym GTX4xx a nadal są stare GTX2xx.
    Odnośnie PS4... Sony decyduje sam co da do środka a nie słucha ciebie. PowerVP może i jest skonstuowany specjalnie do konsol ale widocznie się nie opłaca co jest logiczne bo sony nieźle do swoich konsol dopłaca. Jest więc to bardzo prawdopodobne.
    Z M$ nic nie wiadomo GPU na pewno ale CPU wątię. może w jeszcze dalszym następcy X360 będzie CPU od AMD ale tym razem już o rdzeniu Bulldozer bo aktualny rdzeń... eee... kiepsko mi się widzi.
    Architektura X86 miała by duży sens. Większość gier jest tworzonych na 2 platformy. X86 i na konsole. Gdyby konsole bazowały na X86 to w grach nie było by większej różnicy czego efektem była by lepsza optymalizacja bo to co teraz jest to jakiś kompletny żal. X360 oraz PS3 które mają gorszą grafę niż mój HD4870... Podziękuję za taką konsolę. Ale fusion znów nie będzie takim dużym krokiem na przód z grafiką więc pytanie brzmi: "Czy im chodzi tylko o mniejszą kasę czy myślą również o lepszej grafie? A jeśli to drugie to czy idą w dobrym kierunku?"
    Nie podważaj newsa. W wszystkim jest trochę prawdy.


  47. ... (autor: Wujofefer | data: 1/09/10 | godz.: 15:36)
    No dobra tylko, że Nvidia siedzi w Apple już od dawna ale to AMD coraz częściej się w nich pojawia. Jedyna przeszkodą dla Radeonów jest brak rozwiązania typu Optimus. Nvidia jest w stanie wyłączyć całkowicie swój układ a AMD jeszcze nie... jeszcze, bo z pewnością z czasem pojawi się równie dobra technologia w Radeonach. Może z nadejściem serii 6xxx.

    Co do układów typu CPU i GPU w jednym. Jakoś nie wyobrażam sobie PS4 z układem ARM i Fermim. ARMy sa dobre w urządzeniach mobilnych, mają tam rewelacyjny stosunek wydajności do pobieranego prądu ale w urządzeniach stacjonarnych gdzie non stop mamy dostęp do prądu a nie tylko przez baterię ARMy przegrywają z x86 i PowerPC.
    Następcy Xboxa360 i PlayStation 3 wg. mnie powinny mieć CPU na bazie właśnie PowerPC natomiast układ graficzny powinni stworzyć spece od AMD (ATI) ponieważ oni nie maja manii wielkości jak inżynierowie Nvidii, której układy już od G80 miały ogromne rozmiary i cały czas rosły.
    Co do moich pobożnych życzeń to M$ raczej skorzysta z usług AMD ponieważ ich nie zawiedli natomiast Sony wg. krążących plotek w internecie, zleciła zaprojektowanie układu PowerVR . Co prawda firma jest znana bardziej z układów mobilnych dla smartphonów niż z dużych komputerowych kart graficznych jednak zrezygnowanie z usług Nvidii musiało być czym poważnym spowodowane.


  48. Promilus (autor: Grave | data: 1/09/10 | godz.: 15:43)
    W takim razie oświeć mnie ile TMU ma Xenos a ile RSX?

    Porónanie do HD 2900 jest jak najbardziej na miejscu, bo destkopowy HD 2900 wywodzi się właśnie z Xenosa tyle że ma 16 ROP zamiast 8, 64 SP zamiast 40 i 512bit szynę pamięci zamiast 128 bit etc

    Bonusem dla konsolowej wersji jest ów EDRAM, tego PC nie dostało, ale widocznie nie musiało skoro ATI (AMD) już 3 generacje jedzie bez tego osiągając ogromną wydajność.


  49. Papier wszystko przyjmie (autor: MacLeod | data: 1/09/10 | godz.: 15:46)
    A ekran jeszcze wiecej. Wszystkie "testy" nowych radeonkow to FAKE. ;)

  50. @MacLeod (autor: Mariusch1 | data: 1/09/10 | godz.: 15:50)
    Fake, nie Fake. Zauważył to PClab. Ale od zawsze było wiadome że nie należy patrzeć na takie coś tylko czekać do premiery.

  51. Oczywiscie ze fake. (autor: MacLeod | data: 1/09/10 | godz.: 15:53)
    Najpierw pokazaliby zdjecia pcb karty w 15 ujeciach. Trzeba byc mlotem zeby nie zobaczyc zwyklej amatorki... a jeszcze wiekszym zeby sie podniecac fakescreenem zrobionym przez innego mlota ;)))

  52. @up (autor: Mariusch1 | data: 1/09/10 | godz.: 15:57)
    Daj link. Nie pamiętam by był pokazywany PCB. Czyli według twojej teorii cały świat to młoty i tylko jeden na pclab nim nie jest bo to odkrył??

  53. wujofeder (autor: Krax | data: 1/09/10 | godz.: 16:09)
    wasze podejście jest zrozumiale gdyż admin usunął mojego posta:D:E
    co jeśli wszyscy źle odbieramy zmiany amd które wprowadza....?
    na prośbę administrator poprawiam się:D

    wszyscy podchodzimy do tego tak jaki intel to widzi.... supermobilny uklad+ mobilna grafika w jednym....
    a co jeśli amd myśli inaczej...jeżeli nasze myślenie na temat fuzion to błąd logiczny....pomyślcie 480sp?
    może to nie ma byc cpu+gpu? może to ma być ewolucja cpu...super wydajny układ.... może tu nie chodzi o grafikę a o moc obliczeniowa gpu... porostu apu będzie robić robotę cpu

    oni nie chcą małego cichego chłodnego procka do laptopów... tylko potwora z potężnym kopem....
    przecież wiecie jaka moc obliczeniowa maja grafiki....
    pomyślcie znika logo ati? Dlaczego akurat w tym momencie? Co im to dało? Gdyby nie to ludzie patrzyli by na to : procesor amd+z grafika od ati w jednym układzie… błąd! Taki sposób myślenia nie pozwala dostrzec potencjału jaki projekt posiada….

    komputer wykorzystujący moc obliczeniowa apu(zarówno tej płynącej z mocy procesora jak i gpu )+ dobra karta graficzna odpowiadająca za renderowanie grafiki…

    pytanie co zrobią programiści i jak rozwiązany zostanie software….


  54. @Grave (autor: Promilus | data: 1/09/10 | godz.: 16:11)
    Przewaga TF na TA daje tylko wyższy stopień filtracji w 1 cyklu, na TMU składają się TF i TA, może być więcej TF niż TA, ale nie może być więcej TMU niż TA. Więc RSX ma 8TMU z mniejszym spadkiem przy filtracji tekstur, natomiast Xenos ma ich 16.
    "bo destkopowy HD 2900 wywodzi się właśnie z Xenosa " Gówno prawda. Xenos wywodzi się od R5xx, tylko przemodelowali mu shadery na zunifikowane i wzbogacili o współpracę z eDRAM oraz dali tesselator (żebyś nie pyszczył - nie taki jak w R600 wzwyż). Jeśli Xenos dał początek R600 to w takim wypadku fermi wywodzi się bezpośrednio od G80. Ma inną liczbę ROP, TMU, tą samą magistralę pamięci i również skalarne jednostki cuda... no co? może nieprawda?
    "3 generacje jedzie bez tego osiągając"
    Idiotyzm. Sprawdź sobie instruction set dla R600, RV770 i Cypressa a potem pierdol jak to 'ta sama architektura'. Kurna ludzie... to że widzicie te same bloczki w różnych konfiguracjach nie znaczy, że to jest ta sama architektura układu!


  55. @ Grave (autor: Zbyszek.J | data: 1/09/10 | godz.: 16:19)
    źródeł jest tak wiele, że nie sposób je podać. News jest połączeniem szeregu informacji, spekulacji i komentarzy z ostatnich kilkunastu miesięcy z całej sieci.

    Nintendo: http://gonintendo.com/viewstory.php?id=108637

    Ponadto w sieci można znaleźć szereg przypuszczeń o tym, że w następnym Xbox'ie raczej na pewno będzie coś od AMD (choć może to być tylko samo GPU). Wiadomo również, że po wpadce z drogim w produkcji PS3 Sony weźmie pod uwagę rachunek ekonomiczny przy pracach nad PS4, a zastosowanie układu CPU + GPU pozwoliłoby znacznie obniżyć koszty. Według mnie w PS4 zobaczymy jednak coś od innego producenta, raczej na pewno nie będzie to AMD Fusion. Co innego Xbox i Wii...
    Kilka razy też natknąłem się na wypowiedzi (często nieoficjalne) i komentarze osób z branży, mówiące, że po tym jak konsole znacznie "oddaliły się" (przepraszam ale muszę użyć tego laickiego określenia) na poziomie platformy i zgodności sprzętowej od komputerów PC teraz nadejdzie tendencja odwrotna - unifikacji rozwiązań, wywołana miedzy innymi rachunkiem ekonomicznym (wpływ kryzysu). Wreszcie - producenci gier raczej woleliby tworzyć pod jedną platformę, zamiast kilka odrębnych. Nie wiem czemu się dziwisz możliwości pojawienia się x86 w konsolach - przecież sam wielki Intel chce wepchać x86 gdzie tylko się da... chociaż jak wiadomo x86 to patologia tej gałęzi techniki.

    Oczywiście, news jest jedynie zbieraniną spekulacji i tylko tak należy go traktować... Może też jest trochę źle napisany. Nie mniej wyraża jakiś trend - w końcu przecież wiadomo nie od dziś, że GPGPU to przyszłość, natomiast integracja CPU + GPU (APU) w jednym układzie, jakby powiedział morgi, to "taniość", a co za tym idzie jest to łakomy kąsek na dzisiejsze czasy.


  56. Zbyszek (autor: Grave | data: 1/09/10 | godz.: 16:42)
    Fusion jako sama koncepcja - ok. Ale Fusion od AMD - wątpię.

    AMD dysponuje słabym CPU, dwa że jak na razie ciągle się miota z pierwszym Fusion i nic poza zapowiedziami i prezentacjami w PP z tego nie wychodzi.

    Do konsol może nadałaby się kolejna generacja Fusion z buldozerem i IGP serii HD 7xxx wykonana w calości w procesie 28 lub 22nm.

    Ale na razie AMD ma ogromne problemy z wypuszczeniem pierwszej generacji swojego sztandardowego projektu nie mówiąc już o przyszłych.

    Jak przypuszczam o CPU Sony czy MS ponownie zwrócą się do IBM i tak do PS4 czy kolejnego XBOX-a trafi jakaś mutacja Power 7 + GPU najnowszej generacji (produkcji AMD w konsoli MS, natomiast w PS4 zdaje się że Power VR chociaż to nieprawdopodobne....)


  57. Ktos tu sie irytuje (autor: morgi | data: 1/09/10 | godz.: 16:43)
    r600 to samo co rv670, rebuild to RV770 oparty z grubsza o r600, a cypress i jego nastepca to minor improvements, czyli z grubsza to samo co rv770.

  58. @morgi (autor: Promilus | data: 1/09/10 | godz.: 16:49)
    Tak jak Sandy bridge a Pentium pro...

  59. @morgi (autor: Mariusch1 | data: 1/09/10 | godz.: 16:52)
    Nie rozumiem sensu tego co piszesz. Co z tego że każda z tych architektur jest oparta na swoim poprzedniku?? Lepsze jest to niż to co Nvidia zrobiła ze tylko nazwę zmieniła a wydajność i wszystko inne to samo.
    Przypuszczam że to samo powiesz o HD6xxx które są rozwinięciem poprzedniej architektury ale jednak posiadają one coś nowego.
    Przy okazji twoja wiadomość jest nie na temat.


  60. @Mariusch1 (autor: rainy | data: 1/09/10 | godz.: 16:57)
    Mogę Cię pocieszyć: tego co pisze morgi, nikt nie rozumie (zapewne do zrozumienia, jest potrzebna odpowiednia kombinacja prochów i trawki).

  61. @rainy (autor: Mariusch1 | data: 1/09/10 | godz.: 17:04)
    Myślmy bardziej jak informatycy. Do tego potrzeba odpowiedniego klucza by móc to rozszyfrować.
    Przy okazji mamy wśród nas jakiegoś kryptografa??

    A na poważnie zaraz te komentarze znikną.


  62. nie ma szans na x86 w konsoli Sony (autor: RusH | data: 1/09/10 | godz.: 17:05)
    Sony nie lubi standardow, chyba ze samo je tworzy (umd/stick/beta)

  63. @morgi (autor: trepcia | data: 1/09/10 | godz.: 17:27)
    Patrząc na to, co krąży po sieci i to, co kiedyś powiedziałem Promilus o możliwych zmianach w hd6xxx względem hd5xxx to Promilus jest najbliżej prawdy. I to On, w przeciwieństwie do Ciebie, wie coś więcej niż to co się da przeczytać na pudełkach.

  64. @morgi (autor: bananowy song | data: 1/09/10 | godz.: 18:30)
    daj namiary na dealera, tez chcę mieć taki odlot...

  65. Promilus (autor: morgi | data: 1/09/10 | godz.: 19:30)
    Cale Core bazuje na potedze Intela, to nie tylko architektura, to najlepsza inzynieria i proces w chipach, to takze najbardziej zaawansowane technologie w danym czasie. Skoro minimalni chca isc sciezka wysokich zegarow prosze bardzo, z niecierpliwoscia zobacze ich wersje Netbursta, bo to architektura w koncu ciagle bardzo dobra, choc trudna w wykonaniu.
    trepcia
    Na niektorych pudelkach jest dx11, ale ciezko w to uwierzyc widzac to w akcji.


  66. @morgi (autor: trepcia | data: 1/09/10 | godz.: 19:41)
    Czytajac Ciebie widzę tylko jeden wielki bełkot.

    Czytając Promilusa widzę wiedzę.


  67. @morgi (autor: Promilus | data: 1/09/10 | godz.: 20:03)
    blablablablablablablablabla = to ma tyle samo sensu co to co napisałeś #65

  68. @promilus (autor: trepcia | data: 1/09/10 | godz.: 20:14)
    Zapomniałeś jeszcze o blablabla.

  69. .up (autor: Marek1981 | data: 1/09/10 | godz.: 21:00)
    Jak pisać, że wydajność 55xx w dx11 jest słaba to co dopiero 8800 w dx10??

  70. @up: oj wcale nie taka slaba (autor: cichy202 | data: 1/09/10 | godz.: 22:20)
    bo moj stary 8800GTS 640 do momentu zgonu w grudniu ciagnal wszystkie gry w high detalach i aa w 1280x1024. Architektura G80 to byla najbardziej udana architektura nVidii, pozniejszy G92 to byl krok w tyl, a seria 200 to byl po prostu dopakowany G80.

  71. @cichy202 (autor: Wujofefer | data: 1/09/10 | godz.: 22:39)
    Tzn. G92 nie był wcale zły tylko nvidia cały czas go odświeżała i dlatego wiele osób krzywo na karty z tym układem patrzy.
    W swoim czasie był niewiele wolniejszy od GF8800GTX (patrz GT 512MB) a nawet wyprzedzał go w niektórych grach (GTS 512MB).
    Ja mam GF8800GTS (320MB) i jestem zadowolony tylko Nvidia zaliczyła wpadkę bo w tych układach nie ma pełnego wsparcia dla dekodowania obrazu HD w filmach przez co procek musi to obliczać (obciążenie na poziomie ponad 70%) a że nie jest najszybszy (C2D e6300) więc filmy się tną :/.
    Co do gier nawet teraz byłem w stanie pograć w Mass Effecta 2 z max detalami w 1280 na 1024 a i StarCraft 2 na medium/high ładnie działa tylko ramu na grafie mam mało i to trochę spowalnia.
    Dopiero teraz po ponad 3 latach zmieniam grafę na Radka 4850 i mam nadzieje że tutaj nie uświadczę takich przycięć.
    Co do DX10 to był to zbyt mały krok w ewolucji grafiki a może zbyt mało doceniony i zbyt rzadko wykorzystywany. Standard ten był tylko przejściowym między popularnym do dziś DX9c a nowoczesnym i przyszłościowym DX11. O ile DX10 wypromowała Nvidia (a przynajmniej się starała) o tyle DX11 najmocniej wspiera ATI(AMD).


  72. Promilus (autor: morgi | data: 2/09/10 | godz.: 10:20)
    Dziekuje za brak kontrargumentu ergo tak zwykle sie dzieje.

  73. @morgi (autor: Promilus | data: 2/09/10 | godz.: 10:26)
    Wiesz dlaczego dzwon bije? Bo próżny... jak i twoje wypociny. Dużo hałasu, mało konkretów.

  74. @morguś (autor: Sony Ericsson | data: 2/09/10 | godz.: 11:46)
    nie uzywaj wyrazow, ktorych znaczenia nie rozumiesz.

  75. @marginalny (autor: trepcia | data: 2/09/10 | godz.: 14:32)
    Blablabla. Kontrargument na poziomie Twoich argumentów, a poza tym to blablablabla.

  76. @trepcia (autor: rainy | data: 2/09/10 | godz.: 14:37)
    Nie wiem czy się zgodzisz ale precyzyjniej moim zdaniem, morginalny.

  77. @morgi powtarzasz sie (autor: ditomek | data: 2/09/10 | godz.: 18:55)
    bez przerwy piejesz w kierunku technologicznej potęgi intela. Widać przy tym ze od technologii bardziej interesują cię nowe grypsy wychwalające Intela. Zacznij w końcu uzupełniać wiedzę bo dyskusja z Tobą to zabawa z pieciolatkiem. W dzisiejszych czasach nowa konstrukcja to rzadkość. Każda generacja procesorów czerpie z poprzedniej. NIe tylko u AMD/ATI ale także (a moze przede wszystkim) u intela. JAk sie okazało rozwiazania zaproponowane w PIII były tak dobre ze są obecne po dzień dzisiejszy. Raz intel chciał zrobić coś od nowa i sie skończyło jak skończyło - NetBurst. Tak śmiejesz sie z konkurencji. Jakoś nie pamiętam abyś pisał o NetBurst jako wpadce Intela używając podobnych słów jak do konkurencji. A ta jest bardziej zasłużona na polu x86 niż mógłbyś kiedykolwiek przypuszczać.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.