Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2020
Środa 13 czerwca 2012 
    

Trinity ze współdzieloną pamięcią dla CPU i GPU, czyli prawdziwy Fusion


Autor: Wedelek | 14:04
(18)
APU Trinity to kolejny krok jaki AMD poczyniło w swojej strategii. Jej zwieńczeniem ma być w pełni heterogeniczny procesor, w którym granice pomiędzy CPU a GPU mają całkowicie zniknąć. Pierwszym APU, który ma tego dokonać będzie zapowiedziany na 2013 rok Kaveri, wykonany w 28nm procesie produkcyjnym. Trafią do niego rdzenie Steamroller (ulepszony Piledriver) oraz IGP na bazie architektury GCN (Radeony od serii HD 7700), a oba te elementy połączy współdzielona pamięć podręczna, najprawdopodobniej trzeciego poziomu.

W ten sposób zarówno CPU jak i GPU będą mieć dostęp do tych samych danych, a niemal wszystkie programy mają realizować ideę GPGPU. Sam producent wypowiada się z dużym entuzjazmem o swoich przyszłych układach, które mają ponoć zrewolucjonizować rynek.

Kaveri będą również pierwszymi APU, w których nie zostanie wykorzystana technologia SOI. Jej idea polega na zastosowaniu dodatkowej warstwy izolującej, dzięki czemu następuje zmniejszenie upływów prądu z tranzystorów, a w konsekwencji spadek zużycia energii przez układ. Wadą jest natomiast większe skomplikowanie oraz wzrost kosztu produkcji procesorów.

Swoją drogą szlakiem obranym przez AMD ma zamiar podążać również Intel, którego Haswell dostanie IGP z 40 jednostkami wykonawczymi i 64MB pamięci podręcznej oraz kontroler pamięci RAM typu DDR4.




 

    
K O M E N T A R Z E
    

  1. czy przypadkiem (autor: Markizy | data: 13/06/12 | godz.: 14:14)
    pamięć podręczna o wielkości 64MB to nie jest sporo za dużo na dzisiejsze możliwości i nadchodzące? Chyba żeby zastosować podrasowaną jedną kostkę pamięci RAM na zewnątrz.

  2. markizy (autor: Aamitoza | data: 13/06/12 | godz.: 14:29)
    eDram. - 64MB Cache L4 w postaci eDramu. Nie mniej i tak będzie to dobre pół miliarda tranzystorów.

  3. Markizy niekoniecznie jakiś DDR (autor: Sławekpl | data: 13/06/12 | godz.: 14:36)
    prędzej bym się tam spodziewał jakiejś kostki bazującej na czymś od Rambusa, w końcu AMD porozumiało się z nimi już jakiś czas temu
    64MB to bardzo mało dla grafiki (zadań graficznych), która ma mieć również dostęp do tej pamięci


  4. sławek (autor: Aamitoza | data: 13/06/12 | godz.: 14:51)
    ale tutaj ten edram będzie po prostu szybkim buforem pamięci. Tak jk to będzie miało miejsce w IBM'owym durango do xboxa.

  5. Aamitoza masz rację, mogą tą drogą też iść (autor: Sławekpl | data: 13/06/12 | godz.: 15:05)
    tak czy siak jeszcze im jest potrzebny lepszy moduł preselekcji,
    sam jestem ciekaw na ile im się uda zbliżyć do konkurenta :)
    choć trochę mnie niepokoi rezygnacja z SOI zwłaszcza, że zapowiada się na znacznie więcej tranzystorów niż w Trinity, od kolejnej generacji oczekiwałbym zmniejszenia TDP a nie podobnych wartości co obecnie


  6. ale (autor: Markizy | data: 13/06/12 | godz.: 16:02)
    nie zauważyliście że 64MB chce wykorzystać Intel a nie AMD ?

  7. Markizy teraz Wedelek będzie mógł się z nas pośmiać :))) (autor: Sławekpl | data: 13/06/12 | godz.: 16:08)
    gdyby nie mój trzeci koment to na upartego piąty do chipzilli też pasuje ;)
    dodatkowa kość w prockach Intela czyli sklejka wcale by mnie nie zaskoczyła, nie byłby to pierwszy raz


  8. ani to do grania, ani do pracy (autor: Sony Vaio Return | data: 13/06/12 | godz.: 16:43)
    Intel w każdym zastosowaniu ma lepszą ofertę. Jednym słowem , kolejna bida od amd.

  9. ile to juz lat (autor: Krax | data: 13/06/12 | godz.: 16:55)
    w plecy za ibm?

  10. SONY (autor: Aamitoza | data: 13/06/12 | godz.: 17:28)
    a co intel ma do grania? ;)

  11. @10 (autor: quadcore | data: 13/06/12 | godz.: 17:38)
    integre na której zagrasz sobie w pasjansa :D

  12. quadcore (autor: Markizy | data: 13/06/12 | godz.: 18:55)
    http://www.youtube.com/watch?v=wgM0yz9BwkQ
    zgodnie z pierwszą wypowiedzią ;)


  13. Hahaha (autor: quadcore | data: 13/06/12 | godz.: 20:09)
    "Grałem w fascynującą ludzką grę PASJANSA"
    :)))


  14. ........ (autor: Marek1981 | data: 13/06/12 | godz.: 23:11)
    AMD może namieszać z tym rozwiązaniem, Wielkość pamięci nie jest wyznacznikiem a sposób jej eksploatowania.

    Obecne rozwiązania dodatkowego GPU wymuszają dużą ilość pamięci na pokładzie by zminimalizować straty czasowe w dostępie do informacji.


  15. prawdziwy eDRAM jest drogi - technologia (autor: pandy | data: 13/06/12 | godz.: 23:39)
    ta niestety rozni sie od technologi typowo uzywanych przy tworzeniu CPU - plusem zas bedzie szerokosc magistrali ktora w wypadku prawdziwych eDRAM moze byc szerokosci np 2048 bitow.

  16. @Aamitoza (autor: Dzban | data: 14/06/12 | godz.: 12:13)
    Nie musi to być wcale Edram. Intel planuje chip stackowany. Na oddzielnej warstwie ma się zmieścić spory bufor i do tego będzie miał lepszą wydajność niż DDR 3 lub 4.

  17. historia zatoczy koło (autor: lukii | data: 14/06/12 | godz.: 15:10)
    Za dawnych czasów karta grafiki służyła tylko do wyświetlania obrazu, wszystko robił procesor, teraz też wszystko bedzie robił procesor (APU), ciekawy jestem czy za X lat do tych procesorów tak jak dawniej zacznie się dostawiać zewnętrzene karty grafiki ?

  18. za jakis czas (autor: RusH | data: 14/06/12 | godz.: 17:20)
    moze dozyjemy czasow gdy plyta glowna bedzie miec 10 uniwersalnych zlacz w ktore mozna wtykac karty rozszerzen badz "uniwersalne moduly obliczeniowe" :)

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.