Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2021
Poniedziałek 29 kwietnia 2013 
    

Sony stawia na wykorzystanie potencjału GPGPU w PlayStation 4


Autor: Wedelek | 07:23
(31)
Już od dłuższego czasu wiemy, że PlayStation 4 będzie bazować na wykonanym przez AMD układzie APU, który będzie łączyć w sobie osiem rdzeni x86 Jaguar, pracujących z zegarem 1,8 GHz, 256-bitowy kontroler pamięci typu GDDR5 połączony z 8GB współdzielonej pamięci RAM oraz IGP z rodziny Radeon, którego GPU zbudowany jest z 18 jednostek CU (Compute Units), a więc 1152 procesorów strumieniowych. Wydajność rdzenia graficznego w obliczeniach pojedynczej precyzji wyniesie 1,84 TFLOPSa i co ważne ma on więcej jednostek wykonawczych niż Radeon HD 7850, który ma zaledwie 16 bloków CU.

Niedawno Sony dorzuciło kolejną garść informacji, z której wynika, że deweloperzy będą mieli pełną swobodę w zarządzaniu mocą APU, zarówno podczas tworzenia gier jak i aplikacji, a co za tym idzie będą mogli korzystać w pełni z zalet technologii GPGPU – obliczenia matematyczne wykonywane z wykorzystaniem GPU, a nie tylko CPU. W wywiadzie dla portalu Gamasutra, Mark Cerny z Sony podkreślił, że dużą zaletą APU montowanego w PlayStation 4 jest fakt, że tak CPU jak i GPU mogą korzystać z zasobów sporej wielkości pamięci podręcznej typu GDDR5, która co prawda jest osobnym elementem i znajduje się poza obudową procesora, ale dzięki interfejsowi 256bit dostęp do niej jest bardzo szybki, o czym świadczy przepustowość całego podsystemu pamięci, wynosząca 176GB/s.

Na tym jednak nie koniec, bo Sony skłoniło AMD do przemodelowania architektury GCN, tak by można było w tym samym czasie wykonać więcej operacji. Oryginalnie GPU na bazie nowej architektury koncernu z Sunnyvale jest w stanie przetwarzać jednocześnie grafikę i prowadzić obliczenia matematyczne na danych pochodzących z dwóch różnych źródeł. Sony zdecydowało jednak, że limit ten jest zbyt mały, więc podniesiono go do 64. Dodatkowo wyniki obliczeń, oraz pobrane wcześniej dane mogą być przechowywane we współdzielonej pamięci i przesyłane na żądanie tak CPU jak i GPU, bez konieczności przerywania aktualnie wykonywanych zadań, co pozwoli szybciej wykonywać niezależne ciągi instrukcji.

Zdaniem Marka Cernego w niektórych tytułach niezwykle mocno eksploatowany CPU nie nadąża z obliczeniami niektórych efektów, a przecież część obliczeń mógłby wykonywać „leniuchujący” w tym czasie GPU. Tak właśnie będzie w PlayStation 4, w którym Sony stawia na technologię GPGPU.


 

    
K O M E N T A R Z E
    

  1. I dobrze (autor: mbe | data: 29/04/13 | godz.: 07:43)
    bedzie postep w fizyce...

  2. Sony skłoniło AMD do przemodelowania architektury GCN (autor: RusH | data: 29/04/13 | godz.: 08:22)
    AGHAHAHAhahaha ale zart

  3. @RusH (autor: Promilus | data: 29/04/13 | godz.: 09:56)
    Nie tyle chodzi o przemodelowanie GCN co "wzmocnienie" ACE. Stąd właśnie do 64 jednocześnie wykonywanych zadań. Nie ma to samo w sobie wpływu na wydajność ogólną, natomiast z całą pewnością może wpływać na wykorzystanie GPU do czegoś więcej niż generowania grafiki i obliczeń fizyki.

  4. Popieram Rush-a (autor: franc# | data: 29/04/13 | godz.: 10:20)
    Sony wie na temat dewelopmentu dużo mniej niz nawet ja :P - przykładem było użycie Cell-a w ps3, który rozwalił developerów na kolana. A teraz oni "stawiają" na gpgpu - śmieszniutka firma. Zachowują się jak by u konkurencji gpgpu nie istaniało, a oni sami odkryli amerike. Poczekajmy na x-klocka... Tam to dopiero zmodyfikowali gpu.

  5. niech oni już lepiej nic nie modyfikują (autor: bajbusek | data: 29/04/13 | godz.: 10:25)
    bo PS4 nadal nie będzie odtwarzać MKV albo napisów ... a gry będą wyglądać jak na moim HTPC w 720p ... wiem, że za 2K nie da się zbudować mega maszyny skoro tyle płacę za karty graficzne do peceta ... ale jak widzą specyfikację nowych konsol to peceta da się złożyć za 1500 zeta w tej konfiguracji

  6. jak PS4 będzie tani (autor: jabolmax | data: 29/04/13 | godz.: 11:20)
    to znowu będą go kupować na farmy obliczeniowe :D

  7. @4, 5 (autor: mbe | data: 29/04/13 | godz.: 11:21)
    Takich dyrdymalow juz dawno nie czytalem...

  8. alez (autor: angh | data: 29/04/13 | godz.: 12:08)
    mamy tu expertow, dziwne, ze zarabiajac miliony dzieki swojej wiedzy spedzaja czas na tp i pisza glupotki.

    ps4 kupuje w dniu premiery. Swietny, przemyslany sprzet, zrobiony pod developerow - jezeli na ps3 dostajemy takie cuda jak ostatnio (tlou, beyond), to juz sie ciesze na mysl o tym, co te studia wymysla na ps4;)


  9. bajbusek (autor: piobzo | data: 29/04/13 | godz.: 12:16)
    pod warunkiem, że dostaniesz 8 rdzeniowe apu z gddr5... bo jak nie, to składając na fx(8 rdzeniowy procesor) wątpię abyś się zamknął w 1500 jak piszesz... biorąc pod uwagę, że gpu jest tam na poziomie 7790 który kosztuje gdzieś koło 500 parę złotych... w detalu to chyba nie realne jest, z bluray, dyskiem twardym 8 GB pamięci...
    wydaje się ale nawet z najtańszych podzespołów ciężko kupić całego peceta z obudową, zasilaczem, napędem, dyskiem, itd...


  10. oj znawcy znawcy (autor: acd | data: 29/04/13 | godz.: 13:26)
    każdy powinien pracować jako CEO w Sony...

  11. :-) (autor: ray | data: 29/04/13 | godz.: 15:39)
    teraz tylko franc i bajbusek muszą się dogadać kto z nich zostanie szefem Sony a kto szefem AMD. i zrobią nam taaaaaki sprzęt, że rzucą na kolana cały świat. Baa, całą galaktykę! Już nie mogę się doczekać :D

  12. @angh (autor: franc# | data: 29/04/13 | godz.: 15:51)
    W dniu premiery nie kupisz, bo takich jak Ty i ja olewają. Najpierw japońce, później US, a na końcu biali murzyni - jeszcze się nie nauczyłeś? A teraz powiedz proszę - ekspercie - czemu to ps4 jest takie super przemyślane pod developerów, co? Bo ma architecture PC, tak? To czemu fanboye ps tak na nią pluli, ale teraz to taka przemyślana architektura? Ano, bo nawet jak by tam włożyli sun sparc-a, to też by była najlepsza architektura. Tak to z fanboywami jest. Ojojoj, nie życze ps4 porażki, bo wtedy to będzie koniec rynku konsol, ale niech oni lepiej sie nie bawią w znawców rynku, tak jak to było z procesorkiem Cell, który był taki rewolucyjny, a mocą połykał x-klocka na śniadanie. A sprzedaż ps3 nadal goni tego burakowatego x-klocka i dogonić nie może.

  13. widze ze znawcy nazywajacy mnie znawca (autor: RusH | data: 29/04/13 | godz.: 18:38)
    nie wiedza ze Sony od 2 lat nie przynosi ZADNEGO zysku
    w tamtym roku chyba doplacili do interesu 6 miliardow


  14. @12 (autor: mbe | data: 29/04/13 | godz.: 18:50)
    W zeszlym roku PS3 przegonil xklocka.

    Cell jako CPU byl dobry tyle ze GPU bylo slaby.


  15. 14. (autor: piobzo | data: 29/04/13 | godz.: 19:37)
    no bo niema jak włożyć typowy procek pod centra obliczeniowe do konsoli a zapomnieć o dobrej karcie...

  16. @RusH (autor: Promilus | data: 29/04/13 | godz.: 20:32)
    Tylko jak to ma się do Twojego komentarza? RSX miał bardzo mocne modyfikacje i do tej pory nv nie wypuściło zupełnie nic co mogłoby tego typu modyfikacje zawierać - czy to takie nierealne, by Sony mogło mieć wpływ na wygląd igp w PS4?

  17. Hmm (autor: Jarek84 | data: 29/04/13 | godz.: 21:19)
    czyli ida w dobra strone - parzac jak GCN bryluje w gpgpu to szkoda byloby tego potencjalu nie wykorzystac...

  18. @12 (autor: angh | data: 30/04/13 | godz.: 10:24)
    Kupie w dniu premiery na naszym kontynencie. Tego chyba nie trzeba nikomu literowac. Rozwazam zakup w stanach, ale zdecyduje dopiero po ujawnieniu daty premiery w poszczegolnych regionach.

  19. @12 (autor: angh | data: 30/04/13 | godz.: 10:28)
    Jezeli chodzi o moc cella, to mnie specjalnie nie interesuje, co i jak polyka. Interesuje mnie to, ze mam na ps3 mase swietnych gier, ktore wygladaja bardzo dobrze, a w ktore nie pogram gdzie indziej. Nie musze sie brandzlowac moca procesora itp. Wystarczy, ze pogram w tales of graces, uncharted, infamous. Wyglada niezle i gra sie dobrze. W Tomb Raidera, UFO, Total war gram na peceta i tez wyglada tam dobrze. Win win.

  20. @angh/19 (autor: franc# | data: 30/04/13 | godz.: 14:02)
    no właśnie dotarliśmy do sedna: chrzanić archi-tekturke, bo może ona nie mieć znaczenia. I właśnie mi chodzi o to, żeby Sony się tak nie podniecało jaka to super architektura, tylko niech się koncentrują na dobrych grach. Platforma jest taka, że udźwignie na pewno najbardziej zakręcone pomysły developerów. Jedyna reklama, która będzie miała na mnie wpływ, to nie ta o teraflopach i cylkach gpu, a ta w której pokażą bardzo grywalne tytuły, wnoszące powiew świeżości do tematu gier. Czirs.

  21. ech (autor: angh | data: 30/04/13 | godz.: 14:22)
    reklama to nie jest cos racjonalnego. Dzisiaj producent musi wykorzystywac kazda mozliwosc, zeby promowac urzadzenie, samo pokazywanie gier nie wystarczy. Mi to nie przeszkadza, bo wiem, jakie sa moje potrzeby, i kupuje to, co mi pasuje. Podoba mi sie techniczna specyfikacja i mysle, ze przejscie na x86 i uzycie gddr pozwoli na wiecej i poprawi zdrowie developerom. A jak bedzie, zobaczymy. Maja u mnie kredyt zaufania dzieki grom na ps3.

  22. poza tym (autor: angh | data: 30/04/13 | godz.: 14:23)
    ja nie dotarlem do sedna - ja w pierwszym poscie tez o tym mowilem;)

  23. franc# nie obraz sie (autor: pandy | data: 4/05/13 | godz.: 00:49)
    ale twoja wiedza o GPGPU i CELL ogranicza sie do artykulow w co najwyzej chipie - jesli programowanie CELL jest trudne (choc wlascwie jest po prostu pelnoprawny procesor z pewnymi specyficznymi wlasciwosciami) to dopiero programowanie GPU jest zlozone i malo kto sobie z tym radzi - wystarczy prownac jak wiele aplikacji uzywac GPU i do czego - generalnie CELL oferowal programistom znacznie wiecej swobody niz GPU.
    Dzieki CELL Sony ma niezle portfolio algorytmow rownoleglych i mysle ze bedzie z nich korzystac w PS4.

    Problem PS3 nie jest moc obliczeniowa CELL ale malo pamieci i ograniczenia architektury systemu ktore powoduja ze w specyficznych sytuacjach wydajnosc magistrali to 16MB/s.
    Tyle tytulem kometarza...


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.