Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2020
Czwartek 7 stycznia 2016 
    

Więcej szczegółów na temat GPU Polaris


Autor: Giray | źródło: overclockers.ru | 12:28
(37)
W ostatni dzień zeszłego roku dowiedzieliśmy się o nowej architekturze procesorów graficznych AMD noszących nazwę kodową Polaris. Jak podaje serwis Videocardz, Polaris będzie oparty na czwartej generacji architektury GCN, która zadebiutowała w 2011 roku w GPU Tahiti. Na półkach sklepowych karty z nowym układem graficznym AMD powinniśmy zobaczyć mniej więcej w połowie tego roku.



Według oficjalnych slajdów Polaris ma przynieść "historyczny przyrost wydajności na wat" w porównaniu do wcześniejszych kart z serii Radeon. Nie powinno to akurat być zbyt trudne, gdyż karty graficzne AMD nigdy nie były mistrzami w oszczędzaniu energii. Ma to być jednak dopiero początek, gdyż "czerwoni" planują dalszą poprawę efektywności energetycznej swoich GPU w przyszłości. Nowe układy mają posiadać nowe bloki logiczne takie jak przetwarzania poleceń i geometrii, rdzeń multimedialny czy też udoskonalony kontroler pamięci, posiadający cache L2 oraz pozwalający na kompresję danych.







Procesor graficzny oczywiście dostanie wsparcie HDMI 2.0a, DisplayPort 1.3 i wideo 4K w formacie h.265. Nowe GPU ma być produkowane w technologii 16 nm FinFET, czyli przez TMSC. Biorąc pod uwagę, że ta tajwańska firma ma już nieźle opanowaną tę litografię, są szanse, że ujrzymy nowe kary nieco wcześniej niż w połowie tego roku.





Konkurentem dla układów Polaris ma być architektura Pascal rozwijana przez Nvidię. Oba GPU przystosowane są do współpracy z pamięciami HBM drugiej generacji, więc na rynku kart graficznych w tym roku może być bardzo ciekawa sytuacja.

 

    
K O M E N T A R Z E
    

  1. Hmm (autor: loccothan | data: 7/01/16 | godz.: 14:00)
    "Konkurentem dla układów Polaris ma być architektura Pascal rozwijana przez nMilk"
    Już wiadomo że "Pascal" to unowocześniony Maxwell (tak bez Async-Shader)
    I będzie posiadał (na początku przynajmniej) GDDR5X !
    Dlatego nMilk milczy cały czas o Pascalu ;-)
    Nie dopchali się do HBM poprostu, cała produkcja idzie do AMD (konsole i PC)
    Tak będzie upd. Konsol niebawem z nowym APU HBM Polaris dla MS i Sony (VR)

    PS.
    Na 100% wiemy o Polaris bo AMD ujawniło technologię niedawno.
    Co do Pascala to jest w samochodach (wystarczy się przyjrzeć PCB)


  2. @loccothan: (autor: Kenjiro | data: 7/01/16 | godz.: 14:49)
    Co do konsol, to o ile będzie upgrade, to wyłącznie pod względem procesu produkcyjnego. Na 100% nie będzie aktualizacji konsol z nowym APU z mocniejszym GPU, bo to zbyt znaczące zmiany dla deweloperów, a tym bardziej dla klientów - to jest kwestia polityczna, na którą żaden producent konsol nie może sobie pozwolić, jeśli nie chce podciąć gałęzi, na której siedzi.
    VR zapewne będzie, ale to nie będzie upgrade konsoli, a odrębne urządzenie z własnym APU, do tego niemałe i z własnym zasilaniem.

    No i ostatnia szpila, Maxwell ma Async Shader, w różnych wątkach na sieci jest to całkiem dobrze wyjaśnione, choćby tu:
    https://www.reddit.com/..._it_true_nvidia_cant_do/


  3. ja bym polemizowal (autor: Giray | data: 7/01/16 | godz.: 14:58)
    czytajcie ze zrozumieniem wymagania sprzętowe VR - konsol to też dotyczy

  4. @loccothan (autor: Deathraw | data: 7/01/16 | godz.: 15:36)
    Masz jakieś źródło odnośnie hbm w konsolach?

    Masz jakieś informacje nt. tego co hamuje furyX2-hbm czy spory odrzut gpu?

    Co do samych HBM to póki co korzyści z tego nie ma specjalnych, a jedynie problem z zaspokojeniem popytu i problem małej pamięci jak na moc karty.


  5. @3. (autor: Kenjiro | data: 7/01/16 | godz.: 16:03)
    Giray, ale z czym konkretnie polemizujesz? Ze mną, z Loccothanem czy ze swoim artykułem? ;)

    VR będzie póki co tylko dla Sony, a przynajmniej tylko Sony ujawniło taką informację, a plotki donoszą, że będzie to odrębne urządzenie z własnym APU/GPU. Zresztą i tak soft musi być specjalnie dla VR napisany, więc odrębny sprzęt nie robi wielkiej różnicy dla dewelopera.


  6. polemizuję z @2 (autor: Giray | data: 7/01/16 | godz.: 17:43)
    Największym konkurentem konsol jest ?PC, jeżeli więc VR na PC będzie z rożnych przyczyn zauważalnie lepsze niż na konsolach (od których zresztą obecnie on się niezbyt różni) to wpłynie to negatywnie na sprzedaż tych ostatnich. Skoro VR na PC ma dość duże wymagania, to nawet przy uwzględnieniu pewnej specyfiki konsol będą musiały mieć one zbliżone możliwości, aby uzyskać podobne efekty.
    Bardzo możliwe, że te APU nad którymi obecnie pracuje AMD są przeznaczone do nowych wersji XO i PS4 z przyrostkiem VR.


  7. @loccothan (autor: ElFi | data: 7/01/16 | godz.: 17:56)
    "Nie dopchali się...." - ja myślę, że będzie tak: AMD będzie _MIAŁO_ HBM a nVidia będzie.... _SPRZEDAWAĆ_ GDDR5x - jak Ci się widzi ta różnica?

  8. @6. (autor: Kenjiro | data: 7/01/16 | godz.: 19:00)
    Zapominasz o tym, że rynek PC rządzi się zupełnie innymi prawami niż konsol, i to co ujdzie na rynku konsolowym, to nie ujdzie na rynku PC. Patrz choćby 30 fps czy niczym nieuzasadnione wyższe ceny gier. Robią, bo mogą, gdyż konsolowcy niestety i tak kupują taki kiepski produkt.
    Dlatego VR na PC musi mieć 90fps w wysokiej rozdzielczości, ale na konsolach może się okazać, że wcale niekoniecznie.

    Z drugiej zaś strony VR jeszcze przez długie lata będzie bajerem, który ma małe znaczenie ekonomiczne i z założenia ma się tylko dobrze prezentować w katalogu. Zanim VR się upowszechni na tyle, żeby mieć znaczący udział w torcie, to będzie już na rynku kolejna wersja konsol. Coś jak Kinect i PS Move - są, i co? I nic... nie grają żadnej większej roli poza marketingowym wpisem w katalogu produktów.

    No i zdecydowanie podważam stwierdzenie, że jakakolwiek lepszość produktu na PC będzie mieć wpływ na sprzedaż na konsolach. Gry na PC są generalnie lepsze niż wersje na konsolach, co im całkowicie nie przeszkadza się na konsolach doskonale sprzedawać. To samo jest ze sprzętem.


  9. teraz tylko czekać na sprzęt zgodny z HDMI 2.0a i DP 1.3 (autor: Sławekpl | data: 7/01/16 | godz.: 19:24)
    wreszcie powrót do sytuacji gdzie wpierw są GPU z nowymi złączami a później peryferia, ostatnie lata było odwrotnie
    nic nie podają o wsparciu dla VM9 hmm...


  10. @news (autor: Promilus | data: 7/01/16 | godz.: 20:08)
    Czyli nadal GCN, a tak wielu klakierów pisało, że AMD koniecznie musi coś nowego pokazać, a nie GCN, bo ten przestał się skalować.

  11. @Kenjiro (autor: Mariosti | data: 7/01/16 | godz.: 21:41)
    Update ps 4 i xbone do wersji ps4 vr i xbone vr posiadających faktycznie nowe APU w środku jest bardzo prawdopodobny. Do korzystania z VR i tak konieczna jest optymalizacja deweloperów i pod normalny tryb 2d i pod gogle vr, a mając do dyspozycji znacznie mocniejszy sprzęt kompatybilny binarnie ze wszystkim co chodzi na poprzednim APU taki development trybów VR do gier na konsole w ogóle stanie się możliwy. Aktualnie nie jest to możliwe.

  12. @up (autor: Pider | data: 7/01/16 | godz.: 21:47)
    bo przestał...

    Będzie dalej GCN z dużymi zmianami w rdzenie... ponad 50% shadera przebudują...


  13. @11 (autor: Kenjiro | data: 7/01/16 | godz.: 22:37)
    Nie, bo wtedy oznaczałoby istnienie dwóch różnych modeli konsol, które trzeba by jakoś rozróżniać. W efekcie miałbyś np. PS 4 i PS 4+. Jak myślisz, czy Sony już wystarczająco odbiło sobie projektowanie i wszystkie koszty początkowe, w końcu minęły dopiero 2 lata od wydania? Po drugie PS 4 musiałoby stanieć znacząco. Tak więc taki scenariusz oceniam na wysoce nieprawdopodobny.

    Za prawdopodobne uznaję wydanie dodatkowego sprzętu, który będzie robić za VR dla konsoli i będzie zawierać dodatkowe APU - taka opcja jest też powtarzana w wielu plotkach. Jest najprostsza, nie sprawia dodatkowych problemów i daje możliwość dodatkowego zarobku.

    Sam oceń co jest bardziej prawdopodobne...


  14. @Pider (autor: Promilus | data: 7/01/16 | godz.: 22:54)
    GCN: 1 command processor, 4 "shader engine", do kilkunastu CU, 64SP - taka jest mniej więcej struktura. Każdy shader engine to rasteryzator, bodajże każdy CU to tessellator. Dodatkowo command processor wspiera 8 ACE.
    GF100: 1 command processor, 4 GPC, 4SM(CU), 32SP
    GK104: 1 command processor, 4GPC, 2SMX (CU) dzielące się na 2 mniejsze jednostki (nienazwane), 192SP!
    (czyt. NV daje 6x więcej SP na SM, ale jednocześnie 2x mniej SM na GPC), dla GK114 1SMX to tylko 1,5SM z Fermi - okazało się, że skalowanie i efektywność energetyczna lepsza :)
    Dalej:
    GM200 - 1 command processor, 6GPC (tutaj widać dopiero wzrost - i tutaj jest też pierwsza przewaga nad produktami AMD, ale nie samym GCN), na każdy GPC są 4SMM (powrót do podziału z Fermi) z tym, że SMM się dzielą od razu na 4 jeszcze mniejsze grupy (ale większe niż SP), w każdym SMM bodajże 128SP
    Widać jak NV miota się szukając najlepszego rozwiązania? Najlepszej ilości SP per CU, najlepszej ilości CU per GPC. Najlepszej ilości GPC? Cały czas starają się adaptować do zmieniających się obciążeń dając na krótką metę najlepszą efektywność i wydajność. Ale ich na to stać, AMD nie. Dlatego AMD musi planować z wyprzedzeniem architekturę. I GCN taką jest. Jest uniwersalna i nie wymaga częstych diametralnych zmian. Zazwyczaj nie ustępuje dużo super optymalnym NV, a potrafi czasem do nich dobić jeśli nie przebić. Jeśli więc architektura, która sięga w początkach 2011r. jest w stanie na tyle się "skalować" żeby dotrzymać kroku tej co była w tym samym okresie 3x modyfikowana (znacząco) to chyba najlepszy dowód na długowieczność i możliwości skalowania GCN. W każdym razie nie spodziewałbym się wielkich zmian poniżej poziomu CU - już nad 64SP jest ciężko zapanować, NV tutaj tworzy zgrupowane po 32SP grupy żeby w ramach 1SMM polepszyć efektywność, ale dla AMD te 64SP nadal jest całkiem optymalną wartością. Podejrzewam, że jeśli będą duże zmiany to głównie w przypadku ilości GPC (i rasteryzatorów), ilości CU i lepszego wykorzystania ACE.


  15. @up oby nie wyszło jak zawsze, czyli (autor: raczek70 | data: 8/01/16 | godz.: 08:25)
    zysk głównie z przejścia na niższy proces technologiczny ( mniejszy pobór mocy, niższe temp. ) plus kilka nowości w złączach ( hdmi, dp ) i kosmetyczne zmiany w samej architekturze.
    Ciekawe, czy będzie przyrost min. +20% wydajności i -20% poboru prądu względem serii R300...
    I oczywiście w jakiej cenie to otrzymamy?.


  16. @14. (autor: Shamoth | data: 8/01/16 | godz.: 09:51)
    Pięknie to rozłożyłeś i ująłeś :)
    Dobitnie świadczy o tym że nV cały czas kombinuje jak wycisnąć najwyższą wydajność na chwilę obecną bez perspektywy na przyszłość czego o AMD powiedzieć nie można bo ci zawsze mocno do przodu z pomysłami. Niestety często się to na nich mściło bo nie potrafili przeforsować swoich rozwiązań żeby były wykorzystane w 100%, patrz chociażby teselacja kiedy była pierwszy raz zaimplementowana bodajże przez jeszcze przez ATI a spopularyzowała się i też chyba nie do końca dopiero niedawno.

    @Kenjiro
    Nie pamiętam dokładnie ale wydaje mi się ktoś z Sony gdzieś się wypowiadał że cykl życia konsol nie będzie wynosił 7 lat jak ostatnio tylko 3-4 lata.
    Mają wykorzystywać nowe zmodyfikowane APU z HBM.
    Koszty i utrudnienia dla developerów praktycznie żadne bo architektura programowo się nie zmieni sprzęt tylko mocniejszy i na ps4+ odpalisz wszystko z ps4.
    Także jest szansa że niedługo znowu czeka nas niewielki skok w jakości grafiki na konsolach i mam nadzieję że pc pójdzie w ślad za nimi.


  17. @16 (autor: Kenjiro | data: 8/01/16 | godz.: 10:32)
    Nie ktoś z Sony, tylko plotki takie krążą, w które nie wierzę, bo 3-4 lata to okres, w którym producent wychodzi na swoje i wdraża nowsze odsłony tego samego produktu. Nowsze, czyli pozwalające na obniżenie kosztów produkcji i ceny końcowej, ale sprzętowo zgodne (czyli o tej samej mocy i możliwościach).

    Oczywiście jak będzie, to się przekonamy, ale nie widzę przed 2019 nowej konsoli.


  18. Dobrze, że konsole mają po 8GB RAMu (autor: pwil2 | data: 8/01/16 | godz.: 10:53)
    bo dzięki temu będzie można w przyszłości produkować gry jednocześnie na obecną oraz +1 konsolę, obcinając detale i rozdzielczość. Myślę, że w przyszłości cenowo XO/PS4 zastąpią X360/PS3 (~500-600pln), ale będą nadal obsługiwały nowsze gry (720p@30fps/medium). W ten sposób 50mln PS4 i 50mln PS4+ da jedną wspólną platformę programową z rynkiem 100mln konsol.

  19. Kenjiro tak było dotychczas, ale to się zmieniło (autor: Sławekpl | data: 8/01/16 | godz.: 10:55)
    na wcześniejszych konsolach producent nie zarabiał na początku dokładając, teraz masz inną sytuację, nawet jakby sprzedawali po kosztach to i tak wychodzą do przodu dzięki wyższej cenie gier i co najważniejsze nie dokładają już do konsol, projektowanie hardware im odchodzi bo to jest pewnie po stronie AMD, a system powinien być kompatybilny z nową wersją
    mogą wymieniać konsole wcześniej, chodzi o coś innego, obawiają się reakcji tych co kupili obecne wersje,
    może do 4 lat nie skrócą ale w przyszłym roku spodziewałbym się nowej wersji, obecna przejdzie na nowy wymiar, zmniejszą ją i przecenią trochę (albo i nie), będą sprzedawać równocześnie dwie


  20. PS. (autor: Kenjiro | data: 8/01/16 | godz.: 11:00)
    Nie masz również racji, że to żaden koszt deweloperów. Nawet w najprostszym przypadku deweloper będzie musiał tworzyć dwie wersje gry dla dwóch wersji konsoli, jedną z lepszą grafiką lub wyższym fps, drugą z gorszym. Później przetestować obie wersje, wydać obie odrębnie, etc.
    Poza tym nie mógłby tworzyć (jak obecnie się często zdarza) pod fixed-fps, np. 30, no chyba że będzie się świadomie pozbawiać wykorzystania większych możliwości nowej konsoli.
    Po trzecie, jednym z założeń danego modelu konsoli jest ich pełna kompatybilność. Jeśli jej nie będzie, to będzie to duży krok ku problemom znanym z PC, które będą musieli rozwiązywać deweloperzy, a nie producent konsol.
    No i to, że na owym niepotwierdzonym PS4+ odpalisz wszystko z PS4 nie jest wcale takie pewne, a nawet jeśli będzie się dało, to różnice sprzętowe wywołają mnóstwo błędów i problemów, których teraz nie widać, bo sprzęt jest jeden. Pamiętaj, że deweloperzy stosują mnóstwo sztuczek opierając się na wielu niejawnie zebranych danych o sprzęcie i API, i każda zmiana tego ekosystemu może spowodować błędy.


  21. @Kenjiro (autor: Promilus | data: 8/01/16 | godz.: 15:43)
    Tak, ale dawniej wszystkie układy konsol były "szyte na zamówienie" praktycznie od podstaw. X360 miał rozbudowanego AVX (AVX128) którego nie miał żaden inny chip PPC. To była modyfikacja stricte na zamówienie MS. RSX z PS3 mapował rejestry do pamięci Cella by ten mógł współtworzyć scenę - również poziom niedostępny na G71 z którego RSX się zresztą wywodzi. Opracowanie takich dedykowanych rozwiązań kosztuje, bo to trzeba nie tylko nakreślić jaką to rolę spełnia, ale także zaprojektować całą logikę i zaimplementować w krzemie. Tymczasem Xbox One i PS4 bazują na układach zbudowanych z konsumenckich APU :) Dlatego względem "szytych na zamówienie" te klepane tanim kosztem APU zmniejszają też i obciążenia finansowe producentów konsol. Dzięki temu nie muszą pompować kupę kasy w napędzenie sprzedaży - zarabiają i na konsolach, i na usługach, i na grach. Finansowo to lepsze rozwiązanie niż dopłacanie do interesu przy premierze, a później walka exclusivami o zyski.

  22. @Promilus (autor: Deathraw | data: 8/01/16 | godz.: 17:14)
    A jak to się ma odnośnie wyciskania siódmych potów z architektury? Czy takie konsumenckie APU nie będzie stanowić ograniczenia w tej kwestii?

    Co do g71 to słyszałem porównywanie RSX bardziej do nv40, czy słusznie?


  23. @up (autor: Promilus | data: 8/01/16 | godz.: 18:19)
    Oczywiście, że będzie. Natomiast obecnie wielkim ograniczeniem wydajności są blokady wynikające z zastosowanego API - tutaj MS ma DX12 dla Xbox One, a Sony zwyczajowo używa niskopoziomowych własnych API, chociaż możliwe, że ostatecznie zamkną się w Vulkanie żeby przyspieszyć opracowanie gier multiplatformowych. G70 vs RSX - 16ROP, 24TMU, 24PS, 8VS kontra 8ROP, 24TMU, 24PS, 8VS - tyle jeśli chodzi o zasoby. RSX jest wyżej taktowany, ale ... nie nadrobisz w żaden sposób mniejszej ilości ROP (i interfejsu pamięci). Innymi słowy względem możliwości szczytowych to jest układ gorszy niż 7800GTX. To jak udało się Sony zrobić fajne gry z udziałem tego układu jest całkiem proste - Cell przejął część efektów na siebie, a dodatkowo spece kombinowali jak tu zrobić efekt wyglądający tak samo, ale mniejszym kosztem obliczeniowym. Część efektów była "wypalona" czyli prerenderowana (innymi słowy efekty były obliczone na klastrach komputerowych i dodane jako gotowe do gry zamiast obliczane na bieżąco). Ostatecznie nexgeny też będą musiały się do takich sztuczek uciekać, bo zwyczajnie więcej nie można będzie wycisnąć. Już w momencie premiery wielu developerów trafiło na ścianę... W poprzedniej generacji sprawę ratował jeszcze Cell, tutaj już słabe rdzenie x86 nie zrobią różnicy.

  24. @Deathraw (autor: loccothan | data: 8/01/16 | godz.: 18:46)
    Jedyne co blokowało (czas przeszły) Fury to Stery.
    Crmisony te najnowsze 16.1
    -> http://support.amd.com/en-us/download
    Już zaczynaja pokazywać pazór !
    Na forum Guru3D mój "poczciwy" R280X ma +300 punktów w 3DMark 13
    Po sprawdzeniu Rainbow6 Siedge, SoM, MadMax i Grid Autosport jest spory przyrost FPS ;-)
    Najwięcej zyskują nowe Fiji co stery.


  25. @Up (autor: loccothan | data: 8/01/16 | godz.: 18:49)
    Co do reszty to mamy dopiero przecieki.
    Ale ponoć coś się do konsol szykuje, stawiam na 14nm + HBM i polaris :D


  26. @Up (autor: loccothan | data: 8/01/16 | godz.: 18:59)
    Co do GCN to Polaris jest czymś innym ->
    Obczajcie moją rozkminkę:

    Southern Islands (Thaiti)
    Sea Islands (Hawai)
    Volcanic Islands (Tonga i 295X)
    Pirate Islands (Fiji)
    I teraz
    Polaris -> lol
    Co wam tu nie pasuje?


  27. @ FACEPALM (autor: power | data: 8/01/16 | godz.: 20:11)
    Ludzie skonczcie powtarzac te debilizmy, jakoby producenci dokladali do konsol.

  28. @26 (autor: mcz | data: 8/01/16 | godz.: 20:15)
    Arctic islands (based on Polaris)

    :)


  29. @Locco (autor: Dather | data: 9/01/16 | godz.: 00:10)
    Dzięki ze napisałeś o nowych Crimisonach, a tak to dalej jechałbym na 15.12
    W sterach nie podkręcałem karty, ale za to w MSI Afterburner i "pogryzł" z nimi (pierwszy raz przytrafił mi się problem ze sterami AMD), bo wentylator nie pracował wg. profilu z MSI AB - w czasie grania w Lord Of The Fallen rdzeń osiągną 100 stopni a wentylator cyklicznie na sekundę włączał się z 0% na 100% i tak w kółko, (do 35 stopni karta chłodzona jest pasywnie) więc reinstall i od nowa profil w AB, teraz jest wszystko OK. Dobra koniec narzekań, włączyłem Shader Cache przez RadeonMod, jestem pozytywnie zaskoczony bo jako fan sagi Gothic, w G2 na Win7 miałem dropy,warpy i jeszcze cuda o których ciężko napisać. Teraz nie ma prawie żadnych przycinek a jak się jakiś pojawi to jest bardzo "łagodny" i trwa bardzo króciutko :D


  30. @Promilus (autor: Deathraw | data: 9/01/16 | godz.: 09:07)
    Rozumiem, że chodzi np o cieniowanie sceny bezpośrednio na teksturach wiedząc np że oświetlenie jest statyczne, zresztą przy dynamicznym podobnie, bo efekt np jest już prerenderowany i dla każdej minimalnej zmiany kąta kamery czy zasłonięcia źródła światła podmieniane są w czasie rzeczywistym tekstury? Ten pierwszy przypadek domyślam się jest prawdziwy, ale ciekaw jestem czy ten drugi jest w ogóle możliwy obecnie w zadowalającej płynności. Co do zależności wydajności od ilości ROP to z czego to wynika? TZN 8ROP 500MHz nie będzie mieć takiej samej wydajności jak 4ROP 1000MHz?

    @loccothan
    1.Czytaj ze zrozumieniem;).Wyraźnie zapytałem, co jest przyczyną hamowania Fury X2, miałem tu na myśli kartę która jeszcze nie wyszła, więc oczywiste było, że byłem ciekaw czy wiesz dlaczego tak się stało.
    2.Póki co nie wierzę w HBM w jakiejkolwiek konsoli, chyba że za parę lat w wersji superslim, albo Nintendo NX wyjdzie nie wcześniej niż w 2017r.
    3.Abstrahując od tego czym jest polaris, to jaki ma sens powoływania się na zmienioną nazwę roboczą?
    4.U mnie na 15.12 w heaven spadło o 15% przy tych samych ustawieniach. W sterownikach teselacja x8 i wszystko domyślne, miałem ok 980pkt, ostatnio 860 niecałe, może to właśnie shader cache zepsuł? Muszę to sprawdzić. Rozczarowała mnie płynność gry w niektórych lokacjach Dreamfall:The Longest Journey.Były lokacje, które chodziły tak jak powinno czyt. stałe 60fps, ale w niektórych zjeżdżało do 20-30. Zastanawiam się czy to wina skopanego silnika, czy sterowniki nie domagają i krzaczą się z tą grą.

    @power
    W tej generacji raczej nie ma do czego dokładać, ale ps3 miało mocną specyfikację w stosunku do ceny. Był to jeden z najtańszych,jak nie najtańszy odtwarzacz br-d, a później br-d 3d


  31. W czasach, gdy gry spokojnie chodzą na integrach, nie warto kupować high end-u (autor: rookie | data: 9/01/16 | godz.: 09:32)
    Taki Enemy Front to nawet na hdGraphics idzie w średnich detalach na 720p (oczywiście musi być RAM dual channel), a na dedykowanej karcie graficznej średniej półki to pewnie poszedłby nawet w UltraHD :)
    Tak samo Dying Light, Alien:Isolation i inne....


  32. @Deathraw (autor: loccothan | data: 9/01/16 | godz.: 09:52)
    Aha, Nic mi nie waidomo na tę chwilę o X2, będzie niebawem ale ponoć wraz z nowymi sterami (VR Ready)

  33. Coś na śmiech (autor: loccothan | data: 9/01/16 | godz.: 09:57)
    -> http://a.disquscdn.com/...s/3039/2452/original.jpg

    I powiem że coś w tym jest ;-)
    Czekam na Zen, a nowy x10 i7-6950X 1500USD i tu jest lol


  34. @Kenjiro (autor: Mariosti | data: 9/01/16 | godz.: 12:06)
    Tak jak wspominano powyżej, dla deweloperów to nie będą dwie różne konsole tylko dwa tryby graficzne do w zasadzie tej samej konsoli.

    Co do kosztów projektowania to w tym przypadku zarówno dla sony i ms były fenomenalnie niskie, wystarczy zresztą spojrzeć na pcb tych konsol i liczbę elementów oraz doczytać o tym jak małe marże ma amd na apu do konsol.

    Co do obniżenia ceny obecnych ps4 i xbone - owszem jest to niemożliwe w dużym stopniu, ale po przeniesieniu obecnych apu do 16-14 nm będą mogły wyjść wersje slim obecnych konsol i te faktycznie mogą być znacznie tańsze w produkcji i znacznie tańsze w sklepie.

    Co do rozwiązania typu "akcelerator grafiki na usb" to jest to rozwiązanie beznadziejne dodające dużo opóźnień bądź nie wykorzystujące dobrze sprzętu. Zresztą w taki dodatek i tak musiałby kosztować praktycznie tyle co nowa konsola i to nie licząc gogli, także wątpię aby sensowna liczba klientów się na coś takiego chciała zdecydować. Taki akcelerator miałby sens gdyby konsole miały wyprowadzone pci-e na zewnątrz w jakiś sposób, a nie mają. Zresztą takie rozwiązanie generowałoby na deweloperach znacznie większy narzut niż po prostu mocniejsza wersja apu o mniej więcej tej samej architekturze cpu i gpu, ponieważ taki adapter nie mógłby posiadać zunifikowanego z konsolą ramu co przy niespecjalnie wydajnym cpu w konsolach byłoby gwoździem do trumny wydajności takiego rozwiązania.

    Dodatkowo warto zauważyć że w 14-16nm amd będzie w stanie zbudować całkiem mocne apu, szczególnie zakładając że nowe wersje konsol +/VR będą mogły mieć spokojnie sporo wyższe ceny niż premierowe ceny obecnych modeli (będą wprowadzać coś zauważalnie nowego ;] ).


  35. E tam... bedzie renesans multi GPU (autor: pandy | data: 9/01/16 | godz.: 16:48)
    ktore wysmienicie sprawdza sie w VR - w koncu liczenie tego samego zestawu danych z jedna roznica dotyczaca rozstawu oczu jest banalnie proste - wazne bedzie jedynie zredukowanie poboru mocy co jak rozumiem w tej chwili jest obiektem zaawansowanych prac badawczych np AMD.

  36. @35. (autor: Mariosti | data: 9/01/16 | godz.: 20:46)
    No właśnie zależy o co ci chodzi z tym
    "banalnie prosta".
    Owszem jest to tak samo proste jak policzenie normalnego obrazu dla jednego view portu, ale już jakiekolwiek zoptymalizowanie obliczeń tak aby nie było to 2x więcej obliczeń dla 2 viewportów na dokładnie tych samych danych to już jakieś wyzwanie.


  37. @36 (autor: pwil2 | data: 11/01/16 | godz.: 18:08)
    Współdzielenie pamięci (X2) w przypadku VR pod DX12 mogłoby być dość efektywne. Tekstury niemal te same.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.