Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Poniedziałek 11 czerwca 2018 
    

Porównanie wielkości GPU Vega w 14nm i 7nm


Autor: Zbyszek | źródło: VideoCardz | 12:49
(19)
Podczas niedawnych targów Computex firma AMD zaprezentowało najnowszą wersję GPU na bazie architektury Vega. Układ produkowany jest w nowym 7nm procesie litograficznym i został przygotowany głównie z myślą o serii Radeon Instinct. Jak wiadomo dzięki przeskokowi z procesu 14nm na 7nm udało się zmniejszyć cały układ o około 40%. Serwis VideoCardz pokusił się o szczegółową analizę wielkości 7nm rdzenia z architekturą Vega, zestawiając ze sobą zdjęcia obu wersji GPU. Jak wiadomo, GPU Vega produkowana w 14nm procesie litograficznym posiada powierzchnię 486 mm2. Porównując fotografię obliczona w ten sposób powierzchnia 7nm wersji chipu wynosi 285-298 mm2.


 


    
K O M E N T A R Z E
    

  1. tak samo jak Vega produkowana w 14nm (autor: Qjanusz | data: 12/06/18 | godz.: 13:29)
    nie była konkurencyjna do GTXów produkowanych w 14nm,
    to myślę że sytuacja nie wiele się zmieni po przeniesieniu obydwu rozwiązań do technologii 7nm. To będzie ta sama przepaść +/- usprawnienia architektury Vegi i GTX

    Mało tego... Mając na pamięci zawirowania kadrowe w międzyczasie w Radeon Technologies Group, myślę że architektura Vegi przygotowanej do 7nm o ile się zmieniła, to w bardzo niewielkim stopniu. nVidia nie ma tego kłopotu, więc porównanie pierwszych GPU produkowanych w 7nm, powinno być jeszcze bardziej na niekorzyść AMD, porównując do zestawienia Vega - Pascal.


  2. @Qjanusz (autor: rookie | data: 12/06/18 | godz.: 14:06)
    Jakoś 'przepaści' to ja nie widzę. Informacja o 10x większych dostawach niż w poprzedniej generacji układów graficznych, daje obraz sukcesu, nie porażki:
    '' "Vega" shipments are over 10 times greater than those of the "previous generation." - chyba producent wie, ile układów sprzedaje na rynku. https://www.techpowerup.com/...on-by-over-10-times


  3. efekt górnictwa (autor: Zbyszek.J | data: 12/06/18 | godz.: 14:16)
    ...

  4. @1. (autor: pwil2 | data: 12/06/18 | godz.: 16:35)
    Kwestia taktowania. nVidia tylko/aż wycisnęła wyższe zegary i potrzebowała mniej SP, mniej mm2 -> niższe koszty, większe zyski. Do tego $$ dla producentów gier dawały lepsze optymalizacje.

  5. c.d. (autor: pwil2 | data: 12/06/18 | godz.: 16:36)
    Jeśli nowe GTXy nadal nie będą obsługiwały FreeSync, to następną moją kartą będzie AMD w 7nm.

  6. Juz sie nie moge doczekac (autor: Wyrzym | data: 12/06/18 | godz.: 17:05)
    na te informacje o braku kart, malym uzysku tym razem z powodu uzycia nowego procesu i kij wie co jeszcze.

  7. @4, >> Do tego $$ dla producentów gier dawały lepsze optymalizacje. (autor: daver | data: 12/06/18 | godz.: 17:25)
    Masz jakieś dowody, czy wypisujesz to, w co chciałbyś wierzyć? Już ci rzucałem tym sznurkiem https://www.theinquirer.net/...vidia-man-writes-in

  8. @7. (autor: pwil2 | data: 12/06/18 | godz.: 23:35)
    Przecież o tym wszyscy wiedzą. Najlepszym przykładem było takie Project Cars (bannery nVidii i zaskakująco niskie wyniki AMD, które z czasem mocno wzrosły, gdy już benchmarki się rozeszły). Gry, które na premierę miały obsługę wyższych wersji DX (których nVidia wtedy nie obsługiwała, a dawały zyski AMD), które już po premierze były usuwane z gry (na czym traciło AMD). A co z milionami niewidocznych trójkątów w grach, które były przeliczane niepotrzebnie, a na tym traciły HD79x0 mające wtedy mniej jednostek od tesselacji? Do tego w innych grach tesselacja na max, gdzie zmniejszenie do 4x nie wpływało na jakość obrazu, a na wydajność AMD vs nVidia bardzo znacznie. Mając kartę AMD można było w sterowniku wymusić max 4x, by cieszyć się wyższymi detalami przy tych samych lub wyższych fps.

  9. c.d. (autor: pwil2 | data: 12/06/18 | godz.: 23:43)
    Działo się tak w 2008r, dzieje się i dziś...
    https://techreport.com/...10-1-controversy-updated


  10. c.d. (autor: pwil2 | data: 12/06/18 | godz.: 23:46)
    W VSP1 doszła obsługa DX10.1, na czym zyskały do 20% karty (wtedy) ATI, nVidii 0%. Jednak Ubisoft miał umowę z nVidią (The Way It's Meant To Be Played), więc gdy sprawa została nagłośniona, wydał szybko patcha "poprawiającego" wydajność na kartach ATI.

  11. c.d. (autor: pwil2 | data: 12/06/18 | godz.: 23:56)
    Crytek's Crysis 2 DX11 Bullshit Tessellation
    https://www.youtube.com/watch?v=IYL07c74Jr4


  12. c.d. (autor: pwil2 | data: 13/06/18 | godz.: 00:10)
    Tesselacja wody na mapie praktycznie bez wody...
    https://techreport.com/...o-much-of-a-good-thing/3
    https://techreport.com/...o-much-of-a-good-thing/4
    https://techreport.com/...o-much-of-a-good-thing/5

    https://techreport.com/...o-much-of-a-good-thing/2


  13. c.d. (autor: pwil2 | data: 13/06/18 | godz.: 00:11)
    "But the strange inefficiencies create problems. Why are largely flat surfaces, such as that Jersey barrier, subdivided into so many thousands of polygons, with no apparent visual benefit? Why does tessellated water roil constantly beneath the dry streets of the city, invisible to all?

    One potential answer is developer laziness or lack of time. We already know the history here, with the delay of the DX11 upgrade and the half-baked nature of the initial PC release of this game. We've heard whispers that pressure from the game's publisher, EA, forced Crytek to release this game before the PC version was truly ready. If true, we could easily see the time and budget left to add PC-exclusive DX11 features after the fact being rather limited.

    There is another possible explanation. Let's connect the dots on that one. As you may know, the two major GPU vendors tend to identify the most promising upcoming PC games and partner up with the publishers and developers of those games in various ways, including offering engineering support and striking co-marketing agreements. As a very high-profile title, Crysis 2 has gotten lots of support from Nvidia in various forms. In and of itself, such support is generally a good thing for PC gaming. In fact, we doubt the DX11 patch for this game would even exist without Nvidia's urging. We know for a fact that folks at Nvidia were disappointed about how the initial Crysis 2 release played out, just as many PC gamers were. The trouble comes when, as sometimes happens, the game developer and GPU maker conspire to add a little special sauce to a game in a way that doesn't benefit the larger PC gaming community. There is precedent for this sort of thing in the DX11 era. Both the Unigine Heaven demo and Tom Clancy's HAWX 2 cranked up the polygon counts in questionable ways that seemed to inflate the geometry processing load without providing a proportionate increase in visual quality.

    Unnecessary geometric detail slows down all GPUs, of course, but it just so happens to have a much larger effect on DX11-capable AMD Radeons than it does on DX11-capable Nvidia GeForces. The Fermi architecture underlying all DX11-class GeForce GPUs dedicates more attention (and transistors) to achieving high geometry processing throughput than the competing Radeon GPU architectures. "


  14. @8, wszyscy wiedzą... (autor: daver | data: 13/06/18 | godz.: 12:49)
    że masz spore problemy ze zrozumieniem, zwłaszcza j. angielskiego. Przeczytaj, przepraszam, poproś kogoś, by ci przetłumaczył zawartość z linku, który podałem, oraz pierwsze dwa akapity z tekstu, który wkleiłeś.

    PS. Miałeś na głowie czapkę z folii aluminiowej, gdy wklejałeś te teorie spiskowe? Gdzie tu dowody?


  15. @14. (autor: pwil2 | data: 14/06/18 | godz.: 12:05)
    Pierwsze 2 akapity wstawiłem, żeby nie wyrywać z kontekstu tego co wygodne, a każdy wyciągnie wnioski, które wytłumaczenie bardziej pasuje do układanki. Trudno uwierzyć, by ktoś robiąc "krawężnik" w grze w pośpiechu użył takiej ilości wielokątów nieświadomie. To nie byli tacy amatorzy z łapanki.

    Ale tak ograniczonej umysłowo osobie, zaślepionej zielonym blaskiem trudno sobie wyobrazić, że ta nieskazitelna podobno firma jest zdolna do płacenia $$ za "optymalizacje". Jak bardzo trzeba być ograniczoną osobą, by tego nie zauważyć? ;-D

    Wypowiedzi w stylu "Nie płaciliśmy nikomu za gorsze działanie na kartach konkurencji... (...płaciliśmy tylko za lepsze działanie na naszych produkcach/reklamę/sponsorowaliśmy kampanie reklamowe)" są godne polityka. Przecież oczywiste jest, że nawet nie będąc pracownikiem firmy, nie będzie sobie tak psuł wizerunku, a co ważniejsze narażał się na możliwe procesy ze strony byłego pracodawcy? Wiadome, nie jest idiotą.

    Proszę bardzo. Łykaj takie zapewnienia jak pelikan ;-DDDD


  16. c.d. (autor: pwil2 | data: 14/06/18 | godz.: 12:08)
    GeForce Partner Program też miał niejednego obrońcę ;-D Przecież to wszystko w trosce o klienta ;-D

  17. c.d. (autor: pwil2 | data: 14/06/18 | godz.: 12:10)
    Kto następy? Będziesz wybielał Intela? ;-D

  18. c.d. (autor: pwil2 | data: 14/06/18 | godz.: 12:41)
    BTW Firmy tytoniowe zapewniały, że nie chcą młodych namawiać do rozpoczynania palenia. Zapierały się, że walczą tylko o już palących klientów. Można było się wzruszyć z ich troski o młodzież... Pewnie niejeden pelikan zapierałby się rękoma i nogami, że tak było. A było zupełnie przeciwnie.

  19. c.d. (autor: pwil2 | data: 14/06/18 | godz.: 12:42)
    I tak jest w wielu branżach, gdzie troska o klienta jest skonfrontowana z grubymi $$$ do zarobienia.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.