Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Poniedziałek 13 listopada 2017 
    

Ampere kolejną po Volcie generacją GPU Nvidia?


Autor: Zbyszek | źródło: heise.de | 05:56
(21)
Nvidia kilka lat temu zaprezentowała mapę drogową dotyczącą nazw kodowych kolejnych generacji układów graficznych. Po generacji kart o nazwie Tesla (GeForce GTX 280 i 285) na rynku pojawiły się karty z serii Fermi (GeForce GTX 480 i 580), Kepler (GeForce GTX 680 i 780) a następnie Maxwell (GeForce GTX 980). Ostania generacja kart o nazwie kodowej Pascal trafiła na rynek w ubiegłym roku w postaci m.in. akceleratorów GeForce GTX 1080, 1070 czy 1060. Od pewnego już czasu wiadomo, że kolejna po Pascalu seria kart nosi nazwę Volta i trafi na rynek w przyszłym roku.

Do tej pory nie była jednak znana nazwa kodowa dla następnej po Volcie generacji układów graficznych Nvidia. Według najświeższych przecieków będzie to Ampere (lub Ampera).

Co więcej, źródło z którego pochodzą te informacje mówi również o tym, że w przypadku kart GeForce dedykowanych na rynek konsumencki, Nvidia zupełnie pominie architekturę Volta, i karty z serii Pascal zostaną zastąpione odrazu kartami z serii Ampere. Ma to wynikać z rozdzielania architektur GPU na dwa oddzielne segmenty – jeden dla rynku HPC, obliczeń maszynowych i sztucznej inteligencji, oraz drugi segment obejmujący karty dla graczy nastawione na wysoką efektywność energetyczną i z tego względu pozbawione elementów nieużywanych przez grafikę 3D, jak np. rdzenie Tensor. Ampere miałaby być właśnie uproszczoną, bardziej efektywną energetycznie wersją Volty.

Od dłuższego czasu wiadomo także, że Nvidia zamierza w przyszłym roku skorzystać z najnowszych pamięci GDDR6, a także 12-nanometrowego procesu litograficznego, i z pewnością wprowadzi na rynek w przyszłym roku nową generację swoich kart graficznych.

O tym czy będzie to Volta, czy też Ampere(a), być może dowiemy się już na początku stycznia podczas targów CES, na których Nvidia planuje dłuższą konferencję. Kolejną okazją do pochwalenia się nowościami może być konferencja GTC, która odbędzie się w dniach 26-29 marca przyszłego roku w dolinie krzemowej.



 


    
K O M E N T A R Z E
    

  1. Nasuwa mi się myśl, że... (autor: Kenjiro | data: 13/11/17 | godz.: 08:15)
    nVidia stwierdziła, iż architektura "ogólna" nie jest wystarczająco zyskowna w rozwiązaniach dla graczy i nie zamierza iść drogą AMD, która pcha jedną architekturę, co się skończyło Vegą...

  2. Kenjiro (autor: kombajn4 | data: 13/11/17 | godz.: 08:44)
    racja plus dodał bym do tego że Hi-End od Nv ma już takie osiągi że zapewnia zdecydowanie zbyt dużą (o ile można tak powiedzieć) wydajność w fullHD a jak przed chwilą patrzyłem w statystyki Steam taka rozdziałka jest u 71.38% użytkowników (w tym u mnie) a wyższe rozdzielczości to niecałe 5% rynku. Oni już nie muszą pchać 100% dostępnej wydajności do kart Hi-End. Szczególnie mając taką konkurencje.

  3. @2. (autor: Kenjiro | data: 13/11/17 | godz.: 09:34)
    Wydajności nigdy zbyt wiele ;-).

    A odnośnie dwóch linii produktowych, to podejrzewam, że nVidia stwierdziła, że użycie HBM nie jest opłacalne w segmencie kart dla graczy, gdy wydajność pamięci GDDR jest wystarczająca do utrzymania pozycji lidera i dawkowania przyrostów rzędu 30% na generację.
    I cały czas dziwię się, że AMD nie zaprojektowała Vegi w wersji z GDDR, która byłaby niewiele wolniejsza, za to tańsza, a przede wszystkim dużo bardziej dostępna. Mam nadzieję, że Lisa przyciśnie swój team, aby jednak zaprojektowali taką wersję, nawet jeśli ma wyjść za rok.

    Poza tym statystykami Steam bym sobie głowy nie zaprzątał, skoro z miesiąca na miesiąc potrafią się zmienić o 20% (znaczy, że o kant d... je potłuc).


  4. @kombajn4 (autor: ligand17 | data: 13/11/17 | godz.: 09:37)
    przestań chrzanić głupoty.
    Primo: na FHD świat się nie kończy. Na razie mam protezę w postacie 4K/HDR i tam już karty pokroju 1080Ti ledwo zipią i to w tytułach sprzed kilku lat. Chyba nikt nie ma wątpliwości, że celem jest VR/AR a tam jest póki baaaardzo słabo.
    Secundo: obecna implementacja DX12 w kartach nVidii jest nadal kulawa, przydałoby się ją ulepszyć.
    Tertio: według statystyk Steama to większość graczy mówi po chińsku - czy to znaczy, że nowe gry mają być wydawane tylko w tym języku?


  5. 2-- (autor: Mario1978 | data: 13/11/17 | godz.: 09:39)
    swoje spostrzeżenia opierasz na danych jakie są już obecne od 5lat a mianowicie ,nie które gry jakie teraz wychodzą pokazują czasami grafikę z lat 2012-2014 czego głównym powodem jest DX11.
    NVIDIA w DX11 ma lepszą architekturę gdyż nie ma takiego narzutu na CPU a przez najbliższe dwa lata wiele się zmieni.
    W tej chwili gry mają lepsze cienie ,oświetlenie oraz szczegółowość w grafice a wszystko to może się zmienić tylko w krótkim okresie czasu.
    NVIDIA musi teraz tworzyć tak na prawdę nową architekturę albo zmienić to co ma w rdzeniach CUDA i może być tak ,że tam gdzie w nowych niskopoziomowych API NVIDIA nowymi kartami zacznie dawać radę nie oznacza ,że będzie tak samo z DX11.
    Za mało gier nowoczesnych się pojawia i brakuje firmy ,która stworzyła by całkowicie nowy silnik graficzny taki jak UNREAL ale oparty na najnowszych rozwiązaniach ,które wspiera VULKAN/DX12 oraz być może jeszcze jakiś inny niskopoziomowy API się pojawi obsługiwany przez WINDOWS 10/Android/IOS oczywiście.
    To widać ,że deweloperom brakuje pomysłu/czasu i przede wszystkim chęci ,żeby wykorzystać najnowsze możliwości niskopoziomowych API i tylko jedna firma może znacznie zmienić rynek jak zrobi to co poprzednio zrobił UNREAL ENGINE.
    Architektura AMD w GPU jest takim URZĄDZENIEM WIELOFUNKCYJNYM i brakuje tylko odpowiedniej firmy ,która wykorzystała by to w środowisku 3D ale pewnie niedługo się przekonamy ,że już jednak istnieje nowy engine bez wsparcia dla DX11 bo nie ma tak co wspierać z jego możliwościami.


  6. To bedzie pewnie kolejne petarda, miazga i deklasacja (autor: Sony Vaio Surprise | data: 13/11/17 | godz.: 09:59)
    A haslo przewodnie - niskie Ampere, enerogooszczednosc i zielony kolor leczacy wzrok

  7. @Mario1978 (autor: Deathraw | data: 13/11/17 | godz.: 12:30)
    Jeżeli chodzi o geometrię, to jest już zrobione naprawdę dużo, teraz głównie fizyka(w tym oświetlenie) i postprocessy będą grały skrzypce. Ciekawi mnie czy z AI będą jeszcze cokolwiek robić, bo ogólnie jest z tym tragicznie.

    Bronienie AMD odnośnie małego zainteresowania API, to ciągle patrzenie na problem od dupy strony. To nie wina twórców, że nie chce im się działać na trudniejszym API, które przynosi wymierne korzyści znacznie mniejszej ilości użytkowników przy większych nakładach pracy, tylko AMD, że od czasu phenoma II i 6950 postanowili zająć się zmienianiem świata kompletnie na siłę. Wszyscy odeszli od słabego wątku, to AMD musiało do tego powrócić z jakimś dziwnym wynalazkiem i półrdzeniami. NV się sparzyła robiąc konsumenckie gpu pod gpgpu, ale AMD musiało pójść w jej ślady. Tracąc na tym coraz większą część rynku nie zrobili z tym nic, tylko odgrzali kotlety. W konsolach te wszystkie funkcje typu rapid packed math czy async compute mają sens, ale w pc AMD się nie liczy, a zachowuje się jakby chciało wyznaczać kierunek rozwoju gpu i wszyscy mieli brać z niego przykład. W praktyce są poligonem doświadczalnym dla technologii, a nie robią kompletnie nic z tym co jest na teraz. HBM nawet szkoda komentować, bo ta technologia nie daje im obecnie nic poza mniejszym zużyciem energii, (które nadrabia gpu) a tak to pod każdym innym względem jest obecnie gorsza od GDDR5x, a wydajnościowo jest po równo. Pytam więc, po jaki chuj pakować to do konsumenckich kart, wiedząc że jest droga, trudna w produkcji i niedostępna? To już wie tylko "wielki" Koduri, który myślał że paroma bajerami i procesem stworzy jakkolwiek konkurencyjny produkt rok po premierze konkurencji. W praktyce znów mamy kartę na przyszłość, która dzisiaj zbiera baty w perf i perf/wat i nie wiedzieć czemu w wyższych rozdzielczościach nawet w dx12 nie radzi sobie z 1080ti. Żebyś mnie tylko źle nie zrozumiał nie odnoszę tej wypowiedzi do Twojego nastawienia, tylko do ogólnych nastrojów wokół obecnej sytuacji GPU.

    @kombajn4
    Co do 1080p jako standardu, to w istocie tak jest, ale chyba nie kupujesz topowego gpu do standardowej rozdziałki?:) No chyba że celujesz w 144Hz.


  8. @6 Skończ pajacu.. (autor: BoloX | data: 13/11/17 | godz.: 13:18)
    bo na wymioty bierze.

  9. 7-- (autor: Mario1978 | data: 13/11/17 | godz.: 13:38)
    tak na prawdę sami deweloperzy wiedzą jak trudno jest programować w takim czy innym API ale biorąc pod uwagę fakt ,że od 2012 roku prawie stoimy w miejscu takie coś może się zemścić na dwóch firmach.
    INTEL już chce temu przeciwdziałać dlatego zatrudnił KODURIEGO a NVIDIA widocznie jest pewna swoich sił także przez najbliższe dwa lata się przekonamy jak bardzo architektura AMD a zwłaszcza jej dodatkowe cechy są przydatne w nowych grach.
    DX11 jest tylko wolnym ślimakiem bo przyrost mocy obliczeniowej a zwłaszcza jej możliwości już dawno przekroczył jego możliwości.
    Tak na prawdę pod koniec 2014 roku powinny pojawiać się tytuły ,które czerpie garściami z wielowątkowości CPU i możliwości GPU a tak nie jest.
    To co pisałem tu wystarczy jedna iskra bo wystarczy ,że wyłamie się z tego stereotypu jedna firma ,która stworzy nowy silnik graficzny być może oparty na nowym niskopoziomowym API tylko po to by czerpać zyski i dziwnym trafem zarówno WINDOWS ,ANDROID , OIS będzie go obsługiwać.
    Mamy 5lat zastoju więc zapowiada się raptowny skok w przyszłość i myśląc ,że główną rozdzielczością w PS5 będzie UHD to tak jakbyśmy cofnęli się kilka lat wstecz.
    Mi wystarczą testy pokazujące na co stać architekturę różnych firm od CPU do GPU i jedna z nich nie dość ,że ma potencjał to jak okazuje się na przykład na przykładzie gry WOLFENSTEIN 2 zwykły patch do gry potrafi dać kolejne wzrosty wydajności powyżej 10%.
    To ile tak na prawdę VEGA jest nie wykorzystana odpowiednio przez samo API przekonamy się w 2018 roku.
    Bardzo dużo także zmieni się przez dwa lata bo poprzez premierę CPU z silniejszym jednym wątkiem przynajmniej na poziomie 30% od takiego COFFEE LAKE przekonamy się jak bardzo architektury POLARIS czy VEGA cierpiały tutaj.
    Dla NVIDI będzie najgorszy scenariusz gdy obydwie architektury będę wykorzystywane odpowiednio w grach nie opartych na DX11 bo ZIELONI tylko przez dużo lepszą efektywność wykorzystania ich mocy w grach mają takie a nie inne wyniki a GCN powstał jakby za szybko na rzeczywistość jaką mamy w grach gdyż nie było mu po drodze z DX11.


  10. @Up (autor: loccothan | data: 13/11/17 | godz.: 13:45)
    https://www.youtube.com/watch?v=mf5xbaU3FdE

  11. @Mario1978 (autor: Deathraw | data: 13/11/17 | godz.: 20:33)
    Zgodzę się, że stoimy- kto kupił GTX580 3GB dopiero przy grach z tego roku cierpi przez brak vram, a tak to wszystko mu na wysokich w fullhd chodzi. Ostatnio czytałem test na ppc nowego wolfa i ich redaktor zaznaczył ważną rzecz- trochę patchy i wersji DOOMa, a przewaga czerwonych nawet w Vulkanie stopniała znacznie. Dalej to jest kilka rodzynków w stosunku do większości, która chodzi na NV lepiej zaraz po premierze. GCN raz że powstał za szybko, dwa że w złych dla AMD czasach, gdzie stracili już dużą część rynku na rzecz NV. Wielka szkoda, że trzeba było czekać aż do Tongi,aż karty AMD zaczęły mieć sensowną teselację, bo wcześniejsze gpu sobie ewidentnie z nią nie radzą, co czasem też jest problematyczne (do momentu urżnięcia jej w sterownikach).

  12. @04 (autor: kombajn4 | data: 14/11/17 | godz.: 12:09)
    Nie chrzanie głupot tylko przytaczam statystyki oraz informacje o tym ze wyższe rozdzielczości stanowią ~5% rynku.
    ", że celem jest VR/AR" Nie rozśmieszaj mnie przeżyłem już temat 3D VR parę razy i za każdym razem kończy się to tak samo pomysł fajny ale na krótką metę i całość ląduje w koszu . Bo po pierwsze mało gier, po drugie sprzęt drogi i kupi go parę procent użytkowników a na dokładkę tylko część gier da się zrobić tak żeby miały jakikolwiek sens w VR. A 1080p będzie standardem dopóty, dopóki monitory z wysoką rozdzielczością nie będą miały zbliżonej ceny. Tak po prostu.


  13. @Deathraw (autor: loccothan | data: 15/11/17 | godz.: 08:37)
    Oblukaj, niebawem już Vega56 będzie w 80% gier lepsza niż 1080 ;)

    -> https://uploads.disquscdn.com/...g?w=800&h=709

    -> https://hexus.net/...7c-4863-806b-466809936f4f.png


  14. @loccothan (autor: Deathraw | data: 15/11/17 | godz.: 09:29)
    To Twoje "niedługo" ciągnie się od czasu premiery R9 Fury. Fakty są takie, że jedyne gry które dostały boosta w dx12/innym api to te od ms, te od dice i 2 gry od id software. Reszta dalej śmiga na dx11 i się nie przejmuje tym że w konsolach jest identyczna architektura co w GPU AMD.

  15. @Up (autor: loccothan | data: 15/11/17 | godz.: 22:11)
    Czy ja wiem.
    Moja Furja dalej śmiga jak marzenie w 1440p ~70kl średnio, Vega to już inna półka V64 to już ~100kl średnio w 1440p.

    W grach takich jak: DeusEx MkD, ME:Andromeda i podobnych jeśli chodzi o zaawansowane Funkje graficzne, mam min. ok 50kl/s a na Vega będę miał ~73kl/s a to już jest spora różnica (Na Fury V.High a na Vega Ultra +AA ;) )
    Od marca mam 1440p 10bit Freesync od Iiyama, więc zmian GPU nie biorę pod uwagę.



  16. @Cd (autor: loccothan | data: 15/11/17 | godz.: 22:24)
    Wszystkie gry na tej stronie są testowane na Ultra, jak ktoś chce zobaczyć jakie są najlepsze ustawienia to tutaj, koleś robi mix pod min.60FPS:

    -> https://www.hardocp.com/

    Tu:
    -> http://i65.tinypic.com/289lnqu.jpg
    -> http://i63.tinypic.com/2ed38td.jpg
    -> http://i68.tinypic.com/294t6x3.jpg

    To są tylko Testy, a Realu Fury ma się naprawdę dobrze (zważając że dałem za niego 1585zł ponad rok temu)
    Nawet z 1080 i G-sync nie zobaczysz dużej różnicy "na oko", a zapłacisz >1500zł więcej ;)
    Radeon+Freesync ? "Nie dla Idiotów" ;)


  17. @loccothan (autor: Deathraw | data: 15/11/17 | godz.: 23:49)
    Kiedyś przynajmniej odpowiadałeś na temat, teraz widzę że masz z tym problem :P. Piszesz o 80% udziału API w rynku w niedalekiej przyszłości, a jak mówię że teoria nie trzyma się kupy, to się chwalisz 2 letnią kartą, którą kupiłeś używaną. Wyniki które wysłałeś nie wiem czego miały dowieźć? Tego, że 1080ti jest bezsprzecznym królem, a Vega jest kompletnie nieopłacalną kartą? Ja też się cieszę z mojego r9 290 bo kupując ją za 650zł rok temu zrobiłem dobry interes, ale kompletnie nie o tym mowa. Jak kopanie upadnie za jakiś czas, to też będzie dobrze kupić polarisa za 5 stówek i będzie to super używana karta, ale to nie ma najmniejszego znaczenia dla kierunku rozwoju kart graficznych. Dodam jeszcze jedno odnośnie wykresów- świadczą one o tym jak mało zrobiono w V64 od czasów FuryX.

    Ostatnio testowałem 1060 6GB i wydajnościowo różnice między nią a 290 są bardzo niewielkie, raz w jedną, raz w drugą stronę, ale zauważyłem że zieloni poprawili obsługę pełnego formatu RGB dla monitorów, co dla mnie było bardzo istotne więc odchodzi ważny dla mnie powód trzymania się AMD. Zobaczymy co pokaże Ampere, być może dadzą mi powód żebym pierwszy raz od bardzo dawna kupił kartę NV.


  18. @Up (autor: loccothan | data: 16/11/17 | godz.: 04:15)
    Kupiłem nową z 3 letnią GW :D
    Nie to mi chodziło że 1080Ti i Xp jest najszybszy (bo Jest) tylko o to że Radek + FreeSync jest bardziej opłacalny i że wykresy to nie wszystko.

    Chodzi o realne Wydajność<->Cena zestawu, tu ATI jest i było liderem i jeszcze długo będzie.

    Przykład:
    Nowa Vega64 w morele za ok 2200-2400zł + Monitor Freesync 1440p ~1200-2000zł
    Nie złożysz na nV takiego zestawu w tej cenie, a dopłacać do znaczka Nv nie warto.
    Bo Vega w każdej grze jest wystarczająco wydajna.
    A Nowe API? będzie coraz lepiej.
    >rok DX12/Vulkan i mamy ~42gier
    >dawno temu w DX11 i było tylko ~10gier a DX9/10 było dalej Królem.
    Pytanie? Po co przepłacać, skoro ta nV wydajność to jest tylko PR :D


  19. @18. (autor: pwil2 | data: 16/11/17 | godz.: 15:11)
    Biorąc pod uwagę ile się w tym roku zmieniło w kwestii procesorów >4c, konsol i DX12/Vulkan to platforma AMD staje się co raz ciekawsza.

  20. c.d. (autor: pwil2 | data: 16/11/17 | godz.: 15:12)
    Gdyby nie to, że kupiłem XONEX to kusiłoby mnie zmienić GTX1060 na RX56, zwłaszcza z promocji za 409EUR z VAT.

  21. @Up (autor: loccothan | data: 17/11/17 | godz.: 03:41)
    Hmm, Ja czekam na tego XFX z 8+6Pin
    Moja Vega64 będzie smigać Max do 1550MHz, styczy jak nic do 70Hz/FPS min. w każdej grze.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.