Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Poniedziałek 9 grudnia 2019 
    

Hopper kolejną po Ampere generacją GPU od Nvidia


Autor: Zbyszek | źródło: WccFTech | 19:25
(8)
Nvidia już od ponad dekady nazywa kolejne generacje swoich architektur graficznych na cześć uczonych, którzy w swoim czasie przyczynili się do znacznego rozwoju nauki i techniki. Zapoczątkowała to w 2008 roku generacja kart o nazwie Tesla, po której na rynek trafiły kolejno serie: Fermi, Kepler, Maxwell, Pascal, Volta i Turing. Aktualnie przygotowywana przez Nvidia kolejna generacja GPU nosi nazwę kodową Ampere, na cześć francuskiego fizyka André Ampère, od którego nazwiska nazwano jednostkę natężenia prądu elektrycznego. Kolejna po niej generacja GPU od Nvidia może otrzymać nazwę kodową Hopper, co ma upamiętnić Grace Hopper, programistkę komputera Harvard Mark 1.

Nazwa "Nvidia Hopper" została właśnie zarejestrowane jako znak handlowy w amerykańskim urzędzie patentowym. O tym, że Hopper będzie następną po Ampere nazwą kolejnej generacji GPU od Nvidia informował jeszcze w czerwu użytkownik Twittera o nicku kopite7kimi, znany już z dostarczania wiarygodnych informacji na temat nazw kodowych przyszłych generacji produktów Nvidia.


 


    
K O M E N T A R Z E
    

  1. Mnie bardziej intersuje czy to będzie pierwsza generacja GPU Nvidia z (autor: Mario1978 | data: 9/12/19 | godz.: 19:52)
    budową modułową.Chodzi o to by osiągnąć maksymalną wydajność na Watt potrzeba przejść na łączenie układów w jedno jak to obecnie robi architektura Zen od AMD w CPU.
    To też pewna droga jak będzie iść AMD w przypadku swoich GPU ale także Intel.
    Przecież sam Windows czy Linux musi przejść zmiany i to ogromne.Dla słabeuszy nie ma miejsca a więc nowe systemy operacyjne mile widziane.Wszystko co przynajmniej w 25% efektywniej będzie wykorzystywać moc sprzętu może zmienić bieg takich firm jak Microsoft jak nic z tym nie zrobi.


  2. @up zgadzam się (autor: Mario2k | data: 10/12/19 | godz.: 01:40)
    Nie wyobrażam sobie żeby NVidia dalej pakowała wszystko w jednym chipie , muszą coś pomyśleć o modułowej budowie inaczej ich chipy będą niedługo wielkości pudełka zapałek.

  3. @up. (autor: Shamoth | data: 10/12/19 | godz.: 07:36)
    Będzie SLI/CF onboard czy jak tam to nazwą. Jeśli nie będzie transparentne dla OS'u to może do łask wrócą tradycyjne konfiguracje mGPU. Albo M$ i cała reszta pomyśli nad nowymi API żeby kilka GPU spinać w jedno wirtualne GPU i np żeby taki UE, który natywnie nie wspiera mGPU, mógł wykorzystać potencjał sprzętu bez dodatkowych szczepionek...

  4. @03 (autor: ligand17 | data: 10/12/19 | godz.: 08:51)
    Takie API już istnieje. Nazywa się DX12. Tylko prawie nikomu nie chce się używać.

  5. @all (autor: rookie | data: 10/12/19 | godz.: 09:15)
    Budowa wielochipowa? Czy przypadkiem to nie było w 1997r wraz z Voodoo 1? O ile pamiętamy 3dfx się na tym przejechał w voodoo4 w 2000r i doszło do upadłości i wykupu przez nvidie. NVIDIA, nie idź tą drogą...
    Dla mnie kwestią podstawową jest radykalna poprawa wydajności Ray tracingu bo gra na karcie za 3tys w 720p z opcją RT on jest krokiem wstecz...


  6. @05 (autor: ligand17 | data: 10/12/19 | godz.: 10:17)
    Ten pomysł wraca co jakiś czas. Wystarczy przypomnieć takie konstrukcje, jak ATi Rage 128 MAXX, Voodoo 5, Radeon 3870X2/4870X2, HD5970/6990, GeForce 7950GX2/9800GX2, GTX295.

  7. czyli politpoprawnosc (autor: komisarz | data: 10/12/19 | godz.: 12:16)
    https://en.wikipedia.org/wiki/Grace_Hopper

    patrze czym sie zasluzyle - wspolpracowala, byla wspolautorem byla konsultowana itp.


  8. oj tam (autor: pawel1207 | data: 10/12/19 | godz.: 16:28)
    nie taka nowosc przebakujea o tym od kilku lat w koncu przy turingach zwlaszcza przy 2080ti mocno zmniejsza sie uzysk a zapotrzbowania na karty jest wiec jak ie chca isc z cen w kosmos to w praktyce jednyna doroga zwlascza ze nowych procesow nie mozna nazwac dopracowanymi ..

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.