Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Wtorek 9 czerwca 2020 
    

Nvidia zmieniła plany - karty Ampere bardzo wydajne i z dużym TDP?


Autor: Zbyszek | źródło: igor’sLAB | 15:24
(12)
Im bliżej do debiutu kolejnej generacji kart graficznych Nvidia, tym więcej nieoficjalnych informacji o nich. Według najnowszych doniesień jakie podał igor’sLAB, znany z kilku sprawdzonych przecieków, Nvidia na ostatniej prostej postanowiła zmienić dotychczasowe plany względem serii Ampere. Zamiast kart o wydajności o około 50 procent wyższej od dotychczasowych Turingów, i z nieco niższym TDP od nich, postanowiono, aby flagowe modele zaoferowały tak wysoką wydajność, jak to tylko jest możliwe. Wszystko z powodu obawy przez kartami AMD z architekturą RDNA 2.

Dodatkowo Nvidia miała jakiś czas temu przyjąć strategię zakładającą kojarzenie jej przez klientów z produktami typu premium, a pojawienie się konkurencyjnych Radeonów o wydajności zbliżonej do nowych flagowych modeli GeForce RTX mogłoby oczywiście zachwiać takim odbiorem Nvidia i ostatnim postrzeganiem jej marki.

Dlatego też w gabinetach Nvidia miano postanowić o wyciągnięciu z serii Ampere wydajności większej od planowanej, co będzie mieć swoje odzwierciedlenie we wskaźniku TDP oraz prawdopodobnie w cenie kart.

Według igor’sLAB, Nvidia w ramach serii Ampere przygotowuje aż trzy flagowe karty dla graczy - wszystkie oparte o układ GA102. Mają one korzystać z pamięci GDDR6X o szybkości efektywnej do 21 Gbps, a ich wskaźnik TBP (Total Board Power) wyniesie od 320W do 350W, Karty będą wyposażone w bardzo zaawansowany system chłodzenia znany z ostatnio wyciekłych zdjęć, którego cena produkcji ma sięgać 150 dolarów, a przynajmniej jedna z nich otrzyma nazwę GeForce RTX 3090 (prawdopodobnie z dopiskiem Ti lub SUPER).

Sumarycznie według igor’sLAB przygotowywany do tej pory GeForce RTX 3080 Ti z układem GA102 postanowiono zmienić w 3 oddzielne modele, których wydajność podniesiono do granic możliwości (wraz ze wskaźnikiem TBP). Prawdopodobnie pozostałe karty, z mniejszymi chipami GA103 i GA104. planowane dotychczas jako GeForce RTX 3080 i GeForce RTX 3070 także otrzymają wzmocnioną specyfikację i TDP nieco wyższe od planowanego, a przy tym nazwy z jakimi trafią do sprzedaży pozostają niewiadomą.

 


    
K O M E N T A R Z E
    

  1. Raja przyzwyczaił nVidię do pewnych wzrostów poziomów wydajności (autor: Qjanusz | data: 9/06/20 | godz.: 16:18)
    kolejnych generacji GPU i nVidia na podstawie tego schematu założyła bezpieczny poziom wydajności swojego Ampere.

    Problem polega na tym, że Raja już nie pracuje w AMD.


  2. @1.. (autor: d3k | data: 9/06/20 | godz.: 19:42)
    Tyle, że to już nie jest problem nVidii... ani AMD... tylko Intela xD

  3. tiaaa (autor: mlc | data: 9/06/20 | godz.: 21:04)
    nVidia przestraszyła się nowych kart AMD... akurat to jest bardzo wątpliwe...

  4. @mlc (autor: kombajn4 | data: 9/06/20 | godz.: 21:20)
    akurat od dawna wiadomo że Radeony są bardzo wydajne obliczeniowo a Ray Tracing jest bardzo wymagającą obliczeniowo techniką. Skąd wiesz że to co AMD upichciło jako sprzętową obsługę RT nie bije na łeb RT od Nvidii? Tego dowiemy się dopiero po premierze.

  5. @kombajn4 - nie spodziewałbym się fajerwerków akurat w RT (autor: Qjanusz | data: 10/06/20 | godz.: 09:54)
    RT wymaga czystej mocy w obliczeniach. Na to stawia nVidia. AMD z kolei stawia na rozwiązania hybrydowe, co w sumie jest logiczne, ponieważ w innym przypadku nie byłoby w stanie zaoferować produktu RT-podobnego w kolejnych konsolach.
    Niby RT to nie jest RT. Oczywiście do prawdziwego RT jeszcze droga bardzo daleka, ale nVidia już na tej drodze zdziera opony, a AMD ciągle duma w garażu.


  6. @up (autor: ekspert_IT | data: 10/06/20 | godz.: 10:27)
    Rozwiązanie inne niż ograniczona liczba jednostek RT jest wskazane i konieczne. Hardware tylko do liczenia światła jest trochę bez sensu. Dodajmy oddzielne jednostki do liczenia fizyki, dalszego otoczenia, postaci, efektów mgły i deszczu oto, i wyjdzie nam konieczność tworzenia 20 nowych zestawów jednostek aby osiągnąć niewiele lepszy efekt niż przy kilkukrotnym zwiększeniu jednostek shader/texture/render/cu.

  7. Byłoby miło (autor: Gakudini | data: 10/06/20 | godz.: 11:26)
    gdyby faktycznie chodziło o konkurencję. Szkoda tylko, że ta konkurencja polega na zwiększaniu zegara kosztem TDP, a nie na obniżaniu cen.

  8. omg (autor: pawel1207 | data: 10/06/20 | godz.: 16:00)
    wyspecjalizowany uklad zrobi robote 2/3/10 razy szybciej niz uklad ogulnego przeznaczenia dlatego mamy karty graficzne z akceleracja 3d terz i rt :D pobierajac tyle samo jesli nie mniej pradu problem jest w produkcji takiego potworka sterowniku takim direct x czy vulkanem ktore tak akarte z koprocesorami obslugiwaly by marnie bo nie sa po d to napisane i pomyslane pproblemem jest sam software ktory takich wynalazkow nie przewiduje i mamy takie zmkniete koleczko gdzie wszyscy serwuja wiecej jednostek obliczeniowych bo sa uniwersalne problem w tym ze to rozwiazanie jest po prostu wolne ..


  9. @5. (autor: Mariosti | data: 10/06/20 | godz.: 16:06)
    Nvidia nie zdziera żadnych opon tylko marnuje tranzystory bo ciągle wierzy w siłę zamkniętych rozwiązań.

    SP w gpu to są już de facto dość wyspecjalizowane rdzenie do szeroko pojętej grafiki, a tworzenie dedykowanego rozwiązania do RT jako podzbioru gpu jest bez sensu, co zresztą już widać po tym jak gry testowane na 2080 nawet z bazowymi efektami RT na 2060 chodzą tragicznie bo ma za mało RT cores.

    Nvidia nie uczy się z historii, przecież po to właśnie stworzono Unified Shared aby rozwiązać dawne problemy wynikające z dedykowanych vertex i pixel shaderów.
    Silniki gry z natury mają ogromną dowolność w tym ile zasobów obliczeniowych użyją do jakich konkretnie efektów i sztywne jednostki nie pasują do tego w ogóle.

    Zresztą, takie protezy RT mają de facto same wady, bo full RT oznaczałoby ogromną oszczędność dla deweloperów gier i na prawdę wyśmienitej jakości grafikę do której stworzenia potrzebne byłyby tylko wysokiej jakości modele 3d i wskazanie źródeł światła. Przy obecnym podejściu do obliczania światła to jest dopiero początek pracy nad scenami, a RTX nic do tego nie wnosi poza dodawaniem jeszcze dodatkowej protezo roboty która coś tam niby na jakimś ułamku kart może zrobić nieco inaczej niż znane doskonale metody nie RT w sposób może mniej dynamiczny ale często lepszej jakości...

    Dodatkowo, przy sprzętowych jednostkach tego typu jest duże ryzyko braku kompatybilności wstecznej, a przy widocznym obecnie braku mocy obliczeniowej tych jednostek, kolejne serie w nowych procesach zapewne będą znacznie zwiększać liczbę tych jednostek co automatycznie będzie powodowało że RT na poprzednich seriach będzie bezużyteczne, lub będzie maksymalnie grywalne na "Lowest" ustawieniach.


  10. @Mariosti - ale jakich zamkniętych rozwiązań? (autor: Qjanusz | data: 11/06/20 | godz.: 00:20)
    Jednostki RT w RTXach realizują standard DirectX Raytracing (DXR), pod który za chwilę podłączy się AMD ze swoją nową generacją GPU.

    Jaki cel miałaby nVidia w komplikowaniu GPU jednostkami RT, skoro tę samą robotę mogłyby wykonać stare, dobre SP?


  11. moim zdaniem (autor: Zbyszek.J | data: 11/06/20 | godz.: 22:11)
    robienie kolejnej półki cenowej, miało być
    RTX 3080Ti 11 GB 18Gbps, GA102 5120 CUDA- 999 USD
    RTX 3080 10 GB 18Gbps, GA103 3840 CUDA, 699 USD
    RTX 3070 8 GB 18Gbps, GA104 3072 CUDA, 499 USD
    RTX 3060 8 GB 14 Gbps, GA104 2560 CUDA, 399 USD

    będzie
    RTX 3090Ti 24 GB 21Gbps, GA102 5376 CUDA- 1499 USD
    RTX 3090 11 GB 20-21Gbps, GA102 4608 CUDA, 999 USD
    RTX 3080 10 GB 20Gbps, GA102 4352 CUDA, 749 USD
    RTX 3070Ti 10 GB 18 Gbps, GA103 3584 CUDA, 599 USD
    RTX 3070 8 GB 18Gbps, GA104 3072 CUDA, 499 USD
    RTX 3060 8 GB 14 Gbps, GA104 2560 CUDA, 399 USD


  12. @9. (autor: pwil2 | data: 14/06/20 | godz.: 03:42)
    Może tak być, że nVidia ma mniej rozbudowane SP i dołożenie RT na nich wymagało by dowalenia 2x tyle tranzystorów i obniżenia ich efektywności. AMD dokłada parę % tranzystorów więcej i ma dużo jednostek odpowiedzialnych też za RT.

    Kiedyś jak przyszedł szał na kopanie BTC na kartach graficznych, okazało się, że akurat GPU AMD 79xx nadaje się świetnie do tego celu.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.