Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Poniedziałek 8 listopada 2021 
    

Kolejne doniesienia o wysokiej energożerności kart GeForce RTX 4000


Autor: Zbyszek | źródło: WccFTech | 14:42
(33)
Końcówka ubiegłego tygodnia zaowocowała serią przecieków dotyczących przyszłej generacji kart graficznych od Nvidii o nazwie GeForce RTX 40x0. Według użytkownika Twittera o pseudonimie Greymon zieloni mają już gotową specyfikację kart z serii Ada Lovelace i w tej chwili czekają jedynie na dostępność litografii 5nm od TSMC w której te układy mają być wykonane. Według niego, nowe karty zaoferują około 2-krotnie wyższą wydajność od dotychczasowych modeli z serii RTX 30x0, ale niestety będzie to okupione bardzo wysokim poborem energii.

Flagowe karty z chipami GA102 mogą pobierać blisko dwukrotnie więcej energii niż GeForce RTX 3080. Po części będzie to też winą nowego 16-pinowego złącza zasilającego, które będzie w stanie dostarczyć do karty do 600W energii elektrycznej.
Niestety wygląda na to, że będziemy z sentymentem wspominać lata, w których najbardziej prądożerne GPU pobierały tylko 250W energii.

 
    
K O M E N T A R Z E
    

  1. duży pobór przez złącze.... (autor: Marek1981 | data: 8/11/21 | godz.: 15:20)
    Eh co ma piernik do wiatraka

  2. @00 (autor: Saturn64 | data: 8/11/21 | godz.: 15:21)
    2022. Chłodzenie powietrzne odchodzi do lamusa. R.I.P.

  3. Myślę, że EU powinna zakazać (autor: ziemowit | data: 8/11/21 | godz.: 15:22)
    używania takich energochłonnych GPU, podobnie jak energochłonnych CPU,
    a jak nie, to jakiś porządny specjalny dodatkowy podatek CO2


  4. @ziemowit (autor: ziemoone | data: 8/11/21 | godz.: 15:42)
    Wstyd mi za ciebie stary, co za bzdury... Tobie powinni dac podatek klimatyczny za wytwarzanie co2

  5. @4 spodziewałem się podobnej reakcji (autor: ziemowit | data: 8/11/21 | godz.: 16:08)
    Jaki miałeś zasilacz 25 lat temu, 160W, 200W? Teraz będziesz miał 1000W, 1200W? Niedługo 2000W.

    Marny ten rozwój GPU i CPU..., jeśli zwiększenie wydajności obliczeniowej wymaga proporcjonalnie zwiększenia poboru energii. Może nie tędy droga?

    ;) Sadzę drzewa


  6. @1. (autor: Mariosti | data: 8/11/21 | godz.: 16:49)
    Już tak ze mną dyskutowali co miały niby minimum 4+8 piny eps na płytach głównych AL do jego poboru mocy, no i okazało się że mają bardzo dużo.

    Nikt nie projektuje sprzętu na 200% zapasu.
    Jak dają tam złącze 16 pin, to znaczy że 8+6 pin jest niewystarczające. Resztę myślenia pozostawiam Tobie do samodzielnego wykonania...


  7. :)) (autor: housik | data: 8/11/21 | godz.: 16:52)
    Ziemowit wcale nie gada głupot i unia na pewno się za to weźmie.
    Lecze nie wydaje mi się żeby ograniczyła moc kart. Raczej wprowadzi podatek, a zostaną tym obciażeni klienci :)


  8. ...ummm (autor: Mario2k | data: 8/11/21 | godz.: 17:01)
    Mam jeszcze po koparkowy zasilacz EVGA 1600Watt ,będzie w sam raz na nową platformę i RTX 4090 ;)

  9. @06 (autor: Conan Barbarian | data: 8/11/21 | godz.: 17:07)
    "Po części będzie to też winą nowego 16-pinowego złącza zasilającego, które będzie w stanie dostarczyć do karty do 600W energii elektrycznej."

    Zatem złącze jest winne?
    Rzeczywiście czas na przemyślenia.

    BTW. Niech się Nvidia wali ze swoimi grzałkami, to co daje Vega wbudowana w Ryzena 5700G jest znakomite. Jeśli ktoś chce pograć trochę lepiej to konsola Xbox Series X i wszystko w temacie.


  10. o amd (autor: piwo1 | data: 8/11/21 | godz.: 17:19)
    https://www.youtube.com/watch?v=ECHhuvuiNzs

  11. Teraz jest czas przełomów a więc trzeba zrozumieć wzrosty poboru energii. (autor: Mario1978 | data: 8/11/21 | godz.: 18:56)
    Ja tam wolę, żeby wzrosty wydajności były tak imponujące jak AMD zaprezentowało. +100% do wydajności kosztem +50% zwiększonego poboru energii jest do przełknięcia i liczę, że Nvidia idzie tym samym torem a nie jak Intel.

  12. @11 (autor: lcf | data: 8/11/21 | godz.: 19:31)
    Wzrost użycia energii to jest cofanie się w rozwoju, a nie żaden przełom. Jakby producenci aut szli tym samym tropem, to byśmy teraz jeździli autami, co palą 50 l / 100 km. Podziękował - wolę wzrost wydajności per W i trzymać się w okolicy 100 W dla CPU i 200 W dla GPU.

  13. lcf (autor: szpak3 | data: 8/11/21 | godz.: 20:10)
    O tym samym pomyślałem, jak to jest rozwój 5nm 600W.... to co przy 3nm ? 1100W

  14. ... (autor: Elektron | data: 8/11/21 | godz.: 20:20)
    chyba nikt nie bierze pod uwagę faktu, że w zimę będzie można zakręcić grzejnik w danym pomieszczeniu. Jakieś to zmniejszenie zużycia innej energii będzie XD Jeszcze gdyby gracze grali tylko w porze zenitu, to zajebiste "eko" fotovolto by dawało papu... zmniejszenie generowania CO2 w takiej Polszy by było, że chinole i hindusi mogliby odpalić kolejne 40 elektrowni węglowych do produkcji kolejnych grafik, fotovolto i paluszków do Tesli. Świat uratowany!

  15. @lcf szpak3 (autor: Saturn64 | data: 8/11/21 | godz.: 21:15)
    lcf nie do końca masz racje z tym obrazowaniem gdyż i5 12400 będzie porównywalny z obecnym i9 11900K, w dodatku pobierając mniej energii. i9 12900K będzie znacznie szybszy od 11900K. I tutaj pobór prądu jest niewiele wyższy. Chcesz mieć wyższą wydajność to masz wyższy pobór prądu ale jednocześnie zadanie wykonasz powiedzmy o połowę krócej co w ogólnym rozrachunku wyjdzie korzystniej nawet jak porównasz zużycie energii.

  16. @... (autor: Saturn64 | data: 8/11/21 | godz.: 21:31)
    Co nie zmienia faktu, że większość z nas chciało by jeszcze wyższego postępu energetycznego. Uważam, że doszliśmy już do takiego pułapu (wielkości układu i jego złożoności a także dopracowanie danej architektury, że trudno wymyślić coś lepszego). I w konsekwencji postęp wydajnościowy wiąże się najczęściej z podwojeniem jednostek wykonawczych co znowu nie do końca pokrywa się z rozwojem litografii, które nie nadążają z zaoferowaniem tak znaczącego spadku zużycia energii

  17. @... (autor: Saturn64 | data: 8/11/21 | godz.: 21:38)
    Jeszcze 5 lat temu mieliśmy u intela litografię 14nm i 4 i 8 wątków w procesorach przy czym procesor pobierał 90-95W. Dzisiaj mamy litografię 10nm i 16 rdzeni/24 wątki przy poborze 241W. Więc jeden rdzeń wcześniej pobierał ok 23W a teraz pobiera 15W w dodatku mając dużo wyższą wydajność.

  18. Saturn64 (autor: szpak3 | data: 8/11/21 | godz.: 22:07)
    Usprawiedliwiasz 600W RTX 40x0, piszesz tu o wszystkim w temacie nv o niczym...

  19. lojezusicku (autor: Wyrzym | data: 8/11/21 | godz.: 22:15)
    co to sie porobilo, taki postep IMO nie ma zadnego sensu, nie kazdy siedzi w duzym pomieszczniu ( i to jeszcze z klima...) zeby sie to cieple powietrze jakos rozchodzilo. Do tego ciagle zwiekszanie gabarytow, najpierw 1 slot, pozniej 2, 3 to niedlugo standard a i tak sie nie zdziwie jak walna 4. Po co takie podchody, odrazu zeby miec krola wydajnosci to niech grafa przyjedzie na przyczepie ciezarowki (tak jedna :/)
    Dzis to sie kart za normalna cene i tak kupic juz nie da, wszystko biora kopacze, im taki pobor prunda nic nie robi, wystarczy ze bedzie dobrze kilofem zamiatala/W. Ale jak sie ktos chce zamknac w pokoiku 2x2 to co tu robic? odrazu montowac system odprowadzania ciepla zeby sie tam usiedziec dalo?


  20. @szpak3 (autor: Saturn64 | data: 8/11/21 | godz.: 22:24)
    Niczego nie usprawiedliwiam. Ktoś chce wydajności to bierze 600W. Chcesz mieć topową na dziś ale nie 300W a 200W to kupisz sobie taką. Widocznie Nvidii skończyły się na ten moment pomysły co zrobić z zapowiedziami AMD. Jeśli AMD wyjdzie RDNA3 (i nie będzie jakiejś wady w tym projekcie) to może pozamiatać NVIDIĘ. Chyba, że skórzana kurtka powie, że ma RT i mu więcej nie potrzeba, bo może sobie skalować grafiką w nieskończoność.

  21. Saturn64 (autor: szpak3 | data: 8/11/21 | godz.: 22:43)
    Ja widzę wyłącznie gest w stronę górników, jak napisałeś AMD może zaradzić, a jak nie.... mamy prze...

  22. :D taaa (autor: pawel1207 | data: 9/11/21 | godz.: 01:44)
    to ze amd pozamiata nvidie i nv pujdzie z torbami to slysze co roku efekt tych waszych gdyban jest widoczny tez co roku :D niepowiem milo by bylo aby pozamiatalo bo nv musiala by sie ogarnac :D juz rdna mialo zrobic z nv totalna miazge a przynajmniej tak wasnie prorrokowaliscie jak to sie skonczylo karzdy widzial ..

  23. Wyrzym (autor: pawel1207 | data: 9/11/21 | godz.: 01:50)
    przecierz nie karzda karta bedzie tyle zarla pradu 3090 obciarzone niekoniecznie grafika tez sporo pradu zre 2 takie i przy obiazeniu plus cpu 1200 w zasilacz ledwo zipie i zaczynasz powaznie myslec nd jakims 1600w albo 2k :D

  24. 600W (autor: henrix343 | data: 9/11/21 | godz.: 17:42)
    a pierdole, czy oni nie potrafia, tego lepiej zaprojektowac? I pewnie 3x drozsze niz dotychczas...

  25. no nie kazda grafa (autor: Wyrzym | data: 9/11/21 | godz.: 19:25)
    styknie ze topowa tyle, co za tym idzie to zeby pograc w cos na max detalach to albo kupujesz, albo max detale zobaczysz na skrinach w necie.

    Pewnie TYLKO 3x drozsza ? taa, chcialbys :D


  26. @pawel1207 (autor: Conan Barbarian | data: 9/11/21 | godz.: 21:16)
    "przecierz, karzda, obciarzone"
    Chłopie, weź się naprawdę opanuj bo oczy i mózg bolą.


  27. na YT (autor: Mario2k | data: 10/11/21 | godz.: 09:20)
    Oglądałem film z Far Cry 6 w 4K , problem w tym że platforma 12900k + RTX 3090 brała z monitorem 42'' ponad 750 Watt w trakcie gry . Jak nic trzeba inwestować w rozbudowę instalacji PV .

    Dodam ze przy obecnych cenach prądu 10godz grania na takim sprzęcie bierze prądu za ponad 6zł


  28. @up (autor: Saturn64 | data: 10/11/21 | godz.: 10:02)
    Teraz dzieciakowi nie dasz kieszkonkowego (powiesz, że wyczeprał swój limit podczas grania)....

  29. Wyrzym (autor: pawel1207 | data: 10/11/21 | godz.: 20:10)
    nie chcialbym u mnie w robocie je kupili bo chcieli sprawdzic jak sie spisza zamiast qadro i tesli wszaqk sli maja razem to 48gb na karcie graficznej a czasem nie potrzebujesz obliczen podwojnej precyzji tak strasznie tylko potrzebujesz ramu na karcie wtedy taki zestaw daje rade w niektorych scenariuszach a biroc pod uwage cene 3090 to bylo by oplacalne do niektorych prac usiebie mam qadro a5000 oczywiscie ze urzywam wylacznie do pracy :D wiec 3090 nie robi na mnie jakiegos specjalnego wrazenia .. ja sprzetu nie kupuje to firma mi go sponsoruje ..

  30. @Conan Barbarian (autor: Saturn64 | data: 10/11/21 | godz.: 21:03)
    Myślę, żę pawel1207 to wczesna wersja beta... bota.

  31. Saturn64 (autor: pawel1207 | data: 10/11/21 | godz.: 21:54)
    problem w tym ze myslenie to wasza najslabsza strona wiec wyciagnie daleko idacych wnoskow na podstawie twoich i conana przemyslen to jak proba trafienia 6 w totolotka bez wyslania kuponu :D moze wam sie uda .. :D i dla tego na waszym miescu powstrzymal bym sie od tak daleko idacych wnioskow :D zreszta aby myslec to trzeba miec rozum w waszym przypadku :D braki tej podstwowej funkcji sa wrecz jaskrawo widoczne .:D

  32. @31 (autor: ProSavage | data: 11/11/21 | godz.: 09:59)
    Masz ukończone 13lat? Jeśli tak to współczuje rozumu.

  33. @31 pawel1207 (autor: OBoloG | data: 11/11/21 | godz.: 10:16)
    do tego co napisał Conan Barbarian w @26 dodam jeszcze twoje "pujdzie, urzywam" wiesz, chłopaki może się czepiają ale podstawy ortografii to w twoim wieku należałoby znać, nie wspominając o tym, że pisząc komentarz na twojepc.pl jak zrobisz byka to jeszczę ci strona podkreśla tekst z błędami a jak tego nie widzisz to może masz daltona - no to wszystko OK.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.