Kolejne doniesienia o wysokiej energożerności kart GeForce RTX 4000
Autor: Zbyszek | źródło: WccFTech | 14:42
(33)
Końcówka ubiegłego tygodnia zaowocowała serią przecieków dotyczących przyszłej generacji kart graficznych od Nvidii o nazwie GeForce RTX 40x0. Według użytkownika Twittera o pseudonimie Greymon zieloni mają już gotową specyfikację kart z serii Ada Lovelace i w tej chwili czekają jedynie na dostępność litografii 5nm od TSMC w której te układy mają być wykonane. Według niego, nowe karty zaoferują około 2-krotnie wyższą wydajność od dotychczasowych modeli z serii RTX 30x0, ale niestety będzie to okupione bardzo wysokim poborem energii.
Flagowe karty z chipami GA102 mogą pobierać blisko dwukrotnie więcej energii niż GeForce RTX 3080. Po części będzie to też winą nowego 16-pinowego złącza zasilającego, które będzie w stanie dostarczyć do karty do 600W energii elektrycznej.
Niestety wygląda na to, że będziemy z sentymentem wspominać lata, w których najbardziej prądożerne GPU pobierały tylko 250W energii.
K O M E N T A R Z E
duży pobór przez złącze.... (autor: Marek1981 | data: 8/11/21 | godz.: 15:20) Eh co ma piernik do wiatraka
Myślę, że EU powinna zakazać (autor: ziemowit | data: 8/11/21 | godz.: 15:22) używania takich energochłonnych GPU, podobnie jak energochłonnych CPU,
a jak nie, to jakiś porządny specjalny dodatkowy podatek CO2
@ziemowit (autor: ziemoone | data: 8/11/21 | godz.: 15:42) Wstyd mi za ciebie stary, co za bzdury... Tobie powinni dac podatek klimatyczny za wytwarzanie co2
@4 spodziewałem się podobnej reakcji (autor: ziemowit | data: 8/11/21 | godz.: 16:08) Jaki miałeś zasilacz 25 lat temu, 160W, 200W? Teraz będziesz miał 1000W, 1200W? Niedługo 2000W.
Marny ten rozwój GPU i CPU..., jeśli zwiększenie wydajności obliczeniowej wymaga proporcjonalnie zwiększenia poboru energii. Może nie tędy droga?
;) Sadzę drzewa
@1. (autor: Mariosti | data: 8/11/21 | godz.: 16:49) Już tak ze mną dyskutowali co miały niby minimum 4+8 piny eps na płytach głównych AL do jego poboru mocy, no i okazało się że mają bardzo dużo.
Nikt nie projektuje sprzętu na 200% zapasu.
Jak dają tam złącze 16 pin, to znaczy że 8+6 pin jest niewystarczające. Resztę myślenia pozostawiam Tobie do samodzielnego wykonania...
:)) (autor: housik | data: 8/11/21 | godz.: 16:52) Ziemowit wcale nie gada głupot i unia na pewno się za to weźmie.
Lecze nie wydaje mi się żeby ograniczyła moc kart. Raczej wprowadzi podatek, a zostaną tym obciażeni klienci :)
...ummm (autor: Mario2k | data: 8/11/21 | godz.: 17:01) Mam jeszcze po koparkowy zasilacz EVGA 1600Watt ,będzie w sam raz na nową platformę i RTX 4090 ;)
@06 (autor: Conan Barbarian | data: 8/11/21 | godz.: 17:07) "Po części będzie to też winą nowego 16-pinowego złącza zasilającego, które będzie w stanie dostarczyć do karty do 600W energii elektrycznej."
Zatem złącze jest winne?
Rzeczywiście czas na przemyślenia.
BTW. Niech się Nvidia wali ze swoimi grzałkami, to co daje Vega wbudowana w Ryzena 5700G jest znakomite. Jeśli ktoś chce pograć trochę lepiej to konsola Xbox Series X i wszystko w temacie.
Teraz jest czas przełomów a więc trzeba zrozumieć wzrosty poboru energii. (autor: Mario1978 | data: 8/11/21 | godz.: 18:56) Ja tam wolę, żeby wzrosty wydajności były tak imponujące jak AMD zaprezentowało. +100% do wydajności kosztem +50% zwiększonego poboru energii jest do przełknięcia i liczę, że Nvidia idzie tym samym torem a nie jak Intel.
@11 (autor: lcf | data: 8/11/21 | godz.: 19:31) Wzrost użycia energii to jest cofanie się w rozwoju, a nie żaden przełom. Jakby producenci aut szli tym samym tropem, to byśmy teraz jeździli autami, co palą 50 l / 100 km. Podziękował - wolę wzrost wydajności per W i trzymać się w okolicy 100 W dla CPU i 200 W dla GPU.
lcf (autor: szpak3 | data: 8/11/21 | godz.: 20:10) O tym samym pomyślałem, jak to jest rozwój 5nm 600W.... to co przy 3nm ? 1100W
... (autor: Elektron | data: 8/11/21 | godz.: 20:20) chyba nikt nie bierze pod uwagę faktu, że w zimę będzie można zakręcić grzejnik w danym pomieszczeniu. Jakieś to zmniejszenie zużycia innej energii będzie XD Jeszcze gdyby gracze grali tylko w porze zenitu, to zajebiste "eko" fotovolto by dawało papu... zmniejszenie generowania CO2 w takiej Polszy by było, że chinole i hindusi mogliby odpalić kolejne 40 elektrowni węglowych do produkcji kolejnych grafik, fotovolto i paluszków do Tesli. Świat uratowany!
@lcf szpak3 (autor: Saturn64 | data: 8/11/21 | godz.: 21:15) lcf nie do końca masz racje z tym obrazowaniem gdyż i5 12400 będzie porównywalny z obecnym i9 11900K, w dodatku pobierając mniej energii. i9 12900K będzie znacznie szybszy od 11900K. I tutaj pobór prądu jest niewiele wyższy. Chcesz mieć wyższą wydajność to masz wyższy pobór prądu ale jednocześnie zadanie wykonasz powiedzmy o połowę krócej co w ogólnym rozrachunku wyjdzie korzystniej nawet jak porównasz zużycie energii.
@... (autor: Saturn64 | data: 8/11/21 | godz.: 21:31) Co nie zmienia faktu, że większość z nas chciało by jeszcze wyższego postępu energetycznego. Uważam, że doszliśmy już do takiego pułapu (wielkości układu i jego złożoności a także dopracowanie danej architektury, że trudno wymyślić coś lepszego). I w konsekwencji postęp wydajnościowy wiąże się najczęściej z podwojeniem jednostek wykonawczych co znowu nie do końca pokrywa się z rozwojem litografii, które nie nadążają z zaoferowaniem tak znaczącego spadku zużycia energii
@... (autor: Saturn64 | data: 8/11/21 | godz.: 21:38) Jeszcze 5 lat temu mieliśmy u intela litografię 14nm i 4 i 8 wątków w procesorach przy czym procesor pobierał 90-95W. Dzisiaj mamy litografię 10nm i 16 rdzeni/24 wątki przy poborze 241W. Więc jeden rdzeń wcześniej pobierał ok 23W a teraz pobiera 15W w dodatku mając dużo wyższą wydajność.
Saturn64 (autor: szpak3 | data: 8/11/21 | godz.: 22:07) Usprawiedliwiasz 600W RTX 40x0, piszesz tu o wszystkim w temacie nv o niczym...
lojezusicku (autor: Wyrzym | data: 8/11/21 | godz.: 22:15) co to sie porobilo, taki postep IMO nie ma zadnego sensu, nie kazdy siedzi w duzym pomieszczniu ( i to jeszcze z klima...) zeby sie to cieple powietrze jakos rozchodzilo. Do tego ciagle zwiekszanie gabarytow, najpierw 1 slot, pozniej 2, 3 to niedlugo standard a i tak sie nie zdziwie jak walna 4. Po co takie podchody, odrazu zeby miec krola wydajnosci to niech grafa przyjedzie na przyczepie ciezarowki (tak jedna :/)
Dzis to sie kart za normalna cene i tak kupic juz nie da, wszystko biora kopacze, im taki pobor prunda nic nie robi, wystarczy ze bedzie dobrze kilofem zamiatala/W. Ale jak sie ktos chce zamknac w pokoiku 2x2 to co tu robic? odrazu montowac system odprowadzania ciepla zeby sie tam usiedziec dalo?
@szpak3 (autor: Saturn64 | data: 8/11/21 | godz.: 22:24) Niczego nie usprawiedliwiam. Ktoś chce wydajności to bierze 600W. Chcesz mieć topową na dziś ale nie 300W a 200W to kupisz sobie taką. Widocznie Nvidii skończyły się na ten moment pomysły co zrobić z zapowiedziami AMD. Jeśli AMD wyjdzie RDNA3 (i nie będzie jakiejś wady w tym projekcie) to może pozamiatać NVIDIĘ. Chyba, że skórzana kurtka powie, że ma RT i mu więcej nie potrzeba, bo może sobie skalować grafiką w nieskończoność.
Saturn64 (autor: szpak3 | data: 8/11/21 | godz.: 22:43) Ja widzę wyłącznie gest w stronę górników, jak napisałeś AMD może zaradzić, a jak nie.... mamy prze...
:D taaa (autor: pawel1207 | data: 9/11/21 | godz.: 01:44) to ze amd pozamiata nvidie i nv pujdzie z torbami to slysze co roku efekt tych waszych gdyban jest widoczny tez co roku :D niepowiem milo by bylo aby pozamiatalo bo nv musiala by sie ogarnac :D juz rdna mialo zrobic z nv totalna miazge a przynajmniej tak wasnie prorrokowaliscie jak to sie skonczylo karzdy widzial ..
Wyrzym (autor: pawel1207 | data: 9/11/21 | godz.: 01:50) przecierz nie karzda karta bedzie tyle zarla pradu 3090 obciarzone niekoniecznie grafika tez sporo pradu zre 2 takie i przy obiazeniu plus cpu 1200 w zasilacz ledwo zipie i zaczynasz powaznie myslec nd jakims 1600w albo 2k :D
600W (autor: henrix343 | data: 9/11/21 | godz.: 17:42) a pierdole, czy oni nie potrafia, tego lepiej zaprojektowac? I pewnie 3x drozsze niz dotychczas...
no nie kazda grafa (autor: Wyrzym | data: 9/11/21 | godz.: 19:25) styknie ze topowa tyle, co za tym idzie to zeby pograc w cos na max detalach to albo kupujesz, albo max detale zobaczysz na skrinach w necie.
Pewnie TYLKO 3x drozsza ? taa, chcialbys :D
@pawel1207 (autor: Conan Barbarian | data: 9/11/21 | godz.: 21:16) "przecierz, karzda, obciarzone"
Chłopie, weź się naprawdę opanuj bo oczy i mózg bolą.
na YT (autor: Mario2k | data: 10/11/21 | godz.: 09:20) Oglądałem film z Far Cry 6 w 4K , problem w tym że platforma 12900k + RTX 3090 brała z monitorem 42'' ponad 750 Watt w trakcie gry . Jak nic trzeba inwestować w rozbudowę instalacji PV .
Dodam ze przy obecnych cenach prądu 10godz grania na takim sprzęcie bierze prądu za ponad 6zł
@up (autor: Saturn64 | data: 10/11/21 | godz.: 10:02) Teraz dzieciakowi nie dasz kieszkonkowego (powiesz, że wyczeprał swój limit podczas grania)....
Wyrzym (autor: pawel1207 | data: 10/11/21 | godz.: 20:10) nie chcialbym u mnie w robocie je kupili bo chcieli sprawdzic jak sie spisza zamiast qadro i tesli wszaqk sli maja razem to 48gb na karcie graficznej a czasem nie potrzebujesz obliczen podwojnej precyzji tak strasznie tylko potrzebujesz ramu na karcie wtedy taki zestaw daje rade w niektorych scenariuszach a biroc pod uwage cene 3090 to bylo by oplacalne do niektorych prac usiebie mam qadro a5000 oczywiscie ze urzywam wylacznie do pracy :D wiec 3090 nie robi na mnie jakiegos specjalnego wrazenia .. ja sprzetu nie kupuje to firma mi go sponsoruje ..
@Conan Barbarian (autor: Saturn64 | data: 10/11/21 | godz.: 21:03) Myślę, żę pawel1207 to wczesna wersja beta... bota.
Saturn64 (autor: pawel1207 | data: 10/11/21 | godz.: 21:54) problem w tym ze myslenie to wasza najslabsza strona wiec wyciagnie daleko idacych wnoskow na podstawie twoich i conana przemyslen to jak proba trafienia 6 w totolotka bez wyslania kuponu :D moze wam sie uda .. :D i dla tego na waszym miescu powstrzymal bym sie od tak daleko idacych wnioskow :D zreszta aby myslec to trzeba miec rozum w waszym przypadku :D braki tej podstwowej funkcji sa wrecz jaskrawo widoczne .:D
@31 (autor: ProSavage | data: 11/11/21 | godz.: 09:59) Masz ukończone 13lat? Jeśli tak to współczuje rozumu.
@31 pawel1207 (autor: OBoloG | data: 11/11/21 | godz.: 10:16) do tego co napisał Conan Barbarian w @26 dodam jeszcze twoje "pujdzie, urzywam" wiesz, chłopaki może się czepiają ale podstawy ortografii to w twoim wieku należałoby znać, nie wspominając o tym, że pisząc komentarz na twojepc.pl jak zrobisz byka to jeszczę ci strona podkreśla tekst z błędami a jak tego nie widzisz to może masz daltona - no to wszystko OK.
D O D A J K O M E N T A R Z
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.