Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 10 sierpnia 2018 
    

Następca GeForce GTX 1080 będzie od niego bardziej prądożerny?


Autor: Zbyszek | źródło: VideoCardz | 13:40
(30)
Przed premierą nowej generacji kart graficznych Nvidia, korzystających z pamieci GDDR6 oraz 12nm układów graficznych, w sieci pojawiają się kolejne przecienki na ich temat. Według najnowszego z nich, następca GeForce GTX 1080 może być od niego znacznie bardziej prądożerny. Jak informuje VideoCardz powołując się na swoje źródła u jednego z producentów, konstrukcja referencyjna będzie posiadać 10-fazową sekcję zasilającą oraz dwie wtyczki zasilające: 6-pinową i 8-pinową. W dodatku Nvidia zdecydowała się znacznie przebudować referencyjny system chłodzenia, który ma być wyposażony w dwa wentylatory.

Jakiś czas temu w sieci już pojawiło się zdjęcie płytki drukowanej nadchodzącej karty, na której widoczne są mniejsca dla dwóch wtyczek zasilających oraz 10-fazowej sekcji zasilania.

Dla porównania GeForce GTX 1080 mający wskaźnik TDP 180W czerpie zasilanie z jednej dodatkowej 8-pinowej wtyczki i posiada skromniejszą 6-fazową sekcję zasilania GPU.

 
    
K O M E N T A R Z E
    

  1. @Up (autor: loccothan | data: 10/08/18 | godz.: 15:26)
    Podrasowane 16nm aka 12nm
    z 2-3 bloki CUDA i masz 2080 RTX ale co za tym idzie potzreba więcej papu ;)
    Czyli wiemy na 99% że nici z nowej technologi.
    Dale Fermi DX11.0 (I pseudo DX12) a jako Fjuczer dadzo RayTracing dla ma$$ :D
    Lol, ale tak samo było Intel vs AMD...
    No nic trzba czekać na ATI ZEN :D


  2. loccothan (autor: Mario2k | data: 10/08/18 | godz.: 17:44)
    Bredzisz jak piętnastolatek , wzrost wydajności będzie na poziomie +35-40% w stosunku do poprzedniej seri ,ciut większy pobór prądu i tyle w temacie.

  3. @1. (autor: bajbusek | data: 10/08/18 | godz.: 20:02)
    tak, twoja vega ma szanse pojac w szranki ... TDP :D

  4. Zobaczymy (autor: ligand17 | data: 10/08/18 | godz.: 20:28)
    jaki będzie wzrost TDP względem wzrostu wydajności. Wtedy będzie można się zastanawiać, czy ta karta jest opłacalna.

  5. że niby co (autor: Mario2k | data: 10/08/18 | godz.: 21:24)
    Gracz który ma kasę na kartę za 2.5k - 3k zł będzie obliczał roczne zurzycie prądu przez w/w kartę ??
    odpowiedz : Nie
    bo taki ktoś ma wyjebane na to czy zapłaci za prąd 120 czy135zł na miesiąc

    Bidoki z blokowisk dalej będą lizać palce i obliczać teoretyczne mieć czy nie mieć
    albo będą pisać kolejne pierdoły że poczekają na nowszy model bo będzie lepszy :)


  6. ad5 (autor: MacLeod | data: 10/08/18 | godz.: 23:54)
    Kazdy normalny ma na to wyjebane. Moze za wyjatkiem studencikow i tym podobnych:)
    Loccococco puknij sie w durny leb:) Firemka w grafikach NIE ISTNIEJE.


  7. @05 (autor: ligand17 | data: 11/08/18 | godz.: 11:57)
    nie miałem na myśli graczy... No i cena nie będzie na poziomie 2.3-3k, tylko pewnie x2.

  8. O widzę (autor: kombajn4 | data: 12/08/18 | godz.: 09:02)
    że powracają stare dobre piecyki od Nv. Pamiętam jak miałem GTX570 to przestawiłem kompa pod biurko. Nawiew z karty rewelacyjnie ogrzewał stopy w zimie.
    @05 Będzie, jeśli ma wbite w głowę podstawy ekologii i liczy się z tym żeby sprzęt był względnie energooszczędny. Zobaczmy jaka będzie odpowiedz AMD na nowe karty Nvidii bo jeśli wydadzą coś co będzie siorbać jeszcze więcej prądu to faktycznie nie ma o co kruszyć kopi. Ale jeśli uwiną się z 7nm i wydadzą karty z porównywalna wydajnością ale pobierające znacząco mniej prądu to założymy się że prądożerność dla ludzi "których stać" będzie miała istotne znaczenie?
    @06 sam się puknij w durny łeb. Skończył się bum na kopanie krypto i ceny i dostępność Radeonów wróciły do normy i konkurencja w głównym przedziale cenowym 100-300 euro również wróciła do normalności. Świadczy o tym choćby ostatnia premiera GTX1050 3GB. Przykładowo RX570 kosztuje obecnie tyle samo co GTX1060 3GB i jest lepszym wyborem bo ma porównywalną wydajność (trochę lepszą w grach z DX12, trochę gorszą w grach z DX11) ale można tanio kupić monitor z Freesync co IMHO przeważa szalę na rzecz Radeona


  9. @kombajn4 (autor: loccothan | data: 12/08/18 | godz.: 12:26)
    Coś w ten deseń.
    Dla Radków tech-przyszłość to właśnie Freesync.

    Tu nowe Samsungi 27" i 32" z HDR
    -> https://www.samsung.com/...tum-dot-lc27hg70qqnxza/

    Jak zwykle niewiedza to kula u nogi nabywców 1070/1060/1050 itp. GPU bez G-sync (bo ta cena lol)

    PS.
    Zobacz sobie na Morele.pl ile się sprzedaje Monitorów z FreeSync a ile z G-sync ;) >2200 vs ~200 Tak 20x więcej posiadaczy radeonów ma Monitor z FreeSync.
    Nie możemy patzreć tylko przez pryzmat ego na rynek.
    To samo masz w Germani i w Holandi, Belgi i przede wszystkim w Szwecji ;)
    IMO coś w tym jest że 500.000.000 użytkowników posiada w domu Radeona.... (AMD ma taką reklamę)


  10. @Cd (autor: loccothan | data: 12/08/18 | godz.: 12:31)
    Nie ma co kopi kruszyć co jest lepsze w Benchmarkach.
    Można za to polemizować na czym się lepiej gra ;)
    Na 580/Vega z FreeSync czy 1080/1070/1060 bez G-Sync...

    Nie ma czasu na drobiazgi, moim zdaniem ATI jest górą dzięki Freesync.
    Mowa jest o jakości w graniu. Dodatkowo HDR i Full RGB jest + wielkim dla ATI że nie mają starty w FPS gdy grasz w grę z HDR 10Bit Full RGB Gammut.


  11. ... Radki są ok, kopiesz kiedy kryptowaluty są w cenie... (autor: SebaSTS | data: 12/08/18 | godz.: 12:49)
    ... grasz w wolnym czasie... A że trzeba umieć kupować w dobrym okresie... Czasami tak jest, że chytry dwa razy traci... Poczekam na kolejną premierę będzie plus 10-20% za tą samą cenę... :-P

  12. :D:D:DD:D:D (autor: pawel1207 | data: 12/08/18 | godz.: 21:28)
    ATI jest górą dzięki Freesync. :D:D:D:D:D:ED:D niemoge normalnie padne ze smiechu chlopie ja czesto gram bez zadnego synca i dziala ok :D i oo jakiej jakosci ty gadasz jesli o jakosc chodzi to freesync nie ma startu do gsynca :D vega to przecierz pozeracz pradu preff/watt lezy i kwiczy w tych kartach jedyne do czego sie nadaj to do kopania ...jak narazie ati w dziezinie grafik jest mocno za nv i zadne zaklinanie rzeczywistosci nie pomoze :D ja rozumem fanatyzm ale nawet on ma akies granice popatrz na ceny i czego ile schodzi zamiast za przeproszeniem pieprzyc farmazony ...


  13. @12 (autor: kombajn4 | data: 12/08/18 | godz.: 21:52)
    "zamiast zaklinać rzeczywistość" zerknij na ceny w podanym przeze mnie przedziale do 300 euro. Obie firmy mają porównywalne produkty od GT 1030 i RX550 po GTX1060 6GB i RX580. Konkurencja ma się dobrze. Freesync jest plusem który w mojej ocenie przeważa przy wyborze jeśli inne parametry są zbliżone. Vega to niestety inna bajka bo na dziś najtańsza Vega 56 jest o ~100 Euro droższa od najtańszego GTX1070.

  14. @12 (autor: djXone | data: 12/08/18 | godz.: 23:06)
    Grasz bez synca? :O i nie dostajesz oczojebca? To gratuluje! Mam nvidie jak co. Dla mnie granie w rozdziałkach od fHD do uHD jest nieakceptowalne bez Vsync. Same filmy w przerywnikach tak rwie, że nie da się na to patrzeć.

  15. SebaSTS (autor: Mario2k | data: 13/08/18 | godz.: 00:09)
    Małe sprostowanei odnośnie kopania krypto
    od Maja 2018 GTX 1080Ti z modem ohGodETHPill
    jest najbardziej wydajną kartą do kopania jeśli weźmiemy pod uwagę zysk z kopania.
    55MH/s gdzie najlepsze Vegi osiągają 46MH/s


  16. @Up (autor: loccothan | data: 13/08/18 | godz.: 08:18)
    Spoko :D Jak napisałem nie ma co kopi kruszyć, grajcie sobie i luz.
    Jedyne co jest ważne to że jest wybór, jak się na Morele.pl znów pojawią Vega64 za 2.200zł ->
    To znikną jak rok temu w przeciągu 3 tygodni :D

    ==
    Tutaj cytat kolesia od Geforce apropos ich sterów:

    "Nice strategy nvidia has going. release "game ready" drivers with high fps but garbage stutterfest gameplay,
    then "hotfix" after all the benching is done."

    Dlatego na mnie nie działa czarna magia nv ;)
    Wiem o tym sprzęcie dużo po 3 tygodniach użytkowania 1080Ti (bez G-sync)
    I tak nie udało mi się w pełni zmodować pod 32Bit Full RGB Output (pod Photoshopa z 10Bit)

    Oddałem do Caseking i teraz mam Vega 64 XTX LC :D (Tak default tutaj to 10Bit Full 32 RGB)


  17. @Up (autor: loccothan | data: 13/08/18 | godz.: 08:20)
    Także tu nie chodzi o Geld (w dzisiejszych czasach stać nas na wszystko ;)) tylko o Jakość obrazu.
    Nie samymi FPS granie stoi....
    Może komuś się chce to wytłumaczyć, bo ja jadę do firmy zaraz ;)


  18. ... @15 ja już oddałem RX470 OC+ 8GB 8GHz synowi... (autor: SebaSTS | data: 13/08/18 | godz.: 11:25)
    ... mi styka do WoT używka GTX 1050 OC do FullHD :-) Kopać już nie muszę...

  19. djXone (autor: pawel1207 | data: 13/08/18 | godz.: 12:52)
    jak nie widzie rwania obrazu to nie ma sensu go stosowac w tym przypadku czy masz nv czy nie nie ma znaczenia looco wystarcvzylo by aby koles wlaczyl normalnego albo adaptive synca i po sprawie soory gralem z feesyncem i gralem z giesyncem i nadal nie o garniam o co ten caly placz w wiekszosci wypadkow wystarczy zwykly sync :D czesto nie ma nawet potrzeby jego stosowania wczesniej jakos gralo sie bez syncow i bylo ok puzniej nv naglosnila sprawe i zaczal sie placz :D. i loco owszem karty znikna a wiesz czemu bo dostepnosc jest zalosna a do kopania sa ok ati to chyba gornicy obecnie tylko kupuja a i tak trzeba underwolting zrobic zeby zabawa miala sens.. podsumuje za ta samo cene dostajesz karte mniej pradorzerna szybsza w grach a i tak kupujesz grzejnik do kopania bo ma freesync ..no nie mow mi ze to nie fanatyzm ..


  20. Ślepy Pawle (autor: TeK | data: 13/08/18 | godz.: 15:32)
    Jak nie widzisz rwania i przycinania to ok ale normalni ludzi z normalnym wzrokiem to widzą więc sobie daruj te daremne wywody. Przy właczonym VSyncu nie widać przycinania tylko gdy karta utrzymuje ilość klatek zawsze co najmniej na poziomie częstotliwości odświeżania monitora. Kiedyś się grało w 320x200 i tez ludzie nie płakali...
    A Adaptive Sync to standard VESA i w kartach NV go nie uświadczysz co najwyżej Adaptive VSync.


  21. @freesync (autor: Deathraw | data: 13/08/18 | godz.: 15:39)
    Ktoś mi może wytłumaczyć na czym polega różnica między freesync i vsync programowym? W sensie co zauważę, że jest warto kupować nowy monitor i nową kartę?

  22. @pawel1207 (autor: djXone | data: 13/08/18 | godz.: 16:52)
    Nie wiem jak słaby wzrok trzeba mieć, żeby nie widzieć rwania obrazu, mi to od zawsze przeszkadzało. Nie mów, że kiedyś nie grało się bez Vsync bo ja korzystam z tego co najmniej od 15 lat i jest to zawsze pierwsza rzecz którą zmieniam w ustawieniach.

  23. @sync. (autor: Mariosti | data: 14/08/18 | godz.: 10:23)
    V-Sync działa idealnie jeśli gpu dostarcza minimum 60 fps, wtedy masz cały czas 60 fps na ekranie i nie ma żadnego rwania, jest stała płynność, a wszelkie dodatkowe klatki które gpu mogłoby wygenerować nie są generowane.

    Rwanie pojawia się kiedy gpu nie daje rady zawsze tych 60 fps wygenerować, wtedy pojawiają się bardzo widoczne artefakty na ekranie.

    Freesync i gsync wnoszą do tego mechanizmu dynamiczną długość wyświetlanej przez monitor klatki która to dyktowana jest przez gpu które to dokładnie wie kiedy wygenerowało całą nową klatkę a kiedy nie. W efekcie mimo iż z różną płynnością, monitor wyświetla tylko pełne klatki i dzięki temu nie ma rwania obrazu (rozchodzących się krawędzi itp).

    Jeśli ktoś nigdy nie widział jak to powinno poprawnie wyglądać to mógł się przyzwyczaić.
    Jeśli ktoś zawsze miał mocnego pc'ta i nie ustawiał super hiper detali i miał stałe 60fps to też nigdy tego zjawiska nie widział.

    Zasadniczo jest to bardzo potrzebne rozwiązanie w sytuacji w której często gry oscylują wokół 30 fps, a i nie każdego stać na gpu za 4000zł do grania w wolnym czasie.


  24. @Mariosti (autor: Deathraw | data: 14/08/18 | godz.: 10:47)
    Powiem szczerze, że żadnych artefaktów, czy rwania nie zauważyłem nigdy przy spadku fps. Zauważyłem za to, że jak fps spadały poniżej powiedzmy 45 i potem gwałtownie skakały to był wkurzający stuttering. Nie zauważyem problemów z rwaniem krawędzi, ale może to wynikać właśnie z tego faktu, że rzadko te fpsy lecą poniżej. Mój r9 290 obsługuje freesync, więc chętnie to zobaczę jak znajdę znajomego z monitorem, który go obsługuje jak faktycznie wygląda różnica.

    Czy w tandemie konsola+tv też takie rzeczy mają miejsce? Czy też czuje się ten brak freesync?


  25. 25. (autor: pwil2 | data: 14/08/18 | godz.: 11:30)
    Najmocniejsza konsola świata i najnowsze TV obsługują FreeSync :-)

  26. @Deathraw (autor: loccothan | data: 14/08/18 | godz.: 11:38)
    Nie da rady tego poprostu opowiedzieć.
    Jak masz mozliwość to idź do jkaiegoś większego sklepu i poproś o podłączenie Radka+Freesync (nie musi być HDR zwykły FS na IPS) i sobie sam pograj 10min a będziesz wiedział :D
    -> na 100% zauważysz różnicę

    Mym słowem:
    1. Cud miód i super płynny obraz, jak byś grał na CRT :D
    Zajebiście było na Fury i teraz jest na Vega.

    Tu masz coś na deser ;)
    Dziś sprawdzałem nowe Pre-WHQL 18.8.1
    Tak przełamałem 28k w 3Dmark :D (Vega szła do 1762MHz, to ustawienie 1790Mhz jest tak zwanym górnym limitem, jeśli v styczy i potrzeba to da ;-)

    -> http://i65.tinypic.com/29x67uu.jpg


  27. @loccothan (autor: Deathraw | data: 14/08/18 | godz.: 12:02)
    Dobrze że masz WC, bo przy takich taktach to pewnie tdp pod 300W podchodzi. Ja niestety bez klimy niedałbym rady z moim r9 290 nawet po zmniejszeniu power limitów i lekkim UV.

  28. @Deathraw (autor: loccothan | data: 14/08/18 | godz.: 15:23)
    Razem z HBM2 ok 210tW
    WC + UV robi swoje ;)

    Tak naprawdę to Vega jest 2.7x bardziej oszczędna od Fiji.
    żeby zrobić 7.5k jak GTX1080 potrzeba ok. 122tW :D (Tak też mierzyłem)

    Tuż przed rekordem (z HWinfo) prawie 28k lol
    -> http://i64.tinypic.com/2ldzog1.jpg

    A średnio w graniu wychodzi ok. 67tW (liczę z CPU) w Forza MS7
    Dziś mierzyłem, jak się mają te do WHQL które z parę dni będą dostępne.
    (dla porównania, bo zwykle WHQL lepiej się kręcą i są bardziej Eco)

    -> http://i68.tinypic.com/358uhoh.jpg

    Pozdro Bratan'


  29. @Cd (autor: loccothan | data: 14/08/18 | godz.: 15:26)
    Ok 1h potrzeba mi było żeby zForzathonić ;) Mazdę i Ferrari :D

  30. hmm (autor: pawel1207 | data: 15/08/18 | godz.: 00:54)
    czyli ze hmm freesyc czy gie sync ma sens jednynie na budzrzetowych kartach co nie pociagnja tych 60 w fhd no to rozumiem czemu fani amd maja takie parcie na freesynca :D

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.