Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 26 października 2018 
    

Pojawi się Radeon z 7nm GPU Vega?


Autor: Wedelek | źródło: VideoCardZ | 05:45
(32)
Do sieci trafiły nieoficjalne wyniki wydajności Vegi 20 w benchmarku Final Fantasy XV, a więc teście zoptymalizowanym pod kątem obsługi kart Nvidii z rodziny RTX i ze wsparciem dla technologii DLSS. Urządzenie o ID 66AF:C1 plasowało się pod względem wydajności pomiędzy Radeonem RX Vega 64 a GeForcem GTX 1080 przy czym nie wiadomo z jakimi zegarami działała wytwarzana w 7nm litografii Vega 20. Widoczne w dalszej części newsa testy są o tyle istotne, że do tej pory AMD zapowiadało jedynie model z serii Radeon Instinct, a ten jak wiadomo nie ma wyjścia wideo, więc nie byłby w stanie wygenerować żadnego obrazu.

Zostają więc trzy możliwości: testy są nieprawdziwe, mamy do czynienia z próbką inżynieryjną Instincta lub niezapowiedzianą jeszcze kartą z serii Radeon.


 


    
K O M E N T A R Z E
    

  1. mamy do czynienia z palca wyssanymi fake newsami, (autor: Qjanusz | data: 26/10/18 | godz.: 08:44)
    których niestety będzie bardzo dużo, jeżeli jesteśmy przy temacie "nowe GPU od AMD".




  2. no ale jak to ? (autor: bajbusek | data: 26/10/18 | godz.: 10:05)
    Locuś ?

    Przeca STARA Vega jest wdyajniejsza od GTX1080 ... a zapomniałem - w 3D Marku ... skończyłeś już tego 3D Marka ? Czy teraz robisz na HARD ?

    :D


  3. @up (autor: piwo1 | data: 26/10/18 | godz.: 10:15)
    tez mark jest pod nvidie. z tego wykresu wazniejsze jest ile vega20 jest szybsza od vegi64. a jest moze 10%. myslalem ze ta karta bedzie spora modyfikacja bo sporo mowilo sie pol roku temu o wersjach inzynieryjnych ktore mialy by miec wydajnosc ponad 50% wieksza. a wychodzi ze to dziadostwo neistety bez wplywu wiekszego na wydajnosc. bardziej pewnie na pradozernosc. czyli dostaniemy karte o wydajnosci i poborze mocy jak gtx1080 za cene pewnie 2 krotnie wyzsza.

  4. @up (autor: bajbusek | data: 26/10/18 | godz.: 11:42)
    tlumaczenie, ze wszystko jest pod nvidie poza paroma tytulami nie przysporzy AMD klientow na ich GPU ... jakos z CPU w swiecie Intela sie potrafia odnalezc. Zycze im tego samego w GPU, mam moniotr z Freesync i chetnie zamienie nV na AMD

  5. @piwo1 (autor: Qjanusz | data: 26/10/18 | godz.: 11:58)
    niczego nie dostaniesz. Przynajmniej nie prędko.
    Jeżeli wszystko jest pod nVidię, to po co kupować AMD?

    Teraz jest czas siedzenia na Pascalu. Jak kto lubi AMD, niech bierze na przeczekanie tanie, używane R9 Nano jako odpowiednik wydajnościowy 1060 i na nim ooczekuje cudów od AMD.


  6. @Temat (autor: loccothan | data: 26/10/18 | godz.: 12:35)
    Test Vega64 Vs 2080 ;)
    Doom, Wolf, Forza itd.

    https://youtu.be/m_JJ9Pa_5cA


  7. @Cd (autor: loccothan | data: 26/10/18 | godz.: 12:39)
    A Ja osobiscie nie czekam na nic z GPU do min. 2019/2020 roku.
    Ponoć Navi ma być GPU za 199Eu a wydajność ma mieć Vega 56 ;)
    AMD/ATI mają inne podejście, zamiast gonić behemota nV (Tak 2080Ti to czip 750mm2 ;) Vega 64 Duo by to przegoniła) wypuszczą Tani i dobry GPU dla mas in-plus jest FreeSync 2 i HDR.

    Zmienię tylko ZEN na ZEN2


  8. @5. (autor: pwil2 | data: 26/10/18 | godz.: 12:52)
    Pascala to się kupowało na premierę, a nie teraz, gdy RTX jest "promowany"...

  9. c.d. (autor: pwil2 | data: 26/10/18 | godz.: 12:53)
    Sam czekam na dostawę swojego RTX2070 :-)

  10. c.d. (autor: pwil2 | data: 26/10/18 | godz.: 12:58)
    Choć mam wątpliwości, czy wydajność będzie usprawiedliwiała cenę 4x większą od tego co dałem za RX570 na przeczekanie... Tym bardziej jeśli testy RTX były tak samo wiarygodne jak te i9-tki ;-/

  11. @loccothan (autor: Qjanusz | data: 26/10/18 | godz.: 13:03)
    jeżeli RX590 będzie dobrze kosztował, zapewni wystarczającą moc, to w połączeniu z tanimi w sumie monitorami FS2+HDR będzie doskonałą platformą docelową dla gracza, który gra w gry a nie w 3dmarki i słupki wydajności. Jedyny argument przeciw Pascalom.

    Plotka głosi że AMD rzuciło wszystkie siły jakie mogło, do prac nad APU do kolejnych konsol. Jeżeli to byłaby prawda, to GPU które będzie w ofercie dla PC, będzie co najwyżej pochodną wypracowanego już wcześniej materiału dla konsol. To oznacza segment średni. A to oznacza z kolei ceny RTXa dalej na poziomie 5 k pln.


  12. @pwil2 (autor: Qjanusz | data: 26/10/18 | godz.: 13:10)
    2070 jest zdecydowanie wydajniejszy od 570 i skoro już zamówiłeś, nie wnikaj w pozostałe kwestie :-)


  13. AMD ma strategię (autor: Mario1978 | data: 26/10/18 | godz.: 14:41)
    by wyjść z tego cało dlatego publikowanie takich wyników , które nie mają lub mają coś wspólnego z rzeczywistością jak widać ma na celu wywołania u anty fanów tej marki śmiechów i chichów łącznie z upokorzeniem.Ta karta będzie typowym przedstawicielem profesjonalnego rynku co nie oznacza użycia jej przez graczy a sam wynik można nazwać dobrym gdybyśmy znali szczegóły taktowania układu.Pewnie mamy tu do czynienia z zegarem 1Ghz dla rdzenia i zaczyna się podkręcanie silnika.Jeżeli poprzednie wycieki spełnią się w 100% i karta ze swoimi rzeczywistymi ponad 4000 jednostek GCN będzie osiągać około 21TF w FP32 to na takie coś właśnie liczę z rdzeniem dla Turbo Boost ustawionym na poziomie 2499Mhz.Wszystko poniżej będzie dla mnie wewnętrzną porażką tej firmy bo przecież dopiero pełną wersją pełnoprawną będzie właśnie Vega 20.

  14. loccothan (autor: bajbusek | data: 26/10/18 | godz.: 16:08)
    obejrzalem ten filmik na youtube ... i dostaje tam Vega64 tak po dupie od tego RTX, ze az dziw czemu nie z GTX1080 zrobili porownania ?

    W wiekszosci tytulow to jest 50% przewagi RTXa i widac, ze sie nudzi bo bierze 97-99% mocy a Vega cały czas 100%

    Przestan to wklejac bo sie osmieszasz ... co do Forzy to ona dobrze chodzi nawet na xboxie więc co tu porównywać ?

    Ja wiem, ze fanboyowi wystarczy jeden filmik na youtube, 100 000 innych nie mają znaczenia ... ja pierdole, ze ty kiedys tutaj newsy pisales :)


  15. Jak juz krytykowac (autor: biuro74 | data: 27/10/18 | godz.: 02:49)
    to bez wlazenia w to, co sie krytykuje:

    " i widac, ze sie nudzi bo bierze 97-99% mocy a Vega cały czas 100%".

    Nudy, jak jasna cholera. W tej narracji obiciazenie 90% to juz pewnie "idle", a 80% - wylaczony.


  16. @bajbusek (autor: loccothan | data: 27/10/18 | godz.: 03:33)
    Tu masz porównanie Vega GPU 384mm2 z nv 2080 545mm2 ;) (nie liczę HBM i GDDR6)
    Ale dla fanboja nv to przecież dobra rywalizacja ;)
    jak chcesz porównać czipy to oblukaj 2xVega i 2080Ti (które i tak jest większe od nich dwóch ;))
    I w każdej (prawie) grze dostaje twoja nv po tyłku :D
    Nie dokazuj, Ja wolę Radka to fakt (ale do fanboja mi daleko)
    w nV masz to samo ale drożej i tyle.
    W żadnej grze nv 2080Ti nie osiąga 144FPS 0.1% żeby używać 1440p 144Hz G-synca ;)
    Nawet z 9900k 5.2Ghz
    -> i nie atakuj mnie więcej.


  17. @Cd (autor: loccothan | data: 27/10/18 | godz.: 03:44)
    Fakt jest jeden, każdy sam zarabia (na siebie i Rodzinę)
    I liczy się każde Euro (głownie w rzeszy siedzę), i przepłacać za nV nie zamierzam.
    Mam system 1440p z min. 70FPS w każdej grze w dobrych ustawieniach (głównie Ultra/High) i nie narzekam.
    Ktoś kto jest fanbojem tocy bezsensowne walki o tzw. "brand", Ja tak nie robię. Cena/Jakość/Wydajność = Radeon+ FreeSync i nic tego nie przebije do 1k Euro ;)


  18. loccothan (autor: pawel1207 | data: 27/10/18 | godz.: 10:14)
    tego nie da sie porownac szczeze vega byla wtopa od filmy pokazuja ze nic sie w tej kwesti nie zmienilo i tak juz zostanie to bylo projektowane pod minerow i tego nie zmieni nawet tysiac zaklec poczatku i na zostanie porownujesz czip z rtx i jeczysz ze spory jest ?::D jak chesz tak porownywac to moze porownajmy pref/watt jak juz bardzo chesz jakis horych testow to porownajmy jescze powierzchnie na watt :D a nawet ipc per watt chlp[ie vega przy swojej powierzchni grzeje sie jak wsciekla kiedy 2080 sobie spokojnie powoli kreci wiatrakami na 50% :D ajesli juz chesz tak porownywac to odpal jakies rtxowe demo na na tym twoim cudzie i placz chip od nv jest spory bo ma dodatkowe jednostki chocby tc i rtx obecnie amd nie jest w stanie zagrozic nv bo po prostu nie ma czym gcn to jest kilkuletni kotlet poprawiany i updejtowany do skali absurdu stad takie zurzycie pradu na vegach jednosti sa zdublowane jest w nim masa waskich gardel itp zabytkow jest to staroc ktory byl dobry jescze 3 lata temu dzisiaj nie ma racji bytu .. problemem jest ze amd nie ma pomyslu na gpu a brak konkurencji to wysokie ceny w wzrosty wydajnosci na poziomie 10 % rocznie jesli nic sie nie zmieni w tej kwestii to wszyscy dostana finansowo po dupach czy fani nv czy amd :D a rozwoj gpu spowolni strasznie ..


  19. @up (autor: piwo1 | data: 27/10/18 | godz.: 10:30)
    a cuda to nie odgrzewany kotlet? od kilkunastu lat w kolko to samo. intel tez tylko kotlety. ciegle odgrzewa te pentium 2.

  20. @loccothan (autor: bajbusek | data: 27/10/18 | godz.: 19:18)
    szczerze i bez trollingu ... daj spokój.

    "w nV masz to samo ale drożej i tyle."
    Zaklinasz rzeczywistość - Vega64 w większości testów wypada gorzej od GTX1080 w 1080p, w 4K różnica się zaciera i Vega64 BYWA lepsza - tylko po co skoro to jest poniżęj 60FPS ?
    Wszyscy mówią, że Vega to wpadka AMD ... kupiłeś tą kartę za koszmarne pieniądze i teraz próbujesz innym udowodnić coś co już jest DAWNO udowodnione ...
    Będę cię atakował bo piszesz HEREZJE a potem ktoś kupi takiego gniota przez twoje "recenzje".
    Możesz na mnie pisać fanboj na zasadzie przekory - jak na razie to ty zachowujesz się jak fanboj AMD.
    Zasmucę cię - do niedawna miałem RX580 w HTPC i to fajna karta, jak za 750 zeta ... mnie WISI nVidia i BARDZO chce żeby AMD zrobiło GPU na miarę swoich CPU - jak zrobią GPU 10% wolniejsze od nVidii w każdym z segmentów ... ale za 50% ceny to wymienie grafę na AMD w 3 pecetach w domu od ręki - w 2 mam monitor/TV z Freesynciem, który się marnuje ...

    -> i nie bredź więcej to nie będę atakował. Albo będzie rzetelnie pisał albo będziemy trolo lolo lolo ... czep się poboru prądu jak chcesz RTXom dowalić ;)




  21. @up (autor: Saturn64 | data: 27/10/18 | godz.: 21:14)
    Na sprawę trzeba spojrzeć trochę szerzej.
    Gdy spojrzymy na wielkość firm to AMD jest tu małym króliczkiem, której wartość jest na poziomie 18,8 mld $. Intel wyceniany jest na 204,3 mld $ a Nvidia na 126,4 mld $ czyli odpowiednio Intel jest 11 razy większy a nvidia prawie 7 razy.
    Nie można od razu zakładać, że mała firma ma być we wszystkim lepsza od dużej. Zdarzają się czasem przypadki, że duże firmy mające na rynku przewagę zamiast stawiać na dalszy rozwój, tylko go delikatnie dozują a swój kapitał przejadają. Przekonane o swojej nieomylności i przewadze nad konkurencją, czasem mogą popełnić seppuku. Było tak kiedyś z wieloma firmami jak np Kodak, Nokia, Netscape, Atari, Commodore, Aiwa, Sony Ericsson, 3dFx itd. Po prostu wiele z nich nie szło z duchem czasu. Intel ociera się również o podobny scenariusz, oczywiście nie jest to już wyrok, ale ma obecnie problemy. Jak sobie z nimi poradzi czas pokaże. Nvidia mimo tego, że jest najlepsza w architekturze kart graficznych to również dochodzi do ściany. Jej układy stają się ogromne (praktycznie 2 krotnie większe od AMD) i z czasem może stać się to jej zgubą. AMD ma teraz większe możliwości konkurencji, gdyż wzięła rozwód z GlobalFoundries i stała się wolnym graczem podobnie jak Nvidia. Może teraz również projektować większe rdzenie ale może pójdzie drogą podobną jak to było w ZEN. Czyli MDM. Do tej pory nikt tego nie ogarnął, ale może się uda. Wtedy stałoby się coś co spowoduje, że AMD ogra nvidię w ilości rdzeni ( podobnie jak to miało miejsce w przypadku AMD Intel).


  22. @up (autor: Saturn64 | data: 27/10/18 | godz.: 21:21)
    Errata: MCM nie MDM

  23. @bajbusek (autor: Marek1981 | data: 27/10/18 | godz.: 23:23)
    Do Vega nikogo nie mam zamiaru namawiać ale jeśli chodzi o jakość kolorów stery to bije na głowe 1080.

  24. @Up (autor: loccothan | data: 28/10/18 | godz.: 02:15)
    Tak, tylko jak Ja mam nie pisać że Vega 64 jest OK - Jak Jest?
    Czego więcej potrzeba? 1440p 10Bit i Stabilne 70FPS w 'dole' 0.1%

    Nie zmienia to faktu że GPU jest dobry (IMO nawet bardzo dobry i niedoceniony)
    Tak to właśnie jest każdy z nas ma swoje zdanie i tyle.

    Też można powiedzieć że Intel jest lepszy od AMD ale czy tak jest naprawdę?
    Dla każdego coś miłego, Ja wolę produkty konkurencji bo sa dobrze wycenione.
    Jak to mawiają, nie ma kiepskiego sprzętu jest tylko kiepściuchno wyceniony :)

    FreeSync się liczy i tyle, to jest technologia która, sprzedaje Radeony.




  25. @Up (autor: loccothan | data: 28/10/18 | godz.: 02:29)
    Twoja kasa, twoja karta, sam napisałeś że masz 2 monitory z FreeSync -> a czemu nie z G-sync ;)
    Teraz wiesz sam po sobie że Ci to nie pasuje co robi nv cenowo -> moja Rada? głosuj portfelem, a sam się przkonasz że wcale nie jest gorzej po czerwonej stronie monitora :D


  26. @Up (autor: loccothan | data: 28/10/18 | godz.: 02:31)
    I teraz Temat uważam za zamknięty, każdy ma swoje i jest luz blus :D

  27. piwo1 (autor: pawel1207 | data: 28/10/18 | godz.: 23:09)
    cuda to ogolna nazwa dla jednostek nie dla architektory ta jak i jednostki zmienila sie co najmniej kilka razy nazwa zostala byla juz parokrotnie zreszta zobacz na zurzycie pradu kotlety zra po prostu zasze wiecej co w swoim czasie nv tez dotyczylo ... teza cierpi na tym amd ..



  28. loco (autor: pawel1207 | data: 28/10/18 | godz.: 23:14)
    skoro freesync sprzedaje radeony to nie nijak im sukcesu nie wroze radki sprzedawaly sie bo byly wydajnosciowo konkurencyjne obecnie nie sa konkurencyjne malo tego sa technologicznie w tyle i to mocno i freesync ich po prostu nie ratuje . przypomina to sytuacje z geforca 4 vs radek 9500 .. gdzie gf 4 biegal ladnie na wszytkim czego nie wymagalo dx9.0 teraz dzieki rtx i tc mamy historie odwrotna ..

  29. @28. (autor: pwil2 | data: 29/10/18 | godz.: 12:44)
    Freesync potrafi niesamowicie redukować InputLag. Do tego stopnia, że monitor mający 40-50ms na karcie nVidii ma niewyczuwalny InputLag z Freesync na karcie AMD. Mam takiego Omena, którego wybrałem bardziej do pracy, niż do zabawy, a okazało się, że na karcie AMD i to i to jest możliwe :D

  30. @27. @28. (autor: pwil2 | data: 29/10/18 | godz.: 12:46)
    Nauczyłbyś się w końcu pisać po polsku?

  31. pwil2 (autor: pawel1207 | data: 29/10/18 | godz.: 20:08)
    to swietnie pytanie po co bierzesz 2070 :D skoro freesync tyle daje poczekaj na navi ma byc z wydajnoscia okolo 1080 czyli miniej wiecej tyle co 2070 :D po co przeplacac za rtxa ? skoro na navi bedzie dzial freesync ? a tu bez freesync input lag ci wzrosnie i to sporo ? tak pytam z ciekawosci gier na rtxa prawie nie ma a na 2070 rt bedza pewnie dzialac zalosnie .... co do polskiego nie ma na to szans po prostu go niemal nie urzywam od 30 lat i ni widze sensu sie go obecnie uczyc .

  32. @31. (autor: pwil2 | data: 30/10/18 | godz.: 23:01)
    Używaj Google Translatora, a będą lepsze efekty.

    Karty nVidii bierze się na premierę albo za pół darmo. 2070 jest wydajniejsze w testach od 2080, dogania 2080Ti, a "dzięki staraniom nVidii" pewnie z czasem zacznie przeganiać. Jak się okaże, że bida z nędzą ta karta, to pójdzie do jakiegoś fanboja bez straty :-)


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.