Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Środa 24 października 2018 
    

G-Sync i SLI nie lubią się ze sobą


Autor: Wedelek | źródło: ExtremeTech | 18:18
(8)
Nie od dziś wiadomo, że G-Sync, czyli technika synchronizacji komunikacji pomiędzy kartą graficzną i monitorem negatywnie wpływa na wydajność obniżając o kilka procent uzyskaną ilość FPSów. Od jakiegoś czasu pojawiały się jednak doniesienia sugerujące, że spadek ten jest szczególnie duży, jeśli użytkownik korzysta z technologii SLI pozwalającej na łączenie ze sobą kilku kart graficznych oraz najnowszych sterowników. Ponoć jeszcze w wersji 391.xx problem był mniej dotkliwy niż obecnie. Portal ExtremeTech postanowił sprawdzić czy faktycznie jest aż tak źle wykorzystując w tym celu dwa GTXy 1080 oraz monitor Acer XB280HK (4K, 60Hz) i zestawiając uzyskane wyniki z pojedynczym GTXem 1080Ti.

Okazuje się, że problem faktycznie istnieje i o ile w przypadku pojedynczej karty spadek wydajności po uruchomieniu G-Sync nie jest przesadnie duży tak w przypadku konstrukcji zbudowanych z dwóch kart spiętych mostkiem SLI różnica potrafi być olbrzymia. Generalnie z uwagi na opóźnienia im wyższy FPS osiąga karta przed uruchomieniem G-Sync tym boleśniejsze jest jego uaktywnienie. Co ciekawe nie ma wyraźnej korelacji pomiędzy G-Sync a różnymi wersjami DirectX, a poszczególne gry potrafią się zachowywać skrajnie inaczej. Przykładowo w Wiedźminie 3 spadek wydajności to „zaledwie” 10%, ale w najnowszym Deux Ex czy Rising Storm 3 różnica jest ogromna. W tym ostatnim tytule mamy do czynienia ze zmniejszeniem ilości FPSów z 206 do zaledwie 75.

Niestety wiele wskazuje na to, że nie ma żadnego sposobu na rozwiązanie tego problemu w obecnych kartach z serii Pascal i należy mieć jedynie nadzieję, że Turing radzi sobie na tym polu lepiej.



 


    
K O M E N T A R Z E
    

  1. @news (autor: Dather | data: 24/10/18 | godz.: 18:57)
    Problem znany od 2016 roku i teraz nagle wychodzą te "kfiatki" z g-sync? Śmiech na sali! Poza tym jak to dwie technologie od zielonych i gryzą się... przecie to nie możliwe! :D

  2. @temat. (autor: Mariosti | data: 24/10/18 | godz.: 19:19)
    Deklasacja!

  3. G-Sync i producenci monitorów... (autor: 5eba | data: 24/10/18 | godz.: 21:19)
    tez sie za bardzo nie lubią ;)

  4. nie zdziwilbym sie (autor: Sony Vaio Zamiatajo | data: 24/10/18 | godz.: 23:41)
    gdyby NV nie odniosl sie do tych newsow albo po prostu nic nie zrobia z tym. SLI jest juz wlasciwie martwe,bo niby kto dzis w domu ma dwie karty spiete w SLI? Kiedys mialo to wiekszy sens aby zagrac sobie w 2K i 60fps, ale w obecnyh czasach gdy na 1080Ti mozna sobie pograc w wiekszosc tytulow w 4K i 60fps to taki ficzer w postaci SLI mija sie z celem,nie mowiac juz o stronie finansowej.

  5. @4. (autor: g5mark | data: 24/10/18 | godz.: 23:49)
    co ty pitolisz Zamiataczu, 2K w 60fps w SLI?|To produkt marketingowy,nikt normalny tego nie kupowal oprocz testerow i ludzi z przerostem gotowki i niedorozwojem intelektualnym.Kiepsko sie skaluje i sa ciagle problemy z wieloma tytulami w SLI mimo ze NV promuje specjalne profile dla gier,nie dziala to zbyt dobrze.

  6. wszystko zgodnie z planem (autor: Qjanusz | data: 25/10/18 | godz.: 09:43)
    rozwiązaniem problemu jest SLI zbudowane z RTXów.

    Po prostu nVidia wskazała kierunek, a ludzie doszukują sie nie wiadomo czego. Tehnicznie rzecz ujmując, mostki SLI, często dodawane gratis, są zbyt proste w swojej budowie, zbyt ubogie w ledy i nie przystające do dzisiejszych standardów. To się zdarza z przestarzałymi technologiami.
    Nowe mostki nvlink z kolei sa znacznie bardziej zaawansowane w megabajty, gigapixele i hiperprzepustowość. Ok, kosztują te 80$, ale to i tak bardzo atrakcyjna cena, za cieszenie się z nieprzyciętej wydajności multiPGU.


  7. G-Sync i SLI nie lubią się ze sobą (autor: Marucins | data: 25/10/18 | godz.: 22:41)
    No co. Toż to jest idealne :)

  8. @05 (autor: KamieniKupa | data: 26/10/18 | godz.: 14:11)
    Dzięki - korzystam z ok. 200 nodów, z 4 GTX 1080Ti w każdym, jestem zatem niedorozwojem intelektualnym ?

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.