Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Piątek 18 października 2013 
    

G-Sync, moduł co wyeliminuje opóźnienia w przesyle obrazu


Autor: Wedelek | 19:06
(18)
Technologia Vsync, czyli synchronizacja pionowa, pomaga wyeliminować problemy z „szarpaniem obrazu”, dostosowując ilość klatek przesyłanych do monitora przez kartę graficzną do jego możliwości. Niestety opcja ta negatywnie wpływa na wydajność, dlatego spora część graczy z niej nie korzysta. Do tego dochodzą różnego rodzaju problemy związane z opóźnieniami w przesyłaniu danych, które raz są większe, a raz mniejsze, co powoduje powstawanie tzw. mikroprzycięć, mimo iż akcelerator generuje dostatecznie dużą ilość FPSów. Oczywiście są to skrajne przypadki, często spowodowane niedostateczną optymalizacją silnika graficznego gier.

Całkiem niedawno z takimi problemami borykało się AMD, którego Radeony w niektórych grach miały problem z płynnym wyświetlaniem obrazu (chodzi o efekt widoczny na monitorze, a nie ilość generowanych FPSów).

Problem ten jest na tyle poważny, że Nvidia stworzyła moduł o nazwie G-Sync, montowany w monitorach, który przejmie na siebie komunikację z GeForce’ami, zmniejszając do minimum opóźnienia i problemy z synchronizacją ilości generowanych klatek, między innymi poprzez zmuszenie monitora do płynnej zmiany współczynnika odświeżania do najbardziej optymalnego w danym momencie poziomu. Monitory wyposażone w G-Sync będą też mogły działać z nietypowym odświeżaniem, czyli np. 85Hz zamiast 60Hz. To nie tylko poprawi płynność wyświetlanego obrazu, ale i wyeliminuje spadek FPSów obserwowany po aktywacji Vsync.

Pierwsze monitor z G-Sync do sprzedaży trafią w pierwszym kwartale 2014 roku.



 

    
K O M E N T A R Z E
    

  1. hmm (autor: Kosiarz | data: 18/10/13 | godz.: 20:09)
    ja tam gram z V-Sync'iem ale z poziomu aplikacji bo o dziwo daje wg mnie lepsze rezultaty niz z poziomu catalystow.

    w CS:GO zdecydowanie plynniej - pomimo ze robi ponad 120FPSow (monitor 60Hz)

    w Dirt 3 bez V-Sync'a nie da sie grac (szarpie tnie i wogole dupa zbita)w Full HD Ultra a z V lyka nawet z 8xMSAA caly czas 60FPS

    jedynie StarCraft 2 dziwnie sie zachowuje z wlaczonym V i przy szybkim przewijaniu mam wrazenie ze zostawia cienie z poprzedniej klatki 0o, po wylaczeniu problem znika.

    karta caly czas 6950 i monitor ASUS VKcostam 27" 60Hz po DVI


  2. w teorii (bo ciezko zobaczyc to na 30fpsowym filmie) prezentuje sie zajebiscie (autor: daver | data: 19/10/13 | godz.: 00:33)
    ale ta plytka wyglada na drogi gadzet (gigantyczny procesor, wlasna pamiec(?)). To pewnie doda ze 100 baksow do ceny i tak drogich, gejmingowych monitorow.
    Ciekawe czy to to ogranicza sie do gier/programow DX/OGL. Fajnie byloby miec czystego X11 bez tearingu.


  3. @02 (autor: agnus | data: 19/10/13 | godz.: 02:10)
    Panie drogi, nie chce nikogo obrażać ani prowokować ale na usta ciśnie mi się "sam jesteś gejmingowy". Proszę... czy tak trudno napisać "monitorów dla graczy"? Wtedy widać jakie to stwierdzenie jest idiotyczne (polskie ale i angielskie również).
    Z uszanowaniem..


  4. @01 (autor: Plackator | data: 19/10/13 | godz.: 11:01)
    Kosiarz, to samo mam na HD6950@HD6970, o dziwo u kolegów z innymi kartami AMD, v-sync powoduje spadek komfortu grania.

  5. hmm (autor: loccothan | data: 19/10/13 | godz.: 15:54)
    My posiadacze CRT-ków podobnych problemów nie mamy, a po drugie zbliza się OLED wielkimi krokami a tam nie ma LCD-kowych Tearingów, @lol@ ALe zobaczymy co z tego wyniknie, he he wyłuskać dodatkowe pare baksów $ na graczach a nV jest w tym chiba najlepsze

  6. @5 full hd na 20 calowym crt... (autor: pi_3-14 | data: 19/10/13 | godz.: 16:36)
    ... to musi być przeżycie ; )

  7. @06 (autor: Plackator | data: 19/10/13 | godz.: 17:08)
    Tylko jaka to krowa jest, przez to że nie da się zrobić płaskiego kineskopu.

  8. U znajomego sie tez to zdarza na filmach... (autor: gantrithor | data: 19/10/13 | godz.: 17:10)
    jakies 200 lini od gory telewizora pojawia sie przerwa w obrazie i gorna czesc filmu czasami sie spoznia, zdarza sie to zawsze po wczesniejszym mocnym wielko wielogodzinnym obciazeniu komputera pomaga restart kompa system win 7 proc 2,5ghz quad radeon 5970.

    Moze to faktycznie jakas przypadlosc radkow chociaz u jego brata na podobnym sprzecie ale z 5950 nic takiego sie nie dzieje.


  9. tearing nie jest powodowany rodzajem monitora (autor: RusH | data: 19/10/13 | godz.: 17:24)
    tylko karta w polowie wyswietlania klatki zaczyna wyswietlac kolejna, tak samo to wyglada na lcd, crt czy plazmie

    juz kilka lat temu ktos (nec?) pokazywal monitory z wbudowanym buforem i zmodyfikowany driver przesylajacy tylko nowe klatki, brak zmiany na ekranie = nic nie bylo przesylane przez co calosc oszczedzala energie

    tutaj mamy to samo, tylko ubrane w inny PR, ten kontroler NV siedzacy w monitorze buforuje cale klatki, jedyna nowosc to dynamiczna zmiana odswiezania samego lcd, szybciej gdy dane leca szybciej, wolniej gdy karta nie nadaza z liczeniem badz nic sie nie dzieje


  10. Vsync (autor: Star Rider | data: 19/10/13 | godz.: 19:17)
    Bo to nak naprawdę problem kart Nvidi. Miałem ostatnio możliwość potestować 660Ti w zamian mojego obecnego HD6950. Myślałem o zmianie ze względu na zabawę z Blenderem i renderowanie przez CUDA. Wszystko było super gdy testowałem. Mniej więcej pokrywało się z wynikami testów na stronach internetowych, NV była często szybsza o te kilka-kilkanaście procent. Schody zaczęły się gdy już chciałem normalnie pograć, zawsze mam włączony V-sync i filtrowanie anizo. X3 AP zadzaiłało kolorowanie jednostek czego nie obsługiwało ati, gra minimalnie lepiej komfortowa. W Metro i ostatnim Stalkerze v-sync działa, na ati musiałem używać "d3doverrider", co z tego jak gra chodzi wtedy dużo wolniej niż na ati. Rage, to koszmar po prostu, w pomieszczeniach lekko przycina, na zewnątrz szarpie na nv jak diabli. Ati ultra płynnie. Z wyłączonym v-sync odwrotnie, nv ma więcej klatek, nie ma przycięć ale jest szarpanie obrazu. Nv ma jeszcze włączanie s-sync np od 60 klatek/s, czyli do 60 nie działa a powyżej włącza się automatycznie... wtf? Czyli we wszystkich wymagających tytułach i tak nie działa... lol. Mój monitor ma natywne 1920x1200. Dalej Minecraft z optifine, na ati chodzi AA, V-sync i to wszystko płynnie bez problemów na full jakość. Na NV trzeba kombinować, wyłączać optymalizację wielowątkową w sterach, AA nie zadziałał, płynności z V-sync nie ma. BF3 to samo, granie na full na NV z V-sync to porażka. Przetestowałem w sumie z kilkanaście gier i za 660 Ti podziękowałem i Ati wróciło. Żeby nie było że jestem jakimś tam "fanbojem" to w komputerze mam również GTX 460 na którym renderuję i którego używam w grach jako akceleratora psyhx.

  11. na nV mozna wlaczyc w sterach adative Vsync - wspaniala opcja (autor: zgf1 | data: 19/10/13 | godz.: 19:22)
    gram na tym od dawna, radze sprobowac

  12. @8. (autor: Kosiarz | data: 19/10/13 | godz.: 19:27)
    znajac zycie to po prostu TV lubi miec 59Hz a nie 60 ;) sprobuj tylko TV do kompa podlaczyc i recznie ustawic odswiezanie na 59.

  13. 6@. (autor: loccothan | data: 20/10/13 | godz.: 01:46)
    Mój Soniak ma natywną 1920:1440 85Hz (najwyższa w 75Hz to 2k:1.5k) więc u mnie FHD to troche więcej niż na LCD-eku. Ale taki monitor jak mój na E-Bay kosztuje 950$ lol, ciekawe czemu? Ja go uzywam i wiem ;-) POZDRO, a jak bedę zmieniał to dopiero na OLED 4k

  14. 7@. (autor: loccothan | data: 20/10/13 | godz.: 01:48)
    Krowa jak jasna cholera 40kg lol, ale mam duzo miejsca na biurku, bo biórko mam wielkie ;-) pozatym, przyzwyczaiłem się ON ma już 7 latek, i nie widać po nim tego :-)

  15. Poprawcie tytuł co razi w oczy... (autor: pi_3-14 | data: 20/10/13 | godz.: 22:27)
    co to jest "moduł co"? ;)

  16. Skończy sie tak (autor: mbe | data: 21/10/13 | godz.: 08:42)
    Że NV ze spoconym chinolem doda ten syf do monitorów co by wyrwać kase od producentów a AMD doda podobne ustrojstwo które będzie " filtrować sygnał" przed wyjściem z karty i nie będzie brać za to jak za zborze.

  17. długa droga jeszcze.. może kiedyś (autor: puppy | data: 21/10/13 | godz.: 10:06)
    Przynajmniej w moim przypadku, bo tzw. "monitory dla graczy" zabijają mnie swoją "jakością" obrazu. Kiedy za technologię weźmie się eizo w sekcji półprofesjonalnej, w rozdzielczości conajmniej 2,5x1.4, odświeżaniu conajmniej 100hz i przy rozsądnych opóźnieniach, dopiero będzie sens zrezygnowania z "żylety". Szkoda oczu :)

  18. Hehhhhhh (autor: Shamoth | data: 21/10/13 | godz.: 10:15)
    Kolejna marketingowa papka i szmata żeby sobie nią w przyszłości wycierać gębę jak nie będzie dało się bezpośrednio porównać kart nV z konkurencją, która nie będzie prawidłowo działać na monitorach z logiem nV(obcinanie wydajności, rzekomo spowodowane brakiem optymizacji - lub biosu ze zmienionym vendor ID, jak to ma często miejsce w produktach z logiem MTBP) a na innych monitorach nV nie będzie chciała nic wyświetlić poza pulpitem...

    Jedyna sytuacja kiedy tearing może być odczuwalny występuje wtedy gdy GPU generuje nieproporcjonalnie więcej klatek niż monitor jest w stanie wyświetlić a włączenie magicznego v-sync zazwyczaj rozwiązuje problem, o ile karta i sterownik potrafią prawidłowo wykorzystać sygnał zwrotny z monitora. Natomiast kiedy gpu generuje miej niż 60 klatek nie zauważam tearingu przy wyłączonym v-sync, może dlatego że głównie odczuwam dyskomfort spowodowany opóźnieniem między reakcją monitora/gpu na moją akcję/reakcję na to co widzę. Włączanie v-sync w takiej sytuacji jeszcze pogarsza efekt bo co z tego że mam płyny obraz... przy 45-30fps, kiedy po odejściu od komputera po godzinnej sesji w takich warunkach jestem co najmniej mocno skołowany i "odklejony" od rzeczywistość, która przez chwilę wydaje się za szybka/płynna i mam wrażenie że nie nadążam za nią...

    IMHO 30fps jest płynne ale do oglądania filmu a nie interakcji z otoczeniem, tak wiem zaraz ktoś wyskoczy z tekstem że 25fps to tyle co oko widzi, tylko że nie bez powodu klatki są podwójnie wyświetlane np. w kinie i w ten sposób ilość "mrugnięć" jest podwajana bo niestety oko przeciętnego człowieka przestaje reagować/dostrzegać mruganie dopiero przy 48 mrugnięciach na sekundę/Hz. Jednak są tacy z którzy widzą jak światło jarzeniówki drga, czego reszta grupy może nie obserwować bo mają próg poniżej 50Hz...

    Ja rozumiem że się starzejemy i z wiekiem spuszczamy z tonu i wymieniamy CRT, na którym ustawiało się minimum 75Hz i gry na zbliżony fps, na LCD, na którym zadowalamy się 60Hz/fps przy minimalnym input lag'u.
    Ale to co nV chce teraz wcisnąć w monitory pod przykrywką gaymingu to to już upośledzanie tego "sportu" i zaniżanie predyspozycji do jego uprawiania... Nie, nie jestem jakimś tam Handicapistą i nie dyskryminuję niepełnosprawnych bo zdecydowanie wolę obejrzeć dużo bardziej emocjonujące zawody paraolimpijczyków, gdzie widać że się starają i dają z siebie 110% normy, niż oglądać poczynania np. naszej ligi...

    Kiedyś na lanparty wyłączało się predykcję i kompensację, wyciskało maksimum fps na maksymalnych odświeżaniach monitora i dopiero wtedy zaczynała się prawdziwa hardcorowa rozgrywka w której liczył się refleks, precyzja i umiejętności/ogranie.
    Obecnie śmiem twierdzić że zaczyna nam rosnąć upośledzona generacja geymerów, praktycznie wszędzie zafixowana predykcja i kompensacja, pełno graficznych wodotrysków przy ultra płynnych 30fps które podobno są jak najbardziej grywalne i ograniczenie do wciskania 4 klawiszy na klawiaturze w odpowiedniej sekwencji do aktywowania umiejętności...

    Przepraszam za ten wylewny post ale po prostu rzygać mi się chce jak co chwilę wciskają nam kolejny dobrze opracowany PR'owsko "feature", który ma się nijak do postępu technologicznego a jedynie tłumaczy obniżanie kosztów/jakości i niechęć/nieudolność postępu technologicznego... no bo na czymś trzeba zarabiać.
    Na prawdę takim problemem jest opracowanie dobrego drivera do LCD żeby zmniejszyć imput lag, który przekłada się na granie z włączonym v-sync a którego nieco bardziej wymagający gracze nie włączają bo opóźnienie związane z input lagiem przyprawia ich o mdłości... Fakt niektórym producentom w niektórych modelach nawet to wyszło i input lag w porównaniu do CRT jest minimalny...

    Innymi słowy jeśli nasze GPU nie nadąża za ichnym monitorem to trzeba go spowolnić, dobrze opisać, uargumentować a gaymerzy to kupią...


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.