Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2020
Wtorek 7 stycznia 2014 
    

AMD ma odpowiedź na G-Sync Nvidii


Autor: Wedelek | 14:32
(22)
Wygląda na to, że AMD doceniło i jednocześnie pozazdrościło Nvidii modułu G-Sync montowanego w monitorach, który odpowiada za idealną synchronizację monitora z kartą z rodziny GeForce, redukując nieprzyjemne efekty, jak stuttering i tearing. Dlatego też podczas targów CES mogliśmy zobaczyć technologię FreeSync, która z grubsza robi dokładnie to samo, co jej rywal, ale jest tańsza w implementacji, bowiem do działania nie potrzebuje żadnego dodatkowego układu, a jedynie karty graficznej Radeon i monitora z obsługą VBLANK. Na razie nie wiemy zbyt wiele na jej temat, a AMD zdradziło nam tylko, że FreeSync korzysta z zaszytego w Radeonach mechanizmu, który ogranicza ilość renderowanych klatek do poziomu, którego oczekuje monitor.

Co więcej funkcja ta istnieje już w Radeonach z serii HD 5000! Dlaczego G-Sync i FreeSync budzą tak duże emocje?

Otóż chodzi o to, że karty graficzne generują zmienną ilość klatek na sekundę i raz jest to np. 60FPSów, a innym razem 110FPSów. Monitor oczekuje natomiast, że non stop będzie otrzymywał np. 60 klatek, więc gdy dostaje ich mniej lub więcej musi sobie z tym faktem poradzić, a owocem jego starań są właśnie stuttering i tearing.





 

    
K O M E N T A R Z E
    

  1. Tutaj troszkę więcej o tym: (autor: loccothan | data: 7/01/14 | godz.: 14:43)
    “FreeSync” and does not require any hardware modifications at all. That is of course if your monitor supports VBLANK.

    During CES 2014, AMD used two Toshiba Satellite Click notebooks, without any hardware modifications, to demonstrate its variable refresh rate technology.

    As AnandTech noted, this “FreeSync” tech can be used when the GPU’s display engine, its panel and display hardware itself support it.

    “In the case of the Toshiba Satellite Click, the panel already supports variable VBLANK. AMD’s display engines have supported variable VBLANK for a couple of generations, and that extends all the way down to APUs. The Satellite Click in question uses AMD’s low cost Kabini APU, which already has the requisite hardware to support variable VBLANK and thus variable display refresh rates (Kaveri as well as AMD’s latest GPUs should support it as well). AMD simply needed driver support for controlling VBLANK timing, which is present in the latest Catalyst drivers. AMD hasn’t yet exposed any of the controls to end users, but all of the pieces in this demo are ready and already available.”

    And there you have it AMD fans. If everything goes well, you won’t miss the advantages of the G-Sync tech.

    FreeSync is still in early phase and AMD has not used as impressive demos as Nvidia did with G-Sync. Still, it’s better than nothing.


  2. Sry (autor: loccothan | data: 7/01/14 | godz.: 14:44)
    http://www.dsogaming.com/...ch-is-called-freesync/

    Jakieś błędy są po kopiuj wklej lol


  3. Jesli (autor: biuro74 | data: 7/01/14 | godz.: 15:05)
    "Na razie nie wiemy zbyt wiele na jej temat", to skad wiemy, ze "robi dokładnie to samo, co jej rywal" ? Przeciez monitory, nawet te wykorzystujace VBlank nie maja zmiennego framerat'u i pracuja wciaz na tej samej zasadzie, ktora to wlasnie zasade zmienia G-Sync nVidii...
    BTW, pierwsze slysze, ze monitor "oczekuje" na poziom renderowanych FPSow. On po prostu ma swoj, zwykle jest to 60Hz i tyle. VBlank, czy raczej czekanie z wyswietleniem pamieci ramki na ekranie na VBlank to wstep do zwyklego VSync=On i tu rzeczywiscie mozna "ograniczac" FPSy karty, jesli te sa wyzsze od FPSow monitora. Tez mi sztuka, sprzetowe VSync=On :)
    Wolalbym znac wiecej szczegolow, bo inaczej mozna sie klocic w stylu, jak podalem wyzej. A nawet nizszym ;-)


  4. Oto znany ktoś w branzy o nV (autor: loccothan | data: 7/01/14 | godz.: 15:29)
    http://www.youtube.com/watch?v=iYWzMvlj2RQ

  5. I pomyslec (autor: arra | data: 7/01/14 | godz.: 18:35)
    Ze tyle lat posiadacze kart amd byli dymani, gdyby nie nv to byliby dymani dalej.

  6. arra (autor: SonyWali | data: 7/01/14 | godz.: 19:16)
    jak AMD wprowadzi ten swój projekt i będzie tańszy ( a wygląda, że będzie ) to fani nVidii będą raczej dymani... bo będą musieli kupić monitor z G-Sync które będą droższe...żeby wykorzystać to swoje ustrojstwo.

  7. nie monitor (autor: RusH | data: 7/01/14 | godz.: 19:39)
    a PANEL

    biuro74 zauwaz ze AMD pokazalo to na laptopach gdzie masz panel lcd bezposrednio wpiety w gpu
    w przypadku monitorow potrzebna bedzie minimum modyfikacja firmware kontrolera monitora. Nvidia oczywiscie zwietrzyla kase i zamiast darmowego upgrejdu firmware wciska ludziom jakas plytke z mobilnym GPU za $200


  8. hmmm (autor: Mario2k | data: 7/01/14 | godz.: 19:51)
    NVidia miala juz swoja wpadke z przejeciem Ageia Physix
    niby sprzetowe wspomaganie fizyki ale szlo to zrobic rownei szybko na szybkim cpu :)

    w koncu sie wycofali


  9. zaczyna się największe kretyństwo w historii GPU (autor: Sławekpl | data: 7/01/14 | godz.: 20:02)
    zaczęte przez nV ... oczywiście
    kiedyś można było zmieniać karty dowolnie, były różnice ale nieznaczne w wyświetlanym obrazie
    teraz nastąpi totalne przywiązanie do konkretnej marki, bo jeśli ktoś już zainwestuje w monitor z jednym rozwiązaniem to będzie chciał z tego korzystać i ponownie kupi kartę tej samej firmy nawet jeśli będzie droższa i będzie oferować gorsze parametry od konkurencji,
    idę o zakład, że nV wykorzysta ten fakt,
    nawet posunę się do stwierdzenia, że to był jedyny cel powstania tego "wynalazku",
    skoro wykupiony od Ageia PPU (Phisical Processing Unit) czyli psizysk i cuda nie odniosły zamierzonego efektu...

    ktoś tu napisał o "dymaniu" użytkowników, to teraz w tym kontekście niech przemyśli która firma faktycznie chce (go) wydymać...


  10. To jakaś paranoja powolutki się dzieje... (autor: raczek70 | data: 7/01/14 | godz.: 20:56)
    "Magic box" monitorujący ilość generowanych fps przez gpu i przycinający do 60 aby biedny monitor wydolił. Użytkownik będzie zachwycony, przecież wybulił na to extra kasę...

  11. raczek70 nie rozumiesz o co chodzi (autor: RusH | data: 8/01/14 | godz.: 00:34)
    przemysl, poczytaj, zamiast pisac bzdury :)

    nie chodzi o ograniczanie ilosci fps, chodzi o skracanie czasu pomiedzy wyrenderowana klatka obrazu w gpu a jej fizycznym wyswietleniem na ekranie


  12. @9 - oba rozwiązania w monitorach są niesprzeczne (autor: bwana | data: 8/01/14 | godz.: 08:10)
    w ostateczności producenci monitorów zaczną implementować i to i to, żeby zapewnić sobie maksymalny rynek.

  13. Na siłę szukanie problemu, tip: 120Hz LCD (autor: TheW@rrior | data: 8/01/14 | godz.: 08:50)
    Od czasu przejścia na 120Hz LCD nie widzę tych problemów ze stutterem i tearingiem. Wyłączam vsync i wszystko działa płynnie.

    Wątpię także w to, że dodatkowy hardware do synchronizacji komunikacji GPU-LCD nie spowoduje powstania następnych milisekund opóźnienia. Ale kto by tam zauważał input laga jak w końcu konsole brylują na rynku gier.

    Czekać moim zdaniem warto jedynie na to co powstanie z pomysłu Oculus Rifta i następców.


  14. TheW@rrior widocznie jestes slepy (autor: RusH | data: 8/01/14 | godz.: 09:03)
    jesli wylaczasz vsync to masz tearing
    jak wlaczysz to bedzie shuttering :D

    w pierwszym przypadku gpu wypluwa 'polklatki', w drugim musi czekac na vsync przez co klatki nie sa wyswietlane rowno w momecie wygenerowania w skutek czego masz losowe opoznienia pomiedzy kolejnymi obrazami

    przy 120Hz i wlaczonym vsync jest "tylko" 7ms losowego opoznienia, ale zawsze jest


  15. Rush, no nie wiem czy bzdury, skoro to cudowne (autor: raczek70 | data: 8/01/14 | godz.: 12:01)
    rozwiązanie istniało nawet w kartach HD5000, to dlaczego nie zostało ujawnione do dziś?.
    Ja tylko z ironią opisałem, jak wygłada ta sytuacja, a Ty się wczuwasz, gdy producenci kolejny raz robią nas użytkowników w ciula.
    Całą sprawę można było załatwić bardzo dawno i sprawnie, no ale to takie nie marketingowe, no i okazji do wyciągnięcia kasy by nie było...


  16. Otwarty standard (autor: pio2 | data: 8/01/14 | godz.: 12:48)
    Rozwiązanie nVidii jest znacznie lepsze, gdyż to monitor dostosowuje się do karty a nie na odwrót, ale zamknięte i drogie. Przydałby się otwarty standard (VESA) ale to cale lata uzgodnień a dopiero potem wdrażanie.

  17. @temat (autor: Mariosti | data: 8/01/14 | godz.: 13:08)
    Idea gsync-a nie jest taka jak v-sync'a.

    V-sync działa poprawnie tylko gdy karta generuje więcej fps'ów w sposób równomierny niż wynosi ogranicznik tegoż v-sync'a.
    Jeśli karta spadnie poniżej 60fps'ów, a nawet jeśli średnio w sekundzie zrobi 60fps'ów ale między niektórymi klatkami będzie większe opóźnienie niż 1/60sek (a między innymi mniejsze) to już pojawiać będzie się stuttering (wizualnie większe spadki fps niż wg gpu).

    Taki tearing jest dość znośny w porównaniu do braku vsync'a, ale robi się dramatyczny gdy karta nie wyrabia 60fps'ów bo na ekranie mamy wtedy prawie cały czas błędne klatki zlepione z dwóch kolejnych.

    G-sync polega na wydłużaniu parametru v-blank do momentu wyrenderowania nowej klatki przez gpu, a jeśli nowa klatka pojawi się zanim poprzednia zostanie w całości wyświetlona na ekranie to zostaje zbuforowana i czeka na swoje okienko do wyświetlenia jej na ekranie, ale nie czeka na to okienko w sposób sztywny jak w przypadku vsync (okienko co 1/60 sek), tylko czeka max 1ms po tym jak panel zgłosi że skończył cykl odświeżania obrazu (1ms na notyfikację od panelu do kontrolera/gpu), efektywnie eliminuje to stuttering i faktycznie zmniejsza opóźnienia w wyświetlaniu obrazu na ekranie bez zwiększania jego maksymalnej rozdzielczości.

    Przy 60hz ekranach powoduje to że gry są grywalne nie powyżej 60fps tylko powyżej 30fps, zapewniając wizualnie bardzo dobrą płynność obrazu bez rwania i mikro przycinek.

    Szczerze mówiąc to powinno być obowiązkowe we wszystkich monitorach, a fakt że nvidia robi z tego rozwiązanie zamknięte jest strasznym chamstwem.

    Swoją drogą razem z takim adaptacyjnym sprzętowym v-synciem producenci powinni od razu dawać opcję włączenia lightboost'a.

    Mimo iż bardzo chciałbym aby była to tylko papka marketingowa to niestety to faktycznie działa i to nieprawdopodobnie dobrze biorąc pod uwagę że nie wymienia się gpu itp.

    Jeśli ktoś jest zainteresowany to można więcej poczytać tutaj: http://www.blurbusters.com/

    @7.
    Obawiam się że wg nvidii montują tam tylko fpga z 768MB ramu, co jest ponoć popularną wartością dla procesora obrazu w monitorach i faktycznie różni się on głównie oprogramowaniem, bo w normalnych monitorach procesor obrazu to w zasadzie to samo. No i to jeszcze bardziej pogarsza kwestię ceny g-synca, hardware jest tam warty najwyżej kilka-kilkanaście dolarów, a jak odliczymy koszt procesora obrazu który normalnie znajdowałby się na jego miejscu to schodzimy na pewno poniżej 5$.

    Jeśli to się przyjmie i nie będzie działało na innych kartach niż nvidia to będzie to straszna porażka. Mam nadzieję że podobnie jak z lightboostem nie wszyscy producenci monitorów pójdą rządkiem za nvidią.


  18. @17err. (autor: Mariosti | data: 8/01/14 | godz.: 13:13)
    Przydałaby się edycja.
    Drugi akapit miał być:
    "Taki stuttering jest dość znośny w porównaniu do braku vsync'a, ale robi się dramatyczny gdy karta nie wyrabia 60fps'ów bo na ekranie mamy wtedy prawie cały czas wizualne spadki do 30fps'ów."

    W 3 akapicie miało być na końcu:
    "...efektywnie eliminuje to stuttering i faktycznie zmniejsza opóźnienia w wyświetlaniu obrazu na ekranie bez zwiększania jego maksymalnej częstotliwości odświeżania."


  19. Nie jestem hardcorowym graczem (autor: Krotock | data: 8/01/14 | godz.: 22:18)
    Tzn. już nie. Za moich lepszych czasów nie zastanawiałem się nad takimi rzeczami, ale czy vSync nie wystarczy? Nie widziałem monitorów 120Hz, tak samo jak nie widziałem monitorów z GSync, więc może lepiej żebym żył w błogiej nieświadomości? :)

    PS: A co z konsolami i telewizorami? Tam problemów nie ma. Wiem, że klatki są bardziej stałe, ale opóźnienie również powinno występować. Mam wrażenie, że ta idealna synchronizacja z monitorem to jedynie marketing / fanaberia graczy, nie mających co robić z kasą.


  20. -17 (autor: RusH | data: 8/01/14 | godz.: 23:04)
    768MB ramu jest tam kompletnie z dupy (wystarczy na zbuforowanie 3 sekund fullhd) i dlatego wydaje mi sie ze to sa jakies zapasy magazynowe starego mobilnego GPU

    Nawet najbardziej wypasione "procesory obrazu" (czyli pogarszacze) w najdrozszych TV nigdy nie mialy wiecej niz bufor na 2-5 klatek
    do tego czasy procesorow obrazu juz sie skonczyly, kiedys szczytem techniki byly takie badziewia micronasa np
    http://www.micronas.com/...and-film-judder-full-hd

    tyle ze celem tego scalaka bylo maskowanie wad powolnych matryc LCD, przy obecnych matrycach jest to praktycznie niepotrzebne

    imo najlepszy monitor to taki, ktory nie robi NIC z obrazem, zadnego skalowania, zadnej konwersji kolorow, zadnych polepszaczy, gola rura pomiedzy dvi/hdmi/dp a lvds/eDP bez bezsensownych opoznien.


  21. @19. (autor: Mariosti | data: 8/01/14 | godz.: 23:12)
    W tv i konsolach problem opóźnienia jest, ale nie masz wyboru więc nie masz nawet możliwości zobaczenia różnicy. Mózg człowieka bardzo łatwo się przystosowuje do takiego niezsynchronizowania otoczenia.
    W kwestii g-synca, tu faktycznie konsole nie mają problemu (prawie) bo zwykle wyświetlają stale tyle fps'ów na ile mają v-sync.

    G-sync jest po to aby gry dobrze wyglądały przy spadkach poniżej 60fps (czy tam na ile byłby v-sync ustawiony) do 30 fps (a przynajmniej takie jest wg nvidii dolne ograniczenie dostępnych matryc lcd).


  22. Krotock: A co z konsolami i telewizorami? (autor: RusH | data: 8/01/14 | godz.: 23:27)
    z tv i konsolami jest to ze bydlu nie przeszkadza
    tak jak plebsom nie przeszkadzaly myszy kulkowe a4techa gubiace polozenie >1G, albo klawiatury w ktorych mozna bylo wcisnac max 3 klawisze na raz
    tak samo nie przeskadza im ~100ms input lag i autoaim w konsolach

    bydlo lyka jak pelikany i jest zachwycone
    https://www.youtube.com/watch?v=gHKq8Js-kEs

    Zrownujac z miernota nie osiagnie sie zadnego postepu.

    Oczywiscie mozesz powiedziec ze tobie to nie jest potrzebne, tak samo powie 50mil innych much. Gdyby na tym skonczyla sie dyskusja to do dzisiaj bysmy napierali do supermarketu furmankami. Ktos musi przec do przodu i szukac ulepszen.

    10 lat temu dobra mysz do grania tez byla luksusem, dzisiaj ciezko kupic myszke ktora bedzie sie gubic przy szybkim ruchu reka. 10 lat temu monitory TN byly spoko, a ips/mva uzywali tylko graficy.

    Byc moze za pare lat wszystkie monitory beda wspierac dynamiczna ilosc fps.

    imo kwiatki takie jak shuttering, tearing czy micro stuttering ( http://en.wikipedia.org/wiki/Micro_stuttering ) to jawne sikanie mi w twarz przez producenta GPU. Place za karte graficzna, a dostaje sieczke na ekranie :/ AMD jest wybitnie winne powyzszych, robia szybkie GPU, ale nie ma w firmie nikogo z wizja, nikogo komu by zalezalo na JAKOSCI.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.