Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 20 grudnia 2013 
    

Digital Storm zamontuje w Asusach VG248QE moduł G-Sync


Autor: Wedelek | źródło: LegitReviews | 07:23
(20)
Na początku przyszłego roku do oferty Asusa trafi odświeżony model VG248QE z modułem G-Sync, o którym pisaliśmy TUTAJ. Jego specyfikacja techniczna będzie taka sama jak obecnie sprzedawanego modelu, co oznacza, że producent ograniczy się tylko do dodania układu Nvidii, odpowiedzialnego za komunikację z kartami GeForce - wyeliminuje wszelkie opóźnienienia w przesyle obrazu. Po tym ogłoszeniu część posiadaczy monitorów Asus VG248QE mogła poczuć się oszukana, więc Digital Storm postanowił pomóc im wyposażając ich sprzęt w brakujący moduł.

Oczywiście nie za darmo, bowiem usługa montażu układu G-Sync to wydatek 299 dolarów. To całkiem sporo, ale i tak taniej niż zakup nowego monitora z zamontowanym fabrycznie modułem Nvidii. Opisywaną usługę znajdziecie TUTAJ.

Asus VG248QE dysponuje 24-calową matrycą TN o natywnej rozdzielczości 1920 x 1080 pikseli, czasie reakcji 1ms, oraz częstotliwości odświeżania 144Hz. Ekran podświetlany jest przez diody LED z mocą 350 cd/m2, a komunikacja odbywa się za pośrednictwem złączy DisplayPort, HDMI oraz DVI.




 


    
K O M E N T A R Z E
    

  1. ahmmm (autor: loccothan | data: 20/12/13 | godz.: 07:49)
    Ale G-Sync chip to koszt ok 5-8$ a cena Monitora z Tym o 200$ więcej niż zwykła wersja (np. ASUS). Drogo to kosztuje, moim zdaniem za drogo bo cena powinna być większa o MAX 50$ a nie 200$. And Still they Money Hungry -> shame on u NV

  2. co lepsze (autor: RusH | data: 20/12/13 | godz.: 08:11)
    jesli zamiast dvi podepniesz po DP to W STANDARDZIE NATYWNIE jest wsparcie dla tego samego

  3. Jak slowo daje (autor: MayheM | data: 20/12/13 | godz.: 09:59)
    gralem w rozne gry przez wiele lat, i nigdy nie zauwazylem opoznien na monitorze wzgledem karty graficznej :)

    Ale niedawno na boardzie bylo, jak to audiofile slysza roznice po nalozeniu maści na scalaki... Wiec ta roznica musi byc :)


  4. mea culpa (autor: MayheM | data: 20/12/13 | godz.: 10:03)
    pomylilem ten chip z czym innym :) (z input lagiem)

  5. @1 chyba (autor: biuro74 | data: 20/12/13 | godz.: 10:14)
    marketingowy zwrot "cykl zycia produktu", jak tez koszty prowadzenia dzialalnosci gospodarczej sa Ci obce, poniewaz zakladasz, ze ta cena bedzie obowiazywac dozywotnio oraz ze 40$ za sztuke pokryje aktualnie calosc kosztow firmy ;-)

  6. wat? (autor: cyriak | data: 20/12/13 | godz.: 11:56)
    w jaki sposób dodanie kolejnego urządzenia na drodze sygnału może zmniejszyć/wyeliminować opóźnienia? zakrzywiają czasoprzestrzeń i cofają czas?

  7. @up (autor: gorky | data: 20/12/13 | godz.: 13:04)
    bo Wedelek sie do tlumaczenia nie przylozyl - ten uklad redukuje stuttering/tearing

  8. RusH (autor: daver | data: 20/12/13 | godz.: 13:41)
    g-sync w tej wersji nie dziala z niczym innym niz DP. Rzuc z laski swojej jakims wiarygodnym sznurkiem do swoich rewelacji, bo wybacz, ale na slowo nie uwierze.

  9. @6. (autor: Mariosti | data: 20/12/13 | godz.: 19:07)
    On nie zmniejsza input lagu tylko daje dodatkowe informacje do gpu, tak aby frame buffer nie był opróżniany jeśli nie ma w nim pełnej klatki, i jednocześnie w teorii ma się komunikować z monitorem triggerując odświeżenie klatki po dostaniu nowej klatki z frame buffera grafiki, co skutkuje dynamicznym v-sync'iem z odpowiednio dynamicznym odświeżaniem monitora. W sumie zdaje się to być bullshit i nie powinno dać nic nad to co dałby zwykły dynamiczny vsync w połączeniu z monitorem o wysokim odświeżaniu, ale cóż, przyznaję że tearing nawet na grafikach z niezłej półki i przy wysokich fps'ach jest poważnym problemem, szczególnie gdy człowiek nie chce mieć obrazu rozmazanego przez motion blur.

  10. ad9 (autor: Mariosti | data: 20/12/13 | godz.: 19:08)
    Także cieszę się że starają się coś z tym zrobić.

  11. 300 dolarów :) (autor: podpora demaga | data: 20/12/13 | godz.: 23:11)
    Fajnie, ale za darmo można mieć taki sam efekt przy użyciu programu dołączanego do płyty głównej.
    http://www.youtube.com/...bedded&v=zRaWTi5lSFk
    Przynajmniej na to wygląda.


  12. Dynamic Refresh Rate Switching (DRRS) (autor: RusH | data: 21/12/13 | godz.: 00:26)
    panele eDP maja natywnie wbudowany bufor i robia to samo co ten "wynalazek" nvidii

  13. RusH (autor: daver | data: 21/12/13 | godz.: 01:01)
    to jeszcze doczytaj gdzie, na czym i po co. Tak, wiem, byloby pieknie, ale nie jest.

    @podpora demaga
    Za darmo na 30 dni, licencja kosztuje kilkadziesiat dolarow (chyba na rok, nie jestem pewien), wspiera tylko Windows, okreslone gry i sterowniki i wymaga plyty Intela ZXX.
    Ale alternatywa jest, ktora chyba nie zrobila furory. Kiedys czytalem cos o tym na labie i generalnie cisza. Zupelnie o tym zapomnialem, i chyba nie tylko ja bo porownania "w praniu" nie moge znalezc.


  14. daver (autor: RusH | data: 21/12/13 | godz.: 01:34)
    ???

    to cos nvidii buforuje klatki, nic wiecej. To cale pcb z mini gpu i ramem nie robi jakichs magicznych obliczen, jedynie zapamietuje ostatnia pelna klatke i przesyla ja dalej do panelu lcd

    eDP ma w standardzie tryby wprowadzone w celu oszczedzania energii, ale robiace praktycznie to samo, panel ma wlasna pamiec i potrafi zapamietac klatke = mozesz miec GPU i LCD pracujace w 144Hz, ale przesylajace klatki obrazu tylko co 60-80Hz gdy GPU ma pelna wyrenderowana scene, zamiast srania poszatkowanymi niepelnymi klatkami co 144Hz

    to jest tylko kwestia softu, problem w tym ze ciezko sprzedac soft za $300, pcb wypelnione kosteczkami wyglada powaznie i sprawia wrazenie nabywania czegos specjalnego


  15. lol (autor: daver | data: 21/12/13 | godz.: 02:23)
    Jak to? To juz nie wystarczy podpiac karty pod DP zamiast HDMI? Teraz trzeba jakiegos softu? Czekaj, a gdzie kupie monitor z eDP?

    Frame buffer jest malenki, do wyswietlenia ostatniego ekranu (lub jego czesci) i wylaczenia GPU.

    Long story short, toz to "to samo", wystarczy "podpiac kabel pod DP zamiast HDMI" i grac.


  16. @15. (autor: Mariosti | data: 21/12/13 | godz.: 21:51)
    Trochę temat zgłębiłem i jednak jest tutaj kilka aspektów.
    To prawda że układ od scalingu i overdrive'u w monitorach to prawie to samo co gsync, w sensie hardware'u, ma swój ram i swojego asic'a do obliczeń, także w tym sensie g-sync nie wprowadza nic nowego.

    To co wprowadza to kontrola odświeżania matrycy z gpu, dp nie ma tego w standardzie.

    W efekcie wychodzi na to że matryca zawsze robi odświeżanie tylko gdy cała nowa klatka została wyrenderowana przez gpu, działa to od 30 hz do górnej granicy możliwości monitora z jakiegoś sprzętowego ograniczenia matryc (czekanie na gpu jest wykonywane poprzez zwiększanie czasu vblank sterownika matrycy który określa długość przerwy między odświeżeniami matrycy).
    W takim zakresie efektywnie eliminuje tearing i stuttering umożliwiając jednocześnie nieblokowanie wysokich fps'ów gpu i input lag vsync.
    Dodatkowo monitory z gsync mają mieć light boost, czyli stroboskopowy tryb podświetlenia matrycy dzięki czemu do oka nie trafia informacja o stanie przejściowym między klatkami, a tylko w pełni odświeżone klatki, to dodatkowo znacznie zwiększa ostrość obrazu i minimalizuje ghosting.

    Szczerze mówiąc po paru przeczytanych recenzjach g-sync i lightboost powinny być standardem w monitorach i w specyfikacji DP aby działało to wszędzie, bo to zwyczajnie działa i robi niesamowitą różnicę.


  17. Mariosti (autor: RusH | data: 22/12/13 | godz.: 02:16)
    eDP tak jak mipi nie wymaga regularnego wysylania klatek na matryce, wysylasz dane tylko wtedy gdy chcesz odswiezyc obraz

    slajdy Nvidii strasza 16ms czkawka przy wlaczonym vsync, ale wystarczy ustawic odswiezanie 144Hz i juz masz max 7ms

    jak dla mnie to cale gsync mozna zaimplementowac w dzisiejszych skalerach max 20 linijkami kodu (zaraz obok obslugi PSR dodac kolejna regulke do state machine i zalatwione)
    mam nadzieje ze Nvidia nie wpadla na pomysl jakiegos glupiego krypto handhake pomiedzy monitorem a gpu


  18. btw lol (autor: RusH | data: 22/12/13 | godz.: 02:17)
    wlasnie na anandzie przeczytalem e ten modul nvidii ma 768MB ramu AHAHAHA, wyglada jakby nvidia odkopala jakas nieudana karte graficzna dla laptopow i zaadoptowala gotowy hardware

  19. Digital Storm zamontuje w Asusach VG248QE moduł G-Sync (autor: Marucins | data: 22/12/13 | godz.: 13:44)
    Zamiast zając się lepszym VSync to oni cwaniakują i wyciągają kasę za zakup nowych monitorów.


    Skubańcy dogadali się z firmami... a co MONITORY TEŻ BĘDZIECIE WYMIENIAĆ CO ROKU!


  20. daver (autor: podpora demaga | data: 22/12/13 | godz.: 18:26)
    Czytaj ze zrozumieniem. Wyraźnie napisałem, że jest ZA DARMO dodawana do płyt głównych. Licencja lifetime. Praktycznie każdy producent płyt dodawał to do lepszych płyt na Z77. Obecnie robi to MSI i Asus, o ile dobrze pamiętam.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.