Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Czwartek 2 marca 2017 
    

Nvidia prezentuje nowy mechanizm renderowania kafelkowego


Autor: Wedelek | źródło: Tech Power Up | 06:44
(13)
Nowy akcelerator to nie jedyna rzecz jaką na GDC miała do pokazania Nvidia. Podczas imprezy zapowiedziano również nowy algorytm renderowania sceny oparty o tzw. kafelki. Zasada jego funkcjonowania jest bardzo prosta. Zamiast renderować całą scenę na raz dzieli się ją na mniejsze fragmenty, tak by można było to zadanie wykonać efektywniej. Nowy mechanizm zamiast korzystać z predefiniowanych wielkości kafelków (np. 32x32 piksele) może dynamicznie zmniejszać ich rozmiar ze względu na skomplikowanie sceny. Chodzi o to by jak największa część informacji znalazła się w bardzo szybkiej pamięci L2 i nie trzeba było wczytywać danych z wolniejszego VRAMu.

Opisywany mechanizm będzie aktywny tylko na kartach graficznych z GPU Maxwell i Pascal, czyli na akceleratorach z serii GeForce GTX 9xx i GTX 10xx. Pominięcie starszego Keplera jest w tym przypadku jak najbardziej uzasadnione. Jeśli wczytamy się w specyfikację techniczną rdzeni GK1xx i GM1xx zauważymy, że Maxwelle mają ośmiokrotnie pojemniejszą pamięć L2. Ta w Keplerach byłaby zwyczajnie zbyt mała by Tlied Caching mógł efektywnie działać.


 
    
K O M E N T A R Z E
    

  1. Kyro back ? (autor: leosh | data: 2/03/17 | godz.: 07:49)
    czyżby skończyły się pomysły na zwiększanie wydajności ?

  2. @1. (autor: Kenjiro | data: 2/03/17 | godz.: 08:19)
    Pomysł nie jest zły, bo pozwala na lepsze użycie cache L2, co może faktycznie dać wymierny efekt. Co więcej, mogą użyć pamięci GDDR5/x i mieć efektywną przepustowość lepszą niż przy użyciu HBM/2 bez takich technik, a to się wiąże z niższą ceną produkcji vel wyższą marżą na produktach.

  3. nie zapominajcie proszę (autor: Mario2k | data: 2/03/17 | godz.: 08:29)
    Że takie renderowanie szybkich scen 3D w grach jest tak skomplikowane że zastosowanie będzie bliskie ZERA. Powtarzam ZERA.
    Możecie za rok przytoczyć to co napisałem dzisiaj.

    Zero zastosowania w grach.


  4. kafelki (autor: housik | data: 2/03/17 | godz.: 10:03)
    Kafelki są stare jak świat. Dopóki nie zobaczymy wymiernych efektów w postaci testów, to nie da się określić na ile algorytm jest rewolucyjny ;).

  5. Toć to staroć... (autor: Shamoth | data: 2/03/17 | godz.: 11:28)
    ATI swego czasu pozwalała na ciecie procesu renderowania obrazu w zależności od posiadanych VPU. Wtedy faktycznie dawało to kopa ale robienie tego na jednym GPU o już raczej forma optymalizacji jego wykorzystania. Teraz przy v-sync off zamiast jednej czy dwóch poziomych linii będą się pojawiać krzyżówka, tak jak Mario2K wspomniał w grach raczej nieużyteczne, prędzej w rendererach. Poza tym jeśli AMD ma w łapkach ten patent to może zacząć się szarpanie...

  6. @Mario2k (autor: Hitman | data: 2/03/17 | godz.: 12:56)
    inżynierowie zielonych zrobili coś nieużytecznego wg naszego specjalisty onetowego ;))

  7. Hitman (autor: Mario2k | data: 2/03/17 | godz.: 14:09)
    Ignorancie ty jeden , nie napisałem że ogólnie nieużyteczne
    tylko że w grach nie do wykożystania .
    W renderingu 3D używane od lat , w grach zapowiadane od lat bez żadnego skutku.
    Zresztą inni powyżej opisali gdzie jest problem.


  8. @7. (autor: Kenjiro | data: 2/03/17 | godz.: 19:46)
    A skąd wiesz, że nie do wykorzystania? Piszesz gry i to w największych studiach świata, że tak autorytatywnie się wypowiadasz za wszystkich?
    Po pierwsze, z tego co wiem, to technologii kafelkowych nie było na PC od czasów Kyro, które z powodu kiepskich sterowników nie dało sobie rady.
    Po drugie, z opisów wynika, iż nie dotyczy to renderowania, a wyłącznie cache'owania odpowiednich obszarów, tak by dane można było pobierać z cache, a nie z pamięci karty. Do tego tym się może zająć sterownik, a gra może sobie w ogóle nie zdawać z tego sprawy.

    Aczkolwiek na razie opisy są zbyt ogólne, by wyciągać daleko idące wnioski...


  9. @temat. (autor: Mariosti | data: 2/03/17 | godz.: 23:12)
    Środkowy screen pokazuje iż ten tile caching dotyczy tylko efektów renderowania i w efekcie przyspieszy rasteryzację, co zasadniczo jest baaaardzo drobną optymalizacją ponieważ większość mocy obliczeniowej idzie na samo renderowanie.

    Zresztą widać też jak bezsensownie nvidia sama "cenzuruje" swoje wykresy... w ostatnim obrazku z lewy słupek sugeruje że niby z tile caching wynika kompresja w locie tekstur itp. co jest oczywiście bzdurą.

    Tak właśnie wyglądają prezentacje gdy nie ma się nic do pokazania. Wyciąga się jakąś drobnostkę która brzmi podobnie do poważnego usprawnienia i tak dorabia slajdy aby większość osób się nabrała. No cóż jak widać udało się im...


  10. mario2k (autor: pawel1207 | data: 3/03/17 | godz.: 05:13)
    serio... :D :D przeciez w nv kafelkowanie jest wykorzystywane od jakiegos czsu to jest tylko usprawnina wersja dla programisty i tak nie ma znaczenia jak sterownik sobie realizuje rendering :D

  11. @@Mario2k (autor: Hitman | data: 3/03/17 | godz.: 09:27)
    Przeczytaj to: https://www.extremetech.com/...al-power-efficiency
    a później zrozumiesz lub nie swój błąd i tok myślenia.


  12. leosh (autor: Remedy | data: 6/03/17 | godz.: 09:28)
    To samo przeszło mi przez myśl, powrót Kyro 😊

  13. Yyyy... czekaj czekaj... (autor: gantrithor | data: 6/03/17 | godz.: 18:40)
    czy przypadkiem psvita nie miala renderowania kafelkowego? rozumiem ze tam mialo to sens bo zmniejszalo zapotrzebowanie na ilosc pamieci ram / cache ale stosowanie takiej technologi w czasach gdy karty zaczynaja miec po 12GB ram ma sens?

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.