Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Środa 24 kwietnia 2013 
    

Nvidia prezentuje realistycznie wyglądającą wodę


Autor: Wedelek | źródło: Vr-Zone | 08:13
(23)
Nvidia od wielu lat promuje swoje biblioteki fizyczne PhysX, które sprawiają, że symulacja niektórych elementów liczona jest w czasie rzeczywistym i dzięki temu wygląda realistycznie. W poprzednich latach z wykorzystaniem PhysXa tworzone były powiewające na wietrze włosy, latające po scenie śmieci czy łopoczące za biegnącą postacią tkaniny, a w przyszłości ma powstawać naturalnie wyglądająca i zachowująca się woda. Za jej ruch będą odpowiadać cząsteczki Position Based Fluids (BPF), które symulują ruch niewielkich skupisk kropel wody.

Brzmi ciekawie, a efekt jest jeszcze lepszy, co możecie zobaczyć na poniższym filmiku. Niestety nowy algorytm Nvidii jest bardzo zasobożerny, o czym może świadczyć dość mizerny wynik GeForce’a GTX 580, który wyświetlając demo technologiczne osiągnął zaledwie 30FPSów. Oczywiście należy przy tym pamiętać, że nim nowa technologia trafi do gier zostanie odpowiednio zoptymalizowana, aby działała sprawnie na tańszych układach, których wydajność z biegiem czasu również wzrośnie.

Z drugiej zaś strony nie można zapomnieć, że PhysX to zamknięty standard, który co prawda działa na wszystkich procesorach, ale bardziej skomplikowane efekty wymagają katy graficznej, a wspierane są tylko GeForce’y. Jeśli weźmiemy pod uwagę fakt, że nowe konsole będą korzystać z akceleratorów AMD, to może się okazać, że technologia PBD pojawi się w grach dopiero za kilka lat.


 
    
K O M E N T A R Z E
    

  1. wszystko bylo by super (autor: mbe | data: 24/04/13 | godz.: 09:17)
    gdyby pazerna NV nie zamknela by tej technologii w fizyksie.

    PhysX zdychaj...


  2. hemm (autor: loccothan | data: 24/04/13 | godz.: 09:28)
    na Pure-PC tak samo chłopaki mówia że zniszczyli potencjał Ageii, zamkneli Projekt i klepią $$$, zawyżajac ceny swoich Grafik (nawet dziś srednio ok 2k trzeba dać za GeSrors i to 2GB co jest za mało Crysis 2 na 1920:1440 zabiera z AA ok 2.2GB z GDDR5 lol) a za karcioche z 4GB trzeba dac ok 2.4k lol przegięcie i brak szacunku dla Klienta ! Moim zdaniem Havoc Next-Gen rozjedzie całą resztę jak Walec jak sie pojawią Next-geny ! Chytry 2 razy traci !
    PS. kiedyś bardzo lubiłem nVidię (do dziś mam w szufladzie GTX285 lol) a co zrobili z marką to już ich strata i tyle PZDR


  3. Nieźle. Parę lat temu robiłem podobne rzeczy w 3dsmaxie i do rt było... (autor: Rhobaak | data: 24/04/13 | godz.: 10:18)
    ...bardzo daleko. Liczenie na GPU w tych zastosowaniach daje gigantycznego kopa.

  4. slabe troche (autor: RusH | data: 24/04/13 | godz.: 10:28)
    ten model misia jest w bardzo niskiej rozdzielczosci i dziwnie pixelowaty na krawedziach
    do tego symulacja nie obejmuje lepkosci wiec ta woda nie jest mokra, predzej jest to akwarium z cieklym metanem na Tytanie, albo wszystko jest pokryte jakas warstwa hydrofobowa :)


  5. heh (autor: Remedy | data: 24/04/13 | godz.: 10:47)
    Ale jak tłumaczyłem wszystkim idiotom parę lat temu, że nie ma nic głupszego niż liczenie takich efektów przez kartę graficzną to do żadnego cymbała nie docierało. Dedykowany akcelerator fizyczny jakim był Ageia PhysX poradziłby sobie z tym bez żadnego problemu i karta nie marnowałaby mocy na liczenie czegoś czego nie musi. Oczywiście jak to z idiotami bywa, nigdy nie potrafią zrozumieć mądrego.

  6. wygląda całkiem sympatycznie (autor: Qjanusz | data: 24/04/13 | godz.: 11:12)
    tylko że do implementacji efektów w grze, droga baaardzo daleka.

    Kiedyś nVidia pokazała super efekt z włosami. Problem w tym, że cała moc najmocniejszego GPU poszła na liczenie włosów. Nic więcej nie dało się w tym samym czasie zrobić. Dlatego w grach tego nie zobaczyliśmy. Tu będzie ten sam problem. Cała para GPU w policzenie jednego efektu, który w rzeczywistości (gry) jest jednym z wielu elementów, który wymaga mocnego liczenia.

    Do tego to co pisali poprzednicy: zamknięcie fizyksa i otwarte GPGPU od AMD we wszystkich platformach do grania.

    Największe jednak znaczenie ma tu pakowanie się AMD w realizację tego typu efektów. Na przykładzie włosów, nVidia pokazała je w DEMIE for GeForce only, AMD pokazał swoją wersję w GRZE dostępną na wszystkich platformach. A to nie jedyny przykład tego typu zdrowej konkurencji AMD. I nie sądzę że AMD nie będzie rozwijać swojego potencjału, tym bardziej że mają APU w konsolkach.

    Good lock nVidia.


  7. @Remedy (autor: Qjanusz | data: 24/04/13 | godz.: 11:17)
    o ile pomysł Ageia z oddzielnym akceleratorem fizyki był słuszny z punktu widzenia wydajności, to jako model biznesowy był totalną porażką od samego początku.

    To nie miało prawa się udać, niezależnie od tego ilu cymbałów i idiotów byłoby przekonywanych przez garstkę tych mądrych.


  8. @06 (autor: mbe | data: 24/04/13 | godz.: 11:36)
    Mozecie nazwac mnie Fanboyem ale uwazam za AMD jest bardziej inowacyjna firma niz lecace na kase intel i NV.

    PhysX zdychaj.


  9. #8. (autor: Qjanusz | data: 24/04/13 | godz.: 11:44)
    ???

  10. @Remedy (autor: Marek1981 | data: 24/04/13 | godz.: 11:56)
    Bzdury piszesz.
    Słuszne posunięcie tyle, że popełniono błędy:
    - powinni po 3 latach otworzyć to dla reszty (zrobienie tego jako standard, a konkurencja musiałaby to zaimplementować)
    - wprowadzając PhysXa strasznie go pocięto
    - przeniesiono rozwiązanie jako softowe a nie sprzętowe (zawsze niższa wydajność)


  11. Marek1981 (autor: Remedy | data: 24/04/13 | godz.: 12:00)
    Czyli piszę bzdury ale po kolei w punktach przyznajesz mi rację. Rozpacz.

    Totalnie debilne posunięcie bo z rozwiązania sprzętowego zrobiono programowe, które bardzo ale to bardzo obciąża kartę graficzną zabierając jej moc potrzebną do wyświetlania grafiki. Takie założenie (programowe) jest kretyńskie w swoich założeniach.


  12. to chyba do minecrafta dobre (autor: faf | data: 24/04/13 | godz.: 12:22)
    te efekty działają tylko w małych obiektach typu akwarium
    ciekawe jak zrobią taki np basen w FPP to co ? zdechnie grafa ?


  13. faf (autor: Remedy | data: 24/04/13 | godz.: 13:15)
    Te efekty działają w każdej skali. Tak, jak zrobią taki basen w FPP to grafa zdechnie.

  14. @7 dlaczego biznesowa porażka? (autor: Demo | data: 24/04/13 | godz.: 13:27)
    j.w.

  15. Nic nowego (autor: _DL_ | data: 24/04/13 | godz.: 13:51)
    Efekty które od paru lat były w silnikach referujących (3ds czy nawet darmowy blender), zamknęli w formacie którego nikt nie będzie mógł sensownie zaimplementować.

    Przynajmniej wygląda to jakoś przyzwoicie. Bo niektóre efekty PhysX bardziej czasami przeszkadzają niż zwiększają wygląd (są zbyt nachalne - patrzcie jesteśmy tu, a u konkurencji niema).

    http://wiki.blender.org/....4/Manual/Physics/Fluid

    http://www.youtube.com/watch?v=-IiRzmfs5aw

    OK to nie jest RT, ale co i jak działa może sobie sprawdzić każdy i jak chce napisać na tej podstawie silnik na grafikę.


  16. Z tego co wiem, (autor: PrEzi | data: 24/04/13 | godz.: 16:56)
    to Havok ma symulacje fluidow, tak samo Bullet.
    Nawet w naszym rodzimym Benchmarku Catzilla pokazano efektowne liczenie dymu na OpenCL. Od symulacji dymu do cieczy niewielka juz droga.
    Niech juz ten Psiks w koncu zdechnie i rozpocznie sie na dobre era otwartego dla wszystkich GPGPU/OpenCL.


  17. @Remedy - przecież możesz nadal mieć oddzielną kartę do liczenia fizyki... (autor: Rhobaak | data: 24/04/13 | godz.: 17:41)
    ...bez obciążania głównej karty graficznej - drivery Nvidii to obsługują.

  18. szkoda (autor: Mario2k | data: 24/04/13 | godz.: 17:56)
    Ile lat przyjdzie nam czekac na takie efekty w grach ???

    na moja czutke lekko 4-5 lat :(


  19. _DL_ (autor: Remedy | data: 24/04/13 | godz.: 20:41)
    Na słońcu za długo stałeś? "efekty, który od paru lat były w silnikach renderujących" <--- ROTFL nie dość, że bzdura bo silnik renderujący nie ma nic do tych efektów cząsteczkowych to jeszcze najgłupszy argument w historii ludzkości. Rozumiesz różnicę pomiędzy renderowaniem a czasem rzeczywistym?!!!!! extreme_facepalm.jpg

    "Napisz mi grafikę" na podstawie Avatara, 2012, Transformers. Przecież to jest tylko renderowane i można sobie napisać grafikę na tej podstawie.

    Ja pier..... - Polska.


  20. Remedy ty trolu (autor: RusH | data: 24/04/13 | godz.: 22:54)
    Ageia byla DE_AKCELERATOREM tak jak swego czasu S3 trio 3d
    wszystkie gry z ageja chodzily WOLNIEJ

    programy renderujace nie renderuja z dupy tylko z symulacji dynamiki plynow


  21. @Rhobaak (autor: PrEzi | data: 25/04/13 | godz.: 00:57)
    Tja... a mi zaraz na dloni kaktus wyrosnie.
    Zastanawiam sie czemu nikt jeszcze nie oskarzyl NV i niewlasciwe praktyki - Sterowniki NV skutecznie blokuja Psiks jesli wykryja na pokladzie jako glowna karte karte innej firmy (AMD).
    Potrzebne jest modowanie sterow / hackowanie zeby to obejsc.


  22. rush (autor: Aamitoza | data: 26/04/13 | godz.: 13:36)
    Działały wolniej, bo karta graficzna miała i taki tak więcej obiektów do renderowania. A aktualnie działają DUŻO wolniej,bo
    A) jest więcej obiektów
    B) część mocy karty jest przeznaczana na liczenie


  23. a tymczasem w nieodleglym miejscu... (autor: pandy | data: 28/04/13 | godz.: 15:29)
    http://www.parallella.org/

    I co teraz zrobi NVidia?


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.