Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
RECENZJE | Testy: Sacred 2 Fallen Angel - czyli PhysX w akcji
    

 

Testy: Sacred 2 Fallen Angel - czyli PhysX w akcji


 Autor: KamilM | Data: 27/05/09

Testy: Sacred 2 Fallen Angel - czyli PhysX w akcjiTym razem nietypowo zajmiemy się przeprowadzeniem testów wydajności kilku układów graficznych w jednej grze - Sacred 2: Fallen Angel. Tytuł oprócz dość ładnej grafiki przestrzennej oferuje wsparcie dla technologii NVIDIA PhysX, która odpowiedzialna jest za odwzorowanie zjawisk fizycznych w grach. W porównaniu wzięło kilka kart graficznych zarówno z obozu NVIDII (m.in. GF 9800 GT, GTX 295), jaki AMD (Radeon 4850, Radeon 4870 X2). Sprzęt dostarczyła firma NVidia, AMD, Palit oraz Zotac, zaś platformę testową uzupełnił Sklep komputerowy Reactor.pl. Zapraszamy.







Polub TwojePC.pl na Facebooku

Rozdziały: Testy: Sacred 2 Fallen Angel - czyli PhysX w akcji
 
 » Wstęp
 » PhysX - z czym to się je
 » PhysX - realne korzyści
 » Testy
 » Podsumowanie
 » Kliknij, aby zobaczyć cały artykuł na jednej stronie
Wyświetl komentarze do artykułu
 
    
K O M E N T A R Z E
    

  1. ... (autor: reev | data: 27/05/09 | godz.: 13:51)
    morgi to wieszać te psy na PhysX czy nie???

  2. ech te efekty (autor: TheW@rrior | data: 27/05/09 | godz.: 13:51)
    Czy tylko dla mnie te dodatkowe efekty w tej grze z użyciem PhysX nie są jakieś powalające realizmem? Na silę dorzucone jakieś liście czy kamyczki latające wokół ludzika by zachęcić klienta (dzieciaka) do zakupu karty z pod stajni Nvidii która wspiera kamyczki i listki na ekranie :)

  3. reev (autor: morgi | data: 27/05/09 | godz.: 14:30)
    Niewatpliwie ta technologia jest odgrzewancem, w dodatku ladnym opakowaniem cukierka-gry, ktory po sprobowaniu okazuje sie przeterminowana mietowka, ale to miliony razy lepiej robi w marketingu niz dx10.1 i takiez sa efekty w sprzedazy. Sama gra, coz mialem nieprzyjemnosc ja potestowac i wdrozyc sie w morze bugow, po czym odrzucilo mnie to niemieckie badziewie.

  4. a czemu nie ma ... (autor: Kristof G. | data: 27/05/09 | godz.: 14:42)
    na końcu jest napisane, że można dołożyć do ATI jakąkolwiek kartę nvidii z serii GF8xxx i działało by PhysX, więc trzeba było takową dołożyć i podać wyniki, taka karta to teraz ok 100 zł

  5. PhysX (autor: dr1zzt | data: 27/05/09 | godz.: 14:45)
    To nic innego jak silnik do liczenia fizyki, nvidia ma z nim tyle wspolnego ze sobie go wziela od Ageii. I sobie ma.
    Wspomagany sprzetowo czy nie, dziala rownie dobrze. Wiekszosc gier 3d ktore posiadaja fizyke uzywa wlasnie jego..


  6. Co ma wspólnego ilość efektów z FIZYKĄ obiektów? (autor: jacoj | data: 27/05/09 | godz.: 14:50)
    Może czegoś nie rozumiem i nie do końca wiem co się kryje pod nazwą PhysX ale to co zaprezentowano nie ma praktycznie nic wspólnego z fizyką zachowania się obiektów w grze... Pokazano obrazki z większą liczbą efektów graficznych i tyle. PhysX o ile się nie myle miała być odpowiedzialna za generowanie jak najbardziej zbliżonego do rzeczywistości ruchu obiektów (np. lot i odbijanie się od przeszkód odłamków po wybuchu), odkształcenia (np. przy symulacji zderzeń samochodów), zachowanie się cieczy (np. wylewasz coś na podłogę), itd. A tu co mamy? Jak na nieruchomym obrazku można ocenić działanie PhysX???!

  7. buahaha (autor: MayheM | data: 27/05/09 | godz.: 15:37)
    najlepszy physx to jak pies lezy przebity zdzblami trawy

  8. @dr1zzt (autor: Blazakov | data: 27/05/09 | godz.: 16:42)
    Havoc jest dużo częściej używany.

  9. ke? (autor: Tuptusiowaty | data: 27/05/09 | godz.: 17:20)
    ech, zobaczyłem porównanie screenów z włączonym i wyłączonym tym czymś i jedyne co zauważyłem, że gdy włączy się to coś to gra robi się jeszcze bardziej cukierkowata a na ekranie robi się nieczytelna sieczka.

  10. heh (autor: Mario2k | data: 27/05/09 | godz.: 19:05)
    Niech ktos zrobi testa z ATI 4870/90 wspomaganego jakas niskobudrzetowa NVidia 9600 zeby tylko physixa pociagla ,pewniakiem bedzie cacy

  11. Zamiast PhysX, serwuje się parę efektów... (autor: Kenjiro | data: 27/05/09 | godz.: 19:35)
    i te parę dodatkowych efektów próbuje się liczyć przy użyciu technologii fizyki obiektów - nędzne liście i parę bajerów wizualnych. Delikatnie mówiąc, porażka. Z tym, że oczywiście to było prostsze do wykonania, niż wpływ fizyki na pobliskie obiekty w postaci łamania, zginania, odbić. Tylko, że wtedy musiało by to być zrobione porządnie... a to już inna historia ;)

  12. ja następnym razem (autor: ViS | data: 27/05/09 | godz.: 21:54)
    poproszę filmiki, to nie problem wrzucić kilka przykładowych na youtube w hd ;)

  13. pytanko (autor: sew123 | data: 27/05/09 | godz.: 22:25)
    Rozumiem ze test ten jest z wykozystaniem physix w karta NVidii.. Czy mozna do tego dodac np test na ATi z dolączoną oddzielna karta PHYSIX na PCI ??

  14. @Mario2k, Kristof G (autor: Promilus | data: 27/05/09 | godz.: 22:25)
    Działa to tylko na XP, na Viście już nie da się połączyć w ten sposób kart.

  15. Lipa (autor: LOLO64 | data: 27/05/09 | godz.: 22:28)
    Lipa z taką fizyką. Więcej tu festynu niż spontanicznej reakcji.

  16. a wszystko to wina twórców gier (autor: Remedy | data: 28/05/09 | godz.: 01:42)
    Ludzie błędnie bowiem rozumieją czym była Ageia PhysX i czym obecnie to jest. Zamiast, tak jak już wspomniał Kenjiro, przyłożyć się do rzeczywistego i użytecznego wykorzystania efektów fizycznych to oni woleli dodać więcej iskierek. Uważam, że do dzisiaj najlepszym przykładem wykorzystania PhysX jest gra CellFactor.

  17. wybaczcie post za postem ;) (autor: Remedy | data: 28/05/09 | godz.: 01:45)
    http://www.youtube.com/watch?v=8JtAdTon0JA tutaj jest jakieś praktyczne zastosowanie. Gdyby jeszcze tylko podpiąć odłamki tego gruzu do systemu obrażeń to niezła sieczka by była w UT3 :D

  18. ... (autor: trepcia | data: 28/05/09 | godz.: 09:04)
    Kiedyś:
    Physx - fizyka.

    Dzisiaj:
    Physx - cukierki na monitorze.

    Jedno słowo a jak w krótkim czasie ewoluowało jego znaczenie :D


  19. droga redakcjo (autor: Dzban | data: 28/05/09 | godz.: 09:31)
    spytajcie się tych w reaktorze czy nie mają jakiegoś Core Duo 8600 niech wam uzupełnią nim platformę testową. Bo po co wypaczać wyniki?

  20. Promilus (autor: Dzban | data: 28/05/09 | godz.: 09:35)
    a nieprawda na viście też można używać dowolnej karty nvidii do physx i ATI do renderingu.

  21. tepcia (autor: Remedy | data: 28/05/09 | godz.: 10:38)
    Muszę jednak przyznać, że po obejrzeniu filmów z tej gry na YouTube dochodzę do wniosku, że ładnie te cukierki latają. :D

  22. ... (autor: Deathraw | data: 28/05/09 | godz.: 11:13)
    Ciekaw jestem kiedy entuzjaści zrobią stery physyx pod ATI.

  23. Opson (autor: Galnospoke | data: 28/05/09 | godz.: 11:23)
    Oglednie mowiac nie przepadam za Toba, ale jezeli chcesz pokazac naprawde duze mozliwosc PhysX to pokaz na Mirror's Edge. To pierwsza gra, ktora pisana jest natywnie na to API i to widac. Uzupelnij arta, dodaj kilka filmow na YouTube i przekonasz ludzie. Tyle ode mnie.

  24. ... (autor: BadBox | data: 28/05/09 | godz.: 11:53)
    Galnospoke -zgadza się efekty w Mirror's Edge dodają więcej realizmu..
    http://www.youtube.com/...rcmY&feature=related


  25. Galnospoke (autor: Remedy | data: 28/05/09 | godz.: 12:11)
    Wybacz, ale jeżeli falująca tu i ówdzie flaga, czy rozrywająca się folia jest szczytem możliwości to ja dziękuję. Żebyśmy się dobrze zrozumieli, to bardzo fajnie wygląda ale nie wnosi niczego do rozgrywki. Nie mogę przecież udusić tą folią przeciwnika, nie mogę jej też wykorzystać do czegokolwiek. To już bardziej praktyczne są cegły spadające na głowę. Gdyby np. można było przewrócić takie rusztowanie, o to by było coś a tak... ani odrobinkę nie jest to lepsze od tego co widzimy w recenzowanej tutaj grze.

  26. Test fajny ale komentarze i wnioski tragiczne. (autor: Marek1981 | data: 28/05/09 | godz.: 12:19)
    "Uruchomienie technologii PhysX mocno odbija się na ilości generowanych klatek/s. Na kartach Radeon jakiekolwiek granie nie jest możliwe."

    Jak można włączyć coś co jest niemożliwe na radeonach??? to samo jakby włączyć efekty dx10.1 na nvidii :P. Nie manipulujmy faktami.
    Jak już chcieliście to zróbcie testy gf+gf vs ati+gf.


  27. @Remedy (autor: Galnospoke | data: 28/05/09 | godz.: 12:22)
    Wybacz, ale wole miec falujaca flage, paski folii, rewelacyjnie rozpadajacye sie szyby, pekajacy lod pod nogami, lejaca sie wode niz tego nie miec. W ME gram jak tylko mam czas, uwielbiam ta gre - gdy mialem Radeona bylo dobrze, teraz zmienilem karte na nVidie i nie wyobrazam sobie grania bez tych dodatkow. To trzeba zobaczyc - sprawdz osobiscie, a zmienisz zdanie.

  28. @Marek1981 (autor: Galnospoke | data: 28/05/09 | godz.: 12:24)
    Wnioski "opsonowe", nic nowego. Jednakze faktu to nie zmienia: PhysX jest naprawde dobrym API, duzo lepszym od Havoka, ktory beczki tylko przewracac potrafi.

  29. imho (autor: OrbitaL_2001 | data: 28/05/09 | godz.: 13:50)
    ten physix trochę zaciemnia grę, osobiścię wolę np. ekran bez latających liści niż z nimi włączonymi

  30. Galnospoke (autor: Remedy | data: 28/05/09 | godz.: 14:28)
    No nie miałem jeszcze okazji pograć w ME z PhysX. Ja też wolę mieć te rzeczy, szkoda tylko że autorzy nie silą się na coś więcej. Przecież możliwości jakie daje ta technologia mogą mieć naprawdę spory wpływ na rozgrywkę. Tego mi brakuje.

    OrbitaL_2001: to nie jest wina PhysX tylko autorów. Przecież to oni dodali te liście. Z PhysX jest jak z nożem, jeden posmaruje nim chleb masełkiem, a inny oprawi jakąś skrórkę. ;) Sprawdź CellFactor - ta gra bez całej otoczki fizycznej nie byłaby nawet w 5% tak wciągająca. Cała esencja to właśnie wykorzystanie otoczenia przeciwko wrogowi.

    Szczytem debilizmu był Ghost Recon: Advanced Warfighter gdzie wykorzystanie PhysX sprowadzono do większej ilości drzazg po strzale w drewno i kilkunastu latających kamyczków po rzucie granatem. Spadek klatek był znaczny a efekt gorzej niż nędzny. Nie dziwię się, że laików to nie przekonało.


  31. @Remedy (autor: Galnospoke | data: 28/05/09 | godz.: 14:55)
    "Szczytem debilizmu był Ghost Recon"... poniewaz sama karta Ageia P1 to calkowite, zupelne nieporozumienie. To po prostu nieudana, wolna konstrukcja. Na YT widzialem porownanie tej karty z GF - wypadala zenujaco slabo, a przeciez jest niby super-dedykowana-do-fizyki. W praktyce natomiast jest kilkakrotnie wolniejsza od emulujacej ja karty grafiki. Natomiast co do API, to jest swietne, a to co zrobili programisci z nVidii to oklaski na stojaco. Okresle to tak: Ageia miala doskonalych programistow ale inzynierow (i nie tylko) fatalnych.

  32. phy (autor: ZEFello | data: 28/05/09 | godz.: 15:44)
    cieszyc sie nalezy ze nareszcie cos drgnelo - kolejne implementacje na pewno beda lepsze

  33. Hmm (autor: RuMuN | data: 28/05/09 | godz.: 17:47)
    Wiec tak obronie ATI bo one też mają swojego Psyx'a juz od HD38XX wbudowaną a słabsze programową tylko tyle że NV robi ładne reklamy a u Ati narazie raczkuje w temacie generowania fizyki.

    Duży przyrost wydajności będzie przy silniku Havoc'a jeśli ktoś się weźmie za OpenCL'a.

    Może nie dokońca to wyjaśniłem troche laikowo ale niecały tydzień temu czytałem jakiegoś newsa na ten temat.
    Ooo przypomniało mi się :D przecież już Folding@home wykorzystuje GPU i CPU do liczenia białek :) teraz bedzie czas na Fizykę.

    Co do fizyki tak ładnie pięknie "realnie" ale ja wole mieć wiecej Fpsów i sie nie denerwowac warpami czy spadkiem kaltek a do grafy i tak sie przyzwyczaja człowiek :) bo bez efektów i tak lepiej się gra bo nie trzeba się skupiać czy coś tam jest za tym magicznym okręgiem wokół bohatera czy coś falująca trawa przykryła jakiś przedmiot :P i oczy nie bolą od jaskrawych kolorów :D


  34. hmm (autor: RuMuN | data: 28/05/09 | godz.: 17:52)
    Potwierdzenie moich wypocin ;)

    http://www.techpowerup.com/...leration_at_GDC.html


  35. ........ (autor: Marek1981 | data: 28/05/09 | godz.: 18:50)
    Jak czytam co niektórych to tylko usiąść i płakać.
    PhysX miał pomóc w liczeniu fizyki a tu dostajemy kilka dodatkowych bajerów ( co i bez physx by też można dodać) które obciążają grafe do niebotycznych rozmiarów. I całe założenie w łeb szczelił. Co więcej nie było w testach wygładzania a więc dostajemy kilkaset kwadratowych liści, paranoja.


  36. RuMuN (autor: morgi | data: 28/05/09 | godz.: 20:03)
    PhysX to manipulacja Nvidii, kupiona specjalnie by zabajerzyc, a nie ufizycznic czy urealnic wirtualny swiat gier. Ten silnik to renderuje pelno 'obiektow' potocznie zwanych smieciami dodaja kolorytu, uniemozliwiajac przy tym konkurencji plynne smieciowianie na ekranie. Havok to stara technologia, ale ma wiecej z tej fizyki niz PhysX wlozylo i duzo wieksze szanse rozwoju. Stop technologiom zamknietym typu CUDA i 'psiks', albo w ramach Havoka albo nowa otwarta propozycja.

  37. @morgi (autor: Blazakov | data: 28/05/09 | godz.: 21:13)
    Na gamedevie się widać nie znasz za grosz - nie wciskaj tutaj ludziom kitu. PhysX został stworzony do fizyki i w założeniu miał konkurować z Havoc'iem - a to, że większość programistów używa tej technologii do robienia "lepszych" efektów cząstkowych (które można swoją drogą zrobić bez żadnego 3d - i też będą wyglądać nieźle) to już ich wina.

    Choć oczywiście po części masz rację, bo kto o zdrowych zmysłach oprze całą fizykę gry na technologii, która poprawnie będzie działać tylko na nowszych kartach nV.


  38. ze swojej strony dodam (autor: maw136 | data: 29/05/09 | godz.: 01:35)
    kiedy w końcu gry zaczną wykorzystywać na całego więcej niż 1-2 rdzenie w końcu jak ktoś ma 1 rdzeń to system sam będzie kolejkował te nadwyżkowe wątki do jednego rdzenia ale jak ktoś ma więcej rdzeni powiedzmy 4 to wtedy rozwijamy skrzydła...
    fizyka ->1-2 rdzeń; AI-> 3 rdzeń ->reszta 4 rdzeń core2 poradzi sobie nie mówiąc o nehalemach (CORE I5 się zbliża)


  39. maw136 (autor: Remedy | data: 29/05/09 | godz.: 09:57)
    Wszystko pieknie gdyby nie fakt, że CPU nadaje się do liczenia szeroko pojętej fizyki w grach jak wól do ciągnięcia karety. Z kolei przerzucanie obliczeń fizyki na grafikę też jest głupie ponieważ zabieramy moc na obliczenia graficzne. Tym samym dochodzimy do wniosku, że dedykowany akcelerator fizyki jakim była Ageia PhysX to najlepsze rozwiązanie.

  40. Remedy (autor: morgi | data: 29/05/09 | godz.: 10:49)
    Nie zwalaj na cpu, pisz petycje do Microsoft, ze takie API tworzy, a 'psiks' na cpu muli, bo wszystko sie muli oprocz Nvidii, ktora przestaje sie mulic na tym samym procu jak aktywujesz smieciowanie...zastanawiajace.

  41. @ morgi (autor: Marek1981 | data: 29/05/09 | godz.: 14:47)
    niestety ale CPU jest mało wydajne.

  42. morgi (autor: Remedy | data: 29/05/09 | godz.: 15:18)
    Nie zwalaj na Microsoft. Musisz sobie uświadomić, że architektura obecnych CPU jest zupełnie nie przystosowana do obliczeń takich jak fizyka w grach, czy innych folding@home'ach. Zbyt skomplikowany sposób realizowania prostych poleceń. Dlatego lepiej spisuje się kilkadziesiąt, czy kilkaset prostych "procesorów" z jakich zbudowana jest karta graficzna, czy też akcelerator od Ageii. Bezsensownym jest jednak dla mnie marnowanie mocy GPU kosztem jest zdolności do przeliczania grafiki, zamiast użycie dedykowanego akceleratora fizyki jakim była Ageia PhysX. OK, można powiedzieć że to kolejna karta w komputerze itd. ale dokładnie tak samo było z akceleratorami grafiki kiedyś. Wszyscy jednak chcieli je mieć a to dlatego, że ich implementacj a w grze była prawidłowa, przepaść była ogromna względem zwykłych wówczas kart graficznych. W przypadku Ageii zaiwnili producenci gier, którzy dyletancko potraktowali tę nowinkę. Dzisiaj kiedy Nvidia jest właścicielem Ageii mogliby wrzucić dedykowany PPU na płytę karty graficznej. Zdaję sobie sprawę, że nie będzie to proste, ale z pewnością możliwe. Wtedy moc GPU poświęcona byłaby tylko i wyłącznie na obliczenia graficzne, a układ PPU zająłby się obliczeniami fizycznymi. To chyba najzdrowsze rozwiązanie.

  43. Remedy (autor: morgi | data: 29/05/09 | godz.: 19:31)
    Jasne zobaczymy, bo wiele pompowania juz zaczynaja gpuksiarze w DX11, czy bedzie to taki przelom jaki zapowiadano w DX10, chyba raczy kazdy watpic. CUDA i 'psiks' stop co pokazuje chocby ten test. Jesli Microsoft wymysli nowe API, ktore bedzie preferowalo tą prostą moc zmiennoprzecinkowcow w gpu to zmienie gadke, na teraz to pustoslowie, pare bajerkow, kodekow zupelnie nie umniejszaja roli cpu w jego roli centralnego mozgu.

  44. morgi (autor: Remedy | data: 29/05/09 | godz.: 20:58)
    Wybacz ale przez Twoją składnię nie mogę do końca wszystkiego zrozumieć (mówię tez bez złośliwości). CUDA pokazuje chociażby poprzez Badaboom jak przyszłościowa jest ta technologia. Powtarzam Ci jeszcze raz, pretensje trzeba mieć do deweloperów gier, to oni odpowiadają za marne wykorzystanie tej technologii.

  45. remedy (autor: morgi | data: 29/05/09 | godz.: 22:11)
    Moze przyszlosciowa, ale to wiemy od 3 lat, odkad pojawil sie CUDAczny pomysl z G80 i do dzisiaj dostales kijek-CUDA i marchewke-'psiks' teraz poszukaj kroliczka. Pretensje do deva to ja nie mam, teraz musi produkowac przede wszystkim dla konsol, a tam technologie Nvidii to proznia.

  46. @morgi (autor: Marek1981 | data: 30/05/09 | godz.: 08:24)
    W konsolach ta technologia nie ma prawa bytu.
    xbox360 ma karte ati, a ps3 nvidii ale z tego co pamiętam to jakąś 6800


  47. @Remedy (autor: Blazakov | data: 30/05/09 | godz.: 13:54)
    Oddzielna karta nie ma racji bytu. Akceleratory graficzne pojawiły się na początku istnienia gier, kiedy to te w grafikę kulowały bardzo - a ich wykorzystanie dawało dodatkowy bonus w postaci szybszego działania (no i doszedł tu Quake, gdyby nie ta gra, losy akceleratorów mogłyby się potoczyć zupełnie inaczej).

    Obecne gry jakąś tam fizykę mają, a ta karta pozwala tylko w tej chwili na poprawę grafiki kosztem zmniejszenia FPSów.

    Tutaj niestety morgi ma rację, nV spartoliła sprawę kupując technologię i ją zamykając dla ATI. Jak ktoś nie zrobi otwartego systemu o uginających się deskach na pomoście pod postacią możemy zapomnieć.


  48. @up (autor: Blazakov | data: 30/05/09 | godz.: 13:54)
    *kulały

  49. Dla mnie ten test nie jest miarodajny. (autor: havik | data: 31/05/09 | godz.: 09:04)
    Myślę, że co jakiś czas pokaże się gra, w której po włączeniu pewnych opcji wydajność kart ATI padnie na ryj. Przypominam, że producentem tej gry są Niemcy a oni zawsze będą pobierać swoje (nvidia=siemens). Wiele produkcji dot. gier ma "wsparcie" producentów gier, zwłaszcza gdy optymalizują silnik gry pod daną markę kart. Dlatego mam pytanie do autora tego testu dlaczego wybrał tą a nie inną grę. Czy nie lepiej było wybrać kilka bardziej grywalnych tytułów. Bądź zestawić jeśli to faktycznie możliwe Readona i GeForca, w których by rozgraniczono funkcje obliczeń graficznych i fizycznych. Osobiście wątpię w istnienie takiego rozwiązania, choć nie uważam że jest nie realne. Dlatego uważam, że ten test nic nie wnosi.

  50. nvidia=siemens (autor: dominikmjm | data: 21/06/09 | godz.: 18:45)
    Skąd to wytrzasnąłeś? Lol...

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.

    
All rights reserved ® Copyright and Design 2001-2024, TwojePC.PL