Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Poniedziałek 21 lutego 2011 
    

Kolejne zrzuty ekranu z Wiedźmina 2


Autor: Wedelek | źródło: własne | 16:21
(44)
Jedna z najlepszych polskich gier cRPG w historii - Wiedźmin już niebawem, bo 17 maja doczeka się kontynuacji. Historia drugiej części zatytułowanej Zabójcy Królów rozpocznie się od miejsca, gdzie poprzednio skończyły się przygody Geralta. Zadaniem protagonisty jest odnalezienie mocodawców mordu, jaki dokonano na władcach Królestw Północy i odkrycie ich zamiarów. Wir zdarzeń rzuci nas nad rzekę Pontar i w niespokojne regiony pogranicza Temerii, Kaedwen i Aedrin. Kilka nowych zrzutów w dalszej części newsa.

W dwójce Geraltowi będą pomagać niezależne, spotkane w czasie gry postaci, a każda podjęta przez nas decyzja ma odbić się na otaczającym nas wirtualnym świecie.

Zwiększą się również umiejętności bojowe tytułowego Wiedźmina (szósty znak), a twórcy większy nacisk położyli na Wiedźmińskie rzemiosło i jego rozwój. Kolejna odsłona skorzysta również z innego silnika -RED Engine, który między innymi pozwoli tworzyć bardziej szczegółowe obiekty. Ma być bardziej epicko i kinowo dzięki niemalże dwukrotnie dłuższym przerywnikom filmowym. Praca nad Wiedźminem 2 dobiega więc już końca, a do sieci trafiło pięć nowych zrzutów ekranu, prezentujących grę. Oto one:


 

    
K O M E N T A R Z E
    

  1. Widać teraz już, że konsole potrzebują ósmej generacji. (autor: Rhobaak | data: 21/02/11 | godz.: 16:56)
    Tu w pełnej rozdzielczości:
    http://www.neogaf.com/...m/showthread.php?t=422113


  2. ... (autor: Aamitoza | data: 21/02/11 | godz.: 17:15)
    wygląda to na prawdę dobrze, chociaż miejscami ciut plastikowo. To będzie dobry rok dla RPG... jednak i tak zainteresowany jestem tylko witcherem2 i TES:V, resztę sobie daruję.

  3. @do tematu (autor: popierdulka1234 | data: 21/02/11 | godz.: 17:42)
    http://www.ausgamers.com/features/read/3021872

  4. Pieknie pieknie... (autor: PrEzi | data: 21/02/11 | godz.: 17:47)
    Kolejna gra ktora kupie... W koncu jakis produkt ktory jest robiony z mysla o PC, a dopiero pozniej dostosowywany do o wiele mniejszych mozliwosci dzisiejszych konsol. Miodzio !

  5. hehe (autor: morgi | data: 21/02/11 | godz.: 19:20)
    grafika nie powali, podobnie jak DA2, silniki z poprzedniej dekady, mam nadzieje, ze nie skonsolizowane za mocno i bedzie mialo klimat i fabule z sensem, a nie tylko cutscenki i pikanteria na pocieszenie.

  6. @morgi (autor: MateushGurdi | data: 21/02/11 | godz.: 19:25)
    sam jestes silnikiem z poprzedniej dekady ;] Jezeli obecna trwa trwa 2 miesiace to oczekujesz ze napisza silnik teraz, trzy miesiace przed wydaniem gry?

  7. morgi (autor: Aamitoza | data: 21/02/11 | godz.: 19:26)
    Ale pierdzielisz. Wiedźmin2 i DA2 to graficzna przepaść.
    DA2
    http://www.abload.de/img/original5snz.jpg

    Wiedźmin2
    http://i236.photobucket.com/.../ME0001367805_2.jpg
    http://cdn.cnetnetworks.fr/...8/ME0001367807_2.jpg

    Ta gra będzie spokojnie konkurować pod względem grafiki z TES:V.


  8. ... (autor: Aamitoza | data: 21/02/11 | godz.: 19:27)
    TES:V
    http://cdn.medialib.computerandvideogames.com/...g


  9. @Rhobaak (autor: MateushGurdi | data: 21/02/11 | godz.: 19:29)
    Wg zapowiedzi studia Crytek, CryEngine 3 bedzie wyciskal 100% mozliwosci z konsol PS3 i XBOX 360, dlatego Crysis 1 nie wyszedl na konsole bo po prostu nie wiedzieli na ile moga sobie pozwolic, opracowywali zoptymalizowanie gry w taki sposob zeby jakos wygladala. Chociaz jezeli ktos sobie kupi Radka 6870 albo GTX-a 560 to mysle ze konsole nie maja o czym gadac

  10. @konsole (autor: KaT | data: 21/02/11 | godz.: 20:05)
    Konsole kupuję się dla gier, a nierzadko wyłącznie dla kilku exclusive titles. Nie oszukujmy się - stworzenie gry na PC jest znacznie tańsze, niż stworzenie gry multiplatformowej. Gdyby W1 wyszedł wówczas także na X360 i PS3 to podejrzewam, że sprzedali by przez pierwsze 3 miesiące nie 600k egzemplarzy, ale kilka milionów.

  11. @10. (autor: Mariosti | data: 21/02/11 | godz.: 22:43)
    Stworzenie gry exclisve na pc jest, z technicznego punktu widzenia, porównywalne z wydaniem jej na wiele platform. Pisanie na konsole jest w porównaniu do tego wręcz trywialne, bo w każdym ps3 masz zasadniczo ten sam konfig podstawowy, podobnie x360... po to właśnie wymyślono konsole aby łatwiej, taniej i szybciej można było na nie pisać gry i aby klient miał pewność, że po zakupieniu, będzie mógł z gry wycisnąć 100%. To że gry na konsole są bardzo drogie w porównaniu do tych na pc'ty wynika z tego że na pc'tach jest ogromna konkurencja i bardzo rozwinięta szara strefa która powoduje że jakakolwiek droga gra nie ma szansy przynieść dobrych przychodów.
    To wszystko nie zmienia oczywiście faktu iż konsole są sprzętowo niebywale archaiczne w porównaniu do pc'tów i fakt iż nie ma praktycznie gier pisanych tylko na pc'ty powoduje że zwykle nie możemy w pełni skorzystać z ich możliwości... przynajmniej jeśli o realistyczność grafiki chodzi...


  12. @11 (autor: KaT | data: 21/02/11 | godz.: 23:16)
    Z technicznego punktu widzenia wydanie gry multiplatformowej zasadniczo różni się od wydania jej na PC. Nie wiem jak prościej to można napisać ale chodzi właśnie o konieczność opanowania kilku zupełnie odmiennych architektur. O ile sam kod czy pracę grafików można przenieść, to problemem pozostaje optymalizacja. Słaby port się po prostu nie sprzeda. Co innego PC. Tutaj poważne bugi są na porządku dziennym(W1 anyone?) i są niejako wliczone w koszta. No i zasadniczo łatwiej o dewelopera znającego x86/DirectX, niż posiadającego doświadczenie z Cell.

    Gdyby to było takie proste, to każda pecetowa gra wychodziła by także na konsole, gdzie piractwo jest ograniczone i można zarobić znacznie więcej, niż na tytule PC-only.


  13. @Mariosti (autor: Promilus | data: 21/02/11 | godz.: 23:20)
    Koszt opracowania gry na Xboxa i przeniesienia na PC jest mały w porównania do napisania gry na PC i przeniesienia na Xboxa i PS3. Xbox-PC łączy bardzo zbliżone API i narzędzia - dlatego portowanie jest banalnie proste w porównaniu do portowania z PS3 albo na PS3.
    "Pisanie na konsole jest w porównaniu do tego wręcz trywialne"
    Nie wiem czy studia korzystające z narzędzi Sony podzielają tą opinię. Niebywale trudno jest zrobić grę dającą określony poziom grafiki na sprzęcie z którym trzeba kombinować by osiągnąć te efekty (jak np. MLAA i SSAO robione na Cellu). W przypadku PC jest o tyle prosto, że korzystasz z DX SDK i nic więcej cie nie interesuje, czy radeon hd4k, czy 5k, czy gf 8800, czy gtx460. W zależności od mocy kart po prostu tnie się detale i gra działa. Ot wyłącza się na słabszych kartach niektóre shadery i fragmenty silnika renderującego. Tyle. Samo pisanie na PC nie jest trudniejsze od pisania na konsole. Testowanie z drugiej strony...


  14. @13. (autor: Mariosti | data: 21/02/11 | godz.: 23:51)
    Napisanie kodu który szybko będzie chodził i na 2 rdzeniowcach i na 6 rdzeniowcach i na intelach i na amdkach i na radeonach i na gf'ach i na 2gb ramu i na 4gb ramu jest niebywale trudne. To że api do renderowania grafiki na pc jest wiele lat do przodu w porównaniu do tych na xbox'a i ps3 nie zmienia faktu iż kod optymalizujesz tam pod jeden tylko konfig.
    Jest to tak wielki problem na pc że większość gier wydawanych na pc jest tak beznadziejnie zoptymalizowana że szkoda gadać i w zamian stosuje się agresywne obcinanie detali o którym wspomniałeś.
    @12.
    Dużo łatwiej jest poznać metody optymalizacji jednej architektury niż 10'ciu, dlatego łatwiej napisać porządną grę na ps3 lub xbox'a w porównaniu do pc. To że na pc'ty w większości wychodzi chłam marnujący ich zasoby na praw i lewo bynajmniej nie oznacza że są do dobrze napisane gry...


  15. @07 (autor: Arlic | data: 22/02/11 | godz.: 00:36)
    ^^ też ci wyrwę jakieś zdjęcie z alphy i pogadamy....

  16. @pomimo ze nie toleruje TPP (autor: 5eba | data: 22/02/11 | godz.: 00:39)
    to dla tej pozycji jestem w stanie zrobic wyjatek, poniewaz czesc 1sza jest jednym z najlepszych* rpg'ow jakie kiedykolwiek powstaly na pc (*w wersji PL oczywiscie)
    btw. czy tak ciezko umozliwic zmiane widoku z tpp na normalny?


  17. Arlic (autor: Aamitoza | data: 22/02/11 | godz.: 00:41)
    A z czego są screeny wiedźmina? ;)

    "pre-beta-build presentation"


  18. no jeszcze (autor: scoobydoo19911 | data: 22/02/11 | godz.: 00:47)
    wyjdzie że nowy wiedźmin będzie ładniejszy od crysisa 2 ;P

    Do morgiego

    nowy wiesiek hula na ich autorskim silniku który nie jest już którąś z kolei inkarnacją aurory i jest jedną z najnowoczesniejszych technologii dla gier rpg.


  19. @Aamitoza (autor: Arlic | data: 22/02/11 | godz.: 00:47)
    Ale nie przesadzaj że przepaść, wiedźmin ma ładniejszą grafikę, nie powiem, ale to co pokazałeś, jak byś się zainteresował dragon age (pewnie nie grałeś :/) było określone jako gorsze od jedynki.

    http://www.games-review.info/...-age-origins-1.jpg

    Screen z jedynki :/ Jedynka byłą jedną z najlepszych RPG, nie mówiąc o wiedzminie który z początku był tak nudny że głowa bolała i to przez zbyt długi czas.

    W DA mamy podobnie, tylko ten okres trwa dużo krócej.


  20. grałem w DA (autor: Aamitoza | data: 22/02/11 | godz.: 01:14)
    Ale średnio przypadł mi do gustu. Za to wiedźmin o wiele bardziej. Wole jednak RPG z bardziej dynamiczną walką - wiedźmin, gothic, tes, chociaż KOTORy cholernie przypadły mi do gustu. Jednak DA czy NWN były dla mnie takie sobie.

  21. co tak nad grafika (autor: nicoli | data: 22/02/11 | godz.: 04:45)
    sie rozpisujecie lepsza czy gorsza ważnew zeby dobra fabuła była trzymajaca w napieciu i wciągająca
    Widze ze większosc patrzy na grafike jak jest śliczna to zagra nie ważne ze badziew moze być ważne zeby grafika porażała a nawet jakby była cudna to i tak znależliby sie tacy dla których będzie brzydka


  22. Wiedźmin (autor: antrax | data: 22/02/11 | godz.: 08:29)
    prezentuje się ładnie, nawet bardzo ładnie, grałem w crysisa 2 i powiem, że szału nie było, wygląda pięknie chodzi płynnie na radku 6970 przy max detalach i rozdziałce 1920x1080, więc tu jest duży plus ale odpalałem go w win xp czyli na dx 9, nie wiem jak będzie z dx11.
    Na wiedzimina czekam, bo podobała mi się pierwsza część, a po drugie to polska gra


  23. scoobydoo (autor: morgi | data: 22/02/11 | godz.: 09:29)
    Chocby nie wiem jaka papke sprzedali, to autorsko beda miec przechlapane, jak wyjdzie takie padlo jak pierwsza czesc, ktorej latanie im rok zajelo. Marketing moga uprawiac po premierze, narazie wyglada to kanciasto i blurowato, tekstury prokonsolowe.

  24. rzygam (autor: kretos | data: 22/02/11 | godz.: 09:33)
    juz takimi kolorowymi screenami z podbita jaskrawoscia. Ci tworcy wygladaja czasem za okno i widza jak wyglada swiat?

  25. @Mariosti (autor: Promilus | data: 22/02/11 | godz.: 09:53)
    "Napisanie kodu który szybko będzie chodził i na 2 rdzeniowcach i na 6 rdzeniowcach i na intelach i na amdkach i na radeonach i na gf'ach i na 2gb ramu i na 4gb ramu jest niebywale trudne"
    To ktoś jeszcze bawi się asemblerem? Nie... Trudniejsze jest napisanie gry która ma ładnie wyglądać i mieścić się w 512MB pamięci razem z teksturami.
    "To że api do renderowania grafiki na pc jest wiele lat do przodu w porównaniu do tych na xbox'a i ps3 nie zmienia faktu iż kod optymalizujesz tam pod jeden tylko konfig"
    A w PC masz optymalizowany pod co? Przecież piszesz korzystając z API SDK a nie bezpośrednio do sterownika (jak to bywało na samym początku 3D w PC) zatem wszelkie optymalizacje względem sprzętu to są w sterowniku a nie grze. Gra może co najwyżej wykorzystywać specyficzne cechy danej rodziny kart lub korzystać z funkcji które danej rodzinie dają przewagę (np. DX10.1 w STALKERZE czy Assassin Creed kontra zoptymalizowane procedury od nvidii).
    Jeśli zaś chodzi o te cięcie detali... no popatrzmy. Unreal Engine 3 - świetnie się skaluje z ilością rdzeni 1-4, dobrze działa i na radkach, i na gf. The Last Remnant oparty o UE3 preferuje jednak konstrukcje NV. HAWX2 też preferuje nv ale nic obcinać nie trzeba, bo fps dość na radziejonkach. Problemy, na które natrafiają producenci softu to częściej nieodpowiednia implementacja API w sterownikach (wywołująca w specyficznym przypadku np. przeciek pamięci) niż problemy z API same w sobie. Innymi słowy to nie różnorodność konstrukcji PC powoduje problemy, a dupowate stery.


  26. morginalny (autor: cyferluu | data: 22/02/11 | godz.: 11:19)
    w ogolę nie ma żadnego poczucia estetyki... 100% jestem sure że aż pewien teraz !!!

  27. @24 dokładnie. (autor: krzysiek_mil | data: 22/02/11 | godz.: 11:40)
    Jak nie przesadne tonowanie kolorów w kierunku brązu i szarości, to przesada w drugą stronę.

  28. ... (autor: Aamitoza | data: 22/02/11 | godz.: 11:43)
    ja tam wolę żeby było bardziej jaskrawe niż żeby było zbyt szare. W gothicu fajnie zrobili wybór "ametykański" i "europejski". Pierwszy jaskrawszy, drugi bardziej mdły.

  29. @kretos (autor: Promilus | data: 22/02/11 | godz.: 12:14)
    Czego oczekujesz? Przecież shadery ledwie symulują fizykę oświetlenia, brak im danych wejściowych żeby zrobić to porządnie od początku do końca. Chcesz mieć realnie to baw się RT tylko nie wiem czy na quadzie najsilniejszych GTXów uda ci się zagrać z rozsądnym framerate.

  30. @Mariosti (autor: Mcmumin | data: 22/02/11 | godz.: 14:48)
    "Napisanie kodu który szybko będzie chodził i na 2 rdzeniowcach i na 6 rdzeniowcach i na intelach i na amdkach i na radeonach i na gf'ach i na 2gb ramu i na 4gb ramu jest niebywale trudne"

    :D:D:D Masz C# + DirectX API i tyle. Jako osoba zajmująca się programowaniem i - co więcej - posiadająca znajomych wśród zawodowych klepaczy kodu do gier muszę ściągnąć Cię na ziemię. Liczy się czas i terminy, a koszt pracy programisty jest bardzo wysoki. Znacznie lepsze przełożenie na sprzedaż można uzyskać poprzez sprawną machinę marketingową niż dopracowanie gry. Programista kończy swoją pracę w chwili zaprogramowania engine gry i przygotowania API tak, aby graficy i projektanci leveli mogli dorzucić swoją pracę za pomocą jakiegoś języka skryptowego (np LUA). Beta testy? Osoba pisząca skrypty do leveli/światów przejdą (jak mają na to czas) kilka razy dorzucona właśnie fragment świata i zlewają temat z powodu braku czasu.

    Tajemnicą poliszynela jest fakt, że przy produkcji gier na PC i XBoxa odwala się taką fuszerkę jak większość naszych budowlańców :) Zdecydowanie lepiej jest w przypadku PS3 ale i zwrot z inwestycji jest zazwyczaj większy/pewniejszy.


  31. @23 (autor: scoobydoo19911 | data: 22/02/11 | godz.: 15:11)
    Cóż nie mogą się z tobą zgodzic że wieśiek był nudny.

  32. uuu nie doczytałem (autor: scoobydoo19911 | data: 22/02/11 | godz.: 15:15)
    ale jak oceniaz gre tylko po grafice i ilopści błedów to nie powinieneś w nic grać

  33. kurcze (autor: scoobydoo19911 | data: 22/02/11 | godz.: 15:16)
    znowu zapomniłem, w grach rpg liczy się fabuła a nie grafika.

  34. cyferluu (autor: morgi | data: 22/02/11 | godz.: 15:30)
    Mierzi mnie kwadratowy i bez wyrazu swiat kiepskiej jakosci tekstur, biednych i zbugowanych efektow, pikselowych efektow sprzed 10 lat i wszystko ma ratowac pare podniecajacych lub chamskich dialogow, no wybacz, ale kicha traca. Zeby nie bylo DA to tez rozpacz konsolowa, a ostatni TES moglbyc lepszy jak i graficznie tak i fabularnie. Widocznie licza na komune graczy, ze odwala im reszte roboty i odpala za zdzierstwo i lenistwo czyli dlc.

  35. @morgi (autor: Promilus | data: 22/02/11 | godz.: 16:06)
    Ty byś nie rozpoznał dobrej grafiki nawet jakby wyskoczyła z krzaków i kopnęła cię w dupę ;)

  36. @30. (autor: Mariosti | data: 22/02/11 | godz.: 16:34)
    Jakbyś zauważył to później napisałem dokładnie to samo ;] Zdanie które zacytowałeś to potencjalne założenia do poprawnego programowania gier... a nie jak wspomniałeś do korzystania z C# do pisania jakiegokolwiek softu czasu rzeczywistego...

    @25. Ewidentnie niewiele wiesz o programowaniu jeśli myślisz że kod pisze się pod api, a nie pod architekturę sprzętu... sterownik nie ma wielkiego pola do popisu (chociaż zdarzały się wyjątki).


  37. @Mariosti (autor: Promilus | data: 22/02/11 | godz.: 16:43)
    Ewidentnie nie przeglądałeś ani jednego kodu źródłowego silników gier. Jak pisałem już dawno minęły czasy gdy odwoływano się do sprzętu bez użycia API. Nawet teselator z HD2k w DX9 wykorzystywał rozszerzającą D3D bibliotekę, a nie jakieś zupełne obejście API. Jeśli myślisz, że jest inaczej... no to cóż, mylisz się. Odwołania do sprzętu są wyłącznie poprzez API (DX, OGL) bo nie ma sensu inaczej. Po to właśnie jest API, by nie rzeźbić pod różne architektury oddzielnych kawałków kodu.

  38. @37. (autor: Mariosti | data: 22/02/11 | godz.: 17:16)
    Tak się składa że jestem programistą i wiem o czym mówię. To o czym mówisz to bardzo przyziemne i naiwne podejście do sprawy. API to API, pisząc w nim stosujemy się do niego i wykorzystujemy funkcje jakie udostępnia, ale już kwestia wszelkich optymalizacji kodu, układania odwołań, używanych w algorytmach typów danych, lokalności danych, synchronizacji itp. Od tego głównie zależy to jak szybko będzie działał dowolny program i poprawne napisanie tego wymaga dużej wiedzy na tematy typu: jak działa kompilator, jak operuje na pamięci ram cpu, jak gpu, jak operują na pamięciach lokalnych, jak na prywatnych, jak obsługują wątki i jakie typy operacji najbardziej "lubią". Aby wykorzystywać tą wiedzę do optymalizacji kodu nie trzeba pisać w assemblerze...

  39. @ad. (autor: Mariosti | data: 22/02/11 | godz.: 17:20)
    Oczywiście zakładam przy tym że każdy wie że java, C# i im podobne to żarty, a nie języki programowania... no chyba że zależy tylko na czasie i kasie, tak jak to wspomniał towarzysz Mcmumin, ale niewiele ma to wspólnego z porządnym oprogramowaniem (które, przyznaję, jest w dzisiejszych czasach bytem wręcz utopijnym).

  40. @Mariosti (autor: Promilus | data: 22/02/11 | godz.: 19:36)
    Do wszelkich zasobów GPU odwołujesz się w silniku POPRZEZ directx/opengl, a nie bezpośrednio przez sterownik. Jedyny chyba wyjątek to CAL/IL czy PTX pozwalający śmigać prawie bezpośrednio po jednostkach (ALU) i rejestrach.
    "jak operują na pamięciach lokalnych, jak na prywatnych, jak obsługują wątki i jakie typy operacji najbardziej "lubią"."
    Z tego wszystkiego co napisałeś tylko ten fragment choć częściowo dotyczy GPU. A jakie to konkretnie optymalizacje w programie pixel shadera odpowiedzialnego za np. HDR jesteś w stanie wprowadzić mając na uwadze strukturę cache L1/L2 w Fermi w stosunku do cache w Cypressie czy Caymanie? W końcu do cache się nie odwołujesz, nie masz nawet informacji w jaki sposób sam sterownik to robi. Definiujesz tylko zmienne, wywołujesz funkcje z bibliotek pakietu SDK, kompilujesz. Nic ponadto. Jasne, czasem piszą że lepiej użyć TEGO typu danych, a nie tamtego. Lepiej użyć takiej funkcji wyciągania luminacji niż innej. Lepsze są takie konstrukcje programowe niż inne. Ale to nijak nie wiąże się z samym sprzętem i jego różnorodnością. Piszesz korzystając z góry ustalonych funkcji API. Te libsy odwołują się do sterownika który to ma za zadanie maksymalne wykorzystanie TEGO OKREŚLONEGO ZAINSTALOWANEGO W KOMPIE SPRZĘTU. Wszystkich jego możliwości w miarę optymalnie.


  41. @Mariosti - czysta utopia :) W dzisiejszych czasach (autor: Mcmumin | data: 22/02/11 | godz.: 22:21)
    spora część logiki gier powstaje w językach skryptowych (vide wspomniana już LUA) ze względu na multiplatformowość właśnie (API do C we wszelkich mutacjach, Javy itd itd).

  42. @40. (autor: Mariosti | data: 23/02/11 | godz.: 13:05)
    "nie masz nawet informacji w jaki sposób sam sterownik to robi."
    Sterownik i kompilator, wiem jak one to robią.


  43. @Mariosti (autor: Promilus | data: 23/02/11 | godz.: 13:46)
    "Sterownik i kompilator, wiem jak one to robią."
    Nie wiesz jak to robi sterownik, możesz mieć co najwyżej ogólny zarys. Ewentualnie możesz wiedzieć jak to robi noveau czy radeonhd na linuksa, bo te mają źródła (przy okazji oczywiście możesz się przekonać jak wiele od sterownika zależy! Wystarczy porównać otwarty do własnościowego...)
    Teraz... jakie znaczenie dla programisty ma fakt, że RBE w caymanie może 2x więcej pikseli w FP32 albo int16 przerobić? Albo jakie znaczenie ma dla niego fakt, że w VLIW4 aby przetworzyć jednego sinusa potrzeba 3 z 4 ALU? Jakie ma znaczenie, że w Caymanie zmniejszono ilość cykli opóźnienia w pobieraniu danych z cache? Zasadniczo żadne. Chyba, że jakiś shader wymaga masakrycznie dużo sin/cos/pow/sqrt itp. to trzeba by pomyśleć o optymalizacji pod kątem Caymana ;) No jakoś do tej pory problemu nie było więc jakoś wątpię by nagle to miał być ;)


  44. Tak (autor: scoobydoo19911 | data: 23/02/11 | godz.: 14:51)
    was trochę poczytałem i przedstawie własną teorie. producenci gier dostając hajs od nv czy amd sprawdzają jakie shadery wykonujące to samą rzecz na gpu swojego sponsora lepiej i te shadery tam pakują a to że na gpu oponenta chodzą gorzej nie ra masakrycznie gorzej już nikogo nie obchodzi

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.