Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Wtorek 4 lipca 2017 
    

Fermi dostał wsparcie dla DirectX 12


Autor: Wedelek | 06:57
(21)
Niespełna osiem lat temu Nvidia wprowadziła do oferty pierwsze karty graficzne bazujące na architekturze Fermi, które na kartach historii zapisały się jako olbrzymie, prądożerne ale i całkiem wydajne układy. Wraz z premierą sterowników GeForce 384.76 WHQL zieloni postanowili przypomnieć światu o kartach z rodziny GTX 4xx dodając dla nich oficjalne wsparcie dla bibliotek DirectX12. Oczywiście mówimy tutaj o tzw. minimalnym wsparciu, popartym między innymi modelem sterowników WDDM 2.2. Karta zapewnia obsługę tylko najbardziej podstawowych funkcji, a co za tym idzie jej wydajność w trybie DX 12 nie powala.

W grach, które mogą uruchamiać się w trybie DX11 i DX12 obserwujemy ogromny spadek wydajności po aktywacji nowych bibliotek Microsoftu. Średni FPS spada zazwyczaj o ponad 10 klatek na sekundę, a w skrajnych przypadkach wydajność jest nawet o połowę niższa.

 


    
K O M E N T A R Z E
    

  1. Małe wredne sukinsynki (autor: kombajn4 | data: 4/07/17 | godz.: 07:10)
    Ogłosili wsparcie DX12 dla Fermi w momencie gdy wszyscy byli nahypowani na nowego DX. Ogłosili cyt sterowniki będą gotowe w momencie premiery pierwszych gier ze wsparciem DX12. Wprowadzili w 2015 roku sterowniki beta wprowadzające niezwykle ułomne praktycznie nie sprawne wsparcie dx12 na Fermi i wszyscy posiadacze (w tym ja w tamtym czasie( trzymali kciuki że za dwa trzy miesiące stery będą gotowe. Po czym wycofali się ze wsparcia dając jasny sygnał dla posiadaczy Fermi chcecie mieć DX12 kupcie nowe karty. Dziś również dzięki temu zabiegowi udział w rynku Fermi spadł do granicy błędu statystycznego choć nadal na GTX480 570 580 590 można grać w miarę komfortowo w nowsze gry,Więc co robi Nvidia? Gdy rozbujałe nadzieje na nową jakość w DX12 opadły i nikogo już specjalnie to nie grzeje nagle wypuszczają sterowniki z DX12. Łaskawcy cholera. Zaraz ten ciul Sony napisze że to klasa firma.

  2. miałem EVGA GTX480 (autor: leosh | data: 4/07/17 | godz.: 07:59)
    i faktycznie dawał radę. Jednakże zużycie prądu i hałas dyskwalifikowały tę kartę. Ostatecznie padła na gwarancji i mogłem wymienić na coś lepszego

  3. Potezna karta, o duzej mocy (autor: Sony Vaio Surprise | data: 4/07/17 | godz.: 08:42)
    Do tego obsluguje najnowsze standatty. O Karachi przodownicy pracy distant natzedzie do wykonania 150% normy

  4. mialem (autor: quadcore | data: 4/07/17 | godz.: 09:41)
    gts 450. Niby karta była spoko dawała radę w grach razem z athlonen II. Jeden minus, że nie mogłem grać po nocach. Szedł taki hałas, że budziło to wszystkich domowników. A w lato to burza miała konkurencje w kwestii wydawania hałasów. Od tego momentu nie mogę się przekonać do nvidii a zwlaszcza od Palita

  5. co prawda operacja sztuka dla sztuki, (autor: Qjanusz | data: 4/07/17 | godz.: 11:14)
    ale wizerunkowo dla firmy jest ok, bo taki wyłącznie był cel tego zabiegu.

  6. Uwaga (autor: biuro74 | data: 4/07/17 | godz.: 12:07)
    na krotnosci.
    Se raz zapamietac i potem mozna uzywac bez problemu. Wielokrotnosci:
    * mozna uzywac "w gore" (dwukrotnie wiecej, trzykrotnie szybciej itp),
    * NIE mozna uzywac "w dol", bo wychodza glupoty, i to kwadratowe. Na przyklad: "wydajnosc dwyukrotnie nizsza" oznacza, ze jak ktos mial 40 FPS, to teraz ma dwa ray mniej, czyli (2*40 = 80) teraz jest to 80 FPS mniej, co daje 40-80=-40 FPS. Brawo :) W dol stosuje sie wartosci ulamkowe 0...1, chyba ze mowimy o przejsciu na druga strone skali, jak z temperatura na przyklad.


  7. @5. (autor: pwil2 | data: 4/07/17 | godz.: 16:16)
    Wizerunkowo to tak średnio. Ludzie już pozapominali, posprzedawali karty, a teraz wychodzi na to, że mogli dać wsparcie, ale nie chcieli. Dopiero WDDM2.2 wymusiło obsługę DX12.

  8. @06 (autor: bmiluch | data: 4/07/17 | godz.: 17:37)
    Statystyczny Polak zarabia dwa razy mniej niż statystyczny Francuz.

    Tak się po prostu mówi.


  9. @8. (autor: Kenjiro | data: 4/07/17 | godz.: 18:02)
    Nie, mówi się i pisze, że X zarabia połowę tego co Y, albo ewentualnie Y zarabia dwa razy więcej niż X.
    To co napisałeś, to jakaś bzdura na kółkach...


  10. @9. (autor: pwil2 | data: 4/07/17 | godz.: 18:11)
    Najwyraźniej Ci, którzy tak mówią, faktycznie "zarabiają 2x mniej" ;)

  11. @7. (autor: rookie | data: 4/07/17 | godz.: 20:52)
    To po prostu sztuczne zanizanie możliwości produktu, w celu sprzedaży nowego. Może pójdą jeszcze dalej i wprowadzą DX10 do serii Geforce 7 (może ktoś jeszcze ma GF7300 w szafie...), albo pixel/vertex shadery do Geforce 2 MX :D Przydałby się też przyrost mocy integry geforce 7100 w dziesięcioletnich laptopach ;)

  12. ad11 (autor: MacLeod | data: 4/07/17 | godz.: 21:40)
    Natomias "firemka" doskonale dba o starsze produkty:)
    Tak dba, ze na nowych sterownikach przestaja dzialac. Pffffffffffffffffffffffffff....


  13. kurde szkoda ze nie dali wsparcia dx12 dla geforce 2mx ultra (autor: pawel1207 | data: 4/07/17 | godz.: 23:21)
    :D to byla karta :D

  14. nie było nigdy (autor: leosh | data: 5/07/17 | godz.: 06:03)
    Geforce 2MX Ultra

  15. no tam gefoce 2 ultra bez mx -a byl (autor: pawel1207 | data: 5/07/17 | godz.: 12:59)
    :D sprawdzilem w szafie :D..

  16. @15 (autor: kombajn4 | data: 5/07/17 | godz.: 15:39)
    Geforce 2MX z 2 Ultra miał tyle wspólnego co krzesło z krzesłem elektrycznym lol. Te karty dzieliła przepaść wydajnościowa szczególnie biorąc pod uwagę bodaj najpopularniejszą wtedy wersje MX200 32MB. Jeszcze MX400(takiego miałem) jako tako dawał rade od dużej biedy.

  17. @16. (autor: pwil2 | data: 5/07/17 | godz.: 15:52)
    2Ultra miał wiele wspólnego, ale z 4MX.

    2Ultra różnił się od 2Ti tylko taktowaniem pamięci. Miałem 2Ti i przy okazji zmieniłem na 4MX (+- bezkosztowo).


  18. @17 (autor: kombajn4 | data: 5/07/17 | godz.: 19:25)
    A z kolei 4MX to był szrot w porównaniu do 4Ti. Miałem 4 Ti4200 niezła rakieta. Facet w sklepie jak przyszedłem ją kupić na raty w pierwszej chwili myślał że chodzi mi o MX. W całym sklepie miał jedna 4 Ti na wystawie.

  19. kombajn4 (autor: pawel1207 | data: 6/07/17 | godz.: 00:15)
    z dzisiejszego punktu widzenia to szrot o smiesznej wydajnosci jeden nie lepszy od drugiego ... przynajmniej dla mnie fakt ze 2mx to budzrzetowka a ultra to byl top .. ale to bylo wieki temu ... jak bym mail byc retro maniakiem to wole isc w amige czy inny egotyczny obecnie sprzet z pozycji czasu 2mx czy 2 ultra teraz to ten sam shit...

  20. @19 (autor: kombajn4 | data: 6/07/17 | godz.: 10:36)
    Pewnie że tak. Amiga? Burżuj ;) Ja miałem Commodore 64.

  21. kombajn4 (autor: pawel1207 | data: 9/07/17 | godz.: 04:19)
    wczesniej mialem atari 65xe z magnetofonem przy ami to bylo pierwsze spotkanie z stacja dyskow hdd programowaniem linuxem i netbssd itd ... patrzec z dzisejszego punktu widzenia gdzie os zre gigabajty a zegary przekracza 4 giga a liczba rdzeni dobija do 8 w cywilnych kompach a 500 a puzniej a1200 popedzana 14 mhz zegarkiem to hmm programisci dokonywali cudow ...... aby tu upchac i zeby to jeszcze chodzilo ... i na dodatek czesto dzialalo ok . :D zreszta wystarczy zobaczyc co wiciskano z c64... teraz to w jakim innym kierunku poszlo :D... nie mowie ze zlym ale takim hmm nieeefektywnym..:D.. niemniej to na midze mozna powiedziec stawialem pierwsze kroki w szeroko rozumianej informatyce a1200 warta jest teraz wiecej niz moj pecet..

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.