Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy miejsce na Twojš reklamę
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Środa 21 stycznia 2009 
    

AMD komentuje GeForce GTX 295 i 285


Autor: Zbyszek | źródło: Donanimhaber | 22:03
(36)
Do sieci przedostały się slajdy z prezentacji przygotowanej przez AMD, która zawiera porównanie nowej, dwuprocesorowej karty Nvidia GeForce GTX 295 do obecnego na rynku od dłuższego czasu Radeona HD 4870 X2. Slajdy zawierają testy obu karty w rozdzielczości 2560x1600 pikseli, w której nowy GeForce ustępuje karcie ATI. Jest to w zasadzie potwierdzenie wyników i wniosków z wielu recenzji GeForce GTX 295. Prócz większej wydajności w najwyższych ustawieniach AMD wymienia takie zalety Radeona jak: dostępność licznych wersji niereferencyjnych, obsługę DirectX 10.1 oraz większą ilość pamięci. Radeon HD 4870 X2 jest także według producenta jedyną kartą, która umożliwia płynną grę w Crysis w najwyższych ustawieniach.

Słowa krytyki spadły także na GeForce GTX 285, który zdaniem AMD nie jest niczym nowym, jak tylko podkręconym GTX 280.


 
    
K O M E N T A R Z E
    

  1. Niby tak (autor: ligand17 | data: 21/01/09 | godz.: 22:31)
    tylko po co komu taka karta? Żeby pograć w najwyższych rozdzielczościach? Po co?

  2. @ligand17 (autor: Blazakov | data: 21/01/09 | godz.: 22:37)
    Buduje wizerunek firmy. Staje się obiektem marzeń milionów dzieciaków. Udowadnia akcjonariuszom przewagę nad konkurencją.

    I w sumie niewiele więcej.


  3. BTW (autor: Blazakov | data: 21/01/09 | godz.: 22:38)
    Przypatrzcie na temu monitorowi della w materiałach. :)

  4. hmmm (autor: gindek | data: 21/01/09 | godz.: 22:41)
    zeby gra byla bardziej "rzeczywista" nawet jezeli chodzi sie zołnierzem i skacze po dachach.

  5. Tia (autor: dreki | data: 21/01/09 | godz.: 22:49)
    Cóż. Jak "zapóźnione" są obecne karty AMD-ATI przyjdzie nam zobaczć wraz z premierą gier pod DX11. Ci którzy wiedzą czym różni się DX11 od DX10.1 zrozumieją aluzję.

  6. Hype jak zwykle (trzeba walczyć o rząd dusz)... (autor: MBR[PL] | data: 21/01/09 | godz.: 22:57)
    ale co ze sterownikami? NVidia zagodniona sprzętowo w piętkę wydaje teraz stery "jak głupia" co tydzień, a ATI śpi - najwyższy czas na Catalysty 9.01 - nie pamiętam by w jakimkolwiek miesiącu tak się ociągali - nawet w maju 2008 8.05 21 już były. Mam tylko nadzieję że te 9.01 będą naprawdę dopracowane po niezbyt udanych 8.12 i co więcej AVIVO Converter będzie wreszcie wykorzystywał GPU, bo to co ATI odwaliło w tym względzie w grudniu dobrej prasy firmie nie przysporzyło.

  7. Już my znamy te triki (autor: xsenomorpf | data: 21/01/09 | godz.: 22:59)
    Wystarczy dokładniej popatrzeć na skale tych wykresów i cały czar znika.

    Ale na serio, pokazywać wykres gdzie podziałka to jakiś promil ogólnej wartości?


  8. heh wojny ciag dalszy (autor: Mario2k | data: 21/01/09 | godz.: 23:17)
    Skoro ATI puszcza w swiat takie porownania
    to widac NVidia im skubnela troche klientow .
    Co nie zmienia faktu ze wole Radka 4870x2 2GB
    niz GF 295

    a swoja droga czeka mna odswierzonego radka 4870


  9. MBR[PL] (autor: andrzejeq | data: 21/01/09 | godz.: 23:32)
    Ati wydaje sterowniki raz w miesiącu. Nvidia wydaje sterowniki kiedy jest potrzeba poprawki i wykryto jakieś niedociągnięcia.. czyli raz na tydzień:P

  10. @dreki (autor: 7eki | data: 21/01/09 | godz.: 23:32)
    Tia. Nareszcie ktoś wprowadzi w życie tesselację. Coś co ma być największym "przełomem" i o czym ATI mogło tylko mówić od czasu premiery radeona 8500... Co do slajdów to nie widzę w nich żadnego przekłamania i z tego co pamiętam to nVidia rozpoczęła tego typu dziecinadę za czasów gf6 :)

  11. W sumie to dużo racji w tym jest, nie da się ukryć... (autor: KuTeR | data: 21/01/09 | godz.: 23:54)
    Jedynie można się przyczepić do tych nieszczęśnie zeskalowanych wykresów i nieco wybiórczym porównaniom. Ale tak poza tym to ATi wykorzystuje samobójczą politykę szalonej konkurencji. A co do wykresów to już jest stary patent i jednych i drugich.

  12. Te karty są głównie dla entuzjastów (autor: Iras89 | data: 22/01/09 | godz.: 00:52)
    Jak wiadomo mikro przycięcia robią swoje podczas rozgrywki, przez co 50fps-ów na dualu to nie to samo co na pojedynczej. Co do porównania ATI radzi sobie o wiele lepiej(mniejszy spadek wydajności) z AA8x niż Nvidia co jest powrotem do korzeni, gdy to po włączeniu najwyższych możliwych "upiększaczy" (oprócz niechlubnych r600,r670) ATI pokazywało pazurki :):) Poczekajmy pod koniec roku na starcie nowych architektur w 40nm.

  13. hmm (autor: RuMuN | data: 22/01/09 | godz.: 01:21)
    troszku mi sie nie spodobala taktyka ati vs nvidia troche chca sie poklucic ;)

    Co do kart to sa fajne ale na czym grac w rozdzialce ? jaki monitor i jaki on kabel musi miec dlugi o_O.
    jak dla mnie to zbyt wywyzszaja radka na tych slidach.
    hmm ciekawi mnie skad oni taka ilosc fps'ow wzieli w grach przy tej rozdzielczosci. Pewnie na C2D ^^ test sie pojawil gtx285vs4870x2 i troszku mniej jest tych fpsow w nizszej rozdzielczosci.


  14. "troszku mniej jest tych fpsow w nizszej rozdzielczosci" (autor: Thradya | data: 22/01/09 | godz.: 02:08)
    Ten test jest zrobiony na kupie złomu w stosunku do tego na czym się testuje takie grafy "normalnie", czyli w tym przypadku pewnie wykręcony do granic możliwości P2/i7 aby uzyskać >30fps w Kryzysie.

  15. Dualiki (autor: morgi | data: 22/01/09 | godz.: 09:44)
    Niestety amd musi przekonywac swiat slajdami klamczuszkami, stosem kitu, by przekonac klienta do wyboru ich szajsu.
    Mario2k
    Odbija sie czkawka uzytkowanie Radeonow, ich wieczne problemy, widoczna zwlaszcza w dualikach.


  16. ;););) (autor: Kristof G. | data: 22/01/09 | godz.: 10:34)
    czekałem za odpowiedzią morgiego i się nie zawiodłem :):):) bez tego artykuł byłby "niepełny" ;)

  17. Intel Graphics Media Accelerator 4700MHD Rulez ;-) (autor: Koolo | data: 22/01/09 | godz.: 10:58)
    Wypowiedzi fanboyów są zawsze bardzo rzeczowe i logiczne :::-)

  18. Ati znowu zaczyna tracić rynek (autor: MagS | data: 22/01/09 | godz.: 11:32)
    Nie no, panowie z Ati jak możecie przedstawiać testy Symulowane? w przypadku Nvidia. Przecież one w ogóle nie trzymają się rzeczywistości. Prawda jest taka że Nvidia przegoniła wydajnościowo o prawie 100% Ati. Najszybsza karta jednordzeniowa jest tak szybka jak najszybsza dwurdzeniowa karta Ati. Szok. Liczą się testy rzeczywiste a nie teoretyczne symulowane. Pozatym Nvidia doskonale działa w PsyhX, Cuda i HD. Kolejne przewagi. Ja kupuje zdecydowanie Nvidia 285 gtx.

  19. Zbyszek to jednak fanboy (autor: komisarz | data: 22/01/09 | godz.: 12:16)
    przytacza materialy marketingowe AMD i jeszcze pisze, ajkie to sa prawdziwe.

    Zbychu, przeczytaj recenzje na Twojepc.pl i powiedz, czy te wykresy faktycznie oddaja prawidlowo roznice wydajnosci.


  20. MagS (autor: morgi | data: 22/01/09 | godz.: 12:31)
    Faktycznie CUDA i HD na kartach Nvidii obecnie prezentuje sie lepiej, ma wieksza palete mozliwosci i o dziwo, kodowanie materialu video dziala prawidlowo, a nie jest zwyczajnym klamstwem jak w przyp. ati. Sa i minusy CUDA to bubel w wiekszym wydaniu, czyli wymaga ogromnej pracy, zeby pokazac wyzszosc nad cpu i HD w tych kartach to dalej wiecej pod gorke niz z gorki, co do zastosowania w grach to Nvidia tutaj jest lepsza, simply i wraca powoli z tarcza.

  21. @MagS (autor: AmigaPPC | data: 22/01/09 | godz.: 12:58)
    Widzę, że nie przeczytałeś ze zrozumieniem tego co sam napisałeś.
    Wg Ciebie jeżeli ATI w grze pt. "XXX" wyświetla 145 fps w rozdzielczości HD to karty NV wyświetlają prawie 190 fps.
    Drugi Morgi czy coś jarałeś ??


  22. Miało być 290fps (autor: AmigaPPC | data: 22/01/09 | godz.: 12:58)
    sorry mój błąd.

  23. do ujadaczy (autor: Marek1981 | data: 22/01/09 | godz.: 13:22)
    po kilku recenzjach slajdy AMD wydają się być prawidłowe, a marketing no cóż uczą sie od najlepszych (Nvidia, Intel)
    Co do CUDA to sorry ale nie przekonuje mnie to wcale (jeszcze dużo czasu minie zanim to zacznie działać jak powinno), zresztą z tego co się zorientowałem lepiej mieć do PsyhX osobną kartę:)
    @Mags zanim zaczniesz sypać jakimiś przemyśleniami to je sprawdź.
    @RuMuN wszystko zależy od sprzętu na którym były robione testy, o ile się nie mylę te na twojepc były robione na słabym procku, stąd takie różnice.
    @komisarz, niestety bredzisz. To jest notka prasowa, a z tego co pamiętam dawał też takie same od Nvidii i Intela:) Więc gdzie tu możliwość stwierdzenia, że jest fanboyem:)


  24. @Marek (autor: komisarz | data: 22/01/09 | godz.: 13:25)
    to przeczytaj sobie notki Nvidii. Tam jego koemnatzr byl zupelnie inny.

  25. Marek (autor: morgi | data: 22/01/09 | godz.: 13:26)
    Prawidlowe wydaje ci sie wspominac tylko o takich sytuacjach gdzie Dualiki dzialaja szybciej niz pojedynczy chip, a warto dodac, ze sa wyjatki gdzie tak nie jest? CUDA to lipa fakt, ale lepsza taka kiszka niz wielkie nic od ati, a dokladniej ati stream codename manipulacja.

  26. dla ujadaczy (autor: Marek1981 | data: 22/01/09 | godz.: 13:27)
    W obecnym czasie (według mnie) dla graczy liczy się tylko 5 graf: 4870, 4850, 260, 9600, 9800. W zależności ile kto ma siana i co preferuje.

  27. ... (autor: Elektron | data: 22/01/09 | godz.: 14:10)
    Nasi boardowi szczekacze powrócili, wczoraj jaakoś tak smutno bez was było.
    komisarz powołujesz się na testy TwojePC, a zauważyłeś, że w niektórych tytułach x2 ati im większa rozdzielczość tym bardzie łoi dupsko GTXowi?
    Ati ma testy robione w jeszcze większej rozdziałce, więc i takie wyniki są możliwe. Spójrz chociaż na wykresy w grze DevilMC. Na dodatek nie wiadomo jaka była konfiguracja sprzętu.
    Nie macie powodu, a szczekacie. Wy chyba byscie chcieli, żeby ATI własnymi slajdami jeszcze się rujnowało HAHA!!!
    Za kilka dni Nvidia wypuści swoje slajdy i one już będą cacy... na pewno.


  28. @marek1981 (autor: ziemoone | data: 22/01/09 | godz.: 14:12)
    oj chyba za krótka lista ja mam 8800GTS512 i nie mam za bardzo na co zmienić :) wiec dopisz sobie do listy 8800GT/GTS to w sumie to samo co 9800 :)

  29. a ja czekam w sumie (autor: ziemoone | data: 22/01/09 | godz.: 14:16)
    to czekam na 5870 bo żygam juz tą nv i jej gownianymi sterami do visty.

  30. @ziemoone (autor: Marek1981 | data: 22/01/09 | godz.: 14:20)
    ja zauważyłeś nie dodałem końcówek do 9800 , a jak wiadomo 8800 i 9800 to samo.
    Ja mam 4870 i viste64 (na początku były problemy ale to po stronie samego OS- vista64pl testowa), w sobotę przetestuje win7 by wyrobić sobie jakąś opinię


  31. Elektron (autor: morgi | data: 22/01/09 | godz.: 15:12)
    Powod jest jeden, trzeba obalac mity, w przypadku Dualikow takich narosli jest cale multum i kazdy powinien wiedziec, ze takie konktrukcje to niewypaly, zarowno ati jak i Nvidia.

  32. Morgi (autor: Kenjiro | data: 22/01/09 | godz.: 20:06)
    Sam jesteś niewypał. Przyszłość leży w konstrukcjach wielordzeniowych, tylko takie rozwiązania pozwalają w tej chwili skalować się w górę z zadowalającą łatwością.

    Odnośnie slajdów, naoglądaliśmy się już takich sporo, po obu stronach zresztą. Takie jest życie działów marketingu, że muszą produkować tego typu materiały, a później jest z tego ubaw - chociaż tym razem da się jeszcze przeżyć ;).


  33. Kenjiro (autor: morgi | data: 22/01/09 | godz.: 20:39)
    Zgoda, ale to musi byc wielordzeniowe, a takim jest gpu mozna sie klocic od dawna, motyw z dualikami to nie jest wielordzeniowosc, ale rozne metody renderowania klatek.

  34. Morgi (autor: Kenjiro | data: 23/01/09 | godz.: 20:37)
    Kwestia semantyki, dla mnie wielordzeniowość oznacza odrębne byty komunikujące się po specjalnej szynie.
    Czy efektem będzie renderowanie kolejnych klatek, czy zupełnie inaczej, to kwestia algorytmów rozłożenia obciążenia. Tutaj owszem jest szkopuł, bo wtedy efekt jest lepszy lub gorszy, co nie zmienia faktu, że wielordzeniowość w jednej obudowie chipa nie daje żadnej (poza fizycznym skróceniem długości szyny komunikacyjnej) przewagi nad dwoma rdzeniami obok siebie na płytce. Popatrz na wcześniejsze konstrukcje wielordzeniowych Xeonów (i nie tylko), które faktycznie były odrębnymi procesorami w jednej obudowie.
    Niestety, w tej chwili projektanci mają dwa problemy, rozwiązać problemy konstrukcji wielordzeniowych lub znacząco poprawić wydajność pojedynczego rdzenia, wszystko po to by móc skalować się w górę. Jedno idzie z drugim, ale to pierwsze wydaje się być dużo łatwiejsze i korzystniejsze dla odbiorcy (koszty vs jakość).


  35. Multi CPU/GPU - bardzo fajnie ale (autor: MBR[PL] | data: 23/01/09 | godz.: 21:34)
    ...żeby jeszcze programiści potrafili z tego korzystać. Ot taki przywołany tu Fear2 Project Origin. Gierka świeżo z piekarni (retail w przyszłym miesiącu) czyli gdy standardem od dawna są wielordzeniówki, nie tylko 2, ale powoli i 4-rdzeniowe CPU, a ta obciążąża 1 rdzeń na max, drugi się nudzi z obciążeniem rzędu 2%. Ten sam problem jest z GPU - lepszy niestety jest wydajny jednordzeniowiec, niż SLI / X2 - nie trzeba liczyć na umiejętności rozłożenia zadania na wątki przez programistów.

  36. trochę to takie (autor: Diamond Viper | data: 27/01/09 | godz.: 12:51)
    bardziej komercyjne, ale mają rację - Geforce się niestety nie popisał - każdy był pewien, że zdeklasuje radka 4870x2 a tu lipa:) Zależy od gier wszystko, a tam jest różnie - i nie można dokładnie stwierdzić kto wygrał. Napewno najlepszą jednoprocesorową grafiką jest dzisiaj GTX 285, ale dwuprocesorową? Dalej sądzę, że jednak Radek utrzymuje pozycję lidera. No niestety.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.