Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
RECENZJE | Testy Sapphire Atomic i ASUS 4870 X2 Tri-Fans - Egzotycznie
    

 

Testy Sapphire Atomic i ASUS 4870 X2 Tri-Fans - Egzotycznie


 Autor: KamilM | Data: 29/01/09

Testy Sapphire Atomic i ASUS 4870 X2 Tri-Fans - EgzotycznieJakiś czas temu w naszych aktualnościach informowaliśmy o „zwodowanym” Radeonie 4870 X2 od Sapphire, który miał być flagowym reprezentantem firmy. Dziś mamy przyjemność zapoznać was bliżej z ów tworem, jego zaletami, możliwościami, jak również wadami i niedogodnościami. Udało nam się również przetestować ASUS’a 4870 X2 Tri-Fans, który dzierży na grzbiecie ogromne radiatory z trzema wentylatorami. Obydwie kosztują niebagatelne pieniądze, ale czy mimo to warto się nimi zainteresować? Zapraszamy do lektury! Sprzęt dostarczyli: ASUS Polska, Sapphire. Platformę testową uzupełnił Sklep komputerowy Reactor.pl.







Polub TwojePC.pl na Facebooku

Rozdziały: Testy Sapphire Atomic i ASUS 4870 X2 Tri-Fans - Egzotycznie
 
 » Wprowadzenie
 » ASUS Radeon 4870 X2 Tri-Fans
 » Sapphire Radeon 4870 X2 Atomic
 » ASUS Radeon 4870 X2 TOP
 » Testy
 » Podkręcanie
 » Temperatury
 » Pobór mocy
 » Podsumowanie
 » Kliknij, aby zobaczyć cały artykuł na jednej stronie
Wyświetl komentarze do artykułu
 
    
K O M E N T A R Z E
    

  1. Bydlaki pierd**ne (autor: LOLO64 | data: 29/01/09 | godz.: 02:36)
    To już nie są karty graficzne, to są BYDLAKI.

  2. Ciekawe ze zwodowany (autor: Kosiarz | data: 29/01/09 | godz.: 04:19)
    ma tak slabe osiagi o/c na GPU

  3. 3,3 GHz CPU do tych kart :))) panowie troche rozsadku (autor: G.W.B | data: 29/01/09 | godz.: 04:29)
    Przyklad pierwszy , CPU 3,66Ghz karta X2 na orginalnych ustawieniach .Vista U. SP1. Pamieci w komputerze 2GB
    3DMark 06 20368 punktow.
    WiC rozdzielczosc 1900x1200 wszystkie ustawienia na max (wszystkie ) AAx4/AF16
    49fps.
    Ta karta potrzebuje Cztero rdzeniowy procesor minimum 4GHz wtedy dopiero widac co sie kupilo.Osobiscie gram w 2560x1600 a komputer to wylacznie maszynka do grania (jak mam czas) .
    Proponowal bym pokazac jeszcze jak wygladaja wyniki przy CPU 3,66 i 4Ghz wtedy bedzie to cos warte Ja moge pokazac ale malo kto uwierzy :))))
    Jak juz napisalem 4870 X2 potrzebuje minimum 4Ghz aby dac jej pokazac co potrafi.


  4. To zmierza trochę (autor: El Vis | data: 29/01/09 | godz.: 07:47)
    w nie tym kierunku jak dla mnie. Cała platforma w stresie nie powinna przekraczać poboru 200-220W. 410 to już skandal jest.

  5. hmm... (autor: TT666 | data: 29/01/09 | godz.: 09:20)
    "Obydwie kosztują bagatelne pieniądze" - raczej niebagatelne.

  6. Heh (autor: Pron! | data: 29/01/09 | godz.: 10:51)
    Niebawem będzie trzeba 3 fazę do kompa podciągnąć z kuchni :D

  7. Nie rozumiem tych co mówią o CPU (autor: LOLO64 | data: 29/01/09 | godz.: 12:09)
    jak ktoś nie chce kręcić procesora a stać go na najwydajniejszego taktowanego z zegarem 3.3GHz, to mam rozumieć, że nawet przy takim procesorze karta będzie się dławić? Otóż widziałem testy wpływu wydajności procesora na pdosystem grafiki i własnie od 3.3Ghz w górę różncie były marginalne. Nie przesadzajcie już.

  8. G.W.B (autor: DYD-Admin | data: 29/01/09 | godz.: 13:17)
    3DMarki dodają punkty za moc CPU w testach CPU, porównuj testy w grach...

  9. ale nawet w grach 2xgpu... (autor: 5eba | data: 29/01/09 | godz.: 15:02)
    na 3,3ghz cpu nie rozwinie skrzydel.

  10. 5eba (autor: morgi | data: 29/01/09 | godz.: 15:28)
    Widocznie teoria ati o wyzszosci dualikow upada na ich oczach, zreszta wszystko wydaje sie im padac, udzialy w rynku, zarobek, ludzie poznali co to znaczy uzywac Radeona.

  11. @ morgi (autor: LOLO64 | data: 29/01/09 | godz.: 15:34)
    Sam upadasz mordą o krawężnik.

  12. morgi, proszę przestań pisać bzdury... (autor: raczek70 | data: 29/01/09 | godz.: 15:35)
    j/w

  13. LOLO64... (autor: DYD-Admin | data: 29/01/09 | godz.: 15:50)
    ...po co wrzucasz takie teksty... ?

  14. LOLO (autor: morgi | data: 29/01/09 | godz.: 16:08)
    Wiem prawda boli, ale skoro nie ma na co zwalic wyniki dualikow na 3,3GHz procesorze, to po kiego grzybka produkowac sprzet, ktory nie wykaze sie na zadnym z CPU, a moze to jest wina tych co projektuja GPU. Nie przesadzam, ze to wina tylko u ati lezy, bo gtx 295 jest tak samo zalosna karta. Wniosek, ze testy sa kiepskie bo za slaby proc i trzeba go krecic do niebotycznych wartosci sa tak samo bez sensu jak produkcja takich kart, ktore nie wykaza mocy bo nie maja na czym.

  15. Nie widze snesu... (autor: lukisp | data: 29/01/09 | godz.: 16:14)
    ..w tych testach. Bez obrazy dla redakcji i dla ich chęci, ale test mija się z celem. Bo tu nie pokazano wydajności żadnej z testowanych kart.
    E6700 @ 3.3 GHz jest dobry ale do max GTX260 lub HD4870 a nie do gtx280, X2 czy SLI.
    Dla tych kart potrzeba 4rdzeniowy procesor ok. 3GHz. Druga spraw to przeprowadzanie testów w śmiesznych dla tych kart rozdzielczościach. Ich pułap (gtx280,X2,SLI) zaczyna się minimum w 1920 o ile nie wyżej (2560). Dlatego różnicę pomiędzy kartami są mało widoczne. Jak dla mnie test zrobił jedno pokazał że procesor E6700 jest ewidentnie do tych zastosowań za słaby.
    morgi - nie wiem kim Ty jesteś. Ale ograniczanie sie do jednego serwisu testującego karty nie jest dobre. Zobacz inne serwisy gdzie karty testowane są w rozdzielczości 2560x1600 z porządnym procesorem wtedy zobaczysz jak skaluje się X2 i SLI, a przy tym potwierdzi to wyższą wydajność rozwiązania X2 od pojedynczego GTX280.


  16. [EDIT] (autor: lukisp | data: 29/01/09 | godz.: 16:15)
    Powinno być: 4rdzeniowy procesor ok. 4GHz

  17. @lukisp (autor: Marek1981 | data: 29/01/09 | godz.: 17:50)
    troszkę zniekształciłeś wyniki, w najwyższej rozdziałce x2 nie tylko miażdży gtx285 ale także jest wydajniejszy od gtx295.
    @ AMD ma straty ale już niedługo się odbije (podział i duży zastrzyk gotówki) a za to Intel jest jeszcze gorszej sytuacji, sprawa w sądzie o praktyki monopolistyczne, spadek przychodów i jeszcze czeka go wojna cenowa z AMD co za tym idzie mniejszy zysk.
    Z tą krytykowaniem dualików to bym się wstrzymał. Niech tylko AMD wprowadzi obniżanie częstotliwości pamiątek i wył jednego (więcej) GPU.


  18. komentarz (autor: andrzejeq | data: 29/01/09 | godz.: 17:56)
    dzisiaj wyszły długo oczekiwane catalyst 9.1.. szkoda, że z testem nie można się było wstrzymać do wyjścia tych sterowników...
    wie ktoś może.. skąd można ściągnąć bios do Asus 4870 X2 TOP? ładnie się podkręca ta karta a niczym się nie różni od zwykłego Asusa 4870 X2, który podkręca się znacznie gorzej w porównaniu z TOP.


  19. @Marek1981 (autor: lukisp | data: 29/01/09 | godz.: 18:01)
    W mojej wypowiedzi nie chodziło o to która karta lepsza (jeśli ktoś to tak zrozumiał to sorry), a o złą techniczną stronę realizacji testów.
    A co do wyników to owszem X2 jest wydajniejszy od GTX280 o innych kartach się nie wypowiadam, bo nawet ich testów nie przeglądałem.


  20. lukisp (autor: morgi | data: 29/01/09 | godz.: 18:27)
    Nie wiem jak i czym mozna wykazac slabosc cpu, tym rozwiazaniem ze dualiki skaluja sie lepiej im wyzsza rozdzielczosc, bo rola cpu maleje nie przekonuje mnie zaden test. Nie maleje rola cpu, nie rosnie rowniez, ale wraz ze zmiana rozdzielczosci i efektow, detali renderowanego obrazu gpu ujawniaja sie kolejne ograniczenia platformy pc.

  21. Nie maleje rola CPU (autor: Thradya | data: 29/01/09 | godz.: 19:32)
    ale rośnie obciążenie GPU.

  22. @morgi (autor: trepcia | data: 29/01/09 | godz.: 19:39)
    Strasznie przeżywasz wydarzenia związane z Intelem, AMD, ATI i NVidią. Nie masz kobiety aby się nią zająć? Wiesz ile przyjemności mógłbyś jej za ten czas dać? A może coś byś dla niej ugotował? Napewno zrobiłoby się jej miło :-)
    A czy to ważne jak skalują się podwójne układy? A czy to ważne kto ma wydajniejsze procesory? Zbawią kogoś te informacje? Dadzą komuś jeść albo kogoś przytulą do siebie? Nie sądzę ;-)


  23. @morgi (autor: lukisp | data: 29/01/09 | godz.: 19:59)
    tak jak napisali i wiele testów potwierdziło. Zwiększanie rozdzielczości nie wpływa praktycznie w żadnym stopniu na CPU które liczy fizykę, kolizje i AI i inne. Podniesienie więc rozdzielczości nie zmieni fizyki, kolizji ani innych elementów gry. Dane dostarczane karcie (tekstury/geometria) dalej pozostają na tym samym poziomie więc jedyny wzrost obciążenia notuje GPU.
    Kolejna ważna rzecz to to że przy zwiększeniu detali/tekstur CPU musi dostarczyć większych ilości danych karcie i tu pojawia się ograniczenie X2,SLI które testowane są na super wysokich rozdzielczościach i z detalami v. high. Po prostu słaby CPU nie nadąży dostarczać takich danych karcie, a ona w efekcie nie wyrenderuje dodatkowych klatek obrazu które mogła by wyświetlić.


  24. @ DYD-admin (autor: LOLO64 | data: 29/01/09 | godz.: 23:18)
    Bywam impulsywny, a morgi ze swoimi zaściankowymi poglądami działa na mnie jak płachta na byka.

  25. tak jedziecie na morgiego (i w wiekszosci przypadkow slusznie) (autor: globi-wan | data: 29/01/09 | godz.: 23:30)
    ale u chopak ma racje..mialem gtx280 ,teraz mam radka 4870x2..
    powiem tak radek przez pare dni uzytkowania sprawil wiecej klopotow niz gtx przez pare miesiecy(zaczelo sie ze jakies dodatkowe stery procz display wolal). tu wina lezy w multi core..

    co do procow .znow racja..3.3to za malo na radzia..
    tutaj http://forum.pclab.pl/t390560.html gosc pokazuje jak wielka jest roznica na cf z4850 przy procku 3 a 4 ghz...nieraz to jest nawet 15 fps(35 na 3 , 50 na 4 ghz..)przepasc..

    sam musialem dac 4 ghz do tej karty..inaczej FC2 mulil..

    ogolnie muligpu to porazka


  26. @globi-fan (autor: Marek1981 | data: 30/01/09 | godz.: 08:51)
    Ja nie miałem nigdy x2 więc tu nic nie stwierdze.
    Co do zaś 280 to mój znajomy strasznie narzekał o stery, po uaktualnieniach czasami spadała mu wydajność, przy wł CUDA miał BS. Za to ja na moim radku tylko 1 miałem problem, za co winę ponosiła wersja visty.

    @lukisp też to widziałem jeśli chodzi o grę w x1080 i wysokich detalach przy zmianie procka.

    @globi-wan - ja jak z głośnością??? jak się kształtuje różnica miedzy 280 a x2 ??


  27. LOLO 64 (autor: Dabrow | data: 30/01/09 | godz.: 10:23)
    jakoś bluzgasz w każdym swoim tekscie - zawsze na Morgiego? Dziwne bo Twoje bluzgi są też tam gdzie jego nie ma...

    Żeby nie było - każdemu się zdarza (mnie też i też mi DYD pisał reprymendy) ale nie w formie defaultowo ON.... (-;


  28. to jest ważne (autor: alienlike | data: 30/01/09 | godz.: 11:02)
    ATI nvidia AMD , a nawt intel dostarczaja bardzo duzo emocji

  29. opakowanie (autor: alienlike | data: 30/01/09 | godz.: 11:14)
    jest super: aluminiowa walizka do mnie przemawia.
    Co do podkrecania- nie jestem entuzjasta podkrecania sprzetu jesli jest uzywany do celow profesjonalnych.
    Chlodzenie wodne- pod warunkiem że ktos ma ochote na ciagle sprawdzanie czy instalacja nie przecieka...


  30. ogólnie (autor: alienlike | data: 30/01/09 | godz.: 11:15)
    Mam wrazenie ze niedlugo karty graficzne osiagna rozmiary odkurzacza, i w opakowaniach takiej wielkoci beda sprzedawane.
    Pewnie dołacza do nich koncówke do czyszczenia dywanów:P


  31. LOLO64 .... (autor: DYD-Admin | data: 30/01/09 | godz.: 11:17)
    ...zaściankowość jest dopuszczalna, a bluzgi na dziyn dobry nie za bardzo...

  32. alienlike (autor: Dabrow | data: 30/01/09 | godz.: 12:14)
    z tą końcówką to niegłupi pomysł - powinni zrobić taki cug żeby kurz z kompa wyciągało - rewela (-;

  33. mam obudowe, ktora (autor: alienlike | data: 30/01/09 | godz.: 12:34)
    wciaga powietrze z tylu i pompuje pod obudowe
    dosyc nietypowe rozwiazanie. za to nie odnotowalem w niej kurzu:P rada- do wnetrza obudowy wkladaj zawsze osuszajace kuleczki w foliowej torebce- zwlaszcza gdy masz wodne chlodzenie...


  34. alienlike (autor: Dabrow | data: 30/01/09 | godz.: 12:36)
    ja nie mam wc, kurzu też - bo odkurzam kompa (-;

  35. odkurzaczem? (autor: alienlike | data: 30/01/09 | godz.: 12:39)
    wyladowania ze strony rury odkurzacza moga
    roztegowac podzespoly!!


  36. @alienlike (autor: Kosiarz | data: 30/01/09 | godz.: 14:00)
    trzeba sie zaopatrzyc w uziemienie koncowki odkurzacza, najlepiej skretke ekranowana podlaczyc; podlaczasz jeden koniec do koncowki a drugi zakopujesz kolo domu.

  37. @Marek1981 (autor: globi-wan | data: 30/01/09 | godz.: 15:48)
    gtx 280 jest duzo cichsze od x2 i chlodniejsze o jekies dobre 20 -30 stopni w stresie( max mialem okolo 70st na gtx)..jak wiatrak na x2 przyspiesza to tak jakby startowal odrzutowiec ..

    natomiast jesli chodzi o stery w gtx to trzeba poprostu wgrywac stery pod dana gre.lub zawsze najnowsze whql..moze duzego przyrostu nie ma a nieraz nawet lekki spadek wydajnosci to zawsze cos naprawiaja ( a to cienie w gta a to wiatrkak w profilu 2D)

    co do CUDA ..nigdy uzywajac go do obliczen (f@h czy seti) nie mialem bs..chociaz raz seti sie zwiesil


  38. @globi-fan (autor: Marek1981 | data: 30/01/09 | godz.: 16:36)
    Co do radeona jak miałem referencyjne chłodzonko to w cc można było wstawić większe obroty wiatraka (np25%) Nie było wtedy dzwięku odrzutowca a temperatury spadły ok 25stopni.
    Co do 280 to kumpel narzekał że jak gra to po godz jest hałas nie do zniesienia. Też bardzo dużo zależy od obudowy i jej wentylacji.


  39. do autora (autor: Opson | data: 31/01/09 | godz.: 04:27)
    Gdzie jest GTX285, skoro w poprzedniej recenzji był. Gdzie jego wyniki? Dlaczego nie zostały zamieszczone?

  40. @Opson (autor: KamilM | data: 2/02/09 | godz.: 14:02)
    Ten artykuł był wcześniej przygotowany, jeszcze przed testami GTX 285, ale musiał trochę przeczekać. Ale bez problemu możesz otworzyć w drugiej zakładce poprzedni test i porównać wyniki, a w następnym będzie już wszystko razem naniesione.

  41. wlsnie dostalem takieg asusa trifan w moje rece (autor: globi-wan | data: 24/02/09 | godz.: 15:31)
    cos pieknego

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.

    
All rights reserved ® Copyright and Design 2001-2024, TwojePC.PL