Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Środa 23 września 2015 
    

XFX będzie czwartym partnerem AMD oferującym Radeona R9 Fury


Autor: Giray | źródło: overclockers.ru | 21:00
(26)
Prawo pierwszeństwa w produkcji karty graficznej Radeon R9 Fury dostały firmy Asustek i Sapphire. Następny w kolejności był PowerColor, który ogłosił zamiar produkcji Radeona R9 Fury z własnym układem chłodzenia, wykorzystującym trzy duże wentylatory. Zaś przy pewnej dozie szczęścia i odwagi można przekształcić Radeona R9 Fury w Radeona R9 Fury X. Teraz do tej czwórki producentów Radeona R9 Fury dołącza czwarty - XFX. W jego wydaniu Radeon R9 Fury dostanie ogromny system chłodzenia z trzema wentylatorami, przez co karta zajmuje aż trzy gniazda rozszerzeń.

Dodatkowe zasilanie zapewniają dwa złącza 8-pinowe. Poza systemem chłodzenia nowy Radeon od XFX nie różni się od innych tego typu kart - tak samo ma 3584 procesory strumieniowe i 4GB pamięci HBM.
PCB karty ma standardową długość dla tego modelu Radeona, jednak gabaryty kary znacząco zwiększa system chłodzenia, także i w przypadku długości karty.


 
    
K O M E N T A R Z E
    

  1. @temat (autor: Dather | data: 23/09/15 | godz.: 23:46)
    jest piec :D

  2. i tyle zostalo (autor: Rajq | data: 24/09/15 | godz.: 10:00)
    z szeroko zachwalanej miniaturyzacji pcb przy zastosowaniu HBM ;)

  3. Jest (autor: franiux | data: 24/09/15 | godz.: 10:52)
    Jest przecież nano, a i ze zwykłym fury też by mogli zejść z zegarów i napięcia to można zrobić jakieś nano light.

  4. Nano?:) (autor: MacLeod | data: 24/09/15 | godz.: 16:53)
    za 3k + - podziekuje, wole nv..

  5. @04 (autor: KamieniKupa | data: 24/09/15 | godz.: 17:15)
    A jaka jest alternatywa dla Nano od NV ?

  6. Cokolwiek? (autor: MacLeod | data: 25/09/15 | godz.: 14:21)
    Nikt przy zdrowych zmyslach nie da 3,3k za karte graficzna, ktora nie jest w zadnym stopniu przelomowa..
    Wolalbym kupic krotka 960tke i przeczekac do czegos sensownego...


  7. @06 (autor: KamieniKupa | data: 25/09/15 | godz.: 15:19)
    Wiele osób chce mały komputer, poza tym cena 600$ to są grosze.

  8. @6. (autor: Deathraw | data: 25/09/15 | godz.: 17:42)
    960 to szrot. Trzeba być na prawdę skąpym człowiekiem, albo strasznie niecierpliwym, żeby nie dołożyć do 970.

    @7
    Prawda jest taka-karta dla prawie nikogo, reklamowana tak, jak chyba żadna inna karta w historii, kasują jak za zboże, a na dodatek zabiera zapasy pamięci HBM, które można dać dla FuryX poprawiając jego dostępność. Karta nie jest niskoprofilowa, więc nie ma co się zachwycać jej rozmiarami są małe obudowy, które mieszczą dużo jak widać : http://www.blogcdn.com/...b23edintl-1285061994.jpg , a wtedy kupno takiej karty to marnowanie pieniędzy.

    Dopóki AMD nie zrobi dobrych sterowników, to dalej będzie dochodzić do sytuacji, gdzie karta jak 290x ledwo dorównuje gtx970, który biorąc pod uwagę teoretyczną moc obliczeniową jest w porównaniu do karty AMD lekko mówiąc śmieszny.


  9. @8. (autor: pwil2 | data: 25/09/15 | godz.: 20:08)
    A widziałeś najnowsze testy DX12, gdzie 390-tka wyprzedza 980-tkę w 1080p? :-)

    W takich momentach żałuję, że nie wziąłem R9 290X, gdy kopanie przestało się opłacać... W sumie to mogliby wypuścić pełnego 390X z niższymi zegarami i napięciem, w cenie 390.


  10. @pwil2 (autor: Deathraw | data: 25/09/15 | godz.: 20:49)
    Chodzi Ci o Ashes of Singularity?Jeżeli tak, to widziałem no i co? Póki co to jest jedna gra/benchmark. Wydajność jest nieco lepsza niż 980, ale są to bardzo marginalne różnice. Pamiętaj, że 390x ma prawie 2xwiększe TDP. Poza tym, teraz 980 na tyle staniała, że różnica między nią a 390x jest już niewielka(10-20%), a na dodatek ma znacznie większy potencjał OC. Zważając na to, że kupując 390x kupujemy kartę praktycznie do dx12(o ile faktycznie wszystko się sprawdzi) z monstrualnym w porównaniu do 980 tdp juz nie ma się z czego cieszyć.

    Od czasu premiery Tahiti(które posiadam) minęły już prawie 4 lata. Od tego czasu rozwijali tę samą architekturę, ale nie rozwinęli sterowników, które są lekko mówiąc do dupy. Wyjdą gry na dx12, a te <dx12 zostaną i tak olane, więc ciężko entuzjastycznie podchodzić do tego, że w końcu po tylu latach coś działa jak należy, ale tylko w pewnym zakresie.

    Odpalam ostatnio Enslaved Oddyssey to the West i wymuszam AA w sterownikach. Włączam filtr standard i nic nie daje, po prostu nie działa, a czasami mam bug, który uniemożliwia wybranie ilości próbek. Włączam metodę edge-detect i nawet przy 12x gra potrafi bardzo nieprzyjemnie zmulić, więc ciężko jest mi być zadowolonym.

    A co do wypuszczania 390x z zegarami obniżonymi, to jeśli by tak zrobili, to co by zrobili z zapasami 390? W końcu gdzieś jeszcze trzeba wcisnąć pełną tongę.


  11. @10 (autor: KamieniKupa | data: 25/09/15 | godz.: 22:48)
    "<dx12 zostaną i tak olane, więc ciężko entuzjastycznie podchodzić do tego, że w końcu po tylu latach coś działa jak należy, ale tylko w pewnym zakresie."

    Czyli wszyscy gracze oleją DX12, z tego co można zrozumieć?
    Bo w DX12 optymalizacje sterowników dają marne przyrosty, ponieważ fenomen DX12 polega na bezpośrednim dostępnie do sprzętu bez udziału sterowników.


  12. @KamieniKupa (autor: Deathraw | data: 25/09/15 | godz.: 23:39)
    Nie odwracaj kota ogonem, dobrze wiesz że chodzi o olanie starszych gier przez AMD. To jest normalna kolej rzeczy, aczkolwiek przy tym jak wyglądają stery pod dx10/11 ciężko nie czuć niesmaku.

  13. @10 (autor: pwil2 | data: 26/09/15 | godz.: 19:48)
    Nie, Fable Legends DX12. 390/X wypada lepiej od 980-tki nawet w 1080p.

  14. @11 (autor: pwil2 | data: 26/09/15 | godz.: 19:49)
    A to tylko pokazuje jak DX11 był nieefektywny i nieprzystosowany do nowoczesnej architektury, zupełnie jak W98 do AMD X2 ;-)

  15. W sumie czy ma jakieś znaczenie (autor: pwil2 | data: 26/09/15 | godz.: 19:54)
    czy Crysis1 działa w 4K@Ultra na FuryX? Jak chce się pograć w klasykę, to i 1080p@High wystarczy. Ważne, żeby nowe tytuły z niespotykanymi wcześniej poziomami detali chodziły płynnie.

    Gdyby MS w porę nie wypuścił XPka, to nie znaczyłoby, że producenci CPU powinni zrezygnować z projektowania wielordzeniowych CPU.


  16. jaki XP ?:D (autor: Giray | data: 26/09/15 | godz.: 21:49)
    przecież konfiguracje wieloprocesorowe, a więc i wielordzeniowe, Windows NT obsługuje od samego początku. Spokojnie wystarczyłby NT 4 i W2k, XP w końcu jest niczym więcej niż tylko bardziej kolorową wersją W2k ;)

  17. @16 (autor: pwil2 | data: 28/09/15 | godz.: 13:33)
    NT4 nie obsługiwał DX, a W2k wyszedł po W98(SE) - na szczęście przed wyjściem AMD X2 i Pentium D.

  18. DX12/ACE a Maxwell2 (autor: pwil2 | data: 29/09/15 | godz.: 11:25)
    "Say you have a graphic shader, in a frame, that is taking a particularly long time to complete, with Maxwell2, you have to wait for this graphic shader to complete before you can execute another task. If a graphic shader takes 16ms, you have to wait till it completes before executing another graphic or compute command. This is what is called 'slow context switching'. Every millisecond, brings down your FPS for that frame. Therefore if a graphic shader takes 16ms to execute, a compute task takes 20ms to execute and you've got a copy command taking 5 ms to execute, you end up with a frame which takes 41ms to execute. This introduces a delay, or lag/latency, between executions. While preemption wasn't important for DX11, and nVIDIA primarily designed their Kepler/Maxwell/Maxwell 2 architectures with DX11 in mind, it becomes quite important for DX12 Asynchronous Compute as well as VR."

    http://www.overclock.net/...cise-in-crowd-sourcing


  19. Nowe Stery (autor: loccothan | data: 29/09/15 | godz.: 11:44)
    CAT 15.9 Betka
    Już poprawiono DxDiag Bug, nie było widać że GCN wspierają DX12.0 ;-) tylko 11.1


  20. @17 (autor: Deathraw | data: 29/09/15 | godz.: 17:10)
    Tak w ramach przypomnienia-P4 3.06HT wyszedł rok po xp i 2 lata po w2k.

    @18
    Spoko, wcisną physx, hairworks i i tak będziemy płakać w dx12. Nie zapominajmy jak niestety wygląda obecny podział rynku.


  21. @Deathraw - GTX960 to nie "szrot"! (autor: sambaverde | data: 30/09/15 | godz.: 23:15)
    GTX960 4GB OC jest bardzo fajną kartą - projektowaną od razu jako karta "mid-range", a nie odrzut produkcyjny.
    Większość gier płynnie chodzi w ustawieniach "wysokich" albo "bardzo wysokich". "Tomb Rider" nawet na "Ultra". Żeby faktycznie odczuć różnicę trzeba kupić co najmniej GTX980 i monitor z rozdzielczością ponad Full HD i odświeżaniem ponad 60 Hz. Do 4K i tak żadna z obecnie produkowanych kart się nie nadaje, więc najlepiej poczekać i kolejną kartę kupić za 3 lata może i z nowym monitorem za nieporównanie mniejsze pieniądze, niż gdyby teraz kupować coś lepszego od GTX960.

    Pomijam już, że bardziej oszukane specyfikacje od GTX970 mają tylko Volkswageny :P


  22. @21 (autor: Deathraw | data: 1/10/15 | godz.: 21:18)
    W cenie ~700zł-max800zł byłaby spoko, za ~900-1100zł trudno nie zauważać przepaści jaka dzieli ją i 970.

  23. @Deathraw (autor: sambaverde | data: 2/10/15 | godz.: 18:29)
    Ktoś Ci nakazuje kupować wersję OC 4GB? Zwykła "krótka" 960 kosztuje właśnie te 800 zł. - a to już jest przepaść do GTX970. Jakoś nie tęsknię do piszczącego kastrata GTX970, kiedy sporo taniej też sobie pogram na GTX960 w bardzo wysokich ustawieniach - niektóre tytuły pójdą nawet na Ultra :) Wbudowany dekoder H.265 (którego nie uświadczysz w GTX970) pozwoli mi cieszyć się GTX960 bardzo długo, bo nawet jeśli w gry już nie pogram to nadal do typowo multimedialnych zastosowań będzie w sam raz.
    GTX to jest właśnie karta na przeczekanie do prawdziwych kart 4K. GTX970 to bardzo drogi odrzut produkcyjny :P


  24. @sambaverde (autor: Deathraw | data: 6/10/15 | godz.: 11:20)
    Nie widziałem nigdzie poniżej 850zł z wysyłką, a to dla mnie zdecydowanie za dużo jak na kartę na przeczekanie, bo zapasu to tam specjalnie nia ma nawet do fhd. Na 4k sobie jeszcze niemało poczekasz, bo patrząc na trendy rozwoju gpu ostatnimi czasy ciężko liczyć na to, że kolejna generacja na pojedyńczym gpu spokojnie pociągnie 4k w 60fps.

  25. @ Deathraw (autor: sambaverde | data: 7/10/15 | godz.: 14:21)
    Cóż... Zależy jakie ma się wymagania :)
    Dla mnie GTX970 jest nieakceptowalna w obecnej cenie, bo jeśli GTX960 pozwala mi grać w ulubione tytuły w Full HD @ 60 FPS w ustawieniach Very High albo Ultra to po co mam dopłacać do niezbyt udanej konstrukcji, która nie sprawi, że gry będą mi działać zauważalnie lepiej za to kosztuje 700 zł więcej? Dorzucę kolejne 300 zł i mam 2 x GTX960 4GB SLI a taki tandem stanowi konkurencję dla GTX980 ;)


  26. @sambaverde (autor: Deathraw | data: 11/10/15 | godz.: 16:53)
    GTX970 to moim zdaniem bardzo udana konstrukcja, pomijając feler z ramem. Za 1600zł(Jakaś podkręcona wersja) mamy kartę, która od 980 nie odstaje mocno(jakieś 10% gorzej średnio). Miałem styczność z obiema kartami i przyznam, że 980 był dla mnie rozczarowaniem po tym co zobaczyłem na 970.

    Co do SLI to nie wypowiem się bo nigdy nie korzystałem z tej konfiguracji. CF mnie nie powaliło być może ze względu na słaby procesor-e8400@4.2 nie odczułem jakiegoś wielkiego kopa na 4870+4850.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.