Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Wtorek 19 kwietnia 2011 
    

Oficjalna premiera kart Radeon HD 6450, 6570 i 6670


Autor: Zbyszek | źródło: AMD | 09:25
(18)
Firma AMD oficjalnie wprowadza dziś na rynek kolejne karty graficzne ze swojej najnowszej serii HD 6000. Są to modele Radeon HD 6450, Radeon HD 6570 i Radeon HD 6670, należące do niskiej i średniej półki cenowej. Karty bazują na zupełnie nowych 40nm układach graficznych: Caicos z 160 procesorami strumieniowymi oraz Turks z 480 procesorami strumieniowymi i oferują wszystkie możliwości dotychczas wydanych Radeonów HD 6800 i 6900, takie jak dekoder UVD 3.0, ulepszony filtr anizotropowy oraz natywną obsługę złącz DP 1.2, HDMI 1.4a i obrazu stereoskopowego.

Najszybsza z nowych kart - Radeon HD 6670 z układem Turks pracuje z zegarami 800 MHz dla układu graficznego oraz 4000 MHz (efektywnie) dla pamięci i ma 480 procesorów strumieniowych oraz 1GB pamięci GDDR5 ze 128-bitową magistralą.

Nieco tańszy Radeon HD 6570 ma 480 procesorów strumieniowych, 512MB pamięci GDDR5 4000 MHz lub 1GB GDDR3 1800 MHz ze 128-bitową magistralą i działa z zegarami 650 MHz dla układu graficznego.

Najtańszy Radeon HD 6450 jest oparty o układ Caicos, ma 160 procesorów strumieniowych i 1GB pamięci GDDR3 lub GDDR5 z 64-bitową magistralą. Częstotliwości taktowania wynoszą 750 MHz dla układu graficznego i 4000 MHz dla pamięci (efektywnie).

Sugerowana cena detaliczna kart wynosi kolejno: 99, 79 i 55 USD.




 


    
K O M E N T A R Z E
    

  1. Kolejne dowody potwierdzające (autor: pomidor | data: 19/04/11 | godz.: 10:27)
    że Nvidia jest bezkonkurencyjna.

  2. Chyba... (autor: mFuker | data: 19/04/11 | godz.: 10:31)
    sobie kupie którąś z tych mini form.

  3. #1... (autor: Vitorek | data: 19/04/11 | godz.: 10:34)
    Ten komentarz to kolejny dowód na to że pomidory nie mają mózgów...

  4. @pomidor (autor: agnus | data: 19/04/11 | godz.: 10:36)
    Ależ skąd. To kolejny dowód na to że masturbujesz się wieczorami przed pudełkiem po FX5200...

  5. @Vitorek (autor: Qjanusz | data: 19/04/11 | godz.: 10:41)
    pomidory zamiast mózgu mają pestki.
    Ten z #1 dodatkowo chaotycznie porozrzucane.

    Krótko o nowych kartach z podsumowania rozbudowanego testu na benchmarku:

    "Wydajność nie jest zbyt mocnym punktem najmłodszych Radeonów, więc co w takim razie jest? To obsługa kilku monitorów, niski pobór energii, ciche chłodzenie i niewielkie gabaryty. Dobrą wiadomością jest również informacja, iż nowe karty są zdolne do pracy w trybie CrossFire z układem graficznym w platformie AMD LIano. Tej funkcji konkurencja nie ma w swojej ofercie i nie zapowiada się, aby szybko wprowadziła."

    http://www.benchmark.pl/...-3782/strona/14055.html


  6. Mialo byc taniej (autor: morgi | data: 19/04/11 | godz.: 10:49)
    a wyszlo jak zwykle slabiutko, nic nie wnosi na rynek i tak jeszcze wiele miesiecy do 28 nm GeForce, oby tsmc nie spapralo roboty.

  7. @morgi (autor: rookie | data: 19/04/11 | godz.: 11:05)
    http://media.bestofmicro.com/...original/Power.png
    Widać jakie jest twoje fermi, więc nie fanbojuj. Radeon 6670 przy podobne wydajności jest o wiele wiele mniej prądożerny.
    Tobie może i tak wszystko jedno bo i tak musiałeś podciągnąć dodatkową linię energetyczną aby udźwignąć fermi i prockek intela (z ich prądożernymi chipsetami :) ).
    Ale wierz, normalni ludzie tak nie robią :)


  8. AMD poprzez te modele wnosi nową jakość na rynek (autor: Qjanusz | data: 19/04/11 | godz.: 11:16)
    "Seria najnowszych Radeonów obsługuje wszystkie technologie znane z innych układów graficznych z rodziny Northern Islands. Możemy zatem podłączyć kilka monitorów do jednej karty, czego akurat nie potrafi żaden z GeForce’ów. W dodatku AMD pozwala na ich różne „wariacje”, dzięki czemu każdy powinien dopasować pulpit do własnych potrzeb."
    ...

    "Sytuacja w 3DMark 11 jest bliska tej, co w poprzednim benchmarku. Akceleratory Radeon 6670 i 6570 osiągają przyzwoite wyniki. Najwolniejszy z całej stawki Radeon 6450 miał bardzo duże trudności z utrzymaniem płynnej animacji w 3DMark 11, niemniej jednak i tak był lepszy od układów NVIDII, które nie potrafią wyświetlać grafiki w trybie DirectX 11."
    ...

    "Do podkręcania posłużyła nam aplikacja MSI Afterbuner, która nie do końca potrafiła wycisnąć ostatnie soki z opisywanych akceleratorów. Zazwyczaj kończył się suwak odpowiedzialny za częstotliwość taktowania rdzenia graficznego, a karta nadal pracowała stabilnie."
    ...

    "AMD reklamuje swoje najnowsze karty graficzne jako „super oszczędne”. Faktycznie, spoglądając na maksymalny pobór energii, nie pobierają one zbyt dużo z gniazdka. Wykazują dobrą relację wydajności do poboru energii. Jak widać, energooszczędność to w dalszym ciągu domena kart graficznych Radeon."

    a to dopiero premiera i należy spodziewać się obniżek cen.

    GeForce po raz kolejny popadły w niełaskę, a dla zachowania dobrego smaku nikt nie wspomina o intelowym śmierdzącym zbuczku.


  9. @rookie (autor: pomidor | data: 19/04/11 | godz.: 11:18)
    W pełni rozumiem zamiłowanie do niskiego poboru mocy. Nożny napęd prądnicy zasilającej PC, an pewno nie jest przyjemny, pomimo że tańszy.

    @Qjanusz
    Z tego podsumowania wynika że te karty posiadają wszystko z wyjątkiem wydajności 3d. Więc kup sobie taką świetną kartę, w sam raz do pasjansa.


  10. @pestko-głowy (autor: Qjanusz | data: 19/04/11 | godz.: 11:26)
    do wydajnego 3D nie kupuje się kart za cenę poniżej 190 pln.

    Nie piszemy oczywiście o Piotrusiu Krakałku, który z taniej i pasywnie chłodzonej karty chciał zrobić potwora wydajności.


  11. @pomidor (autor: rookie | data: 19/04/11 | godz.: 12:41)
    I tak na twoim gt 210 nie da się grać :) Kiedy w końcu uzbierasz na fermi to już świat będzie 3 generacje dalej :) Ale złotówka do złotówki i świnka skarbonka się zapełni. Musisz (się) sprzedać na keczup to wtedy może jakaś kasa się znajdzie.

  12. Na karcie za 150 pln (HD6450) da się zauważyć (autor: Qjanusz | data: 19/04/11 | godz.: 12:55)
    o wiele lepszą jakość dekodowanego materiału niż na drogim CPU od Intela.

    "W przypadku materiału przetworzonego przez kartę graficzną gołym okiem da się zauważyć różnicę jakości materiału wyjściowego (na korzyść GPU). "
    http://pclab.pl/art45611-9.html

    Dodatkowo Real GPU w HD6450 całkowicie odciąża rdzenie CPU:
    http://pclab.pl/...cia/artykuly/majkel/6450/1d.jpg

    Dodać do tego unikalną możliwość oglądania video lub zdjęć w 3D (okularki) na TRZECH ekranach, to okazuje się że dostajemy za grosze idealny sprzęt dla każdego, kto nie jest maniakiem gier.

    @rookie - nie namawiaj PestkoGłowego na przemiał, bo nie będzie się z kogo tutaj pośmiać...


  13. Totalna miazga! (autor: Gigant | data: 19/04/11 | godz.: 13:18)
    GT440/430 daleko w tyle...

  14. hehe (autor: morgi | data: 19/04/11 | godz.: 18:03)
    po co te odswiezanie za nieco ponad 10%, Nvidia juz poprawila znacznie lepiej.
    gts 450 to inna liga wydajnosci, a jego swieza wersja to kolo 50% wyzsza, przepasc. Do gier te karty sa mocno kompromisowe, a do czego jeszcze bo przeciez wspieranie hd utracilo racje bytu po wejsciu Sandy.


  15. @14 (autor: Jarek84 | data: 19/04/11 | godz.: 18:31)
    tylko ze na pokracznego GTSa 450 wciagajacego prad jak wawelski Wisłe po siarze wystarczy półtoraroczny Juniper - widzisz teraz robaczku niemoc zielonego wasala niebieskieego majestatu? :E

  16. Niemoc okazuje sie w sprzedazy (autor: morgi | data: 19/04/11 | godz.: 20:04)
    Nvidia ostatnio powiekszyla udzialy, a wiec wszystko w normie, produkty ma takie jak nakazuje pozycja lidera w gpu.

  17. #14 (autor: Qjanusz | data: 19/04/11 | godz.: 20:50)
    no niestety drogi panie mylisz się.
    Sandy nie nadaje się kompletnie do hd.

    Nie dorasta konkurencji do pięt ani pod względem funkcjonalności:
    http://thegreenbutton.com/...s/p/98723/528112.aspx

    ... ani pod względem jakości:
    "W przypadku materiału przetworzonego przez kartę graficzną gołym okiem da się zauważyć różnicę jakości materiału wyjściowego (na korzyść GPU). "
    http://pclab.pl/art45611-9.html

    No chyba że w grę wchodzi legendarny już kompromis Intel-boyów w kwestii jakości wyświetlanego obrazu.

    Taaak, wieczny kompromis usprawiedliwiony przez samego Impeatora Otelliniego.
    Jeżeli oprócz wstrętu do nóżek powiadasz awersję do pary sprawnych oczu, to w sumie jestem w stanie się z Tobą w jakiejś tam części zgodzić.

    GTS450? Wolne żarty...


  18. #16 (autor: Qjanusz | data: 19/04/11 | godz.: 20:51)
    a lider GPU ma się dobrze.
    Nie potrzebuje poklepywań :-)


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.