Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Wtorek 1 marca 2011 
    

Radeon HD 6990 - oficjalna specyfikacja


Autor: Zbyszek | źródło: DonanimHaber | 16:39
(61)
komputery, pc, Radeon, GeForce, GTX, Core, AMD, Intel, Nvidia, 6990Do sieci przedostały się slajdy z prezentacji przygotowanej przez firmę AMD na okazję premiery najnowszych dwuprocesorowych kart Radeon HD 6990, która odbędzie się już 8 marca. Nowe karty zastąpią dotychczas oferowane Radeony HD 5970. Akceleratory składają się z dwóch układów Cayman, mają łącznie 3072 procesory strumieniowe oraz 4GB pamięci GDDR5 i przełącznik pozwalający na wybór jednego spośród dwóch trybów pracy: zwykłego i OC. Częstotliwości taktowania wynoszą 830 MHz dla układu graficznego oraz 5000 MHz dla pamięci, natomiast w ustawieniu OC odpowiednio 880 i 5000 MHz.

Obie karty są wyposażone w dwie 8-pinowe wtyczki i mają pobierać szczytowo ponad 300W energii elektrycznej. Typowe zużycie energii określono na poziomie 350W w ustawieniu typowym i 415W w ustawieniu OC, natomiast limity poboru energii wynoszą odpowiednio: 375 i 450W.

Obie karty są wyposażone w jedno złącze DVI oraz cztery mini DisplayPort 1.2 a także najnowsze regulatory napięcia Voltera i obsługują wszystkie funkcje i nowości wprowadzone wraz z debiutem kart Radeon HD 6800 i 6900, w tym UVD 3.0, obsługę HDMI 1.4a i DisplayPort 1.2, obrazu stereoskopowego (AMD HD 3D), ulepszony filtr anizotropowy oraz technologię AMD PowerTune.

Według wewnętrznych testów firmy AMD flagowy Radeon HD 6990 w ustawieniu OC jest średnio o 67% bardziej wydajny od karty GeForce GTX 580 ze standardowymi zegarami taktującymi. Różnica w wydajności pomiędzy trybami pracy nowej karty ma wynosić około 8%.


Aktualizacja: Zdjęcie płytki PCB kart w powiększeniu.




 

    
K O M E N T A R Z E
    

  1. jeeeee (autor: Aamitoza | data: 1/03/11 | godz.: 17:00)
    3 newsy o tym samym w ciągu 24h! ;D

    nie można było update'u zrobić?


  2. AMD Radeon HD 6990 (autor: Conan Barbarian | data: 1/03/11 | godz.: 17:07)
    Nie mam pytań.

  3. Widać że w strone energooszczędności (autor: Arlic | data: 1/03/11 | godz.: 17:22)
    To oni nie szli xD

  4. 350W... (autor: MateushGurdi | data: 1/03/11 | godz.: 17:31)
    Tyle dobrze ze wydajnoscia daje rade, kurde caly moj komputer w stresie pobiera maksymalnie 280W xD

  5. morguś, moooorguś (autor: Promilus | data: 1/03/11 | godz.: 17:36)
    Wymiatacz gejforsów, no doubt ^^

  6. don't speak... (autor: SebaSTS | data: 1/03/11 | godz.: 17:43)
    ... obudzisz go.

  7. wow (autor: imarid | data: 1/03/11 | godz.: 18:09)
    Jak oni sobie poradzili z odprowadzeniem takiej ilosci ciepla O.o

  8. no ok, tyle newsow o tej karcie, parametry, (autor: Sony Vaio | data: 1/03/11 | godz.: 18:21)
    nowinki i inne bzdety, tylko nigdzie nikt nie podaje czy w koncu da sie na nich odpalac gry bez poradnikow how to.

  9. 5,4TFlopsa (autor: acd | data: 1/03/11 | godz.: 18:25)
    niezłe te wydajności. Taki trochę kosmos. Zastanówmy się ile to będzie kosztować i jak będzie vs 590

  10. @SV (autor: xernos | data: 1/03/11 | godz.: 18:27)
    Ja nie narzekam co jakiś czas instaluje nowe catalisty i poza krótkim epizodem z nVidią 6200N na AGP (bo radków już nie było nowych w sensownej cenie) gram w gry za ATI/AMD i żadnych kombinacji nie musze robić.

    @Do reszty
    Co do specyfikacji wgniata równo w ziemię konkurencję - morgi ma przedsmak tego co z dużym prawdopodobieństwem przeżyje po premierze buldożera :P .

    Pzdr.


  11. @Sony Vaio (autor: dratom | data: 1/03/11 | godz.: 18:27)
    Nie interesuj się bo kociej mordy dostaniesz ;)

  12. dratom musze wiedziec, zeby ludziom co przychodza (autor: Sony Vaio | data: 1/03/11 | godz.: 18:36)
    z placzem i sie zala, ze im procki sie pala, gry sie nie uruchamiaja, udzielac fachowych porad. Zazwyczaj przejscie na Nvidia rozwiazuje wszelkie problemy, nawet zanikaja klutnie rodzinne, o zle zainwestowane pieniadze.

  13. No proszę.... (autor: Qjanusz | data: 1/03/11 | godz.: 18:36)
    Dwie wersje Antilesa.
    Tego się nie spodziewałem :-)

    Karty robią wrażenie pod każdym praktycznie aspektem.
    Zadziwia prostota PCB i bardzo mała ilość elementów.

    Oj entuzjaści dostaną piękne cacko do ręki :-)
    Ale niech w pierwszej kolejności poczekają na GTX590 - będzie piękna walka Gladiatorów na Arenie :D


  14. Panie Sony Vaio (autor: Alt-Computer | data: 1/03/11 | godz.: 18:36)
    o czym Pan mówi???

  15. qjanusz (autor: Aamitoza | data: 1/03/11 | godz.: 18:37)
    nie 2 wersje, tylko 2 biosy.

  16. @Sony (autor: Promilus | data: 1/03/11 | godz.: 18:40)
    Tak, tak... forum nvidii jest wręcz przepełnione radością wszystkich posiadaczy gejforsów którzy
    a) mają mniejszą wydajność niż się spodziewali
    b) przestaje działać monitor
    c) nie działają jakieś gry
    d) karta się usmażyła
    e) odpalanie gry = bsod
    ^^


  17. Qjanusz hehe entuzjasci dostana piekne cacko (autor: Sony Vaio | data: 1/03/11 | godz.: 18:43)
    szczegolnie huty i wypalarnie cegiel, beda mogli zamknac dotychczasowe piece. Rowniez zaklad energetyki bedzie mogl przetestowac swoje stacje rozdzielcze, a Kowalski dostanie cetralne ogrzewanie, gdy gaz i wegiel drogi ;)

  18. Jakie obstawiacie (autor: zomb1e | data: 1/03/11 | godz.: 18:45)
    wartości taktowania 2xGF110 w GTX590 ?. Ja obstawiam, że będzie to 720-730MHz.

  19. @Promilus szukam namietnie, ale nie moge znalezc (autor: Sony Vaio | data: 1/03/11 | godz.: 18:45)
    nic o jakichkolwiek problemach z kartami Nvidia, ale poszukam jeszcze raz, jak znajde choc jeden przyklad, dam Ci znac ;)

  20. @Sony Vaio - marna prowokacja (autor: Qjanusz | data: 1/03/11 | godz.: 18:48)
    Wszyscy wiedzą że to nVidia ma problemy ze stabilnością i sterownikami. A w szczególnych przypadkach sterowniki do GeForca mogą spalić drogą kartę graficzą
    http://www.benchmark.pl/...la_Ci_karte.-27255.html

    I to do GeForców trzeba posiadać bardzo mocny procek. Radeony zadowolą się znacznie skromniejszym prockiem, a będą tak samo wydajnie pracować:
    http://nvision.pl/...-Articles-430-ndetails-1.html

    Są więc znacznie efektywniejsze, dając poza tym obraz nieporównywalnie lepszej jakości, bez tricków i optymalizacji pogarszających i rozmywających obraz.


  21. @Sony Vaio komentarz nr 17 (autor: Qjanusz | data: 1/03/11 | godz.: 18:53)
    Widzisz ile to cacko będzie miało zastosowań?

    Zadowoli wszystkich!!!!!!

    Od entuzjasty PC, poprzez faby cegieł, zakłady energetyki, a skończywszy na gospodarstwach domowych ogółem. Po drodze znalazłoby się jeszcze co najmniej naście zastosowań...

    Jeden produkt i taka mnogość zastosowań!
    Tylko geniusz prawdziwego inżyniera mógł zaprojektować takie cacuszko :-)


  22. Panie Sony Vaio (autor: Alt-Computer | data: 1/03/11 | godz.: 19:08)
    5 sekund z google - http://forums.nvidia.com/...2159&showforum=244

  23. . (autor: FERMI | data: 1/03/11 | godz.: 19:11)
    .

  24. Problemy z GeForce (autor: Qjanusz | data: 1/03/11 | godz.: 19:15)
    rzadko też się o tym pisze, bo to raczej nie jest problem pułapu gierek dla dzieci, ale GeForce mają spore problemy z poprawną konfiguracją i przesyłaniem DTS-HD Master Audio i Dolby TrueHD Audio poprzez HDMI.

    Niech mi ktoś znajdzie podobny problem z Radeonami.


  25. 450W ? (autor: Liu CAs | data: 1/03/11 | godz.: 19:17)
    w dupach im się poprzewracało...

  26. Wszystnie "N" trolle (autor: Arlic | data: 1/03/11 | godz.: 19:17)
    Miałem karty nvidi GF, 6600, 7300GT, 7600GT, 7900GT
    8500GT, 8600GT, 8800GTS 512, 9600GT, 9800GT
    GT 240.

    I jak większość skończyła:
    8800GTS 512 sypał artami po 3 miesiącach, 7900GT sypał artami na stock chłodzeniu, mając 90 stopni, po zamontowaniu lepszego chłodzenia padl po 5 miesiącach..... 8500GT padł sam z siebie -_-, 8600GT padł od sterowników.... drugi 8600GT padł na zimne luty w BGA, 9500, 9800, gt 240 już działały dobrze :D

    z Radeon miałem Radeon 9200 PRO, x1600, HD4770, HD4850, 5770, HD6950@HD6970
    Wszystkie działają do dziś :D


  27. @FERMI (autor: Qjanusz | data: 1/03/11 | godz.: 19:18)
    ponieważ budowa SP Radeona i GeForce znacznie się od siebie różni.

    Innymi słowy 1SP AMD nie jest równy 1SP nVidii.
    Nie powinno się używać porównania poprzez pryzmat ilości jednostek SP dwóch producentów. Intel w ogóle nie ma SP, a w jakis tam wymyślny sposób potrafi wyemulować środowisko API do 3D.


  28. Qjanusz (autor: Aamitoza | data: 1/03/11 | godz.: 19:21)
    a EU to co to jest?

  29. hehe (autor: morgi | data: 1/03/11 | godz.: 19:29)
    preparowane te %, polowa z tego moze bedzie, ale Nvidia prawdopodobnie wycisnie z takiej ilosci W znacznie wiecej i z CUDAcznoscia i psiksem i bez cataclysmow.

  30. @morgi (autor: Promilus | data: 1/03/11 | godz.: 19:31)
    Masz rację. Na nvidii nie działa WoW Cataclysm! ;)

  31. @Arlic (autor: bananowy song | data: 1/03/11 | godz.: 19:33)
    zmień zasilacz z biedronkowego na markowy :P

    Widzę, że AMD postanowiło pójść w ślady nV i umożliwić ludziom stworzenie smażalni i komputera w jednym. W sumie jeszcze zimno na dworzu to mógłbym kupić taką karciochę i zaoszczędziłbym na ogrzewaniu :)


  32. @Aamitoza (autor: Qjanusz | data: 1/03/11 | godz.: 19:45)
    EU to intelowe Execution Unit

    Jednostki wykonawcze wszelkiej maści gówna GMA
    Są odpowiedzialne za przetworzenie stuffu 3D.
    Z jednej strony okno na świat 3D integr intela, z drugiej kula u nogi, ponieważ wspomagają się mocą rdzeni x86, czyli tworzą tak zwane środowisko emulacji API DirextX czy OpenGL. To dlatego spora część gier na GMA ma problemy z jakością i kompatybilnością. W końcu dlatego Intel nie ma DX11 i OpenCL.

    Intel HD 3000 ma 12 jednostek EU, a wcześniejsze HD 2000 miały 6 takich jednostek.

    Poglądowy obrazek GMA doklejonego do Sandy Broken:
    http://www.ozone3d.net/...cs-processor-arch-02.jpg


  33. @morgi (autor: Qjanusz | data: 1/03/11 | godz.: 19:49)
    "Nvidia prawdopodobnie wycisnie"

    intel też prawdopodobnie miał być potentatem rynku GPU po premierze Larrabee.

    Okazało się że jest graficznym impotentem.


    potentat i impotent to podobnie brzmiące słowa, ale nie daj się zwieść... ;-)


  34. ... (autor: Aamitoza | data: 1/03/11 | godz.: 19:58)
    Morgi, ale czym się różnią owe UE od cuda core czy stream procesor unit? ;) Że niby SPU czy CC działają bezpośrednio na api? Nie, one wykonują polecenia wydawane przez sterownik - SPU, CC czy EU to narzędzia do wykonywania konkretnych obliczeń. U intela nie EU są problemem, tylko sterownik jest problemem. Open CL i DX11 będzie w ivy bridge, gdzie będą takie same EU, ale w liczbie 16, a reszta układu zostanie dostosowana do openCL i DX11 (tutaj wymogiem jest teselator, którego grafika intela nie posiada).

  35. ... (autor: Aamitoza | data: 1/03/11 | godz.: 19:58)
    fak, miało być Qjanusz, a nie Morgi - tak to jest, jak jednocześnie piszesz jedno, a drugim okiem czytasz wypowiedź kogoś innego :D

  36. @Aamitoza, to Ty masz (autor: Sony Vaio | data: 1/03/11 | godz.: 20:01)
    "oka" kazde w innym kierunku ? ;)

  37. Sony vaio (autor: Aamitoza | data: 1/03/11 | godz.: 20:05)
    mam po prostu szerokie pole widzenia - trenowało się kiedyś w ramach kursu szybkiego czytania, a wypowiedź Qjanusza do Morgiego wcale tak bardzo od okienka do wpisywania treści oddalona nie była ;]

    Nie - nie dysponuję zezowatym spojrzeniem, jeżeli to sugerujesz ;P


  38. no to dolejmy oliwy do ognia... (autor: Jarek84 | data: 1/03/11 | godz.: 20:11)
    http://www.youtube.com/...;feature=player_embedded

  39. Panie Sony Vaio (autor: Alt-Computer | data: 1/03/11 | godz.: 20:13)
    odpowie Pan czy przyjmie Pan taktykę morgoidów i schowa głowę w piasek.

  40. @Aamitoza (autor: Qjanusz | data: 1/03/11 | godz.: 20:58)
    "U intela nie EU są problemem, tylko sterownik jest problemem"

    Zgadzam się. Sterowniki odpowiadają za emulację otoczenia dla API, które w przypadku AMD czy nVidii wykonywane są przez SP. W przypadku EU są dzielone również na CPU. Dlatego sterowniki tak na prawdę odpowiadają tu za efekt końcowy. A wiadomo że softwarowa emulacja niesie za sobą cały wagon niestabilności i problemów.

    Intel w następnych CPU dołoży do swojego emulatora otoczenie zgodne softwarowo DX11. Jaki to będzie majstersztyk inzyniera piszącego stery do GMA, to tylko on wie.

    "Projektanci układu zapewnili co prawda wsparcie dla bibliotek graficznych OpenGL 2.1, ale układ jest zgodny tylko z bibliotekami DirectX 10. Brak w nim obsługi DX 10.1, o DX 11 nie wspominając. Wynika to z wciąż realizowanych przez moduł graficzny Intela operacji werteksowych na drodze emulacji, które realizowane są w sterownikach przez procesor. W układzie graficznym Intela wciąż brakuje też sprzętowych zunifikowanych shaderów"

    http://www.benchmark.pl/....-2580/strona/7839.html

    Intel dołoży co prawda emulacje kolejnych dedykowanych jednostek SP potrzebnych do uzyskania upragnionego DX11, ale będzie to kolejny etap softwarowej emulacji, która będzie niosła za sobą typowe problemy takich rozwiązań.


  41. @bananowy song (autor: Arlic | data: 1/03/11 | godz.: 21:14)
    Ok, Jaki polecasz, lepszy od wpierw Corsair HX520, później na AX750 ?

  42. Rada dla bananowego songa.. (autor: Arlic | data: 1/03/11 | godz.: 21:15)
    Myśl na przyszłość, a nie komuś zarzucasz nie mając samemu wiedzy o niczym.

  43. @bananowy song (autor: Arlic | data: 1/03/11 | godz.: 21:22)
    Wytłumacz mi co ma zasilacz do sterowników - dam ci 20zł...

  44. Qjanusz (autor: Gigant | data: 1/03/11 | godz.: 21:58)
    Intel nie może wprowadzić zunifikowanych szaderów i GPGPU ponieważ wszystkie patenty na to ma AMD/Nvidia. Trzeci gracz na rynki GPU jest nie możliwy do powstania bo wszystko jest zapatentowane i zaklepane.

    IB nie będzie miało szaderów ani obsługi GPGPU OpenCL. DX11 puszczą softwerowo.


  45. gigant (autor: Aamitoza | data: 1/03/11 | godz.: 22:14)
    zunifikowane shadery i patenty? AMD ma swoje patenty na swoją technologię, a nvidia na swoja - jakoś s3 w chrome ma zunifikowane shadery, wspiera openCL i DX10.1.

  46. @Gigant (autor: Arlic | data: 1/03/11 | godz.: 22:22)
    GPU intela korzysta z technologi AMD, tej samej co w Radeonach mhm.

  47. Arlic (autor: Aamitoza | data: 1/03/11 | godz.: 22:29)
    A ta informacja to skąd?

  48. Aamitoza (autor: Gigant | data: 1/03/11 | godz.: 22:39)
    Co ma? S3 jest chyba w paczce razem z AMD/Nvidia objętej crosslicencjowaniem technologii GPU. Intel nie należy do tej paczki dlatego ma big problem ze stworzeniem dobrego GPU.

  49. Nikt nie zwrocil uwagi (autor: MateushGurdi | data: 1/03/11 | godz.: 23:05)
    ale tam pojawia sie wiele tytulow slynacych z kasania z kartami AMD i na nich slupki sa czesto na wyzszym niz inne poziomie, moze AMD w koncu cos poradzilo na gry pisane pod GFy. Widac walka z dwoma trolami pochlonela ludzi az za bardzo :) chociaz z tego wszystkiego spodobalo mi sie szczegolnie jedno zdanie "Nvidia prawdopodobnie wycisnie" zawod - wrozbita

  50. @MateushGurdi (autor: Qjanusz | data: 2/03/11 | godz.: 00:35)
    te słupki to każdy nauczony doświadczeniem, w buty sobie wsadził na dzień dobry...

  51. co do (autor: nicoli | data: 2/03/11 | godz.: 02:08)
    problemów w grach to taki geforce maproblem w grze FIFA 11 po zmianie na radka wielka ulga wszystko działa - dla tej gry karte zmieniłem specjalnie

  52. @Gigant (autor: Promilus | data: 2/03/11 | godz.: 06:49)
    Nie. Każdy ma swoją własną implementację i ch** innym do tego jak to sami robią. Intel nie dość że może mieć zunifikowane to je JUŻ MA. A to, że MOŻE wspomagać się jednocześnie CPU to zupełnie odrębna kwestia.

  53. nieźle (autor: Sandacz | data: 2/03/11 | godz.: 10:05)
    5.4 Tflops czyli 7 takich kart w dużej budzie i teoretyczna wydajnoość Earth Simulator.
    http://pl.wikipedia.org/wiki/Earth_Simulator


  54. Bardzo fajna karta, (autor: mFuker | data: 2/03/11 | godz.: 11:25)
    ale ja takiej nigdy dla siebie nie kupie. Szkoda kasy, chociaż szpan na forach na pewno duży.

  55. Sandacz (autor: morgi | data: 2/03/11 | godz.: 14:58)
    taaa, moze Nvidia echelon lyknie poziom symulacji atmosfery i realtime prognoze, ale to za 7 lat, bedzie gpu, zdolne teoretycznie wykonac 8x wiecej flops niz obecny Fermi, a praktycznie to nawet dziesiatki razy, dzieki nowej architekturze i cache. Dzisiejsze prognozy pogody bazuja na modelach o kiepskiej sprawdzalnosci, zwlaszcza dlugoterminowej.

  56. Promilus (autor: Gigant | data: 2/03/11 | godz.: 16:41)
    Bullshit! AMD/Nvidia/S3 to paczka która nonstop się wymienia technologiami i licencjami GPU. Wszystko mają zapatentowane i żadnego innego gracza nie dopuszczają do rynku dzięki tym patentom.

    Intel nie może wprowadzić zunifikowanych szaderów i GPGPU (nawet swojego rozwiązania!) bo pomysł na to jest zaklepany patentowo przez paczkę AMD/Nvidia/S3.


  57. Czemu tak wszyscy jedziecie po tym morgim? (autor: acd | data: 2/03/11 | godz.: 17:29)
    Może pracuje w nvidii, a moze woli zielony od czerwonego? To że faktycznie wyglupił się z tym, że znvidia nie ma żadnych problemów to w zasadzie ma tak samo mocne argumenty jak kazdy.
    Poza tym jak można w ogóle tracić czas na kłótnie o to która firma robi lepsze karty, procesor, płyty itp.? No ale to już Wasza sprawa.


  58. . (autor: Qjanusz | data: 2/03/11 | godz.: 20:29)
    .

  59. @ acd (autor: Sandacz | data: 2/03/11 | godz.: 23:34)
    "Poza tym jak można w ogóle tracić czas na kłótnie o to która firma robi lepsze karty, procesor, płyty itp.? No ale to już Wasza sprawa." no i sam sobie odpowiedziałeś na swoje pytanie: "Czemu tak wszyscy jedziecie po tym morgim?"

  60. @ morgi (autor: Sandacz | data: 2/03/11 | godz.: 23:38)
    Niestety news jest o mocy AMD i przywoływanie Nvidii w niczym ci tu nie pomoże, ani krytykowanie modeli pgnozujących, mówimy o czystym potencjale obliczeniowym i jego wzroście na przeszreni zaledwie dekady, więc nie wyskakuj z dyskusją jak nie masz o czym dyskutować.

  61. @sandacz (autor: acd | data: 3/03/11 | godz.: 09:33)
    No w sumie masz rację (przy okazji nigdy chyba nie widziałem, żeby ktoś tu przyznał komuś rację...) Mi sie np.juz nie chcę dalej pisać ale co tam:)

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.