Do sieci przedostały się zdjęcia przedstawiające najprawdopodobniej płytkę drukowaną nadchodzących dwuprocesorowych kart graficznych Nvidia GeForce GTX 590. Płytka zawiera dwa 40-nanometrowe układy GF110 połączone za pomocą mostka NF200. Każdy z układów otoczony jest 6 kostkami pamięci po jednej stronie, co w połączeniu z 6 kostkami z drugiej strony daje łącznie 2 x 1,5 GB pamięci na całą kartę. W górnej części płytki znajduje się jedno złącze SLI oraz miejsce na dwie 8-pinowe wtyczki zasilające. Specyfikacja techniczna nie jest jeszcze znana, jednak najprawdopodobniej układy będą dysponować pełna liczbą 512 procesorów strumieniowych.
Zużycie energii i wydzielane ciepła ma zostać utrzymane w „rozsądnych” granicach dzięki znacznemu obniżeniu zegarów i napięć zasilających (w porównaniu do kart jednoprocesorowych z układami GF110). Według spekulacji wydajność takiej karty miałaby być bliska wydajności dwóch GeForce GTX 570 połączonych w tryb SLI.
Nie wiadomo jeszcze czym Nvidia zamierza schłodzić swojego najnowszego dwuprocesorowego potwora. Przypuszczalnie wzorem GeForce GTX 580 do odbierania ciepła z układów GF110 wykorzystane zostaną komory parowe. Budowa płytki drukowanej wskazuje natomiast, ze miejsce na wentylator przewidziano na środku karty, pomiędzy układami graficznymi - w przeciwnym wypadku, tj. umieszczenia wirnika na końcu karty system chłodzenia musiałby wystawać poza i tak długą już płytkę drukowaną.
... (autor: doxent | data: 20/11/10 | godz.: 13:37) do zestawu mały agregat chłodniczy.
Antilles ma mieć ponoć 300W TDP (autor: Jarek84 | data: 20/11/10 | godz.: 13:43) Az sie boje pomyslec ile toto będzie żarło... Teraz już wiadomo dlaczego opracoeano wreszcie specyikację PCI-E v 3.0
Na co to komu.... (autor: Grave | data: 20/11/10 | godz.: 13:53) skoro pojedynczy GTX580 radzi sobie bez problemu ze wszystkimi grami....
domena (autor: Krax | data: 20/11/10 | godz.: 14:14) dwuprocesorowek zawsze byla szybkosc.... ale cos mi chyba umknelo...
"Zużycie energii i wydzielane ciepła ma zostać utrzymane w „rozsądnych” granicach dzięki znacznemu obniżeniu zegarów i napięć zasilających "
grave to sie zgodze...
@Grave (autor: MateushGurdi | data: 20/11/10 | godz.: 14:30) Juz GTX-460 albo Radeon 6850 czy 5830 radza sobie ze wszystkimi grami i tez sobie zadaje to pytanie, swoja droga producenci kart graficznych troche sie zagalopowali, kiedys wielkim halo bylo dodatkowe zlacze 6 pin i zwiazany z nim pobor mocy, a teraz sama karta graficzna zre tyle pradu ile moj komputer zbudowany 2 i pol roku temu (dajacy rade w rozdzialce full HD)
to amd ma się (autor: Kris1st | data: 20/11/10 | godz.: 14:30) czego bać bo ten mały potwór je zabije
no i na co to komu (autor: mnemeth | data: 20/11/10 | godz.: 14:45) skoro konsole uniemożliwiają zrobienia gier, które by wykorzystały to monstrum...
Btw 500W jak nic będzie to bydle żarło :-)
@08 (autor: popierdulka1234 | data: 20/11/10 | godz.: 14:58) eeeeeeeeeeee dadzą więcej stoperków, ty będzie sztuka dla sztuki żeby mieć najszybszą na ziemi kartę
@09 (autor: mnemeth | data: 20/11/10 | godz.: 15:00) może i tak w tej kategorii liczy się tylko to, kto jest numerem 1, a reszta schodzi na boczny tor...
@MateushGurdi (autor: trepcia | data: 20/11/10 | godz.: 15:28) Pierw na kartach było złącze ATX a nawet dwa razy ATX (GF 6800 Ultra).
Topowe modele to poprostu pokazówki technologiczne (tak jak najdroższe i super nie ekonomiczne modele samochodów danego producenta).
@11 (autor: popierdulka1234 | data: 20/11/10 | godz.: 15:33) moze o molex ci chodzi
trepcia (autor: cyferluu | data: 20/11/10 | godz.: 16:11) to jakiś dziwny ten 6800U mój ma 1 gniazdko zasilania. ale nie mam widocznie ultra :P mam *czerwonego* gainwarda pełne PS i VS 256bit :) normalnie demon :) q3 śmiga, ze miło :)
zobaczcie jak (autor: emuX | data: 20/11/10 | godz.: 16:19) dwa GTX580 gniotą dwa droższe HD5970:
Dotychczas żadna karta nie przekraczała kombinacji PCI + 6-pin + 8-pin = 300W.
@Zbyszek.J (autor: draconewt | data: 20/11/10 | godz.: 16:24) Ta karta wymaga PCI-Express x16 w wersji 2.0 (czyli 150W) + 2x8pin (300W) a to daje łącznie 450W.
@emuX (autor: draconewt | data: 20/11/10 | godz.: 16:28) Zejdź na ziemię. Można śmiało założyć że większość użytkowników twojepc kupuje karty w przedziale 400-800zł. a w tym przedziale cenowym AMD jest bardziej konkurencyjne.
@draconewt (autor: emuX | data: 20/11/10 | godz.: 16:50) AMD bardziej konkurencyjne? weźmy takiego GTX460 1GB po OC o wiele szybszy niż HD6850 a tańszy o 50zł, a do tego ma fizyks.
zobacz sobie na testy, GTX460 1GB od nVidia często pokonuje droższego o 250zł HD6870, więc o jakiej ty opłacalności w zakresie 400-800 zł bredzisz?
@emuX (autor: rainy | data: 20/11/10 | godz.: 17:05) Jak chodzi o bredzenie, to nikt nie będzie Ci nawet próbował podskoczyć.
Rozumiem, iż HD 6850, który jest na podobnym poziomie cenowym jak GTX 460 (1 GB), nie można rzecz jasna podkręcić - dziwne, bo jakoś testującym udawało się podnieść zegar rdzenia o 20-25 procent.
@up (autor: pebal | data: 20/11/10 | godz.: 17:09) Zamiast wypisywać bzdury, poczytaj sobie jak prezentuje się wydajność tych kart w prawdziwych grach. Benchmarki są dla dzieci.
@rainy (autor: draconewt | data: 20/11/10 | godz.: 17:22) Emu nie udało się podkręcić pasywnego Radeona 5750 na tyle ile w testach i myśli, że wszystkie karty AMD mają tak samo ;) Zraził się do AMD już na zawsze, niektórzy tak mają i nie są w stanie zrozumieć że ktoś inny może nie podzielać jego zdania.
... (autor: pebal | data: 20/11/10 | godz.: 17:24) 21. jest do geniusza emuX.
@draconewt (autor: emuX | data: 20/11/10 | godz.: 17:41) widzę że liczy się tylko twoje zdanie, a jak jest wbrew faktom to gorzej dla nich.
Testy są na necie, a ceny można zobaczyć w sklepach. nV jest tańsze, ma fizyks i oferuje taki sam poziom wydajności. Więc opłacalność AMD jest zerowa.
@pcb (autor: Mariosti | data: 20/11/10 | godz.: 17:41) Nie zapomnieli czasem o trzeciej 8 pinowej wtyczce dodatkowego zasilania?
Hmm.... (autor: antrax | data: 20/11/10 | godz.: 17:53) jaka imponująca sekcja zasilania, chłodzenie to pewnie tylko woda, a pobór energii będzie oscylował koło 500W. Jak to wypuszczą to nikt normalny tego nie kupi
@emuX (autor: lamik91 | data: 20/11/10 | godz.: 18:00) Wiesz gdzie testy z Nvision możesz sobie wsadzić ? ;>
antrax (autor: Mario2k | data: 20/11/10 | godz.: 19:55) Normalny ??? czy moze masz na mysli przecietnie zarabiajacego ?
Pewniakiem kupia , ludzie co maja kase
przeciez jak bys zarabial ponad 20k na miesieac
i chcialbys dobrego wypasionego sprzeta zamowic to chyba nie z GF 460 w srodku ?
@Mario2k (autor: AmigaPPC | data: 20/11/10 | godz.: 22:19) mam kilku takich klientów, którzy (mówiąć kolokwialnie) srają szmalem i są oni najbardziej oszczędnymi z jakimi mam do czynienia.
Kupują sprzęt do wykonywania zadania XXX, a nie najszybszego (najmniej opłacalnego) potwora na rynku.
@popierdulka1234 (autor: trepcia | data: 20/11/10 | godz.: 22:43) Racja, chodziło mi o molex. Boże... nie wiem co się stało, że napisałem ATX. Starość nie radość chyba.
Ja miałem zwykłego 6800 ale udało mi się odblokować zablokowane potoki i vertexa i dobrze działał. Nawet kilka MHz mogłem na rdzeniu podkręcić ale to dosłownie kilka bo później gdzie niegdzie potrafiło artem sypnąć. A zamontowałem mu chłodzenie Arctic Cooling.
AmigaPPC (autor: Mario2k | data: 20/11/10 | godz.: 22:44) Znam kilku takich Burakow co sie kasy dorobili a szczedza na wszytkim , ale o czym to swiadczy ??
Ja uznaje zasade , jesli mnie stac na grafe za 500Funtow a lubie sobie pograc w max detalach to nie bede rozkminial czy oszczedzic 10-20% zeby kupic cos bardziej oplacalnego , czy to takie trudne do zrozumienia ?
Miec kase i zrec salceson tez mozna ,ale to trzeba byc z krwi i kosci chamem korzennym , raczej nie Warszawiakiem ;)
@Mario2k (autor: trepcia | data: 20/11/10 | godz.: 22:47) Co masz do salcesonu? Smaczny jest :-)
GTX 595 (autor: adriankiller21101986 | data: 20/11/10 | godz.: 22:55) to jest cos na co czekam obecnie posiadam
GTX 480 Oc 885-1770-2050mhz ale chetnie sie przesiade na to cudo ciekawe jakie bedzie taktowanie czy takie same jak w GTX 580 ??ale to bez ruznicy co dwa to nie jedno wiec czekam z niecierpliwieniem
@emuX (autor: draconewt | data: 20/11/10 | godz.: 23:34) Gdzie się podziały teksty o słynnych mikro przycięciach kart dwu chipowych. Czy karty NVIDII to nie dotyczy? ;)
@draconewt (autor: DTOsman | data: 20/11/10 | godz.: 23:46) 595 to będzie wydajnosc której żadna 1 GPU karta dostarczyć nie może. W przypadku HD5970 jest GTX580, bez wad multigpu. Dlatego nie ma tekstów o mikroprzycięciach.
Swego czasu GTX 295 wygrywał z HD5870, o ile dobrze pamiętam wtedy fakt ze 5870 jest kartą z pojedynczym gpu był koronny, jak również DX11 i teselacja. Potem dopiero gdy okazało się, że GTX480 miażdzy w tej materii radeonki to okazało się ze teselacja DX11 jest zbędne, bo i tak mało jest gier to wykorzystujących hehe
;]... (autor: Mariosti | data: 21/11/10 | godz.: 03:55) "trzeba byc z krwi i kosci chamem korzennym , raczej nie Warszawiakiem ;)"
Oksymoron jak mniemam ;]
@DTOsman (autor: draconewt | data: 21/11/10 | godz.: 10:28) HD5970 przez rok rówież nie miała konkurencji ze strony pojedynczego gpu. Jednak często pojawiał się temat mikro przycięć.
No i fajnie! (autor: acd | data: 21/11/10 | godz.: 10:44) Niech zrobią wersje z normalnymi zegarami iz fabrycznym blokiem wodnym i będzie gites morales. Będzie można pomyśleć o zmianie obecnej karty:)
podstawowe pytanie... (autor: Ceki | data: 21/11/10 | godz.: 12:19) ...karta będzie potężna i zarazem prądożerna ale nie ma procesora który by ją w pełni wykorzystał, nawet i7 podkręcony nie da w 80% rady
@Mario2k (autor: AmigaPPC | data: 21/11/10 | godz.: 13:15) Ci, o których pisałem to nie są buraki tylko ludzie myślący.
Skoro mają to samo za 20% mniej to po co przepłacać.
Tak podchodzą do sprawy.
dualiki (autor: morgi | data: 21/11/10 | godz.: 13:21) do pieca i do kosza nadaja sie, skalowanko jak w totka raz jedziemy na wysokim frame, by potem upasc nisko nawet do slajdshowa, technologia do bicia rekordow w tdp i benchach, zenujace jak i cale sli/cfx.
@morgi (autor: trepcia | data: 21/11/10 | godz.: 14:35) Tak samo żenujące jak Larabee i układ złożony z wielu rdzeni.
ludzie czemu wszyscy zaslaniaja sie (autor: Krax | data: 21/11/10 | godz.: 15:14) nV jest 50 zl drozsze i ma bo ile gier tak naprawde to obsluguje 30? moze 40....
a ile gier do tej pory powstalo.... z czego znanych tytulow jest moze 10 do 15
ogarnijcie sie.... obsuga tej biblioteki nie powinna byc kluczowym elementem decydujacy o zakupie...
a to ze karty amd tej technologi nie obsluguja jest wina nv... bo przypomne ze stream jest starszy i niczym(prawie) sie nie rozni od cuda.... pozatym obie napisano przy uzyciu tej samej biblioteki
Kolejna generacja (autor: _OskaR | data: 21/11/10 | godz.: 18:10) dwugrafówek i dalej brak wspólnej pamięci - do rzyci z takimi kartami.
cyrku ciąg dalszy (autor: Qjanusz | data: 21/11/10 | godz.: 20:21) z jednej strony pakowanie na laminat dwóch najbardziej na świecie łakomych na energię GPU,
z drugiej natomiast obniżanie zegarów i V, po to tylko żeby urządzenie można było nazwać kartą graficzną i bez większych obaw wsadzić do kompa z TOPowym zasilaczem.
Chłodzenie raczej przekroczy dwa sloty.
To wszystko pokazuje w jak wielkiej defensywie jest nVidia. Nie ma konceptu na wydajniejszą architekturę, więc stosuje całkowicie wykluczające się metody siłowe (dodajemy GPU i obniżamy zegary).
Ciekaw jestem do czego doprowadzi taki rozmach w projekcie zielonych.
PS. (autor: Qjanusz | data: 21/11/10 | godz.: 20:23) dlaczego GTX 595, a nie np GTX680?
Skoro u goblinów seria ma się nijak do technologii, to przynajmniej w oczach dzieci byliby totalnie do przodu w porównaniu do konkurencji.
Doczekaliśmy sie (autor: KPRT | data: 22/11/10 | godz.: 00:21) No to się doczekaliśmy!! Nowy Geforce na układzie Cyrix 133 !! Po Fermi GF100 -> Cyrix 133!
Taka karta nie ma racji bytu (autor: Muchomor | data: 22/11/10 | godz.: 10:37) "Do GPGPU to tylko nvidia. Zaś do gier, to można uzasadnić że jest to inwestycja na lata. Ale za jakiś rok, ta wydajność będzie z jednego GPU, przy dużo mniejszym poborze prądu i cenie. Poza tym kto gra w 2500x1600 FD ? Największy sens istnienia tej karty to cele propagandowe."
... z premedytacją.
... (autor: Adex1234 | data: 22/11/10 | godz.: 12:21) karta jest popisem podobnie jak 6990 i 5970...
... (autor: Adex1234 | data: 22/11/10 | godz.: 12:42) wszyscy się czepiają urządzeń limitujących TDP w GTX580, a co to komu przeszkadza? Przecież i tak zawsze można to wyłączyć poza tym nie ma to znaczącego wpływu na gry.
@up (autor: Qjanusz | data: 22/11/10 | godz.: 14:45) a co na to gwarancja?
;-)
W zasadzie średni zasilacz też nie ma nic do komfortu grania. Do czasu...
@Qjanusz (autor: Jolo | data: 22/11/10 | godz.: 16:25) Tak jak zwykle... no ale cóż.
1. obniżenie zegara i wpakowanie dwóch rdzeni na kartę to normalne rozwiązanie dla kard z dwoma rdzeniami. Po pierwsze obniżenie zegara o 20-30% i jeszcze dodatkowo napięcia zasilania powoduje spadek wydzielanego ciepła do połowy, a właśnie o to chodzi - tak było robione wcześniej. Po drugie to doskonały sposób na sprzedanie układów które odmawiają pracy przy wysokich zegarach.
2. nazewnictwo - nVidia nie stosowała nazewnictwa jak podałeś (580->680). Karty z dwoma rdzeniami miały końcówkę GX2 albo właśnie tak jak tutaj (7900->7950). Wcześniej nie sięgam pamięcią.
GTX power.. (autor: robotronik | data: 3/01/11 | godz.: 22:49) Witam,nie ma obecnie zadnej karty ktora by uciagnela pewne gry na maks detalach i rozdzielczosci.. nawet pojedynczej z dwoma ukladami, GEFORCE 595 mam nadzieje ze bedzie mial lepszy potencjach od karty ktora posiadam,a zakupilem z tego wzgledu ze NVIDIA zaspala i byl to najszybszy z dostepnych pol roku temu ukladow, moze jak wyjdzie 595 to 2 takie wrzuce do komp i wtedy napisze jak sprawa wyglada przy obciazeniu, karty wcale nie sa wystarczajace.. ASUS RAMPAGE III, i7 980, 12 GB RAM 2000MHZ,Be Quiet 1200W,X-fi, Cooler Master HAF-932,SAPHIRE 5970 TOXIC, EYEFINITY- 7680-1440
D O D A J K O M E N T A R Z
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.