Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 19 listopada 2010 
    

Pierwsze zdjęcia GeForce GTX 590


Autor: Zbyszek | źródło: Xtreme News | 23:50
(56)
Do sieci przedostały się zdjęcia przedstawiające najprawdopodobniej płytkę drukowaną nadchodzących dwuprocesorowych kart graficznych Nvidia GeForce GTX 590. Płytka zawiera dwa 40-nanometrowe układy GF110 połączone za pomocą mostka NF200. Każdy z układów otoczony jest 6 kostkami pamięci po jednej stronie, co w połączeniu z 6 kostkami z drugiej strony daje łącznie 2 x 1,5 GB pamięci na całą kartę. W górnej części płytki znajduje się jedno złącze SLI oraz miejsce na dwie 8-pinowe wtyczki zasilające. Specyfikacja techniczna nie jest jeszcze znana, jednak najprawdopodobniej układy będą dysponować pełna liczbą 512 procesorów strumieniowych.

Zużycie energii i wydzielane ciepła ma zostać utrzymane w „rozsądnych” granicach dzięki znacznemu obniżeniu zegarów i napięć zasilających (w porównaniu do kart jednoprocesorowych z układami GF110). Według spekulacji wydajność takiej karty miałaby być bliska wydajności dwóch GeForce GTX 570 połączonych w tryb SLI.

Nie wiadomo jeszcze czym Nvidia zamierza schłodzić swojego najnowszego dwuprocesorowego potwora. Przypuszczalnie wzorem GeForce GTX 580 do odbierania ciepła z układów GF110 wykorzystane zostaną komory parowe. Budowa płytki drukowanej wskazuje natomiast, ze miejsce na wentylator przewidziano na środku karty, pomiędzy układami graficznymi - w przeciwnym wypadku, tj. umieszczenia wirnika na końcu karty system chłodzenia musiałby wystawać poza i tak długą już płytkę drukowaną.

Więcej informacji poznamy zapewne wkrótce.



 
    
K O M E N T A R Z E
    

  1. ... (autor: trepcia | data: 20/11/10 | godz.: 13:04)
    A zdjęcia pudełek gdzie?

  2. ... (autor: doxent | data: 20/11/10 | godz.: 13:37)
    do zestawu mały agregat chłodniczy.

  3. Antilles ma mieć ponoć 300W TDP (autor: Jarek84 | data: 20/11/10 | godz.: 13:43)
    Az sie boje pomyslec ile toto będzie żarło... Teraz już wiadomo dlaczego opracoeano wreszcie specyikację PCI-E v 3.0

  4. Na co to komu.... (autor: Grave | data: 20/11/10 | godz.: 13:53)
    skoro pojedynczy GTX580 radzi sobie bez problemu ze wszystkimi grami....

  5. domena (autor: Krax | data: 20/11/10 | godz.: 14:14)
    dwuprocesorowek zawsze byla szybkosc.... ale cos mi chyba umknelo...
    "Zużycie energii i wydzielane ciepła ma zostać utrzymane w „rozsądnych” granicach dzięki znacznemu obniżeniu zegarów i napięć zasilających "

    grave to sie zgodze...


  6. @Grave (autor: MateushGurdi | data: 20/11/10 | godz.: 14:30)
    Juz GTX-460 albo Radeon 6850 czy 5830 radza sobie ze wszystkimi grami i tez sobie zadaje to pytanie, swoja droga producenci kart graficznych troche sie zagalopowali, kiedys wielkim halo bylo dodatkowe zlacze 6 pin i zwiazany z nim pobor mocy, a teraz sama karta graficzna zre tyle pradu ile moj komputer zbudowany 2 i pol roku temu (dajacy rade w rozdzialce full HD)

  7. to amd ma się (autor: Kris1st | data: 20/11/10 | godz.: 14:30)
    czego bać bo ten mały potwór je zabije

  8. no i na co to komu (autor: mnemeth | data: 20/11/10 | godz.: 14:45)
    skoro konsole uniemożliwiają zrobienia gier, które by wykorzystały to monstrum...
    Btw 500W jak nic będzie to bydle żarło :-)


  9. @08 (autor: popierdulka1234 | data: 20/11/10 | godz.: 14:58)
    eeeeeeeeeeee dadzą więcej stoperków, ty będzie sztuka dla sztuki żeby mieć najszybszą na ziemi kartę

  10. @09 (autor: mnemeth | data: 20/11/10 | godz.: 15:00)
    może i tak w tej kategorii liczy się tylko to, kto jest numerem 1, a reszta schodzi na boczny tor...

  11. @MateushGurdi (autor: trepcia | data: 20/11/10 | godz.: 15:28)
    Pierw na kartach było złącze ATX a nawet dwa razy ATX (GF 6800 Ultra).

    Topowe modele to poprostu pokazówki technologiczne (tak jak najdroższe i super nie ekonomiczne modele samochodów danego producenta).


  12. @11 (autor: popierdulka1234 | data: 20/11/10 | godz.: 15:33)
    moze o molex ci chodzi

  13. trepcia (autor: cyferluu | data: 20/11/10 | godz.: 16:11)
    to jakiś dziwny ten 6800U mój ma 1 gniazdko zasilania. ale nie mam widocznie ultra :P mam *czerwonego* gainwarda pełne PS i VS 256bit :) normalnie demon :) q3 śmiga, ze miło :)

  14. zobaczcie jak (autor: emuX | data: 20/11/10 | godz.: 16:19)
    dwa GTX580 gniotą dwa droższe HD5970:

    http://www.benchmark.pl/...adeon_HD_5970-3389.html

    AMD robi nieopłacalne karty graficzne.


  15. ... (autor: Zbyszek.J | data: 20/11/10 | godz.: 16:19)
    75W (PCI x16) + 150W (8-pin) + 150W (8-pin) = 375W.

    Dotychczas żadna karta nie przekraczała kombinacji PCI + 6-pin + 8-pin = 300W.


  16. @Zbyszek.J (autor: draconewt | data: 20/11/10 | godz.: 16:24)
    Ta karta wymaga PCI-Express x16 w wersji 2.0 (czyli 150W) + 2x8pin (300W) a to daje łącznie 450W.

  17. @emuX (autor: draconewt | data: 20/11/10 | godz.: 16:28)
    Zejdź na ziemię. Można śmiało założyć że większość użytkowników twojepc kupuje karty w przedziale 400-800zł. a w tym przedziale cenowym AMD jest bardziej konkurencyjne.

  18. @ draconewt (autor: Zbyszek.J | data: 20/11/10 | godz.: 16:39)
    Racja. Dziękuje za poprawkę

  19. @draconewt (autor: emuX | data: 20/11/10 | godz.: 16:50)
    AMD bardziej konkurencyjne? weźmy takiego GTX460 1GB po OC o wiele szybszy niż HD6850 a tańszy o 50zł, a do tego ma fizyks.

    http://twojepc.pl/..._geforce_gtx_580&strona=2

    zobacz sobie na testy, GTX460 1GB od nVidia często pokonuje droższego o 250zł HD6870, więc o jakiej ty opłacalności w zakresie 400-800 zł bredzisz?


  20. @emuX (autor: rainy | data: 20/11/10 | godz.: 17:05)
    Jak chodzi o bredzenie, to nikt nie będzie Ci nawet próbował podskoczyć.

    Rozumiem, iż HD 6850, który jest na podobnym poziomie cenowym jak GTX 460 (1 GB), nie można rzecz jasna podkręcić - dziwne, bo jakoś testującym udawało się podnieść zegar rdzenia o 20-25 procent.


  21. @up (autor: pebal | data: 20/11/10 | godz.: 17:09)
    Zamiast wypisywać bzdury, poczytaj sobie jak prezentuje się wydajność tych kart w prawdziwych grach. Benchmarki są dla dzieci.

  22. @rainy (autor: draconewt | data: 20/11/10 | godz.: 17:22)
    Emu nie udało się podkręcić pasywnego Radeona 5750 na tyle ile w testach i myśli, że wszystkie karty AMD mają tak samo ;) Zraził się do AMD już na zawsze, niektórzy tak mają i nie są w stanie zrozumieć że ktoś inny może nie podzielać jego zdania.

  23. ... (autor: pebal | data: 20/11/10 | godz.: 17:24)
    21. jest do geniusza emuX.

  24. @draconewt (autor: emuX | data: 20/11/10 | godz.: 17:41)
    widzę że liczy się tylko twoje zdanie, a jak jest wbrew faktom to gorzej dla nich.

    Testy są na necie, a ceny można zobaczyć w sklepach. nV jest tańsze, ma fizyks i oferuje taki sam poziom wydajności. Więc opłacalność AMD jest zerowa.

    http://nvision.pl/...87716604ranking_calkowity.png


  25. @pcb (autor: Mariosti | data: 20/11/10 | godz.: 17:41)
    Nie zapomnieli czasem o trzeciej 8 pinowej wtyczce dodatkowego zasilania?

  26. Hmm.... (autor: antrax | data: 20/11/10 | godz.: 17:53)
    jaka imponująca sekcja zasilania, chłodzenie to pewnie tylko woda, a pobór energii będzie oscylował koło 500W. Jak to wypuszczą to nikt normalny tego nie kupi

  27. @emuX (autor: lamik91 | data: 20/11/10 | godz.: 18:00)
    Wiesz gdzie testy z Nvision możesz sobie wsadzić ? ;>

  28. antrax (autor: Mario2k | data: 20/11/10 | godz.: 19:55)
    Normalny ??? czy moze masz na mysli przecietnie zarabiajacego ?

    Pewniakiem kupia , ludzie co maja kase
    przeciez jak bys zarabial ponad 20k na miesieac
    i chcialbys dobrego wypasionego sprzeta zamowic to chyba nie z GF 460 w srodku ?

    Wszystko kwestia zasobnosci w gotowke


  29. ... (autor: rookie | data: 20/11/10 | godz.: 20:47)
    Niezły potwór ale pewnie znając fermi wymaga podłączenia specjalnego agregatu prądotwórczego :)

  30. @Mario2k (autor: AmigaPPC | data: 20/11/10 | godz.: 22:19)
    mam kilku takich klientów, którzy (mówiąć kolokwialnie) srają szmalem i są oni najbardziej oszczędnymi z jakimi mam do czynienia.
    Kupują sprzęt do wykonywania zadania XXX, a nie najszybszego (najmniej opłacalnego) potwora na rynku.


  31. @popierdulka1234 (autor: trepcia | data: 20/11/10 | godz.: 22:43)
    Racja, chodziło mi o molex. Boże... nie wiem co się stało, że napisałem ATX. Starość nie radość chyba.

    @cyferluu
    Referencyjny model 6800 Ultra miał dwa molexy.
    http://i.frazpc.pl/...ly/art262/foty/zasilanie.jpg

    Ja miałem zwykłego 6800 ale udało mi się odblokować zablokowane potoki i vertexa i dobrze działał. Nawet kilka MHz mogłem na rdzeniu podkręcić ale to dosłownie kilka bo później gdzie niegdzie potrafiło artem sypnąć. A zamontowałem mu chłodzenie Arctic Cooling.


  32. AmigaPPC (autor: Mario2k | data: 20/11/10 | godz.: 22:44)
    Znam kilku takich Burakow co sie kasy dorobili a szczedza na wszytkim , ale o czym to swiadczy ??

    Ja uznaje zasade , jesli mnie stac na grafe za 500Funtow a lubie sobie pograc w max detalach to nie bede rozkminial czy oszczedzic 10-20% zeby kupic cos bardziej oplacalnego , czy to takie trudne do zrozumienia ?

    Miec kase i zrec salceson tez mozna ,ale to trzeba byc z krwi i kosci chamem korzennym , raczej nie Warszawiakiem ;)


  33. @Mario2k (autor: trepcia | data: 20/11/10 | godz.: 22:47)
    Co masz do salcesonu? Smaczny jest :-)

  34. GTX 595 (autor: adriankiller21101986 | data: 20/11/10 | godz.: 22:55)
    to jest cos na co czekam obecnie posiadam
    GTX 480 Oc 885-1770-2050mhz ale chetnie sie przesiade na to cudo ciekawe jakie bedzie taktowanie czy takie same jak w GTX 580 ??ale to bez ruznicy co dwa to nie jedno wiec czekam z niecierpliwieniem


  35. @emuX (autor: draconewt | data: 20/11/10 | godz.: 23:34)
    Gdzie się podziały teksty o słynnych mikro przycięciach kart dwu chipowych. Czy karty NVIDII to nie dotyczy? ;)

  36. @draconewt (autor: DTOsman | data: 20/11/10 | godz.: 23:46)
    595 to będzie wydajnosc której żadna 1 GPU karta dostarczyć nie może. W przypadku HD5970 jest GTX580, bez wad multigpu. Dlatego nie ma tekstów o mikroprzycięciach.

    Swego czasu GTX 295 wygrywał z HD5870, o ile dobrze pamiętam wtedy fakt ze 5870 jest kartą z pojedynczym gpu był koronny, jak również DX11 i teselacja. Potem dopiero gdy okazało się, że GTX480 miażdzy w tej materii radeonki to okazało się ze teselacja DX11 jest zbędne, bo i tak mało jest gier to wykorzystujących hehe


  37. @Mario2k (autor: kosa23 | data: 21/11/10 | godz.: 00:14)
    Zadam Ci zagadkę.

    W restauracji czterech panów zamówiło obiady:
    1. omlet
    2. jajka sadzone
    3. jajka na twardo
    4. jajecznice

    Który z nich jest inteligentem?


  38. @kosa23 (autor: trepcia | data: 21/11/10 | godz.: 00:35)
    Kucharz?

  39. ;]... (autor: Mariosti | data: 21/11/10 | godz.: 03:55)
    "trzeba byc z krwi i kosci chamem korzennym , raczej nie Warszawiakiem ;)"

    Oksymoron jak mniemam ;]


  40. @DTOsman (autor: draconewt | data: 21/11/10 | godz.: 10:28)
    HD5970 przez rok rówież nie miała konkurencji ze strony pojedynczego gpu. Jednak często pojawiał się temat mikro przycięć.

  41. No i fajnie! (autor: acd | data: 21/11/10 | godz.: 10:44)
    Niech zrobią wersje z normalnymi zegarami iz fabrycznym blokiem wodnym i będzie gites morales. Będzie można pomyśleć o zmianie obecnej karty:)

  42. podstawowe pytanie... (autor: Ceki | data: 21/11/10 | godz.: 12:19)
    ...karta będzie potężna i zarazem prądożerna ale nie ma procesora który by ją w pełni wykorzystał, nawet i7 podkręcony nie da w 80% rady

  43. @Mario2k (autor: AmigaPPC | data: 21/11/10 | godz.: 13:15)
    Ci, o których pisałem to nie są buraki tylko ludzie myślący.
    Skoro mają to samo za 20% mniej to po co przepłacać.
    Tak podchodzą do sprawy.


  44. dualiki (autor: morgi | data: 21/11/10 | godz.: 13:21)
    do pieca i do kosza nadaja sie, skalowanko jak w totka raz jedziemy na wysokim frame, by potem upasc nisko nawet do slajdshowa, technologia do bicia rekordow w tdp i benchach, zenujace jak i cale sli/cfx.

  45. @morgi (autor: trepcia | data: 21/11/10 | godz.: 14:35)
    Tak samo żenujące jak Larabee i układ złożony z wielu rdzeni.

  46. ludzie czemu wszyscy zaslaniaja sie (autor: Krax | data: 21/11/10 | godz.: 15:14)
    nV jest 50 zl drozsze i ma bo ile gier tak naprawde to obsluguje 30? moze 40....
    a ile gier do tej pory powstalo.... z czego znanych tytulow jest moze 10 do 15

    ogarnijcie sie.... obsuga tej biblioteki nie powinna byc kluczowym elementem decydujacy o zakupie...

    a to ze karty amd tej technologi nie obsluguja jest wina nv... bo przypomne ze stream jest starszy i niczym(prawie) sie nie rozni od cuda.... pozatym obie napisano przy uzyciu tej samej biblioteki


  47. Kolejna generacja (autor: _OskaR | data: 21/11/10 | godz.: 18:10)
    dwugrafówek i dalej brak wspólnej pamięci - do rzyci z takimi kartami.

  48. cyrku ciąg dalszy (autor: Qjanusz | data: 21/11/10 | godz.: 20:21)
    z jednej strony pakowanie na laminat dwóch najbardziej na świecie łakomych na energię GPU,
    z drugiej natomiast obniżanie zegarów i V, po to tylko żeby urządzenie można było nazwać kartą graficzną i bez większych obaw wsadzić do kompa z TOPowym zasilaczem.

    Chłodzenie raczej przekroczy dwa sloty.

    To wszystko pokazuje w jak wielkiej defensywie jest nVidia. Nie ma konceptu na wydajniejszą architekturę, więc stosuje całkowicie wykluczające się metody siłowe (dodajemy GPU i obniżamy zegary).

    Ciekaw jestem do czego doprowadzi taki rozmach w projekcie zielonych.


  49. PS. (autor: Qjanusz | data: 21/11/10 | godz.: 20:23)
    dlaczego GTX 595, a nie np GTX680?

    Skoro u goblinów seria ma się nijak do technologii, to przynajmniej w oczach dzieci byliby totalnie do przodu w porównaniu do konkurencji.


  50. Doczekaliśmy sie (autor: KPRT | data: 22/11/10 | godz.: 00:21)
    No to się doczekaliśmy!! Nowy Geforce na układzie Cyrix 133 !! Po Fermi GF100 -> Cyrix 133!

  51. Taka karta nie ma racji bytu (autor: Muchomor | data: 22/11/10 | godz.: 10:37)
    "Do GPGPU to tylko nvidia. Zaś do gier, to można uzasadnić że jest to inwestycja na lata. Ale za jakiś rok, ta wydajność będzie z jednego GPU, przy dużo mniejszym poborze prądu i cenie. Poza tym kto gra w 2500x1600 FD ? Największy sens istnienia tej karty to cele propagandowe."
    ... z premedytacją.


  52. ... (autor: Adex1234 | data: 22/11/10 | godz.: 12:21)
    karta jest popisem podobnie jak 6990 i 5970...

  53. ... (autor: Adex1234 | data: 22/11/10 | godz.: 12:42)
    wszyscy się czepiają urządzeń limitujących TDP w GTX580, a co to komu przeszkadza? Przecież i tak zawsze można to wyłączyć poza tym nie ma to znaczącego wpływu na gry.

  54. @up (autor: Qjanusz | data: 22/11/10 | godz.: 14:45)
    a co na to gwarancja?

    ;-)

    W zasadzie średni zasilacz też nie ma nic do komfortu grania. Do czasu...


  55. @Qjanusz (autor: Jolo | data: 22/11/10 | godz.: 16:25)
    Tak jak zwykle... no ale cóż.
    1. obniżenie zegara i wpakowanie dwóch rdzeni na kartę to normalne rozwiązanie dla kard z dwoma rdzeniami. Po pierwsze obniżenie zegara o 20-30% i jeszcze dodatkowo napięcia zasilania powoduje spadek wydzielanego ciepła do połowy, a właśnie o to chodzi - tak było robione wcześniej. Po drugie to doskonały sposób na sprzedanie układów które odmawiają pracy przy wysokich zegarach.
    2. nazewnictwo - nVidia nie stosowała nazewnictwa jak podałeś (580->680). Karty z dwoma rdzeniami miały końcówkę GX2 albo właśnie tak jak tutaj (7900->7950). Wcześniej nie sięgam pamięcią.


  56. GTX power.. (autor: robotronik | data: 3/01/11 | godz.: 22:49)
    Witam,nie ma obecnie zadnej karty ktora by uciagnela pewne gry na maks detalach i rozdzielczosci.. nawet pojedynczej z dwoma ukladami, GEFORCE 595 mam nadzieje ze bedzie mial lepszy potencjach od karty ktora posiadam,a zakupilem z tego wzgledu ze NVIDIA zaspala i byl to najszybszy z dostepnych pol roku temu ukladow, moze jak wyjdzie 595 to 2 takie wrzuce do komp i wtedy napisze jak sprawa wyglada przy obciazeniu, karty wcale nie sa wystarczajace.. ASUS RAMPAGE III, i7 980, 12 GB RAM 2000MHZ,Be Quiet 1200W,X-fi, Cooler Master HAF-932,SAPHIRE 5970 TOXIC, EYEFINITY- 7680-1440

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.