Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 26 marca 2010 
    

Znamy specyfikację Fermi dla "większości"


Autor: Wedelek | źródło: Tech Connect | 19:25
(62)
W dniu dzisiejszym użytkownicy w końcu poznali plany Nvidia względem rynku mainstream oraz low-end. W średniej półce cenowej będą walczyć karty graficzne oparte o zmodyfikowane GPU Fermi z oznaczeniem GF104. Układy zbudowane o tę architekturę, podobnie jak mocniejsi bracia będą wykonane w 40nm i staną się podstawą serii GTS 4xx która powinna zadebiutować w wakacje. Nowości będą połową pełnego układu Fermi a ich specyfikacja techniczna będzie obejmować 256 procesorów strumieniowych 64 TMU, 32 ROP i pamięć typu GDDR5 z 256-bitowym interfejsem. GF104 stanie się bazą dla trzech modeli tej firmy oznaczonych jako GTS 450, GTS 440 i GTS 430. Prawdopodobnie zegary w GeForce GTS 450 zostaną ustawione na wartości 725, 1500 i 3600 MHz odpowiednio rdzenia, shaderów i pamięci a jego wydajność będzie porównywalna do Radeona HD 5830. Kwota jaką przyjdzie nam za niego zapłacić to okolice 230 euro.

Kolejny model, czyli GTS 440 powinien być słabszy o około 20% niż HD 5770 w cenie oscylującej wokół 160 do 180 Euro. Najsłabszy GeForce dla rynku mainstream, model GTS 430 będzie natomiast dysponować słabszą specyfikacją: 192 procesory strumieniowe i szyna pamięci o przepustowości 192-bity. Cena tego modelu to około 130 – 150 euro.

Nvidia planuje również w późniejszym czasie wprowadzić na rynek low-end kolejne modele GeForce. Będą to oparte na rdzeniu GF106 produkty w cenach od 60 – 100 euro oraz zbudowane z wykorzystaniem GF 108 rywale Radeonów serii HD 5400/HD 5600 kosztujące 30 - 50 Euro.

Wszystkie modele powinny być zgodne z najnowszym API Microsoftu.

Zobacz także:

5.3.2010 | 21:21 | Oficjalne testy wydajności Fermi
1.3.2010 | 7:04 | Fermi dla "ludu" w drugiej połowie roku
22.2.2010 | 19:14 | Nvidia podała datę oficjalnej premiery GeForce GTX 480 i 470
26.1.2010 | 19:47 | Wyniki sprzedaży GPU i IGP w 4 kwartale 2009
21.1.2010 | 22:38 | Fermi nie pokona Radeona HD 5970?
19.1.2010 | 8:33 | Architektura Nvidia GF100 (Fermi) w szczegółach
7.1.2010 | 12:11 | Dwa miliony kart ATI z DirectX 11
29.12.2009 | 8:12 | Pierwsze dostawy Fermi dopiero w marcu
8.12.2009 | 13:50 | Intel oficjalnie rezygnuje z Larrabee
6.11.2009 | 17:15 | Nvidia Fermi - premiera w styczniu, dostępność w lutym?
6.10.2009 | 20:45 | Prezes Nvidii będzie pracował za (prawie) darmo
30.09.2009 | 21:04 | Nvidia Fermi - konkurent dla Larrabe?
23.09.2009 | 15:35 | Oficjalna premiera kart ATI Radeon HD 5870 i 5850 z DirectX 11
31.7.2009 | 23:35 | Nvidia GT300 - premiera w listopadzie, dostępność w styczniu?
3.6.2009 | 12:15 | Computex: AMD prezentuje działające 40nm układy z DirectX 11 [video]

 


    
K O M E N T A R Z E
    

  1. a dziś nie miało być premiery (autor: Wedrowiec | data: 26/03/10 | godz.: 19:35)
    i atrapa miała przestać być atrapą?

  2. haha fermi wyruchana! (autor: morgl | data: 26/03/10 | godz.: 19:38)
    http://nvision.pl/...480--News-16380-ndetails.html

  3. Nie jest zle ,zawsze to 10-12 % lepiej (autor: speed | data: 26/03/10 | godz.: 19:51)
    za pare godzin beda oficjalne wyniki:)))

  4. morgl (autor: zeek | data: 26/03/10 | godz.: 20:20)
    wyniki po prostu tragiczne ;///

    no to radeony nie potanieja


  5. ... (autor: tompo75 | data: 26/03/10 | godz.: 21:05)
    Dobry czyjś komentarz... były odgrzewane kotlety teraz mamy grzałkę do tych kotletów :D
    Poczekajmy na ostateczne wyniki z ostatecznymi osądami, które ostatecznie... i tak nic nie zmienią bo Morgi będzie swoje, inni swoje ;)


  6. ... (autor: trepcia | data: 26/03/10 | godz.: 21:07)
    Tak jak wcześniej pisałem - pyrusowe zwycięstwo nad Radkiem 5870. Średnie OC karty HD5870 i GTX 480 będzie pokonany. Pół roku opóźnienia i nic ciekawego nie pokazane zostało, zupełnie jak kiedyś x2900xt.

  7. NV+AMD (autor: piobzo | data: 26/03/10 | godz.: 21:17)
    spisek ciag dalszy

  8. 97 C i (autor: morgl | data: 26/03/10 | godz.: 21:24)
    pobór mocy o ponad 30W większy niż dwuukładowe 5970. Jak to możliwe że 3 mld tranzystorów @ 700 żre więcej niż 4 mld @ 725MHz?

  9. Kiedy dokładnie kończy się NDA na fermi? (autor: pawel.xxx | data: 26/03/10 | godz.: 21:33)
    I który polski serwis dostał kartę do testów?

  10. @pawel.xxx (autor: trepcia | data: 26/03/10 | godz.: 21:37)
    Napewno nie dostał tego NVision, IN4, TPC. Podejrzewam, że PCLab dostał tą kartę, oni chyba mają najlepsze wtyki wszędzie.

  11. Worlds fastest and most andvanced GPU (autor: Grave | data: 26/03/10 | godz.: 21:37)
    tak zapowiadała Nvidia i tak jest.

    @Trepcia

    Nie zauważasz drobnej różnicy. Fermi jest najszybszym GPU jaki powstał tymczasem HD 2900XT nie udało się pokonać w momencie swojej premiery nawet 8800GTS nie mówiąc już o 8800GTX, a po włączeniu AA/Aniso i tak słaba wydajność leciała dalej na pysk.

    Owszem Fermi na dzień dzisiejszy to pyrrusowe zwycięstwo, ale jednak zwycięstwo, natomiast HD 2900XT był par excellence porażką.


  12. @ up (autor: Zbyszek.J | data: 26/03/10 | godz.: 21:38)
    "NDA lifts Friday 26th March 23:01 UK time" czyli w Polsce o północy.
    Gdzieś jednak napisali, że termin został przesunięty na poniedziałek 29 marca (nie wiem czy to prawda).


  13. a co jeśli ktoś złamie to (autor: emu@mailplus.pl | data: 26/03/10 | godz.: 21:46)
    NDA? Przeciez kary smierci nie ma.

  14. @Grave (autor: rainy | data: 26/03/10 | godz.: 21:49)
    Mam wrażenie, że w tym momencie prezentujesz już tylko postawę obronną.

    Jeszcze niedawno pisałeś, jak to Fermi wspaniale prezentuje się na papierze.

    Jeżeli te wyniki się potwierdzą, to papier po raz kolejny zawiódł.

    Trudno nie uznać takich rezultatów za porażkę Nvidii, zwłaszcza, że AMD może wypuścić kartę w rodzaju 5890.

    Btw, gdzie są wszyscy, którzy szczekali na Charlie Demerjiana?
    Facet rzeczywiście nie cierpi (nienawidzi) Nvidii ale w przypadku Fermi większość tego co pisał się potwierdza.


  15. @Grave (autor: Torwald | data: 26/03/10 | godz.: 21:50)
    Super - mają najszybszego scalaka na świecie. Teraz wszyscy z tego powodu mają pędzić do sklepów i kupować karty z tym GPU.

    Co ma piernik do wiatraka ? Nikt nie kupuje GPU tylko kartę graficzną. Co mnie, jako klienta, obchodzi, że GPU jest zielone w grochy i świeci ? NIC.
    KARTA ma być wydajna i tyle. Jeśli nie jestem fanbojem i będę miał do wyboru kartę o większej wydajności (innej firmy) za tą samą kasę albo o takiej samej wydajności ale taniej - zgadnij, czy wybiorę FERMI ?

    Dobranoc...


  16. Torwald (autor: Grave | data: 26/03/10 | godz.: 21:57)
    To popatrz na wyniki Stalkera COP gdzie "cudowny" CrossFire nie zadziałał.... która karta tam okazała się najszybsza i zdaje się że nie była to karta ATI....

  17. @rainy (autor: trepcia | data: 26/03/10 | godz.: 21:58)
    Masz rację, Fermi był cudowny na papierze a okazuje się niczym FX5800. Historia kołem się toczy :-)
    Czekam na nowszą rewizję oFermy, czyli takie współczesne FX5900.


  18. @Grave (autor: trepcia | data: 26/03/10 | godz.: 21:59)
    Dla Stalkera kupować jedynie kartę? Czy Ty jesteś nie poważny czy tylko udajesz?

  19. NDA (autor: morgl | data: 26/03/10 | godz.: 22:15)
    o 0.00 będzie recka na PClab. Już zapowiadali.

  20. ... (autor: trepcia | data: 26/03/10 | godz.: 22:18)
    Heh, wiedziałem że PCLab dostał Fermi, wiedziałem. Czułem to ;-)

  21. Grave (autor: Torwald | data: 26/03/10 | godz.: 22:19)
    Co to za argument, bo nie kumam ? Rzucasz tytułem jednej gry, gdzie jedna KARTA grafiki sobie świetnie poradziła.
    Jak to ma się do dyskusji o opłacalności zakupu nowej KARTY Nvidii ?


  22. trepcia (autor: morgi | data: 26/03/10 | godz.: 22:24)
    Daj ten test, w ktorym jest jak fx, musi byc przynajmniej o polowe wolniejszy niz radeonik i to w dx11 tak przypuszczam, ale nie licze na takie linki.

  23. Torwald (autor: Grave | data: 26/03/10 | godz.: 22:28)
    Rzucam przykładem żeby pokazać Ci oczywistą rzecz, że karta z jednym GPU zapewnia równą wysoką i przewidywalną wydajność we wszystkich grach, natomiast rozwiązania dual GPU raz działają dobrze innym razem nie - NIGDY nie wiesz jak będzie w przypadku nowokupionej gry.

    Na 10000% takich gier jak Stalker jest więcej. Tylko takie numery wychodzą głównie w testach gdzie jest dużo gier testowanych najlepiej także tych nowowydanych.


  24. Grave (autor: Torwald | data: 26/03/10 | godz.: 22:41)
    No OK, spoko i w ogóle... Zauważ tylko jedną rzecz: gdzie ja napisałem, że karty 'multi-GPU' są lepsze albo wydajniejsze ? Widzisz tam zdanie, że SLI albo CrossFire jest wspaniałe i kolorowe ?

    NIE.

    Podsumuję ci to, co pisałem wcześniej:
    - NV ma najwydajniejsze GPU - super, tylko mnie to grzeje, jako klienta, bo chcę kartę a nie kostkę na brelok...
    - karty oparte na tym GPU są jakieś 10% wydajniejsze od produktów konkurencji (szacunkowo, oficjalne testy to potwierdzą pewnie...) - problem w tym, że są jednocześnie dużo droższe...

    Sytuacja wygląda tak, że klient może kupić FERMI, albo:
    - dostać wydajniejszą kartę w tej samej cenie
    - kupić tak samo wydajną kartę za mniejsze pieniądze (chyba, że różnica 10% w osiągach go boli - na bank nie wszędzie taka będzie...)

    To sytuacja WIN-WIN, tyle tylko, że jedynie dla klientów. Nvidia traci w każdym wypadku.


  25. @Grave (autor: rainy | data: 26/03/10 | godz.: 22:45)
    Słaba ta Twoja argumentacja.

    Jeżeli faktycznie GTX 480 jest ewidetnie wolniejszy niż 5970 a do tego ma wyższe TDP i nagrzewa się również mocniej to w połączenu z porównywalną ceną (w polskich realiach) trudno się nim naprawdę zachwycać.

    Zresztą porównywanie względem 5870 wygląda jeszcze gorzej.

    Stosunkowo niewielka przewaga w wydajności a mankamenty są jeszcze bardziej widoczne.

    Najtańszy 5870 kosztuje w tym momencie około 1300 złotych (GTX 480 zapewne będzie kosztował ponad 2000 złotych).
    http://www.skapiec.pl/site/cat/14/comp/801061


  26. @morgi (autor: trepcia | data: 26/03/10 | godz.: 22:53)
    A kto pisał, że ja mam test? Bajki se tworzysz? Palone zioło mózg Ci zjechało?
    Naucz się czytać czyjeś wypowiedzi zanim coś napiszesz.


  27. Dzien bez specyfikacji, wykresu, pudełka czy atrapy "spermi" (autor: Borat | data: 26/03/10 | godz.: 23:38)
    jest dniem straconym :)

    Mam nadzieję, że w końcu zaczną to gówno sprzedawać bo już rzygać od tych bezsensownych newsów.


  28. I sa testy na (autor: culmen | data: 27/03/10 | godz.: 00:11)
    Pclab. dokladnie po 24

  29. GTX480 (autor: emu@mailplus.pl | data: 27/03/10 | godz.: 00:28)
    no cóż, Fermi miażdży w DX11 radeony.

    http://pclab.pl/art41241-22.html


  30. emu@mailplus.pl (autor: Torwald | data: 27/03/10 | godz.: 00:35)
    Wspaniale. I co z tego ? 5 gier na rynku - to ma być argument żeby wywalić 2000zł na kartę, która ma bardzo ograniczone zastosowanie ?
    Jeśli jesteś fanbojem - owszem.

    Jeśli jesteś normalnie myślącym klientem - nie kupisz takiej karty.
    Za tą kasę dostaniesz lepszy sprzęt / taniej kupisz sprzęt o praktycznie takiej samej wydajności.
    Poza tym, kto kupuje kartę grafiki na kilka lat do przodu tylko dlatego, że pojawią się gry które wykorzystają pełen potencjał w niej drzemiący ?
    NIKT...


  31. nie (autor: krogulec | data: 27/03/10 | godz.: 00:41)
    miazdzy radeony w jednej grze w trybie dx11, ale jest to ta sama gra , w ktorej wygrywa wyraznie w trybie dx10 wiec ciezko o koncowe wnioski. W kazdym razie w dx11 ta karta ma szanse rozwinac skrzydla, ale biorac pod uwage temperature pracy i zuzycie pradu oraz niewielka przewage nad hd5870 w innych grach niz metro2033 to ta premiera jest niestety porazka

  32. Z tym Metro2033 to imho trochę podejrzana sprawa (autor: Grave | data: 27/03/10 | godz.: 00:42)
    bo na stronie Nvidii jest napisane, że gra korzysta z DX11, ale także z PhisX-a. Mam pewne wątpliwości na ile bdb wynik GTX480 w tej grze wynikają z możliwości karty w zakresie DX11, a na ile z uwagi na właśnie PhisX, który obsługują tylko karty Nvidii i który może solidnie zarżnąć wydajność na sprzęcie konkurencji, a przy tym w praktyce wcale wiele nie daje.

  33. emu (autor: morgl | data: 27/03/10 | godz.: 00:42)
    nie miażdży w DX11, tylko w jednym, jedynym Metro 2033. W Stalkerze w miarę, a w pozostałych 2 DX11 w ogóle nie daje rady.

  34. @ MORGI I INNI DEGENERACJI: (autor: lolo_64xxx | data: 27/03/10 | godz.: 00:45)
    Okey Morgi, spocznij. Przegrałeś. Twoje boskie Fermi okazało się potwornym odkurzaczem. Nie próbuj się tłumaczyć i nie udawaj wariata. Temat zakończony. NVIDIA tchnęła ducha 3dfx w swoje nowe potworki. Mamy godnego następcę Voodoo5 6000. A teraz możesz się zapaść pod ziemię i wszyscy inni schorowani fanboye zielonej rewolucji.

    http://hardocp.com/...rmi_gtx_470_480_sli_review/7


  35. A co do samego GTX480 (autor: Grave | data: 27/03/10 | godz.: 00:49)
    to przy takich osiągach i obecnych cenach kart ATI Nvidia będzie musiała ograniczyć swoje zapędy w kwestii ceny nowego GPU inaczej za wiele GTX480 nie sprzedadzą....

    Istotnie jest to najszybsza karta z 1GPU (czyli i najszybszy GPU na rynku) ze znakomitym wsparciem DX11, ale... lista minusów jest tak długa i część z nich przynajmniej jest tak poważna, że wątpię aby wiele osób skusiło się na tą kartę.

    Za wydajność - 4, za całokształt - 1. i zapraszamy na egz. poprawkowy na jesieni.


  36. @Grave (autor: rainy | data: 27/03/10 | godz.: 00:51)
    Sądzę, iż swoją rolę może odegrać fakt, iż GTX 480 ma 512 MB RAM-u więcej niż 5870 (szczególnie w rozdzielczości 2560x1600).

    Chyba nie przypadkiem, AMD wypuszcza wersje 5870/5850 wyposażone w 2 GB RAM-u.

    Tak czy siak moim skromnym zdaniem spore rozczarowanie.

    Ci którzy kibicowali Nvidii licząc na obniżki cen 5870/5850, mogą chyba o tym zapomnieć.


  37. padaka... (autor: Torwald | data: 27/03/10 | godz.: 01:00)
    Posłuchajcie jak to wyje :D
    http://vimeo.com/...;color=ff0000&fullscreen=1

    Najlepiej w SLI :D

    http://vimeo.com/...;color=ff0000&fullscreen=1


  38. metro2033 (autor: morgl | data: 27/03/10 | godz.: 01:05)
    a tu http://hardocp.com/...rmi_gtx_470_480_sli_review/3
    5870: 37,4 fps
    480: 37,6 fps
    WTF?


  39. Widze ze 'chlopaki' z Nvidia obcieli wiecej jak zamierzali:))) (autor: speed | data: 27/03/10 | godz.: 01:23)
    i wyszedl knot ala 5830. Zeby dwu letnia karta dala w dupe 480GTX to nawet ja w to niewierzylem a jednak .
    Teraz popatrzymy na porownanie 5870 z 2GB pamieci.
    Grave masz doskonaly przyklad ze nie warto za ostro podpierac sie papierem i wyglaszac tak oczywiste 'prawdy' jak to czyniles.
    Jak na razie mamy remis knot ATI 5830 i knot Nvida 480GTX. 1:1


  40. Fermini w akcji (autor: skalak23 | data: 27/03/10 | godz.: 01:36)
    http://hardocp.com/...rmi_gtx_470_480_sli_review/7

    FERMINI W PRACY


  41. ja się tylko zastanawiam (autor: Elektron | data: 27/03/10 | godz.: 01:41)
    co za idiota zdecydował, aby wsadzać do tej karty taki wentylator? Epic Fail! Widać ktoś miał "lack of intelligence" bo jeśli już korzystać z gówna, którego zwą "blower fan" to tylko z dłuższymi łopatkami, a nie większą ilością RPM. Mogli w ogóle wybrać taki z kręcącą się ścianką (coś ala lampka dla dzieci, żeby na ścianę rzutowały obrazki) Przykleiłoby się do niej kawałek papieru ściernego i można by sobie noże ostrzyć LOL.
    I czy ja dobrze widzę na zdjęciu wentylatorka 1.8A i 12V? Nice! Niemal 22W sam wentylatorek... Hedszot?!


  42. zresztą ogólnie (autor: Elektron | data: 27/03/10 | godz.: 01:46)
    to dla mnie blowery we wszystkich referentach to jakieś nieporozumienie. Kiedy oni w końcu ruszą tymi baniakami na grzbiecie i zaczną stosować normalne wentylatory. Tak, tak... wiem... blowery wyrzucają mi powietrze na zewnątrz, a zwykłe nie.

    Sory, ale ja wolę zwiększyć sobie temperaturę w budzie nawet o 10 stopni, niż siedzieć w słuchawkach "budowlanych".


  43. Z innej strony: (autor: pwil2 | data: 27/03/10 | godz.: 02:04)
    "Wcześniej serwowano nam odgrzewane kotlety.
    Teraz dostaliśmy grzałkę, na której to robili."


  44. @ skalak (autor: lolo_64xxx | data: 27/03/10 | godz.: 02:06)
    Przecie juz dałem linka do tego wyjca. Nie musisz po mnie powtarzać. Czytaj chociaż komentarze.

  45. Teraz już wiadomo po co ten metalowy grill (autor: Grave | data: 27/03/10 | godz.: 02:27)
    na wierzchu układu chłodzenia. Przy temperaturze 100C dla GPU można sobie na nim postawić kubeczek z wodą i ugotować jajko. W sam raz na Wielkanoc :D

    A co lepsze to nawet po OC do 800MHz dla rdzenia (1600 shadery) nadal przewaga nad 5870 jest bardzo niewielka, a karta żre dodatkowe 33W więcej.

    Coś jest ewidentnie spartolone w architekturze tego chipa.


  46. komp z 480GTX w SLI -> 900W (autor: pwil2 | data: 27/03/10 | godz.: 02:47)
    "We did see this, and it very much worth mentioning. With a nicely overclocked Core i7 920 processor (3.6GHz) and GTX 480 SLI, we saw at the wall wattages exceed 900 watts at the wall in some very stressful GPU system situation."

  47. @Grave (autor: Promilus | data: 27/03/10 | godz.: 06:55)
    Spartolony to jest pobór prądu (i bezpośredni wynik tego czyli temperatura układu oraz głośność chłodzenia). A reszta jest niezła. W Cypressie AMD robiło niby-podwójny rasteryzator ale do końca to on im nie wyszedł. W Fermi jest 8 prawdziwych i działających - mnie to nie dziwi, że nawet w demku AMD podziału powierzchni w tesselacji Fermi radzi sobie tak zajebiaszczo, ale demko technologiczne, a gry to inna bajka. Wydajność geometryczna robi niesamowite wrażenie, ale... widać spadki przy AF, widać spadki przy AA - takie szumne zapowiedzi, a w porównaniu z AMD rewolucji brak. Nawet ten sam stary algorytm filtrowania został. Ehhh. Nowe gry z tesselacją i DirectCompute wyraźnie zyskają przy uruchamianiu na Fermi, ale bez przesady, zaraz się okaże, że w kolejnych sterownikach AMD w końcu zwolni 'ręczny' i np. SPu zaczną być konkretniej wykorzystywane.

  48. ale kiła te fermi (autor: Marek1981 | data: 27/03/10 | godz.: 08:10)
    Myślałem że będzie lepiej a tu dupa.
    Wydajność od -10% do 40% większa od 5780 (średnio od 12) i to przy poborze o 20-40W większym od 5970 (ide i load) a w dodatku niemiłosiernym hałasie.

    Widać, że wszyscy mieli rację iż oferma może być ciekawym produktem ale tylko w 28nm


  49. malo zyskujesz.... (autor: piobzo | data: 27/03/10 | godz.: 08:13)
    ktos nie tak dawno sie klucil i wmawial mi bodaj ze MacLeod ze jest glupi nieuk i karta nie bedzie pobierac wiecej niz 300w bo nie moze:P
    btw wiem juz dlaczego gtx 480 ma takie oznaczenie(tzn jak sie bardzo mecze to masz 480W mniej)


  50. @piobzo (autor: Promilus | data: 27/03/10 | godz.: 08:31)
    Mam nadzieje że zauważyłeś, że w testach te pond 400W to pobór energii całej platformy a nie tylko GPU ;)

  51. wiem (autor: piobzo | data: 27/03/10 | godz.: 08:46)
    co nie zmienia faktu ze nazwa pasuje:P
    porazka ze jest taki glosny(pomijajac juz fakt ze pobiera wiecej od sklejek)


  52. @Promilis (autor: Marek1981 | data: 27/03/10 | godz.: 09:06)
    480 i tak bierze ponad 100W więcej od 5870:)
    @piobzo - gdzieś piszą o hałasie ok 60dB a dla zobrazowania betoniarka to głośność 54-55dB więc jest i tak 4x cichsza:)


  53. @UP (autor: Saturn64 | data: 27/03/10 | godz.: 09:20)
    Nvidia dala ciała, co niektórzy po przeciekach wiedzieli już to dawno ale piewcy Nvidii twierdzili, że to niemożliwe. Jest jeszcze gorzej niż przypuszczałem po ostatnich wiadomościach i przeciekach. Dodatkowego smaczku tej premiery dodaje fakt, że na całą POLSKĘ przysłano tylko 2 karty (szacun) (1szt GTX470 i 1szt. GTX480). W dodatku testy na portalach które dostały w/w karty są robione na prędce bo brak wielu informacji jak choćby jaki generują hałas, czy stosowania sterowników 10.3 bez literki a które są do pobrania od 4 dni. (brak możliwości sprawdzenia SLI). Można by też było sprawdzić kartę po OC a także w boju z niereferencyjnymi konstrukcjami ATI typu HD5870 2GB czy też taktowanymi 900mhz-1000mhz na rdzeniu).

  54. dla "większości" (autor: Marucins | data: 27/03/10 | godz.: 09:24)
    GeForce GTX 480....i tu zaczynają się schody, ponieważ nie wszystko jest takie jakbyśmy chcieli żeby było. Głównie chodzi nam tutaj o pobór prądu i wszystko co się z tym wiąże – głośność i temperatury. GeForce GTX 480 pobiera więcej prądu niż Radeon HD 5970 i GeForce GTX 295 (o Radeonie HD 5870 nie wspominając), czyli karty z dwoma układami graficznymi.

  55. ..... (autor: Marek1981 | data: 27/03/10 | godz.: 09:28)
    Myślę że w polsce raczej nie zdobędzie ona uznanie. do pracy z 480 potrzebny jest zasilacz ok 750W, solidna obudowa , chłodzenie wodne lub obudowa za pomieszczeniem w którym się znajdujemy.

  56. @Marek1981 (autor: Promilus | data: 27/03/10 | godz.: 09:32)
    Mam małą betoniarkę z 800W silnikiem - 74dB jakby nie było.

  57. @promilus (autor: trepcia | data: 27/03/10 | godz.: 09:54)
    Ja mam odkurzacz 1600W i z jakieś >80dB ;-)

  58. hehe (autor: morgi | data: 27/03/10 | godz.: 10:27)
    Wydajnosc niezla, mogla byc pewnie lepsza przy 512 sp i w miare wszystko ok, tylko to pieklo i ogromna ilosc potrzebnej smoly unoszace sie nad chlodziwem przypominaja mi, ze dali ciala w zespole z fabryka.

  59. @Promilis&trepcia (autor: Marek1981 | data: 27/03/10 | godz.: 11:43)
    nice, to już trzeba słuchawki zakładać bo taki hałas jest szkodliwy

  60. @morgi (autor: trepcia | data: 28/03/10 | godz.: 14:01)
    Wiadomo, wszystkiemu winna biedna fabryka TSMC :( To przecież ich wina, że zieloni dali im tak ogromny i trudny w produkcji układ. To również wina TSMC, że Intel zabrał się za niewypał Larabee. To również wina TSMC, że ATI wydało tak dobrą serię 5xxx. To również wina TSMC że NV ma stado baranów a nie specy od marketingu.

  61. :)) (autor: mortiiss | data: 28/03/10 | godz.: 20:24)
    Jednak zakup hd5870 był dobrym wyborem:)

  62. a ja (autor: kretos | data: 29/03/10 | godz.: 10:23)
    napisze o kastratach bo pelnego Fermi nie zamierzam kupowac - otoz rynek sredni prezentuje sie fatalnie - taki GTS 440 słabszy o około 20% od HD 5770 za 160- 180Eur?? Czyli na dzien dzisiejszy 620zł za kartę słabszą 1/5 od tanszej karty? I kto to im kupi?

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.