Firma Nvidia zadecydowała o zastąpieniu projektu dwuprocesorowej karty graficznej złożonej z GPU GF100 układem w którym znajdą się dwa GF104. Produkt będzie oczywiście produkowany w 40nm procesie produkcji i będzie przynależeć do drugiej generacji Fermi'ego. Sam procesor to znacząco obcięty GF100, który prezentuje niższą wydajność niż starszy bra natomiast zadowala się aż o 25% mniejszym zapotrzebowaniem na prąd niż GPU GF102 (GTX465), a jego TDP ma wynosić "zaledwie" 150W. Co więcej wiadomo również że pojedynczy GF104 będzie wchodzić w skład jednoprocesorowego GeForce GTX460.
Nie znamy jeszcze szczegółowej daty premiery nowych kart graficznych, ale ma to nastąpić przed końcem bieżącego roku. Pewne jest także, że w obecnym procesie technologicznym nie zobaczymy podwójnego Fermi zbudowanego z wykorzystaniem rdzeni GF100 o oznaczeniu D12U-50. Powód jest prozaiczny, a na imię mu pobór prądu który oscylowałby w granicach 375 W, a co za tym idzie wydzielane ciepło mogłoby z powodzeniem ogrzewać w zimowe wieczory zmarzniętego gracza.
K O M E N T A R Z E
Wywala zbedne CUDAcznosci, dpfp, korekcja bledow, szersza szyna z duzymi cache (autor: morgi | data: 14/05/10 | godz.: 18:50) utna geometrie do poziomu konkurencji i dopakuja tmu i juz moga byc w domku, typowa masowka tylko do gier.
cos sie nie zgadza (autor: zeek | data: 14/05/10 | godz.: 18:58) 300W - 25%= 225W
a to nijak sie nie rowna 150 <hmmm>
"Nvidia zmienia plany" (autor: Qjanusz | data: 14/05/10 | godz.: 19:06) dobre :-)
Nie ma na świecie takiej obudowy, która zmieściła by kartę, na której są dwa GPU GF100.
Tak samo jak nie ma takiego laminatu, który wytrzymałby temperaturę pary piecyków.
O chłodzeniu pisać nie muszę.
nVidia zmieniła plany na takie, jakie były dla każdego oczywiste od miesięcy.
CRAP (autor: Barbarian | data: 14/05/10 | godz.: 19:07) Nikt tego nie kupi.
@zeek (autor: tompo75 | data: 14/05/10 | godz.: 19:13) może im chodziło w spoczynku, albo przy wyłączonym kompie? :D
Na "pc labolatorium" są już jakieś wycieki chińskie testów z 465, nic szczególnego ponoć, a szkoda... ceny by się ruszyły może.
@zeek (autor: Wedelek | data: 14/05/10 | godz.: 19:17) wybacz, porównanie było do GF102 (ok 200W) a nie do GF100. Nie zauważyłem wcześniej że zjadłem najważniejszą część zdania:)
jak GTX465 ma miec wydajnosc minimalnie wieksza od HD5770, przy tym 2x taki apetyt na prad i 1,5x taka cene, no coz ... GL globliny
no i sama karta - ktokolwiek widzial, ktokolwiek wie :)
to było do przewidzenia (autor: bezrobotnydarek | data: 14/05/10 | godz.: 19:43) prądożerność GTX 465 na poziomie Radeona HD5870, a wydajność nawet poniżej Radeona HD5830 :D
@up (autor: tompo75 | data: 14/05/10 | godz.: 19:46) A cena na poziomie 5850.
czyli trend (niestety) podtrzymany, sprzedajemy karty o wiele mniej wydajne, ale że nazywają się NV to walimy ceną między oczy licząc na ludzką niewiedzę.
czyli się zesr*li (autor: lolo_64xxx | data: 14/05/10 | godz.: 20:05) Wiedziałem , że to podwójne mostrum się nie uda. Oni są skończeni. NVIDIA do piachu!
Nvidia pojdzie do piachu (autor: MacLeod | data: 14/05/10 | godz.: 20:08) A ty bedziesz kupowal te same radeony przez 5 lat w cenie z hawelki.
Kolejny pacan...
>>> (autor: tompo75 | data: 14/05/10 | godz.: 20:48) Nikt nie pójdzie do piachu bo nie może, gdy zostały w sumie 2 firmy na rynku.
Każda firma, w każdej praktycznie branży ma wzloty i upadki, szczególnie gdy się wprowadza innowacje jak Fermi, trzeba czasu żeby to usprawnili a nie mogli czekać ze sprzedażą, musieli to wypuścić teraz choć wiadomo że 40nm nie dla Fermiego.
Nvidia (autor: arco2006 | data: 14/05/10 | godz.: 21:13) zbyt dużo powsadzała tego wszystkiego co z tego wyszło NIC. NIC - to- wydajność taka sobie, apetyt na prąd x2 i cena z kosmosu. A po 2 po co graczowi CUDA - prąd zużywają a podczas grania lenią się, tak myślę, że nawet FERMI w 28nm to tylko będzie większy zegar i mniejszy apetyt na prąd, a wydajność wzrośnie o jakieś [ w przybliżeniu ] 30% według tego co mamy teraz.
S czemu ATI nie zrobiła GPU tak szybkiego jak NVIDIA ?? (autor: doktornvidia | data: 14/05/10 | godz.: 21:37) Ok Fermi ma trochę wad grzeje się i jest totalnym prądożłopem ale jest najszybszym GPU co do tego nie ma cienia wątpliwości .Gdyby ATI zrobiła uczciwie teselacje i dała tyle procków strumieniowych co nvidia to by też się grzała. Jak masz szybkie sportowe auto musi palić !!!! więc to że się grzeje i żre prąd to w tym segmencie nie jest aż tak ważne bo można sobie zakupić zwodowaną 480-tkę od EVGA i mieć spokój niskie temperatury i wydajność na pojedynczym GPU daleko do przodu a tym bardziej na przyszłość jeżeli chodzi o teselację a nie namiastkę teselacji w ATI. Nie jestem wrogiem ATI uważam ze to są świetne karty na dziś mają te zalety że się nie grzeją , trochę mniej żrą prąd i wydajność do codziennego użytkowania jest na całkiem niezłym poziomie na pewno są warte zakupu ale do dziś ATI nie pokazało nic jeżeli chodzi o jakiekolwiek okulary 3d tzn izd3 jest ale to program zewnętrzny nie jest tak dobry jak nvidia 3d vision o CUDAch już nie wspomnę np octane render itp i inne np kompresory multimedialne zawsze coś więcej niż tylko karta graficzna ATI też coś drgnęło ale mam odczucie że tylko dlatego ze nvidia ich do tego zmusiła bo sami są leniwi jeżeli chodzi o dodatki.
Jak ktoś ma kasę kupi zwodowaną Nvidię i będzie miał najszybsza kartę graficzną na rynku bo o 5970 nie wspomnę ponieważ w dwuprocesorowych kartach problem tzw mikro-przycięć nie daje się wyeliminować i jest to na tyle duża wada dla mnie ze osobiście wybrał bym gtx 480 .
NVIDIA wyprzedziła epokę tzn w 28 nm ta karta była by idealna ale proces prdukcji to zewnętrzna firma taka jak TSMC a TSMC stać tylko na 40 nm i to zwielkimi problemami.
PS czemu ATI nie zrobiła GPU tak szybkiego jak NVIDIA ??
ati nie robi bo ich nie stac to raz (autor: morgi | data: 14/05/10 | godz.: 21:59) dwa tak duze chipy tylko do gier to bylaby gigantyczna paranoja, trzy musialyby isc w wyzszych cenach, a to kloci sie z polityka, a raczej z ideologia chinska wg amd, czyli taniosci.
Dualikow nie szkoda, bo to jednak kiepa a nie wypas, ale z jednej sztuki zanosi sie na hit.
@ALL (autor: AmigaPPC | data: 14/05/10 | godz.: 22:26) kuźwa nic nie zrozumiałem - może to ja debil jestem??
@up (autor: tompo75 | data: 14/05/10 | godz.: 23:20) Spoko, z TPC zrobiła się (niestety) "moda na sukces" czyli flaki z olejem. Poczytasz przez miesiąc w kółko to samo i zrozumiesz, choć uważam że to strata czasu czytanie tej opery mydlanej i lepiej na innych portalach poczytać np testy sprzętu, których tu już nie uświadczysz.
Czasem mam wrażenie że TPC teraz tworzy jedna osoba pod różnymi nickami, łącznie z M żeby napędzić licznik... szkoda portalu, fajny był.
Fermi w tej postaci jest dziadem - to fakt (autor: Qjanusz | data: 14/05/10 | godz.: 23:37) ale pisanie typu "nVidia do piachu" jest już bezsensownym przejawem fanbojstwa.
Jakiego piachu? Firma ma bardzo dobre wyniki finansowe, zaplecze w postaci rynku PRO, filmowego, innowacyjnych technologii, Tegrę...... Jakiego piachu ja się pytam????
@AmigaPPC (autor: akpert | data: 15/05/10 | godz.: 00:28) Nie tylko Ty nic nie rozumiesz z tego bełkotu. TwojePC - piaskownica DYD'a.
A co ma DYD do tych farmazonow wypisywanych prze co poniektorych?? (autor: speed | data: 15/05/10 | godz.: 04:21) Wystarczy olac 3-4 i bedzie jak dawniej
@15 (autor: tompo75 | data: 15/05/10 | godz.: 07:26) "bo o 5970 nie wspomnę"
tak tak, Ty jak i cała NV to byście najchętniej o 5970 zapomnieli i w testach o niej nie wspominali, bo cenowy konkurent czyli 480 wygląda wtedy żałośnie.
Trzeba poczekać aż zejdą do 28 albo może i niżej.
takie "demony wydajności" to sztuka dla sztuki (autor: dd86 | data: 15/05/10 | godz.: 09:07) Witam wszystkich. Nie wiem do czego wydajność kart za +1000zł mogłaby się przydać dla przeciętnego użytkownika. Kilka ładnych lat temu kupiłem GF4200Ti za ok 1100zł, zanim znalazła się gra w której mogłem pokazać wyższość mojej karty nad o połowę tańszym (w tamtych czasach) GF3Ti, moja karta staniała do 300zł, a posiadacz GF3 śmiał mi się w twarz. W grudniu 2009r kupiłem Radeona 4650 za 220zł i jak na razie jest bardzo niewiele gier w które nie mogę komfortowo pograć. Radek nadal kosztuje tyle samo (ceneo) i nikt mi nie wmówi że na monitorze 19' z odległości 1,5m zobaczę różnicę po włączeniu fajerwerków (AA, itd...), a tylko po włączeniu tego nie mogę pograć. Szkoda że wszystkie nowe karty są porównywane jedynie z innymi nowymi kartami. To nagania sprzedaż, ale nie pokazuje realnego wzrostu wydajności (interesuje mnie porównanie HD4870 za ok 550zł i tego całego Ferminatora). Pozdrawiam
i oczywiscie nijak to si ema do twojego wychwalania prockow CUDA i gadaniu, ze karty AMD DO GIER ICH NIE MAJA I Z TEGO POWODU SA BE! :D
dd86 (autor: Markizy | data: 15/05/10 | godz.: 11:08) to zależy kto jaki sprzęt ma, bo przy twoim monitorze to ta karta sprawdzać się będzie, ale jak ktoś gra w 1920x1200 albo i więcej, to twoja karta dostanie tu czkawki, i dla takich ludzi miała byś kierowana karta jak z newsa czy tez 5970. Tu często nie chodzi o wyższość tylko o komfort grania.
hehe (autor: morgi | data: 15/05/10 | godz.: 11:24) W kwestii dualikow to ati jest jak zwykle smieszne, mozna smialo porownac cf5970 do SLI480 i nie widac z gola roznicy w wydajnosci, ale w uzywalnosci to jak wyjsc z bagna na marmurowe tarasy.
@Markizy (autor: dd86 | data: 15/05/10 | godz.: 11:24) Oczywiście masz rację z tą czkawką przy wysokich rozdzielczościach. Ja jedynie twierdzę że do kilku gier (metro, itd...), nie opłaca się kupować Ferminatora za 2tyś (z zasilaczem +600W, i7 x6, 8GB ram, za łącznie jakieś 6tyś) bo na co dzień nie wykorzystamy tej mocy. Jak dla mnie 50FPS na karcie X daje taki sam komfort grania jak 100FPS na karcie Y (ludzkie oko na 100% nie wyłapie 100FPS), tylko że zostanie z 1500zł w kieszeni. Zawsze jednak znajdą się napaleńcy jak M, czy E i kupią takiego potworka. Pozdrawiam
powini wydać 2x480:) (autor: dd86 | data: 15/05/10 | godz.: 11:32) miałem okazję studiować budownictwo i szkoda że w tamtych czasach nie było 2x480. zamiast wielkich pieców do ogrzewania domu wykorzystał bym 2x480, a jako układ chłodzenia do niego grzejniki:)
@speed (autor: akpert | data: 15/05/10 | godz.: 13:23) Bo skoro DYD jest adminem tego portalu, ma dostęp do kodu źródłowego strony, do silnika na jakim jest oparty to czemu nie wprowadzi czegoś na wzór postów np. w konkurencyjnym PCLab? Komentarze byłyby poddawane ocenie a te, które są zwykłym trollowaniem nie byłyby widoczne od razu (może wcale, a może po naciśnięciu przycisku). Od wczoraj są tutaj trolle? Nie! A tylko psują renomę, jaką miało kiedyś TwojePC.
Wiem, że łatwo powiedzieć a trudniej zrobić. Ale to przecież nie mi powinno najbardziej zależeć na jakości tego portalu.
@morgi (autor: Promilus | data: 15/05/10 | godz.: 15:01) Można porównać quad sli 480 z cf 5970 i też nie widać różnicy. No oprócz tego ile się kasy wydało.
nie jestem taki pewny czy nvidia ma najszybsze GPU (autor: zeek | data: 15/05/10 | godz.: 15:25) gdyby HD5870 dac taka szyne jak GTX480, i tak wyzylowac uklad ze, by pobieral ilosci pradu jak shit zielonych to spermi raczej by cienko wypadalo w tym porownaniu.
ale nie tedy droga
morgi (autor: lolo_64xxx | data: 15/05/10 | godz.: 15:53) Ty chyba czegoś nie kumasz. 5970 ma TPD mniejsze od GTX480 pomimo, ze jest kartą dwuchipsetową. A weź sobie teraz 480 w SLI. Powodzenia kolego, odlecisz w kosmos jak na tym filmiku z Youtuba. Tylko powiedz wszystkim, gdzie będziesz wyrzucał zużyte paliwo radioaktywne ze swojej mini elektrowni jądrowej.
akpert, idea tego portalu bylo ze to czytelnicy maja najwiekszy wklad (autor: speed | data: 15/05/10 | godz.: 17:20) do tego jak tu bedzie . Moderowanie, banowanie , blokowanie na wiele sie nie zda. 10 lat temu czy nawet wiecej tez byli tacy co 'smiecili'; v kolumna.,jasioW, zryty beret, i jeszcze paru innych . Jak widac wykruszyli sie na ich miejsce weszli nowi ale taki jest urok ( zawsze swierze mieso) daje mozliwosc rozrywki. Mnie tez przeszkadza jak jakis nawiedzony z uporem maniaka powtarza sie 1000 razy i to bez sensu.Wystarczy zaprzestac odpisywac lub podac kilka przykladow na to ze sie taki myli i odposcic sobie. Nie bedzie 'tlenu' to i ogien sam zgasnie.
Sam widzisz przepychaja sie z ta Nvidia a czy ktorys napisal ze wprowadzenie przez Nvidie dodatkowych 16+4 ( blokow) spowodowalo ze karta ta jest wydajniejsza w Dx11 ,( 14 Polymorph Engine i 4 - Raster Engine).Bardzo dobrze ze to wprowadzili bo efekt jest widoczny i w przyszlosci jak i teraz ( w niektorych grach ) sa z tego mierzalne efekty.
Chlopaki pluja sie nie wiadomo o co ale taki urok wolnosci slow.
Nawet z ta iloscia watow pobieranych nie moga dojsc do porozumienia, Nvidia podaje ze owy uklad zadowoli sie 250W max a okazuje sie ze karta potrafi pociagnac ponad 300W i co z tego wynika ?? jest brawda to co pisze Nvidia i jest prawda ze cala karta bierze ponad 300W ale tak ciezko zrozumiec to ze jeden pisze o samym GPU a drugi o karcie??
Tak ze niech 'chlopaki 'sobie udowodniaja 'co chca aby tylko 'miesem' sie nie okladac i bedzie Ok.
Promilus (autor: morgi | data: 15/05/10 | godz.: 20:35) quadSLI to kosmos przy cf, prawdziwa potega, u ati jak zwykle pelen kabaret i loteria, bo tak przypadkowo pracuja nad cataclysmami. http://lab501.ro/...a-in-configuratii-multi-card/8
@morgi (autor: Promilus | data: 15/05/10 | godz.: 22:40) Nooo...to panie 'mondry' powiedz może jak na tym przykładzie z Crysis:WH chcesz przekonać ludzi do zakupu 4way sli gdzie drobną różnicę widać w 2560x1600, a w niższych praktycznie różnic brak. W pozostałych grach o dziwo zarówno CF jak i SLI się skaluje dość dobrze, niesamowite...weź się naucz wyciągać wnioski z tego co widzisz
@speed (autor: akpert | data: 15/05/10 | godz.: 23:00) Może masz rację, może trochę na wyrost boguducha winnego DYD'a w to mieszam. Taka "kultura" Polaków, ciągle wojować i wojować.
zeek (autor: Grave | data: 15/05/10 | godz.: 23:04) Kontroler pamięci jest elementem zintegrowanym w GPU. Nie można więc wziąć sobie "jakiegoś GPU" i "dać mu szynę" inną niż ma.
Cypress ma 256bit szynę i jeżeliby mu dać szerszą szynę to już byłby inny GPU, bo trzeba by dokonać w tym celu zmian w samej kości krzemowej.
Na dzień dziejszy GTX480 jest najszybszym GPU na rynku i tyle. Drogim, maksymalnie nieopłacalnym, prądożernym, grzejącym się jak cholera, ale... najszybszym. Dobre i cokolwiek.
Tak zapowiadała Nvidia i słowa dotrzymała, chociaż to zwycięstwo jest Pyrrusowe.
Promilus (autor: lolo_64xxx | data: 16/05/10 | godz.: 02:36) To jak grochem o ścianę. Ty mu mów, a on swoje. To jest zatwardziały fanboy NV i nie ma możliwości aby było inaczej. Chyba, ze rozdawaliby Radeony za darmo. Wziąłby, ale i tak by się nie przyznał. Taki nadworny błazen TPC (być może wykreowany przez redakcję na potrzeby nabijania statystyk).
Do SLI nie chce ale to technologia (autor: morgi | data: 16/05/10 | godz.: 13:12) jedna z wielu innych cech produktu, gdzie Nvidia pokazuje wyzszosc. Niestety ale to ati musi zmienic oblicze, architekture, podejscie do tworzenia gier, wsparcia, etc. aby pokonac wroga, a Nvidia ma karty silniejsze do pokera.
@morgi (autor: akpert | data: 16/05/10 | godz.: 20:40) Masz rację, gdy pokerem jest S3.
Blech.... cholerne redakcyjne nabijanie statystyk. Sam to zrobiłem.
akpert (autor: Markizy | data: 16/05/10 | godz.: 22:28) jaki tam poker :)
czarnym koniem to jest SIS i ich Mirage :)
do tego to ani ATI i Nvidia startu nie ma:)
Wiec na co komu SLI i CF :D
Tak dla ścisłości (autor: Marek1981 | data: 16/05/10 | godz.: 22:50) CF jest lepszym i wydajniejszym rozwiązaniem od SLI. W dodatku CF jest możliwe w większości płyt, a za SLI trzeba płacić.
@morgi (autor: Drow | data: 17/05/10 | godz.: 00:24) jestes tak cholernie zaklamanym hipokryta, ze rozmowa z toba nie ma najmniejszego sensu :)