TwojePC.pl © 2001 - 2024
|
|
Poniedziałek 1 marca 2010 |
|
|
|
Fermi dla "ludu" w drugiej połowie roku Autor: Wedelek | źródło: Xbit Labs | 07:04 |
(67) | Firma Nvidia poinformowała że premiera układów graficznych opartych o GPU Fermi dla średniej półki cenowej ma się odbyć w drugiej połowie tego roku. Co ciekawe ich debiut ma się zbiegnąć z pokazaniem kart graficznych dla rozwiązań profesjonalnych z serii Tesla zbudowanych w oparciu o GF100. Informacja ta oznacza, że 26 marca zobaczymy jedynie dwie karty graficzne z nowej serii Nvidii, czyli GTX 480 i GTX 470, o którym w Internecie krążą plotki jakoby jego taktowanie było nadal kwestią otwartą. Opóźnienie kart budżetowych ma się wiązać ze specyficzną architekturą Fermi, która pomimo dużej wydajności w obecnej formie nie nadaje się do budowy kart graficznych dla rynku mainstream i musi zostać przeprojektowana. Prawdopodobnie problemem jest spora skłonność układu do nagrzewania się i konieczności stosowania drogich układów chłodzenia oraz fakt, że pod koniec roku TSMC powinno dopracować drugą linię produkcyjną dla procesu produkcji 40nm.
Wraz z nowymi kartami z serii 4xx pojawią się karty Tesla C2050 i C2070. Nvidia planuje, że już w trzecim kwartale tego roku głównym źródłem przychodów firmy będą dochody ze sprzedaży kart graficznych z GPU GF100 oraz GF104(prawdopodobna nazwa Fermi dla rynku mainstream). |
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- w skrocie (autor: zeek | data: 1/03/10 | godz.: 07:19)
z nvidia jest gorzej niz zle ;/
- i to by było na tyle (autor: hillel | data: 1/03/10 | godz.: 07:33)
w temacie obniżki cen serii 5000 :(
kuźwa.
- w drugim kwartale (autor: ViS | data: 1/03/10 | godz.: 07:37)
czy w drugiej połowie tego roku?
- vis (autor: zeek | data: 1/03/10 | godz.: 09:00)
chodzi raczej o 2gi kwartal fiskalny ktory zaczyna sie w lipcu bodajze
- .... (autor: Marek1981 | data: 1/03/10 | godz.: 09:16)
@ViS - premiera w drugim kwartale a masowa produkcja w 2 półroczu.
@hillel - może same spadną....
@zeek - poczekajmy, może nie będzie aż tak źle.
- oFerma (autor: rookie | data: 1/03/10 | godz.: 09:24)
nVidia niestety stacza się po równi pochyłej. Przez kolejne pół roku udziały będą spadać z miesiąca na miesiąc, bo kto chce kupić nieświeżego kotleta g92 odgrzewanego już po raz piąty??
Z oFermą jest jeszcze gorzej niż sądziłem...
- w 2 kwartale (autor: mikuś | data: 1/03/10 | godz.: 10:14)
ale którego roku?:P
- @mikuś (autor: rookie | data: 1/03/10 | godz.: 10:16)
hehe...dobre :)
- czyli żadnej niespodzianki (autor: Qjanusz | data: 1/03/10 | godz.: 10:29)
Niczego nowego się nie dowiedzieliśmy.
A się wcale nie zdziwię jak ta średnia półka zostanie zasilona, przemalowanymi po raz kolejny kotletami sprzed kilu lat.
@hillel - już od kilku miesięcy było wiadomo że ewentualne obniżki HD5000 na pewno nie będą związane z konkurencją ze strony nVidii
- drobne uwagi (autor: Barbarian | data: 1/03/10 | godz.: 10:31)
1) Pokaz 26.03 będzie wykonany "na odległość", aby nikt nie zobaczył atrapy zbyt dokładnie.
2) Już wiadomo, że nvidia zaprojektowała najdroższy grzejnik świata, który ma dodatkowo krytyczne błędy w architekturze.
3) Przeprojektowanie układu i jego odpalenie w produkcji zajmie więcej niż pół roku.
4) Prawdziwa premiera układu będzie miała miejsce w 2011 i może się okazać, że będzie już dawno pozamiatane w tym segmencie rynku.
5) Czekamy na kolejne kotlety w różnych panierkach.
- Qjanusz (autor: Quarrel | data: 1/03/10 | godz.: 10:45)
Jak to niczego nowego się nie dowiedzieliśmy?
Wcześnie nvidia przekonywała nas ,że fermi ma budowę modułową i nie będzie problemu z przygotowaniem odpowiednio pociętych układów.
Okazuje się jednak ,że i to do końca im mogło nie wyjść.
- @Barbarian (autor: rookie | data: 1/03/10 | godz.: 10:45)
Zgadzam się z tobą. Nie zdziwiłbym się również jakby nV zaprezentowała odpicowany g92 w wersji dx11, taki konkurent dla 5570 :)
- @Quarrel (autor: Qjanusz | data: 1/03/10 | godz.: 11:06)
"Wcześnie nvidia przekonywała nas" - ile razy musisz łapę we wrzątek wkładać, żeby się w końcu przekonać że skończy się to poparzeniem?
Teraz nVidia potwierdziła to, co było jasne od dawna. Ciągnąc dalej. Łudzić się może ten, który sądzi że na gwiazdkę 2010 roku kupi sobie w sklepie Fermi za 500 pln.
- .:. (autor: Shneider | data: 1/03/10 | godz.: 11:06)
no i h00j :-(
- @rookie (autor: Qjanusz | data: 1/03/10 | godz.: 11:07)
w #9 to samo napisałem. I wcale to nie było złośliwe.
- Qjanusz (autor: Quarrel | data: 1/03/10 | godz.: 11:31)
Ja się nie poparzę bo nowe karty graficzne interesują mnie jak zeszłoroczny śnieg.
Chciałem tylko zaakcentować ,ze najciekawsze w całej sytuacji dotyczącej fermiego to kabaret jaki tworzy nvidia próbując wciskać kit na lewo i prawo. Czekam na info od nvidi jak to nam się zwierzaki mnożą w warszawskim Zoo dzięki najnowszej technologii jaką oferuje fermi.
- ... (autor: tompo75 | data: 1/03/10 | godz.: 11:41)
czyli jednym słowem NIC nie mają. Skoro układ nie nadaje się do produkcji masowej w cenie i dla ludu i trzeba go przeprojektowywać (czyli np zaczynać prawie od zera, bo same ślepe zaułki) to oznacza to, że jest totalna klapa jakaś.
I wcześniejsze mówienie o szybkiej premierze, wiedząc powyższe było jak pokazywanie atrapy totalnie zamydlonym już oczom.
No ale co mają zrobić, przecież nie powiedzą prawdy, że dali ciała i sami nie wiedzą co z tym teraz zrobić. Na szybko trzeba sklecić kotleta na nowej linii w 40 z DX11 i jakoś to będzie.
A ceny niestety zostaną gdzie są.
Oj kiepski rok się szykuje. Mam nadzieję że wrócą na dobrą drogę i dalej będziemy cieszyć się z konkurencji potentatów.
- MORGI napisz coś (autor: szpak3 | data: 1/03/10 | godz.: 12:14)
Nastroje jak na stypie, po obu stronach :)
- Wyszło jak wyszło (autor: Vego | data: 1/03/10 | godz.: 12:37)
Na początek zaznaczę, że kupuje układy Nvidii od dawna, jednak to co ta firma wyrabia od paru dobrych lat przekracza wszelkie granice
seria 8800/9800/GTS 250 - nic dziwnego, że mają problemy z zaprojektowaniem nowoczesnego, wydajnego, układu skoro karmią nas w kółko tymi samymi kartami po lekkim liftingu
- szkoda, o j konkretnym spadku cen w średnim segmencie cenowym można raczej zapomnieć
- liczyłem, że w 2 kwartale b.r. doczekam się układu FERMI w przedziale cenowym 600-800 pln - straszna lipa
przesiądę się w takim razie z geforce 9600GT na radka 4890 czy 58xx
- nvidia (autor: efe | data: 1/03/10 | godz.: 12:40)
nie do końca taka zła ta nvidia. Oczywiście opóźnienie topowych układów jest ogromną wpadką, ale jeśli chodzi o średniaki i lowendy to rynek już i tak jest zapełniony takimi kartami i skoro TSMC ma udoskonalić proces to firmie jak i klientom opłaca się poczekać... bo wielkiego wysypu gier z DX11 na razie nie ma.
- @efe (autor: Qjanusz | data: 1/03/10 | godz.: 13:12)
Ci którzy nie czuja potrzeby wymiany grafiki, to jej nie wymienia. A ci którzy czuja taka potrzebę na pewno jej nie zmienia na kotleta pozbywanej się właśnie karty.
Chodzi o to że ubiegłoroczny TOP (HD4800) schodzi właśnie do średniego segmentu, a tu nV nic nie ma (poza kartami typu 275, które właśnie się kończą)
- nvidia (1) (autor: Vego | data: 1/03/10 | godz.: 13:13)
"..jeśli chodzi o średniaki i lowendy to rynek już i tak jest zapełniony takimi kartami .."
- zgadzam się, jednak z drugiej strony
- fermi z średniej pułki pociągnął by za sobą obniżkę cen starszych układów "zielonych" oraz radków z serii 57xx
- obecnie w cenie 700-750 pln
można dostać GTX260 vs Radeon 4890 (wyższa wydajność)
- moim zdaniem GTX260 na chwilę obecną jest nieopłacalny - cena tych kart powinna kształtować się w przedziale 500-600 pln
- w moim przypadku core i5 750 + geforce 9600GT? - na dłuższą metę czekanie na "cud" nie ma sensu
- Pozbierali się po FX, pozbierają się i po Fermi (autor: Grave | data: 1/03/10 | godz.: 13:34)
aczkolwiek istotnie ostatnie miesiące jak i te nadchodzące marnie dla Nvidii wyglądają ;/
Trzeba było im wydać GTX 285 w 40nm zamiast się opieprzać z tym fermi. Na ATI by wystarczyło (HD 5870 nie jest wiele szybszy od GTS 285).
A tak pojęli się super ambitnego zadania tak ambitnego że aż im słabo idzie jego realizacja.
- errata (autor: Grave | data: 1/03/10 | godz.: 13:34)
GTX 285
- wyjdzie dzień po Duke Nukem Forever (autor: Kriomag | data: 1/03/10 | godz.: 13:39)
jw.
- mam nadzieję że (autor: emu@mailplus.pl | data: 1/03/10 | godz.: 13:55)
szybko wypuszczą ta kartę bo chcę się szybko pozbyć swojego HD5xxx jakimś ślepym fanbojom na allegro. Ostatni bios naprawił już problem z botowaniem, ale nadal pojawiają się szare pasy w grach. "ATI wie o problemie" już prawie dwa miesiące.
- hehe (autor: morgl | data: 1/03/10 | godz.: 13:59)
aż się dowcipy o Rubinie przypominają. Tylko to teraz fermi będzie przyczyną globalnego ocieplenia...
- @ Qjanusz (autor: efe | data: 1/03/10 | godz.: 14:01)
zależy z jakiej karty ktoś się przesiada. Myślę, że dla kogoś przesiadka z 8800 na GTX2xx jednak ma sens (druga karta nie jest kotletem w stosunku do pierwszej). a przesiadka ze średniego GTX2xx albo słabego GTcośtam na średni GTX4xx lub słabszego GT4xx prawdopodobnie nic nie zmieni poza obsługą DX11.
No i jeszcze z lowendu są karty od Ati, więc nie ma co lamentować. Każdy znajdzie coś dla siebie (nawet z tych kotletów, które jak widać dają jeszcze radę) nawet jak nVidia się opóźni ze słabszymi modelami.
- DirectX11 (autor: rookie | data: 1/03/10 | godz.: 14:02)
Pojawienie się Compute Shadera w DX 11 może moim zdaniem mieć jeszcze jedną poważną konsekwencję, tym razem dla firmy Nvidia. Zintegrowany z DirectX shader obliczeniowy pozwoli twórcom gier na przeniesienie znacznej części obliczeń z procesora na kartę graficzną, a jednocześnie kalkulacje te nie będą już więcej ograniczone do sprzętu tylko jednego producenta. Promowana przez Nvidię technologia CUDA, chodząca jedynie na kartach Nvidii, zaczyna więc dla twórców oprogramowania tracić powoli rację bytu. Mało tego, wkrótce pojawi się również nowa wersja silnika efektów fizycznych – Havok. Ten tworzony jest z kolei z myślą o również uniwersalnym środowisku OpenCL, co stawia pod dużym znakiem zapytania dalszą egzystencję promowanej przez Nvidię technologii PhysX. Należy zatem zastanowić się, który z twórców gier będzie chciał korzystać z rozwiązania technicznego przeznaczonego tylko dla sprzętu jednego producenta? DirectX 11 i nowy Havok mogą więc wpędzić Nvidię, jeśli nie zmieni ona swojej polityki dotyczącej systemów CUDA/PhysX, w poważne kłopoty i zepchnąć do defensywy – czy tak będzie, wkrótce się o tym przekonamy.
- @morgl (autor: Barbarian | data: 1/03/10 | godz.: 14:29)
Ktoś się tutaj wnerwił chyba i zrobił sobie konto morgl. Może nawet sam morgi się bawi inaczej.
- @up (autor: rookie | data: 1/03/10 | godz.: 14:35)
niech morgi się zreflektuje czy morgI to on czy nie on :)
- O czym tu pisac narazie nic nowego (autor: morgi | data: 1/03/10 | godz.: 15:20)
czekam na pierwsza karte z wydajnym dx11 i teselacja na full a nie na okraske kielbaske propagandowa.
- @up (autor: Barbarian | data: 1/03/10 | godz.: 15:25)
Prawda - nie ma o czym pisać, już wszystko napisano w tym temacie wielokrotnie.
- Fermi dla "ludu" w drugiej połowie roku (autor: Marucins | data: 1/03/10 | godz.: 15:33)
Oj nędza.
I jeszcze ta premiera "26 marca zobaczymy jedynie dwie karty graficzne" czy to znowu będą atrapy czy COŚ zrobione na szybkiego aby było bo ludzie w ogóle zaczną się śmiać z zielonych.
oFermi'a :)
- o PhysX ucichło (autor: Qjanusz | data: 1/03/10 | godz.: 15:45)
nVidia ma kłopoty, więc siłą pchane ich ślepe rozwiązania również.
O PhysX już dawno się AMD wypowiedziało, że nie ma zamiaru pchania się w zamknięte standardy. Ucięli ofertę nVidii nawet o niej nie dyskutując.
Ten PhysX od poczatku był totalnym niewypałem. Najpierw cudaczenie firmy AGEIA i wojowanie jedną kiepską mapą w grze jako pociągiem napędowym technologii, później bezsensowne upychanie tego gniota przez samą nVidię. Gier z tym jest tyle co nic, a i tak nie zaoferują niczego więcej jak np fizyka zaimplementowana w Crysisie.
Jakby tego było mało, na rynku są dostępne równie wydajne silniki i to za darmo. Niech tylko taki Havok przejdzie ostateczne testy na OpenCL, a mnóstwo kasy wepchanej w PhisX pójdzie do kosza.
Nie należy też zapominać o Bullecie, który sobie całkiem nieźle zaczyna poczyniać:
http://en.wikipedia.org/wiki/Bullet_%28software%29
- @Grave, no ja Cie nie poznaję (autor: Qjanusz | data: 1/03/10 | godz.: 15:50)
"Pozbierali się po FX..." - ileż to razy mi wmawiałeś że FX odniósł sukces, bo karty tej serii miały wyższą wydajność nić konkurencja?!?
Skąt ta nagła zmiana? Mikołaj postraszył ze rózgę przyniesie? ;-)
Oczywiście sama zmiana bardzo mile przyjęta.
- Nikt nie postraszył (autor: Grave | data: 1/03/10 | godz.: 16:04)
tylko pomału się obawiam, że ten Fermi może jednak przerżnąć, a nawet jak wygra to nie aż taką przewagą jaką by sugerowało związane z nim hype.
- A co do FX to (autor: Grave | data: 1/03/10 | godz.: 16:06)
FX 5800 ULTRA był szybszy od Radeona 9700PRO, ale dalej już było tylko gorzej dla Nvidii, czego zwieńczeniem była tragiczna wręcz wydajność w grach DX9 (np. Half Life 2).
- Grave - widzę, że masz właściwe skojarzenia ;) (autor: geordie | data: 1/03/10 | godz.: 16:22)
FX też wyszedł ponad pół roku po R9700
- ..... (autor: Quarrel | data: 1/03/10 | godz.: 16:33)
A wydajniejszy (FX oczywiście) był dzięki "cudownej" poprawie sterowników.
Z resztą nvidia nie wyciągnęła wniosków z Fx-ów.
Z tego co pamiętam to opóźnienie wynikło z chęci złapania dwóch srok za ogon. To jest nowy układ w raz z nowym procesem technologicznym. DDR2 też chyba zadebiutowało na 5800.
Jak to mówią historia lubi się powtarzać.
- Fermi w 40nm nie będzie niczym ciekawym (autor: Qjanusz | data: 1/03/10 | godz.: 16:34)
nVidia już dawno zasygnalizowała że Fermi pokaże pazur, gdy będzie wykonany w 28nm
Co do obaw... lepiej późno niż wcale.
- Grave (autor: morgi | data: 1/03/10 | godz.: 16:45)
Pamietaj ze Half Life 2 to urobiona tuba ATi, a potem przyszly lepsze maszyny pisane pod DXy od Nvidii i tam nastpila deklasacja, zwlaszcza na zunifikowanych jednostkach. To samo mozna napisac o otwartych standardach i ati obecnie, duzo paplaniny i pustych papierow, a jak im wychodzilo i wychodzi z OpenGL to nic tylko sie polozyc i kwiczec jak oni tylko ze ze smiechu.
- @morgi - z openGL ani ati ani nv nie ma problemów (autor: rookie | data: 1/03/10 | godz.: 17:05)
Znalazłem stary benchmark preya z 7950, 8800 i x1950. Wszystkie karty miały dobry współczynnik fps (7950 trochę odstawało...)
http://www.extremetech.com/...,2845,2096944,00.asp
Przestań wciskać ludziom kit i poczytaj zagraniczne serwisy (a może angielski, a raczej jego brak się kłania...).
- hehe (autor: morgi | data: 1/03/10 | godz.: 18:45)
A jeszcze niedawno czytalem ze w cataclysmach nowszych wywalaja sie gry ogl, bo wrocil stary dobry wujek zaraza, czyli nieudolnosc sterownikowa i hotfix z grudnia trzeba przywracac, cale ati czyli neverending trouble
http://forums.amd.com/...d=279&threadid=108194
'ATI doesnt use video memory in opengl mode'
- re:hehe (autor: rookie | data: 1/03/10 | godz.: 19:50)
Zobacz sobie, że to samo działo się z serią gf6200. Wadą nie jest chipset ale stare AGP! Chipsety tych kart są dostosowane do pracy pci-x, przy dx9 nie ma sprawy, aleprzy opengl, gdzie trzeba ręcznie dostosować więcej kodu do sprzętu ma to ogromne znaczenie. Winą jest software, nie hardware.
- Fanboye na tpc dalej pisza (autor: Rajq | data: 1/03/10 | godz.: 20:02)
ze kart nie ma.A tymczasem wszedzie na zachodzie kraza zdjecia juz gotowych produktow, pudelek, i nawet pelna specyfikacja. Barbarian na poczatku pisze same z sufitu wziete banialuki inni zaslepienie fanboye przytakuja i ludzi z nvidia w kompie zagryzli by na smierc i wypili krew.
- @Rajq (autor: rainy | data: 1/03/10 | godz.: 20:16)
Jeżeli są wszędzie, to możesz pokażesz jakieś zdjęcia/linki zamiast rzucać określeniami typu "zaślepieni fanboye".
- rainy (autor: Rajq | data: 1/03/10 | godz.: 20:23)
pierwsze z brzegu
http://www.hexus.net/content/item.php?item=22654
http://i49.tinypic.com/1z68ppf.jpg
gtx470 1280MB, 320bit, 40 ROP, 56TEX. gtx480 1536MB, 384bit, 48ROP, 64TEX.
Na cebicie bedzie kilkanascie firm co pokaza karty. Mi sie tez nie podoba jak premiera sie przedluza ale niech niektorzy sie pogodza z tym ze karty juz sa a nie pisza bzdety o przebudowaniu, a to za pol roku, a to wcale.
- Rajq (autor: abdesign | data: 1/03/10 | godz.: 20:29)
kto Cie pogryzł biedaku? - daj jakiegos linka niech i u nas na wschodzie radość zapanuje z oglądania pudełek. podpuszczac trzeba umieć - ucz sie od Morgiego. On potrafi - cos tam posklada z pseudoangielskiego z pseudopolskim, polowy nie da sie zrozumiec da jakiegos egzotycznego linka - ile Ten człowiek wkłada w te swoje pisanie pasji i pracy a Ty tylko piszesz ze chca Ci krew wypic - słabiutko
- .:. (autor: Shneider | data: 1/03/10 | godz.: 20:34)
Rajq - ofc. nikt na oczy karty nie widzial, ofc. ta karta wciaz nie istnieje. pudelka, screeny, jakies tam cyferki nic nie znacza.
czemu? bo zaden wiarygodny serwis nie dostal karty do przeprowadzenia rzetelnych testow.
- rajq (autor: abdesign | data: 1/03/10 | godz.: 20:39)
mi osobiście podoba sie zwłaszcza ta karta z drugiego linka, jutro lece po nią do sklepu cokolwiek by to nie było musze ją mieć
- @abdesign (autor: Rajq | data: 1/03/10 | godz.: 20:45)
jak bedziesz biegl do sklepu po nowe gpu to i wymien przy okazji "swoj" cpu w glowie bo cos ci prowakacje sie nie udaja. Czy ja powiedzialem ze te karty sa juz w sklepach? Premiera wyznaczona na 26 czy nie? Normalnie czasami fanboystwo jest gorsze od faszyzmu.
- Vego (autor: Dzban | data: 1/03/10 | godz.: 20:52)
Ja zmieniłem z 9600 na 4850 z 1Gb
- W końcu się pojawi, ciekawe jakie taktowanie uzyskają (autor: Grave | data: 1/03/10 | godz.: 20:53)
Ponoć Nvidia celuje w zegary 750MHz dla rdzenia i 1500MHz dla Shaderów i TMU. I lepiej dla Nvidii byłoby gdyby takie takty wyciągnęli, zwłaszcza że Radeon HD 5870 jest taktowany w niektórych kartach nawet 1GHz zegarem.
A czy się uda - we'll see.
W najgorszym razie gdyby Fermi okazał się powtórką z FX-a Nvidia powinna wziąć selekty - podkręcić je tak bardzo jak tylko się da, dołożyć jakieś monstrualne chłodzenie i wydać na rynku w kosmicznej cenie i przy dostępności bliskiej zeru, byle tylko w testach okazały się szybsze od konkurencji.
- Rajq (autor: Dzban | data: 1/03/10 | godz.: 20:59)
Ale wg innego źródła GTX 480 miał mieć 2Gb ramu to jak to jest?
- Dzban (autor: Grave | data: 1/03/10 | godz.: 21:14)
2GB to on by miał przy 8 x 64 bit kontrolerach pamięci i prawdopodobnie tak miało być od początku (512bit szyna łącznie), widocznie okazało się że to zbyt wiele przy i tak monstrualnych rozmiarach chipa i obcięli 2 kanały.
I tak mamy 6 kontrolerów 64bit (razem 384) co przy obsadzeniu analogicznymi kośćmi pamięci jak w przypadku 512bit wersji daje zamiast 2GB właśnie 1,5GB (o jedną 4 mniej, proporcjonalnie do obciętych kanałów kontrolera pamięci).
- Ewentualnie zamiast 1,5GB mogą dać 3GB lub 6GB (autor: Grave | data: 1/03/10 | godz.: 21:17)
aczkolwiek nie spodziewałbym się takich pojemności na razie w kartach dla zwykłych śmiertelników.
- Grave (autor: morgi | data: 1/03/10 | godz.: 21:17)
Spokojnie, Nvidia obiecala, ze bedzie dx11 z ekstra boostem teselacji i cos wiecej, wiec czekamy, bo od ati za te elementy dostajesz podla wydajnosc, a jakosc tam aby uzyskac to trzeba niezle sie nakombinowac i tez spada framerate niewiedziec czemu, bo od producenta niczego sie nie dowiemy dopiero po fixach. Trzeba czekac na premiere i wtedy wsiadamy do pociagu zwanego pozadanie nowych GTX, albo jedziemy po Nvidii i czekamy na nowe poprawione produkty.
- .nV (autor: piobzo | data: 1/03/10 | godz.: 21:19)
popełniło błąd, nie powinni rezygnować ze wszystkiego i rzucać słów na wiatr... jestem prawie pewien że gdyby nie skupili by sie w 100% na Fermi mieli by dziś gotowa masówkę by zapełnić rynek może byłby to modyfikowany kotlet ale był by i ludzie na pewno by go kupili...a tak będzie trudno dostępna karta o wysokich kosztach produkcji...
Rajq właśnie przeczytałem twoje wywody i sie rozpłakałem....morgi zdaje sie być obiektywny przy twoich wypowiedziach
- morgi (autor: Grave | data: 1/03/10 | godz.: 21:20)
Tylko gier korzystających z teselacji póki co praktycznie nie ma, a więc i pole do popisu dla tych 16 teselatorów nowego GeForce'a jest bardzo małe. :(
A do czasu pojawienia się takowych gier wszystko może się zmienić 10x. Zarówno Nvidia jak i ATI zdążą wydać kolejną generację swoich GPU.
- Grave (autor: morgi | data: 1/03/10 | godz.: 21:51)
Gry sa konsolowe to fakt, panuje totalny zator i leca glownie sequele ubogie w szate graficzna, ale gdyby Nvidia wykonala dobra robote i dx11 wlasciwie to kupujac ich sprzet masz pare lat z glowy, jak przy zakupie 8800gtx, bo pod taki sprzet tworzone beda gry w przyszlosci, zwlaszcza ze ati to kompletna niemoc i gluchota w kontaktach z developerami, a to brak stymulacji, zeby zajmowac sie nimi na powaznie.
- morgi (autor: rookie | data: 2/03/10 | godz.: 09:50)
Opłaca się kupić dopiero radeony serii 6000, które wykoszą fermiego przy dobrej cenie i wydajności. Technologia już gotowa ale konkurenta brak. Od roku są nawet pudełka do nowych geforców, ale te podobno mają takie bugi w konstrukcji, że i 1000 inżynierów z nvidii sobie nie może dać z tym rady... Pewnie teraz kopiją na pałę rozwiązania z radeona 5850 (rozkręcają, piłują, lutują - tak jak w motoryzacji zrobił Ford z pierwszym samochodem zerżniętym z rozwiązań renault).
- Grave (autor: Dzban | data: 2/03/10 | godz.: 10:23)
Teselacja już jest w nowym Stalkerze, Dirt 2 i nowym AVP ale nie jest tam mocno wykorzystywana więc Fermi z tą dużą ilością jednostek geometrycznych nie będzie mieć w tych grach przewagi
- ... (autor: pawel.xxx | data: 2/03/10 | godz.: 11:15)
"Prawdopodobnie problemem jest spora skłonność układu do nagrzewania się i konieczności stosowania drogich układów chłodzenia "
No co za piękna interpretacja. Czy rdzenie amd Juniper Redwood także powstały z tych powodów?
- Rajq ... (autor: Dokerowski | data: 2/03/10 | godz.: 12:16)
... zapomniałeś dodać jeszcze jedno zdjęcie do wspaniałej kolekcji fermi:
http://www.pcgameshardware.com/...Fermi_PCGH_3.JPG
- OpenGL (autor: Marucins | data: 3/03/10 | godz.: 17:17)
Toż np OSX jest rozwijany pod kątem OpenGL. Nie jest to tak jak mówisz "uzo paplaniny i pustych papierow, a jak im wychodzilo i wychodzi z OpenGL to nic tylko sie polozyc i kwiczec jak oni tylko ze ze smiechu."
Ale skąd możesz wiedzieć trzymając nos w jednym gównie.
- Burczawa nvidi (autor: Golem | data: 8/04/10 | godz.: 17:19)
Przeciez nvidia sie nie grzeje tylko wypieka, tam jest taka burczawa zamontowana ze w sluchawkach ja slychac. Moze jak by zamiast ladowac kase w reklame to zrobili cos wydajnego i z niskim tdp.
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|