Jak już wiadomo, Nvidia w pocie czoła pracuje nad 55nm wersją GPU G200, który ma zadebiutować nie wcześniej jak we wrześniu, a najprawdopodobniej bliżej końca czwartego kwartału. Nvidii bardzo zależy na odzyskaniu pozycji lidera straconej na rzecz ATI/AMD R700. Dlatego też nowa wersja G200 będzie wyposażana w pamięć GDDR5. Nagrzewanie się tego układu jest dużym problemem Nvidii, ale przy wersji 55nm z tym powinno być lepiej. Czy nowy proces technologiczny oraz pamięć GDDR5 pozwolą G200 prześcignąć R700, dowiemy się zapewne niedługo.
K O M E N T A R Z E
Ehhhh (autor: Sauron9 | data: 22/08/08 | godz.: 08:57) No to ładnie :) tylko martwią mnie te pamięci GDDR5 - czy one przypadkiem nie są strasznie drogie? Obawiam się że przez nie pomimo niższych kosztów produkcji i tak ceny będą wysokie ehhh... no ale cóż ja kocham Nvidie i czekam na hmm... GTX240? :D
Drogie GDDR%? (autor: dreki | data: 22/08/08 | godz.: 10:18) Nie są drogie. GDDR5 to QDR więc koszt kostek pamięci rekompensuje mniejszy koszt PCB w którym można zastosować dwukrotnie węższą szynę pamieci nie zmniejszając przepustowości.
BTW ceny GDDR5 powoli się obniżają. Powoli bo jest na nie duży popyt. No i GDDR5 ciągną minimalnie mniej mocy.
@dareki (autor: Marek1981 | data: 22/08/08 | godz.: 11:31) "BTW ceny GDDR5 powoli się obniżają. Powoli bo jest na nie duży popyt" -???????????
Coś mi się zdaje że nie masz zielonego pojęcia co napisałeś. Dałeś z lekka małe zaprzeczenie :)
Ceny lecą w dół ponieważ zwiększyła się ich produkcja.
A przy większych (ilościach) zakupach można wynegocjować większe zniżki itd
DD5 (autor: Migimax | data: 22/08/08 | godz.: 12:17) Racja @dareki... A ogólnie nie wiem, dlaczego rzucaja sie na szybkie zmodernizowanie g200... Nie sie pogodza z porazka i zajma nastepnym modelem... Różnice miedzy ukladami obu firm nie sa az tak ogromne... Kazdy potencjalny nabywca i tak raczej bedzie zadowolony z produktu... AMD zastosowalo bardzo mocna polityke cenowa i to jest ich atut... Tu nie chodzi o te 5fpsow roznicy... tylko o kase... Bo 95% spoleczenstwa nie stac na to, zeby zmieniac karte co pol roku czy rok... Niestety tyle nie zarabiamy... A to, ze dana generacja kart raz jest lepsza NVidii a innym razem AMD... Mozna juz do tego przywyknac :P
Gitara!!:) (autor: szczepan0233 | data: 22/08/08 | godz.: 13:37) ja sie ciesze ze nvidia nie odpuszcza... Bo to zmobilizuje ATi do kolejnych dzialan i tak w kolko:) ceny maleja wydajnosc wzrasta:) nic tylko sie cieszyc ze jest konkurencja i walka o korone "krola wydajnosci"
@szczepan0233 (autor: ligand17 | data: 22/08/08 | godz.: 16:46) "ceny maleja wydajnosc wzrasta" - a wymagania rosną jeszcze szybciej. Jak ostatnio odpaliłem z ciekawości GRID'a i zobaczyłem framerate 0,1fps to bez żalu skasowałem po 30 minutach od instalacji jedyną grę, jaką mam obecnie na dysku.
Wymagania gier a potęga marketingu (autor: Sauron9 | data: 22/08/08 | godz.: 20:21) Dziwie się koledze wyżej że miał taki framerate w GRIDzie. Tak z ciekawości to jaka rozdziałka, detale, AA? Jeśli natomiast chodzi o nowe karty graficzne to nie ma co się napalać i kupować co pół roku nowego sprzętu. Sam posiadam Geforca 9600GT 512MB od lutego tego roku i jak na razie spokojnie mi wystarcza do grania w 1920x1200. Wszyscy teraz widzą Radeona 4850/4870 i GTX260/280 a ludzie popatrzcie czy naprawdę warto jest płacić grubą kase za sprzęt który nie jest wykorzystywany. Tak samo jest z procesorami. Intel już zapowiada 6. rdzeni i już widzę te hasła " 6 rdzeni może więcej " "zrob wszystko 6x szybciej " itp a jestem ciekaw kto wykorzysta taką moc obliczeniową poza grafikami, animatorami itp. Ja osobiście nie potrafię wydusić max z mojego Athlona X2 4200+ @ 2.5 GHz
lignad (autor: Dzban | data: 22/08/08 | godz.: 21:22) czas wymienić tego złoma
NA moim 2 letnim konfigu śmiga bardzo ładnie na max detalach w 1024 x 768
> A ogólnie nie wiem, dlaczego rzucaja sie na szybkie zmodernizowanie g200... (autor: Dygnitarz | data: 22/08/08 | godz.: 21:41) lol, żeby obniżyć koszty produkcji i zwiększyć wydajność. A to tylko dwa z wielu powodów.
LOL! (autor: ViS | data: 22/08/08 | godz.: 22:34) "Nagrzewanie się tego układu jest dużym problemem Nvidii, ale przy wersji 55nm z tym powinno być lepiej."
dobry żart. Skąd Sz. Autor newsa skopiował? Czy to jego własne wywody? Prosimy o brak własnych wywodów w newsach...
niestety (autor: komisarz | data: 23/08/08 | godz.: 00:42) giray inaczej nie potrafi, na razie nie zrozumial roznicy miedzy newsem a felietonem
tak bylo w tekscie oryginalnym (autor: Giray | data: 23/08/08 | godz.: 00:44) coz na to poradze
@komisarz (autor: Giray | data: 23/08/08 | godz.: 00:45) krytykowac widze umiesz, latwo ci to przychodzi, wiec dlaczego sam newsow nie tlumaczysz skoro sie za tak dobrego uwazasz?
"wiec dlaczego sam newsow nie tlumaczysz" (autor: 0r8 | data: 23/08/08 | godz.: 10:54) LOOOOOL. Ale argument. <klap> <klap>.
To zmien zrodlo (autor: morgi | data: 23/08/08 | godz.: 13:18) bo te akurat w samej nazwie swiadczy o swojej omylnosci.
@ ligand17 (autor: szczepan0233 | data: 23/08/08 | godz.: 15:51) ja mam kompa 4 lata dwa lata temu grafe zmienilem (nadal AGP) i gram w GRIDA sa suwakach prawie max... Wiec nie wiem o co Ci chodzi.. No chyba ze ktos gra na rozdzialce 1950/1200...
Cemu to jest DDR a nie QDR ? (autor: LOLO64 | data: 23/08/08 | godz.: 21:49) Skoro podwójne (Double) przesyłanie (Rate) danych (Data) oznacza sie skrótem DDR to czemu poczwórne przesyłanie w DDR5 nie nazywa się mianem QDR5 czy tam po prostu QDR ?
LOLO64 (autor: Markizy | data: 24/08/08 | godz.: 07:26) jak zwał tak zwał, tylko że karty graficzne maja pamięci GDDR a nie DDR :) które jednak sie różnią.
LOLO64 (autor: Dzban | data: 24/08/08 | godz.: 23:24) To nie są pamięci QDR bo adresowanie dalej jest nominalnie 900MHz. Transfer jest 4 razy szybszy ale adresowanie zostało przy standardowym taktowaniu.
ano, bo na pelne qdr ma patent pojerambus (autor: RusH | data: 25/08/08 | godz.: 04:03) 123
D O D A J K O M E N T A R Z
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.