Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Środa 30 września 2009 
    

Nvidia GT300 - konkurent dla Larrabee?


Autor: Zbyszek | źródło: TechConnect | 21:04
(163)
Podczas trwającej właśnie konferencji GPU Technology Conference Nvidia zaprezentowała pierwsze dane na temat swojego nowego układu graficznego o nazwie kodowej GT300. Według podanych informacji GT300 będzie produkowany w 40-nanometrowym (nm) wymiarze technologicznym i ma składać się z ponad 3 miliardów tranzystorów (1.4 miliarda w GT200). Chip będzie wspierał biblioteki DirectX 11, OpenGL 3.2 oraz OpenCL 1.1 i zawierał 16 głównych bloków wykonawczych, w każdym z nich po 32 procesory strumieniowe i 8 jednostek TMU. Łącznie da to liczbę 128 jednostek TMU oraz 512 procesorów strumieniowych, które począwszy od GT300 określane będą mianem "procesorów CUDA". Układ będzie współpracował z pamięciami GDDR5 poprzez 384-bitową magistralę.

Karty z GT300 na pokładzie wyposażone będą standardowo w 1.5GB pamięci. Dostępne będą również konfiguracje z 3 lub nawet 6GB pamięci.

Co najważniejsze GT300 jest pierwszym GPU w historii, który potrafi natywnie wykonywać kod języków C, C++ i Fortran. Możliwości takie ma mieć także przygotowywany przez Intela układ Larrabee, będący połączeniem klasycznych procesorów CPU z procesorami grafiki GPU.

Niestety wśród wielu informacji zabrakło danych na temat powierzchni nowego układu, oraz jego częstotliwości taktowania. Potwierdzono natomiast, że premiera pierwszych kart z GT300 odbędzie się na przełomie listopada i grudnia obecnego roku. Zdaniem Nvidii akceleratory będą od 60 do 80% szybsze od GeForce GTX 285.



Aktualizacja: | 30.09.2009 | 23.55 |

Nowe GPU nosi formalną nazwę Fermi. Zapowiedź układu oraz opis jego architektury jest już dostępny na oficjalnej stronie firmy Nvidia.

 

    
K O M E N T A R Z E
    

  1. ... (autor: Saturn64 | data: 30/09/09 | godz.: 21:12)
    Ufff... będzie gorąco!

  2. .:. (autor: Shneider | data: 30/09/09 | godz.: 21:17)
    oh to ta papierowa karta ;-)

    ATI:
    1600 procesorow strumieniowych
    80 TMU
    32 RBE
    2.1mld tranzystorow

    NV
    512 procesorow strumieniowych
    128 TMU
    3mld tranzystorow.

    wniosek?
    NV bedzie jesc o 50% wiecej niz ATI a i tak zostanie w tyle ;-)

    czekam ze zniecierpliwieniem na NV, wtedy ceny ATI i NV poleca w dol ;-)


  3. Ale to jest mimo wszystko (autor: Galnospoke | data: 30/09/09 | godz.: 21:19)
    ciekawy kierunek. nVidia nie tworzy karty 3D ale akcelerator programow w szerokim sensie tego slowa. To naprawde interesujace. Czegos takiego jeszcze nie bylo.

  4. A cena (autor: ZeXeL | data: 30/09/09 | godz.: 21:20)
    nie zejdzie poniżej 3000 zł!
    To dopiero karciocha! Trochę więcej wydajności za 2 razy więcej i 3 razy więcej prądu i 5 razy więcej ciepła.


  5. Cuda Cuda zamiast PS (autor: Mario2k | data: 30/09/09 | godz.: 21:23)
    Pewniakiem nowe dziecko NVidi bedzie minimu 15-20% szybsze od Radka 5870 , na wiecej bym nie liczyl ze wzgledow czysto marketingowych .

    Mozna spokojnie zalozyc ze bedzie drozsza niz wynikalo by z roznicy w wydajnosci , aczkolwie kwarto poczekac do premiery GF300 jesli ktos planuje zakup 5870

    koniec wrozb ;)


  6. GT300 (autor: rainy | data: 30/09/09 | godz.: 21:43)
    Założyłem, że Nvidia podwoi liczbę tranzystorów w stosunku do GT200 a tutaj mamy sytuację identyczną jak w przypadku R870 vs R770.

    Oznacza to iż różnica się jeszcze powiększyła - z 440 mln (GTX 285 vs 4890) to około 900-950 mln (vs 5870).

    Można spokojnie pożegnać się z układem poniżej 500 mm2 - będzie miał pewnie podobną wielkość jak GT200 w 65nm.


  7. @Rainy (autor: kamil87 | data: 30/09/09 | godz.: 21:47)
    Zacytuję kolegę Rainego z innego newsa:

    "Ponieważ seria 58xx jest dużo bardziej złożona (2,15 mld tranzystorów) i co za tym idzie kosztowniejsza w produkcji to i cena początkowa jest odpowiednia wyższa." - odnośnie mojego narzekania na zawyżoną cenę HD5870

    Zatem 1500zł x 3mld/2,15mld ~ 2100 zł

    Rozumiem Rainy, że cena 2100 dla tej karty od NV też będzie dla Ciebie mega dobrą ofertą? ;-)


    Ja tam mam nadzieję, że HD4890 lub GTX275 szybko spadnie do 500 zł... :-)


  8. @kamil87 (autor: rainy | data: 30/09/09 | godz.: 22:01)
    Możesz mi powiedzieć po co ci 5870, gdy przy wyraźnie niższej cenie będzie można dostać niewiele wolniejszego 5850?

    Co do ceny GT300 - obawiam się, że będzie wyższa od 2100 złotych dla najmocnieszego modelu.

    Inna sprawa, że Nvidia najwyraźniej nie traktuje wydajności w grach jako sprawy najważniejszej - chce mieć silną broń przeciwko Larrabee (moim zdaniem wygląda to sensownie).


  9. Ale wy narzekacie (autor: Rajq | data: 30/09/09 | godz.: 22:09)
    szczegolnie fani AMD. Niestey ale to jak na dloni widac ze nVidii zwyczajnie nie interesuje seria 5xxx. GT300 to tak naprawde pierwsze starcie z Inetelem. GPGPU tylko przy okazji renderujace grafike w czyms takim jak gry 3d. Rynek NV teraz to ION, TEGRA, Tesla, Cuda, teraz wejscie na gpgpu. Sama karta graficzna juz to za malo.

  10. :-) (autor: trepcia | data: 30/09/09 | godz.: 22:14)
    Ciekawy układ się zapowiada. Warto teraz utworzyć nową klasę kart graficznych - Ultra High End.
    Nie sądzę aby wszystkie "fitchery" były dostępne w średnim i niskim segmencie rynku, pewnie będą programowo blokowane.
    Hmm... Intel układem Larrabee chciał "wejść" procesorem do segmentu kart graficznych, może się okazać, że karty graficzne szybciej ewoluują do "procesorów".


  11. .:. (autor: Shneider | data: 30/09/09 | godz.: 22:20)
    Rajq - jakie starcie z intelem?

    intel jeszcze nie ma NIC po za papierem.
    a czas mija, NV traci rynek bo ATI sie swietnie sprzedaje.
    teraz przyjda swieta a NV nie ma gwiazdki.
    mysle ze jest to wazniejsze niz GPGPU ktorego potrzebuje waska specjalizowana grupa ew. uzytkownikow.


  12. Teraz do konca roku co dzien News od NVidi :) :) (autor: Mario2k | data: 30/09/09 | godz.: 22:32)
    Dokladnie , jezeli NV nie wyda swojego potwora przed ''gwiazdka'' tego roku to poplynie w straty setki milionow USD , tym samym ATI/AMD odniesie znaczaco wieksze zyski porownujac z rokiem ubieglym .

    Ktos straci ???

    Ano my stracimy , bo ceny Radkow beda lekko zawyzone powiedzmy 10-15% .

    Co do Intela i jego larabi to bym sie jeszcze nie podniecal , Zycze Intelowi szybkiego wdrozenia dobrej konkurencyjnej grafiki ,ale optymistycznie rzecz ujmujac , masowa produkcja moze ruszy koncem 2010 roku .


  13. @Shneider (autor: rainy | data: 30/09/09 | godz.: 22:36)
    Nie do końca się mogę z tobą zgodzić - co byłoby złego w zaprzęgnięciu kart graficznych do innych zadań niż renderowanie grafiki (zwłaszcza, że dysponują potężną mocą obliczeniową).


    Spójrz zresztą na tę tabelkę (jest symptomatyczna):

    http://www.guru3d.com/...-5850-review-crossfire/20


  14. .:. (autor: Shneider | data: 30/09/09 | godz.: 23:33)
    rainy - zdaje sobie z tego sprawe.

    jednak jakie sa realia?

    mamy od dluzszego czasu 4 rdzeniowe procesory, a nadal ciolki nie potrafia pisac pod nie gier aplikacji.
    directx 11 sie spoznia, ogolnie po stronie programistycznej jest wielka klapa.

    co z tego ze GPU ma wielka moc obliczeniowa skoro nawet nie potrafia wykorzystac dobrze CPU?

    a dwa, ilu osobom bedzie to potrzebne?

    maja wyjsc nowe gry ktore beda sobie liczyc ba grafice?

    po co, skoro SLI i CF pomimo usilnych staran nie zapewnia liniowego skalowania.

    co z tego ze syntetyki beda pokazywac fajne wyniki? SLI i CF w syntetykach ma 2x wieksza wydajnosc w stosunku do pojedynczej karty a mimo to KAZDA gra daje przyrost max 40-60%.

    po prostu nie ma co zabierac sie od dupy strony. najpierw niech wykorzystaja to co JEST od wielu lat, a dopiero pozniej niech sie pchaja w nowe rozwiazania.


  15. Shneider (autor: Grave | data: 30/09/09 | godz.: 23:57)
    <<mamy od dluzszego czasu 4 rdzeniowe procesory, a nadal ciolki nie potrafia pisac pod nie gier aplikacji.>>

    Unreal Engine 3 wykorzystuje 4 rdzenie CPU, a z samych gier (już nie na UE 3.0) np. Lost Planet potrafi skorzystać z 4 rdzeni, a nawet i więcej bo przyspiesza także na 4 rdzeniowym Core i7 z włączonym HT.

    Z aplikacji bardzo dobrze z wielu rdzeni korzystają programy do modelowania 3D, także programy do kompresji video (np. DiVX) czy kompresji plików (np. WinRAR), FineReader także skorzysta z 4 rdzeni etc

    Odnośnie skalowania CF czy SLI to w wysokich rozdzielczościach i dużym obciążeniu GPU w grach można zanotować nawet 100% wzrost wszystko zależy od gry oraz sterownika.


  16. hmm (autor: emigrus | data: 30/09/09 | godz.: 23:57)
    A co z dźwiękiem po hdmi/displayport? ATI 5870 potrafi posłać DTS-HD Master Audio i TrueHD jako bitstream do amplitunera poprzez hdmi i dla niektórych osób to jest bardzo ważna funkcja, ważniejsza od gierek :). Jak nowa nvidia nie będzie umiała posłać po hdmi DTS-HD MA i TrueHD jako bitstream bo wybór będę miał bardzo prosty, ale to się okaże wkrótce.

  17. .:. (autor: Shneider | data: 1/10/09 | godz.: 00:11)
    Grave - zgadza sie.

    powiem tak. gdyby w swiecie gier podchodzili do tematu jak kolesie z autodesk'a lub maya itp to bylo by pieknie.

    sam bawie sie 3d studio, ktore potrafi zrobic uzytek z 8 watkow renderujacych (HT).

    a swiat gier jest oporny. mysla sobie ze nowy sprzet zalatwi sprawe, wiec pisza na odwal.


  18. tak tylko porownac jakosc kompreski video (autor: zgf1 | data: 1/10/09 | godz.: 00:13)
    za pomoca grafiki(ati converter) i zwyklego vduba... ta konwertowana przez grafike jest slabej jakosci i nie nadaje sie do niczego :) szybkosc to nie wszystko, wole poczekac dluzej i moc normalnie ogladac...

  19. zgf1 (autor: Grave | data: 1/10/09 | godz.: 00:43)
    Tylko, że GPU samo w sobie w najmniejszym stopniu nie jest winne kiepskiej jakości kompresji, za nią winę w całości ponosi źle napisane oprogramowanie.

    Tu ukłon szczególnie w stronę oprogramowania dla kart ATI które ze względu na fatalną wręcz jakość wynikowych plików nie nadaje się praktycznie do użytku.


  20. morgi (autor: LOLO64 | data: 1/10/09 | godz.: 03:13)
    przedłużyłeś już sobie? pochwal się do ilu.

  21. Nvidia GT300 - konkurent dla Larrabee? (autor: Marek1981 | data: 1/10/09 | godz.: 07:14)
    I hope not!!! Mam nadzieje, że nie zniżą się do poziomu Intela.....

  22. Nie jestem programistą (autor: Michał_72 | data: 1/10/09 | godz.: 07:48)
    Ale czy wskutek tak różnego podejścia do kart graficznych, oprogramowania nie trzeba bęzie pisac praktycznie dwa razy? Czy w teorii załatwią to sterowniki producentów?

  23. ... (autor: 7eki | data: 1/10/09 | godz.: 08:31)
    Będzie duży, drogi, GPGPU ma już jeden standard. Nvidia próbuje utrzymać się na rynku w obliczu AMD i Intela. Nic innego im nie pozostało. Poczekamy, zobaczymy.

  24. ............ (autor: Marek1981 | data: 1/10/09 | godz.: 09:04)
    Tak się tylko zastanawiam odnośnie GT300 i nachodzą mnie obawy:
    - Nvidia wyda potwora o 20-30% (załóżmy) ale droższego o 60-70% dla klientów.
    - teraz musi jakoś zachęcić klientów do wyłożenia tak ogromnej gotówki, to blokuje wydajność radeonów w grach ( w których może). Praktyki monopolistyczne.
    - Konkuruje z nadchodzącym dzieckiem Intela, Wciskając go w błoto ( nie może chyba być inaczej - Intel nie ma doświadczenia a i wydajność larrabe ma być ponoć na poziomie GTX285.

    Teraz scenariusz:
    1) obrony: Intela ( traci nie tylko możliwość swoich kart ale także zarobek na mocnym CPU) oraz AMD i blokowanie kart graficznych na chipsetach obu producentów.
    Wniosek Nvidia może pójść z torbami lub stworzyć własne CPU
    2) AMD idzie do sądu i Nvidia dostaje kare finansową oraz zakaz sprzedaży ich graf


  25. Wasze podejście (autor: ryj3k | data: 1/10/09 | godz.: 09:30)
    Czytam wasze posty Panowie i Panie... i trochę wyjść z podziwou nie mogę.
    Jak widzę ukształtował się tu trochę taki nurt, że programiści są leniwi, że im się nie chce pisać softu wielowątkowo, że skoro procesory cztero i więcej rdzeniowe są na rynku od 3-4 lat, to już dawno każda gra powinna wspierać w pełni takie procesory...

    Nie wiem i nawet nie śmiem szacować ilu z was ukończyło albo kończy kierunek informatyczny. Jeśli nie macie takiego wykształcenia, ale chcecie zrozumieć dlaczego tak jest to mogę wytłumaczyć.

    W prowadzeniu projektu jest tak, że jest jakiś fundusz i trzeba go tak podzielić aby projekt zakonczył się sukcesem - czyli wyprodukowaniem produktu. W projekcie jest też coś takiego jak kapitał ludzki - trzeba oczywiście uzwględnić umiejętności i możliwości zespołu.

    Wykorzystanie najnowszych technologii i wspomaganie hardwareowego jak DX11, CUDA, PhysX jest rzeczą dość skomplikowaną. Wykorzystanie w grze 4 rdzeni jest może nawet jeszcze trudniejsze. Stworzenie silnika gry, który będzie wielowątkowy i bardzo elastyczny to marzenie niejednego developera gier. Optymalizacja to często bardzo trudna rzecz, często też nieopłacalna.
    Jeśli jakaś firma opracowała jakiś silnik za którym nie nadąża sprzęt a wydaje im się, że to bardzo dobry silnik i szkoda im rezygnować z pewnych funkcji na rzecz wydajności to poprostu tak to zostawiają.


  26. @ryj3k (autor: Marek1981 | data: 1/10/09 | godz.: 09:39)
    Ja nie oceniam że programiści są leniwi ( i raczej nie znajdziesz tego w moich wypowiedziach)
    To że tak gry kuleją jest winą nastawienie na zarobek, wypuszcza się niegotowe produkty a potem się je poprawia. Podobna sytuacja z PS2, programiści nauczyli się w pełni wykorzystywać sprzęt po 4-5 latach, a biorąc pod uwagę rynek PC to 4 lata temu nie było chyba jeszcze dx10.


  27. ciekawie się zapowiada (autor: Hitman | data: 1/10/09 | godz.: 09:51)
    jak wiadomo obecne proce hamują szybkie grafiki więc przy umiejętnym wykorzystaniu możliwości NV może przeskoczyć ati - ja bym nie skreślał spóźnialskich może ostro namieszać..

  28. Pieknie nawet im sie to udalo (autor: morgi | data: 1/10/09 | godz.: 10:02)
    zobaczymy jak to Fermi bedzie sie sprzedawac w branzy, ale mysle ze spokojnie Intel wyladuje na 'marsie' jako pierwszy luzikiem.

  29. @ Marek1981 (autor: pawel.xxx | data: 1/10/09 | godz.: 10:03)
    " hope not!!! Mam nadzieje, że nie zniżą się do poziomu Intela....."

    A jaki jest poziom wydajności larrabee? Jak dojścia do wyników to chęteni bym, sie z nimi zapoznał.


    "Tak się tylko zastanawiam odnośnie GT300 i nachodzą mnie obawy:"

    Wiesz co nie pal już więcej tego gówna - szkodzi Ci :)


  30. C, C++ i Fortran (autor: pawel.xxx | data: 1/10/09 | godz.: 10:12)
    "Co najważniejsze GT300 jest pierwszym GPU w historii, który potrafi natywnie wykonywać kod języków C, C++ i Fortran. "

    W to ciężko uwierzyć. Pewnie będzie kompilował ten kod w locie, ewentualnie firmware będzie zawierał interpreter.
    Już prędzej spodziewałbym się sprzętowej interpretacji b-kodu javy, a tu taka niespodzianka


  31. rainy (autor: morgi | data: 1/10/09 | godz.: 10:15)
    Jest jedno ale, u amd stream to lipa, a w kodowaniu video to oszustwo, bo mimo szybszego tempa jest wyrazne obnizenie detali i jakosci, czyli wtopa jak zwykle.
    'And everything could be considered great if it weren&#8217;t for one thing. At this point the use of GPU resources for video transcoding instead of the CPU not only speeds up the processing, but at the same time lowers the quality of the final videos.'


  32. @pawel.xxx (autor: Marek1981 | data: 1/10/09 | godz.: 10:48)
    Napisałem że ponoć na poziomie GTX285, były takie wycieki. Że Intel jest z tego niezadowolony.
    Dodaj do tego kiepskie stery, z dużą ilością błędów.
    "Wiesz co nie pal już więcej tego gówna - szkodzi Ci :)" - to byś mnie tym nie częstował :P


  33. Nowe układy NV (autor: rookie | data: 1/10/09 | godz.: 10:53)
    Zobaczymy czy NV jeszcze się liczy w produkcji układów graficznych. Na razie parametry flagowego układu nie powalają, nawet w porównaniu do 5850! Jeśli tak będzie to ATI przejmie prym w górnej półce, w low-endzie to już od dawna królują a średnia półka to może być ostatni bastion gdzie NV może mieć jeszcze cokolwiek do powiedzenia.
    Nawet morgi musi to przyznać :)


  34. rookie (autor: morgi | data: 1/10/09 | godz.: 11:04)
    Taa poczekajmy na premiere kart, co prawda bedzie duzo pozniej, ale u NVIDII jak zwykle jest wiecej jednostek od wszystkiego i to znacznie wiecej.

  35. GT 300 (autor: leonidasXY | data: 1/10/09 | godz.: 11:42)
    mimo ze nie jestem fanem NV mam nadzieje ze jak najszybciej wyjda ich nowe układy i bedea konkurencyje w przdziale wydajnosc/cena do produktów ati, bo to spowoduje obnizke cen u czerwonych a wtedy moze skorzystam na jednej z wybranych kart

  36. NVIDIA (autor: LOLO64 | data: 1/10/09 | godz.: 11:42)
    NV w końcu porzuca zmęczonego kotleta i jedzie ze świeżym gorącym daniem. Pytanie czy po tylu niestrawnościach jakie nam zaserwowali da się jeszcze cokolwiek od nich kupić?

  37. @LOLO64 (autor: Marek1981 | data: 1/10/09 | godz.: 11:49)
    pewnie że się da, pytanie za ile

  38. LOLO64 (autor: morgi | data: 1/10/09 | godz.: 11:53)
    Kotlet wysmienicie smakuje do dziasiaj, kladzie wszelkie inne wynalazki, a Fermi jesli stawi czola Intelowi i CUDAcznosc przelamie tamy niemocy to bedzie odgrzewane przez kolejne lata, mimo mamrotania bezradnych fanow amd.

  39. mamrotanie mamrotaniem.. (autor: AbrahaM | data: 1/10/09 | godz.: 12:18)
    .. ale jeśli nV będzie siorbać prąd (także w idle/2d) jak smok wawelski tuż po skonsumowaniu barana z nadzieniem, to choćby nie wiem jak miodne ich nowe konstrukcje były, ich nie kupie. Nie mam najmniejszej ochoty płacić w rachunkach za prąd za (przykładowo) 100W extra idące w gwizdek podczas pracy w 2D. Tak, wiem, to są moje wymagania. Ale pewna grupa klientów także może ten aspekt brać pod uwagę.

  40. testy hd5850 (autor: Marek1981 | data: 1/10/09 | godz.: 12:45)
    http://www.anandtech.com/...c.aspx?i=3650&p=13

  41. Tak tak Morgi, co prawda karty będą później ale będą lepsze (autor: Michał_72 | data: 1/10/09 | godz.: 12:54)
    Dokonałeś wiekopomnego odkrycia, zaiste.
    Na poziomie kandydata na trenera reprezentacji Polski w piłke nożną który napisał, że jego osoba gwarantuje nam grę w Euro 2012.


  42. Nowe szczegoly wskazuja (autor: Rajq | data: 1/10/09 | godz.: 12:57)
    na 16 klastrow po 16 TMU. Co da 256TMU!!! Do tego 48 Rop klasycznych i 384 bitowa szyna. A wy sie zastanawiacie czy ta karta bedzie szybsza. Ta karta sama z Hemlockiem bedzie wlaczyla.

  43. @ morgi (autor: LOLO64 | data: 1/10/09 | godz.: 13:02)
    To dalej się obżeraj tymi kotletami. Owszem siorbali kasę na udanym chipie G80, ale robienie ludziom wody z mózgu powoli dobiegło końca. Ciesz się morgi, twoja Nvidia ruszyła leniwe dupsko tylko dzięki naciskom AMD. Pewnie dalej uważasz, że przejęcie ATi było wtopą. Otóż nie było, ponieważ dziś mamy na rynku tanie i wydajne karty graficzne. Chwilowo wysokie ceny HD58xx wynikają z braku konkurencji, ale wraz z premierą GT300 możemy liczyć na liczne obniżki. AMD na pewno ustawiło sobie pułap rentowności gdzieś nisko. Ciekawe jak zatem poradzi sobie świeży GeForce w horrendalnej cenie przy tanich Radeonach. Wydajność jest istotna, buduje świadomość marki jako silnej i pewnej, ale dla większosci i tak ważniejszy jest wskaźnik cena/wydajność. NVIDIA od dłuższego czasu nie może powtórzyć sukcesu 8800GT. Życzę im w sumie dobrze, ale budowanie wielofunkcyjnego potwora wchodzącego w obszary CPU powoduje wzrost kosztów. Czy to jest droga do klienta? Zobaczymy.

  44. @Rajq (autor: rainy | data: 1/10/09 | godz.: 13:34)
    Możesz podać źrodło takiej informacji?

    Wszędzie podawane jest 512 procesorów strumieniowych i 128 TMU.


  45. polecam (autor: pawel.xxx | data: 1/10/09 | godz.: 14:37)
    http://www.anandtech.com/...oc.aspx?i=3651&p=1
    Nie ma co, GT300 zapowiada się bardzo dobrze. Na pierwszy rzut oka można odnieść wrażenie ze bilans tranzystorów się nie zgadza - przy tej ilości cuda processors i wymienionych modyfikacjach powinno być ich znacznie więcej, wyjaśnieniem jest chyba zunifikowane adresowanie, dzięki któremu można było uprościć dekoder instrukcji. Rozmiar chipa w 40nm będzie porównywalny do tego z gf275, Więc spekulacje na temat gigantycznych kosztów produkcji są chyba przesadzone. Żaby nie było ze ktoś nie zrozumiał podkreślam, że pisałem o kosztach produkcji, a nie cenie karty, bo ta będzie zależała od konkurencji i wydajności.


  46. @paweł.xxx (autor: rainy | data: 1/10/09 | godz.: 14:50)
    Na Anandtechu spekulowali, iż 40 procent wieksza liczba tranzystorów wobec 5870/5850 przełoży się na ponad 40 procent większą powierzchnię.

    Po pierwsze, znalazłem informację że może ich być 3,2 mld (a nie 3 mld).

    Po drugie, GTX 285 mający 46 procent więcej tranzystorów niż 4890 jest od niego 2/3 większy (470 mm2 vs 282 w 55nm).

    Trudno więc przypuszczać, iż nawet w 40 nm, GT300 nie będzie od niego większy (5870/5850 mają powierzchnię o 52 mm2 większą niż 4890).

    W związku z tym obstawiam, iż GT300 to będzie 530-535 mm2.


  47. Pożyjemy, zobaczymy. (autor: yantar | data: 1/10/09 | godz.: 15:39)
    W GT300 ma być nowa architektura więc przerzucanie się, kto tam co wpakował na razie niewiele wnosi. Trzeba zwyczajnie czekać na porównanie po wyjściu karty. Za to zupełnie inny wymiar mogą mieć działania NV na wykorzystanie PhysXa tylko na swoich kartach, ATI planuje pójść w otwartoźródłowy projekt, który w dodatku ma współpracować z DirectX. Ogólnie ostatnie działania NV ze sterownikami rzucają spory cień na tę firmę.

  48. LOLO64 (autor: morgi | data: 1/10/09 | godz.: 16:44)
    Nvidia zanotowala fenomenalne wyniki sprzedazy wzgl. jednostki i szybciej podnosi sie z kryzysu niz amd, oczywiscie i tak duzo gorzej niz Intel. W tej chwili to ostatnia szansa tej firmy na wyprodukowanie prawdziwego produktu powyzej poziomu miernoty do grafiki 3d, ktora i tak zdominowana jest przez konsolowe lowendy, wiec blacharze maja biede, reszty ze stolu, stad spada na leb sprzedaz luznych kart dla graczy. W 2010 nie bedzie juz batalii Nvidia i amd, tylko Nvidia i Intel, bo radeonki nie nadaja sie do czegos wiecej niz bzdetna rozrywka.

  49. morgi (autor: LOLO64 | data: 1/10/09 | godz.: 16:57)
    Ile to już razy było, że konsole zjedzą PCty. I co? I jajco. Gry dalej są produkowane na PC i zwykle oferują lepsza grafikę niż ich konsolowe odmiany. Tymczasem w popularnym "pudle 360" siedzi scalak ATi i ma się bardzo dobrze. Jeszcze coś chcesz wiedzieć?

  50. Lolo64 (autor: dr1zzt | data: 1/10/09 | godz.: 17:04)
    Jako ze pracuje w "branzy growej" to cos Ci powiem.
    Gry robi sie prawie wylacznie w celu wypuszczenia na konsole, pc jest drugorzedne - marna sprzedaz. I niestety wszystko idzie w tym kierunku.
    Nie chodzi o moc, wydajnosc.. po prostu o pieniadze:)


  51. @dr1zzt (autor: rainy | data: 1/10/09 | godz.: 17:51)
    Czy przypadkiem nie jest możliwe jeszcze jedno wyjaśnienie?

    Mianowicie takie, iż twórcy gier nie chcą się męczyć z milionami konfiguracji sprzętowych możliwych na PC i dlatego preferują konsole (gdzie takich kłopotów po prostu nie ma).


  52. @rainy (autor: dr1zzt | data: 1/10/09 | godz.: 18:32)
    To tez. Ale glownie chodzi o ilosc sprzedanych sztuk.

  53. ... (autor: trepcia | data: 1/10/09 | godz.: 18:48)
    Fest mi rewolucja z "natywną obłsugą C++", że niby co, kodzę sobie a zunifikowane shadery same to przetwarzają?
    I tak całe to fermi zawiera programowy kompilator, który "tłumaczy" komendy C++ na asemblera.


  54. @emigrus (autor: komisarz | data: 1/10/09 | godz.: 18:50)
    skoro dzwiek jest dla ciebie wazniejszy od gerek, to moze zainwestuj w dziwękówkę? Co do grafiki, to nowe intele tez to maja miec.

  55. .:. (autor: Shneider | data: 1/10/09 | godz.: 19:21)
    komisarz - jestes ograniczony umyslowo?

    dzwiekowke podlaczysz do TV przez hdmi i puscisz obraz?


  56. pani Goździkowa a na ile wątków potrafi podzielić typowy program ten CUDNy... (autor: bmiluch | data: 1/10/09 | godz.: 19:47)
    kompilator C++?

    jeden?

    aaa, to może zostańmy przy etopirynie....


  57. @rainy, @trepcia (autor: ryj3k | data: 1/10/09 | godz.: 19:49)
    "Czy przypadkiem nie jest możliwe jeszcze jedno wyjaśnienie?

    Mianowicie takie, iż twórcy gier nie chcą się męczyć z milionami konfiguracji sprzętowych możliwych na PC i dlatego preferują konsole (gdzie takich kłopotów po prostu nie ma)."

    Nie wiem co masz na mysli przez różne konfiguracje - właśnie po to jest coś takigo jak directX czy OpenGL, żeby przez taką warstwę porozumiewać się ze sprzętem, dla programisty niemalze nie ma znaczenia czy pisze dla pod NV czy ATi.

    "Fest mi rewolucja z "natywną obłsugą C++", że niby co, kodzę sobie a zunifikowane shadery same to przetwarzają?
    I tak całe to fermi zawiera programowy kompilator, który "tłumaczy" komendy C++ na asemblera."

    Wydaje mi się, że nie wiesz co to jest skompilowany kod c++... bo to jest nic innego jak właśnie kod maszynowy czyli kod assemblera.


  58. @ryj3k (autor: trepcia | data: 1/10/09 | godz.: 19:51)
    Przeczytaj jeszcze raz moją wypowiedź dobrze i uważnie z zobaczysz, że napisałem to samo.
    Wiem, wiem, od lat najtrudniejsze na maturze z polskiego jest czytanie ze zrozumieniem :-]


  59. @trepcia (autor: bmiluch | data: 1/10/09 | godz.: 19:58)
    moim zdaniem, za użycie na maturze z polskiego zwrotu "czytanie ze zrozumieniem" powinno się mieć 3 oceny niżej:

    - bo jest obleśny
    - bo wygląda na kalkę językową
    - bo w sumie nie jest jednoznaczny (np. forumowicze przeczytali wypowiedź Morgiego ze zrozumieniem - "Intel jest najlepszy" - w sumie czego innego można się było spodziewać )

    LUDZIE!!!!! - a nie ładniej zamiast tego napisać "rozumieć co się czyta"


  60. @Shneider (autor: scoobydoo19911 | data: 1/10/09 | godz.: 20:11)
    zespokojem puścisz obraz przez dźwiekówke do tv. jęzeli stać cię na wynalazek pokroju hd5870 albo gt300 a do tego super tv to stać cie zapewne na auzentech x-fi z hdmi albo podobnego xonara

  61. .:. (autor: Shneider | data: 1/10/09 | godz.: 20:30)
    scoobydoo19911 - no faktycznie. Xonar hdav 1.3 za 1000zl ;-)

    idealne rozwiazanie. jeszcze do komplety swiatlowody z ekranem i szpilki do komputera.


  62. @bmiluch (autor: trepcia | data: 1/10/09 | godz.: 20:39)
    Na maturze nie ma ocen.

  63. dr1zzt (autor: mandred | data: 1/10/09 | godz.: 21:22)
    a to ciekawe, a w który to kraju sprzedaje się więcej gier na konsole? Bo wydaje mi się że robisz na kasie w sklepie i na tym opierasz swoja opinię.

  64. TDP (autor: Rajq | data: 1/10/09 | godz.: 21:41)
    nowego dziecka nVidia planuje na ~225W. Jak na takie monstrum nie jest zle :) Do tego 1,5 GB na pokladzie czyli cos kolo nowego radka.

  65. @mandred (autor: dr1zzt | data: 1/10/09 | godz.: 22:29)
    Zle ci sie wydaje, nie robie na kasie. Rynek gier na pc ginie i takie sa fakty.

  66. dr1zzt (autor: Markizy | data: 1/10/09 | godz.: 22:38)
    a mówią to od lat i nic z tego nie wynikło

    ryj3k
    Z tego co się orientuje kod maszynowy =/= asembler.
    Programy z asemblera też podlegają kompilacji, przynajmniej przy mikrokontrolerach którymi się zajmowałem.

    Tak że najbliższe prawdzie jest kompilacja C++ na kod maszynowy.


  67. sprzet Ok ludziska co programuja Nie :/ (autor: Mario2k | data: 1/10/09 | godz.: 22:51)
    Co do programistow to dajmy i m minimum 18miesiecy na zapoznanie sie z dobrodziejstwami dX11 :) moze i dluzej ;/

    Jak ktos obserwuje ryne kto widzi ze owi Programisci poprostu nei nadazaja za nowymi API
    nie potrafia , sa leniwi ???
    Za 18 miesiecy bedzie nowy radek nowa NVidia i moze w koncu trzeci gracz ,wtedy to ujrzymy gry wykozystujace jak nalezy nowe api :/


  68. co do (autor: scoobydoo19911 | data: 2/10/09 | godz.: 00:06)
    rynku gier na pc o faktycznie kurczy się on ale nie w zastrazającym tępie. w sumie głównym motorem napędowym są mmo z wowem na czele.

    a co do nowego potworka nv to chętnie bym zobaczył go w testach wtedy skonczy się gdybanie


  69. .:. (autor: kkk | data: 2/10/09 | godz.: 00:27)
    http://www.xbitlabs.com/...orce_Fermi_to_2010.html

  70. @Mario2k (autor: pawel.xxx | data: 2/10/09 | godz.: 09:20)
    "Jak ktos obserwuje ryne kto widzi ze owi Programisci poprostu nei nadazaja za nowymi API nie potrafia , sa leniwi ??? "

    Oprócz obserwowania rynku trzeba jeszcze umieć wyciągać wnioski z tego co się widzi, mieć choć podstawową wiedzę związaną z procesem wytrzważania oprogramowania oraz ekonomią.

    I tak. Gry wykorzystują silniki graficzne które z kolei wykorzystują konkretne API. Stworzenie silnika jest zadaniem trudnym kosztownym i czasochłonnym.
    Wersja API z której korzysta silnik i rynkowa popularność kart wspierających to API decyduje o ilości potencjalnych klientów. Ilość klientów decyduje o opłacalności i sukcesie rynkowym produktu.


  71. @pawel.xxx (autor: Rajq | data: 2/10/09 | godz.: 09:31)
    Dokladnie jest tak jak piszesz. I wlasnie przez to prawdziwym monopoilsta na rynku silnikow jest Epic i ich Unreal Engine 3. Bycmoze nie naladniejszy ale zalety ktore posiada przesadzily o jego popularnosci. Bardzo proste i niesamowicie modyfikowalne srodowisko, do tego rozsadne wymagania a najwazniejsze dla developerow - Multiplatformowosc. Na tym silniku nie ma zadnego problemu zeby napisac gre na kosole i wydac na pc i odwrotnie. Podobno za kazda licencje Epic liczy 1 mln $ oni nie musze gier sprzedawac wystarczy ze maja swietny engine ktory daje developerom szerokie grono odbiorcow przyszlych gier.

  72. Taaa (autor: Marucins | data: 2/10/09 | godz.: 09:37)
    "daniem Nvidii akceleratory będą od 60 do 80% szybsze od GeForce GTX 285."

    I na to trzeba wnieść poprawkę. Ale nic konkretnie nie można powiedzieć do czasu ukazania się owego GT300


  73. @Markizy (autor: Promilus | data: 2/10/09 | godz.: 09:40)
    Assembler jest właśnie reprezentacją kodu maszynowego w formie że tak powiem bardziej znośnej dla człowieka. Bo co dla ciebie by znaczyło 70 DF FD? Nic? A to ma swoją reprezentację w assemblerze. A, że podlega kompilacji - no cóż, my stosujemy np. LCALL coś tam, a tak naprawdę w kodzie samego rozkazu jest ukryta jeszcze informacja np. z jakiej strony pamięci brać dane, czy z jakiego rejestru docelowego korzystać. Mnemoniki i nazwy rejestrów muszą zostać przetłumaczone na odpowiadający im numerek będący niczym innym jak przesuwalnym kodem maszynowym. Potem się go konsoliduje, linkuje i mamy gotowy wsad do uC :]
    Co do GT300 - 384bit magistrala...to jeśli nie zmienili kontrolera to na 4ROPy przypadają 64 bity. Czyli 384bit to 24ROP. Mało, jeśli zaś zmienili tak jak u AMD w Cypress to 4ROP = 32bit, zatem 48ROP w GT300 co byłoby chyba bardziej realistyczne. 1,5 więcej ROP, 1,6 więcej TMU od Cypressa. Tudzież tyle samo więcej SP.


  74. @trepcia (autor: bmiluch | data: 2/10/09 | godz.: 10:01)
    myślałem, że przedziały punktowe mają przypisane oceny - a tutaj niespodzianka...

  75. @markizy nie wyniklo? (autor: dr1zzt | data: 2/10/09 | godz.: 10:07)
    To zobacz sobie najlepiej sprzedawane tytuly, i jak sa spartolone na PC. (gta 4, fify,residenty etc)
    w _pierwszej_ kolejnosci sa konsole, bo tam jest najlepsza sprzedaz. I pod nie sa optymalizowane, a na pc na odjebsie. Ewentualnie trzeba poczekac na wersje piecowa.. dluzej.


  76. Jak dla mnie (autor: AmigaPPC | data: 2/10/09 | godz.: 11:53)
    to najzwyklejsza papka marketingowa, która jest ukierunkowana na tworzenie szumu medialnego wokół nie istniejącego jeszcze produktu i ograniczenie rosnącej popularności kart AMD-ATI z rodziny HD5xxx.

  77. Amiga (autor: morgi | data: 2/10/09 | godz.: 12:45)
    I to byl cel i to uda sie, ludzie beda skonfudowani, bo to Nvidia zapodala straszaka na maksa i wielu poczeka na jego testy, tym mocniej nakreconych specyfikacjami.

  78. morgi... (autor: Simon89 | data: 2/10/09 | godz.: 13:22)
    zapodali straszaka. Ale tylko w teorii. A to cale fermi które pokazali to... atrapa. Nie mają nawet działającej jednej sztuki na pokaz. Dlaczego cały czas obwiniasz AMD za to że pokazują tylko na papierze? Serie 5800 pokazywali działającą i to juz jakiś czas temu, zapowiadali niski pobór prądu w spoczynku (co okazało się prawdą) nic nie mówili o niskim poborze prądu pod obciążeniem a okazał się na podobnym poziomie co 4890. Gdzie ten papier u AMD? To że nie ma jeszcze kart dostępnych? Z dnia na dzień jest coraz lepiej a pod koniec przyszłego tygodnia będą karty bardziej dostępne.

    Niech sobie nakręcają tymi specyfikacjami, ale co z tego jeśli pokazują ATRAPĘ? Sami siebie ośmieszają.


  79. dr1zzt (autor: mikay | data: 2/10/09 | godz.: 13:54)
    masz pewnie sporo racji, ale pamietaj, ze sa gry, ktore pewnie nigdy na konsole nie powstana. od kilku lat slyszy sie, ze rynek gier na pc chyli si ku upadkowi, tylko jakos tego nie widac, a wystarczy przejsc sie po jakims chociazby media markcie, zeby zobaczyc ile miejsca na polkach zajmuja gry na pc a ile na konsole. dysproporcje sa naprawde duze. pewnie za jakis czas proporcje sie odwroca - konsole beda powszechniejsze, a ceny gier na nie zbliza sie do tych na pc. aczkolwiek jestem przekonany, ze rynek gier na pc nie upadnie

  80. mikay (autor: dr1zzt | data: 2/10/09 | godz.: 14:02)
    Owszem ale zobacz jakie to sa gry, i jakie firmy je robia. Wiekszosc to jakies klasyki, reedycje, platynowe kolekcje i symulatory zaglowek. Pojedz na dowolne targi gier, porownaj sobie tlumy przy konsolach i przy pctach(ktorych sa sladowe ilosci).

  81. @Morgi (autor: AmigaPPC | data: 2/10/09 | godz.: 14:03)
    dopóki mi nie pokażesz, w którym poście stwierdziłem, że nowe i5 mają gównianą wydajność to w ogóle nie pisz cokolwiek skierowanego do mnie.
    Jesteś zakłamanym chamskim hipokrytą, z którym nie mam życzenia w ogóle polemizować.
    Pokażesz mi tą moją wypowiedź oszuście ?? czy dalej będziesz ignorował scysje, które sam wywołujesz ??


  82. @bmiluch (autor: trepcia | data: 2/10/09 | godz.: 14:28)
    Nie mam pojęcia jak wygląda Twoje świadectwo maturalne ale na moim widnieją tylko procenty. Rekrutując się na uczelnie wyższe nie bierze się pod uwagę ocen, jak było 5 lat temu, tylko "procenty" są przeliczane na punkty.

  83. @dr1zzt (autor: Wyrzym | data: 2/10/09 | godz.: 15:10)
    a o MMO i RTSach zapomniales? :> sa gry ktore sie robi priorytetowo na konsole i sa takie co sie robi na PC i nigdy na konsole ich nie zrobia, nie wiem jakiej branzy gier ty siedzisz, ale chyba w tej zlej :]

  84. @trepcia (autor: Drow | data: 2/10/09 | godz.: 15:24)
    Z kolei na moim sa normalne oceny.. :)

  85. ... (autor: Simon89 | data: 2/10/09 | godz.: 15:41)
    brak słów.

  86. zajmijcie się czym innym niz oceny na maturze (autor: Marek1981 | data: 2/10/09 | godz.: 15:53)
    http://pclab.pl/news38813.html
    maci poczytajcie sobie


  87. Sorki za niechybną wtopę... (autor: Dandysz | data: 2/10/09 | godz.: 16:08)
    ... ale czym jest "morgi". Czy pracuje dla NV?

  88. @dandysz (autor: trepcia | data: 2/10/09 | godz.: 16:10)
    Morgi jest trollem, nie pracuje dla nikogo.

  89. morgi, to Cię rozjebie. (autor: LOLO64 | data: 2/10/09 | godz.: 16:23)
    Czytaj!

    http://pclab.pl/news38813.html


  90. @trepcia (autor: bmiluch | data: 2/10/09 | godz.: 16:23)
    u mnie były oceny, na studia były egzaminy a w pracowniach komputerowych królowały XT i karty graficzne Hercules :D

  91. @Dandysz (autor: bmiluch | data: 2/10/09 | godz.: 16:27)
    morgi to światowej klasy maszyna Turinga - do tej pory nikt się w tym nie połapał :)
    poza tym morgi jest raczej zabawny, choć nie zawsze wiadomo o co mu biega


  92. @LOLO64 (autor: Marek1981 | data: 2/10/09 | godz.: 16:34)
    Nie pisz przekleństw w całości bo to źle wygląda.

  93. @bmiluch (autor: trepcia | data: 2/10/09 | godz.: 16:59)
    Widzę, że nieco starszy ode mnie jesteś ;-)
    U nas na uczelni są już quady z 8GB ramu. Wczoraj się śmialiśmy, że tam wydajne komputery są aby odpalić sapera na viscie ;-)


  94. Simon89 (autor: morgi | data: 2/10/09 | godz.: 17:06)
    Tak wole atrapy na papierze przekute w sprzet niz wieloletnie atrapy 'dobrych' kart graficznych od ati.

  95. ... (autor: trepcia | data: 2/10/09 | godz.: 18:07)
    No i wszystko się wyjaśniło, dla trola morgiego najważniejsze są słowa i "papierki". Ano, im głośniej przekupka na targu krzyczy tym ma mniej do zaoferowania :-)

  96. a tio jednak prostak (autor: LOLO64 | data: 2/10/09 | godz.: 18:26)
    Myślałem, że się rozsądniej do tego ustosunkujesz. A jesteś tak jak zawsze - ortodoksyjnym pojebem.

  97. @lolo (autor: trepcia | data: 2/10/09 | godz.: 18:49)
    Wstrzymaj się od wulgaryzmów, nie rób tutaj jeszcze większej obory niż jest. Polski język jest na tyle bogaty w różnego typu epitety, że można znaleźć więcej równie dosadnie brzmiących słów, które są akceptowalne przez społeczeństwo.

  98. amiga, lolo64 (autor: dr1zzt | data: 2/10/09 | godz.: 18:53)
    Powinniscie dostac bana na opamietanie.
    Troll jeszcze uszedl.
    Ale to juz przegiecie.
    Za chamskie i bezposrednie walenie "pojebami" "debilami" a juz tym bardziej "oszustami".
    Adminow widac to bawi.
    Nawet takiego chama jak ja juz przestalo...


  99. ogół prawie cały (autor: bane1 | data: 2/10/09 | godz.: 20:01)
    Lubie czytać te wasze komentarze zawsze bawią mnie do łez , powinny być wzorem dla innych jak dużo ludzi ma tak mało.

  100. trepcia (autor: morgi | data: 2/10/09 | godz.: 20:46)
    Jest problem jeden, ale zasadniczy, papiery przekute w sprzet, to nie zolte, wariackie od amd, no ale co na gieldowym papierze wychodzi, Nvidia pierwsza przyuwazyla, na gracza mozna najwyrazniej dorobic sie ale garba, rynek podatny na marudnych fanow z pustym portlefem ostatnio, dlatego kieruja oko na uniwerki, naukowcow i innych maszynowych wariatow.

  101. LOLO64 (autor: morgi | data: 2/10/09 | godz.: 20:49)
    Do czego sie ustosunkowac, do setek plotkarskich newsow, wole poczekac na testy, specyfikacje i inne papiery Nvidii na Intela widzialem, ciekawe i czasem smiech to zdrowie.

  102. morgi (autor: Markizy | data: 2/10/09 | godz.: 20:54)
    Jak mogli coś przekuć z papieru w sprzęt skoro do dziś nvidia nie ma działającego sprzętu. A twoje gadanie o tych papierowych premierach AMD jest wręcz nudne, gadanie żeby zajmować powierzchnie w necie, jak tak zachowaj je dla siebie, bo są bez pokrycia. A co du uniwerków to już dzisiaj można wykorzystywać zarówno karty ATI i Nvidi do wspomagania obliczeń, tylko trzeba sobie napisać odpowiednio program.

    Co do wyprzedzenia intela, to intel nadal nie pokazał działającego larrabee, wiec to kolejny stek papierowych obietnic. Redaktorzy uchwycili niby działającą kartę, ale można zgadywać czy to jest larrabee czy jakaś karta konkrecji tylko przemalowana.


  103. .:. (autor: Shneider | data: 2/10/09 | godz.: 20:57)
    "Tak wole atrapy na papierze przekute w sprzet niz wieloletnie atrapy 'dobrych' kart graficznych od ati."

    swiety morgi przemowil. ;-))))))))))))))
    ciekawe w co pograsz na atrapie?


  104. .:. (autor: Shneider | data: 2/10/09 | godz.: 21:00)
    no i zapomnialem o slynnym argumencie morgiego.

    "NV i tak ma wieksze udzialy na rynku." ;-D

    do czasu...


  105. ... (autor: trepcia | data: 2/10/09 | godz.: 21:03)
    Stałość morgiego:
    "wole atrapy na papierze", "Do czego sie ustosunkowac, do setek plotkarskich newsow, wole poczekac na testy, specyfikacje i inne"
    Zmienny jak kobieta.
    Człowieku, nie dość, że jesteś trolem to jeszcze jesteś niepoważny. Dlatego nikt Cię nie szanuje.


  106. .:. (autor: Shneider | data: 2/10/09 | godz.: 21:15)
    trepcia - niestety masz racje.

    zlote czasy morgiego przeminely z nowymi kartami ATI.

    byl kiedys zryty_beret ktory zaklinal sie ze nie kupi AMD bo intel jest najlepszy.

    przyszedl czas kiedy zrozumial ze czasy sie zmienily i kupil AMD, teraz pewnie siedzi na intelu. ot normalna kolej rzeczy. ale takie fanatyckie zapieranie sie za jedna firma jest chore.


  107. morgi I > morgi II (autor: LOLO64 | data: 2/10/09 | godz.: 21:23)
    Uzytkownik Morgi zwyczajowo wprowadza społeczność vortalu w błąd, sieje fanaberie, równa ziemią jednych, wywyższa pod niebiosy drugich. Ocenia nieobiektywnie, nie czyni tego fachowo i rzetelnie. Podaje odnośniki i przedstawia liczby, które pasują do jego układanki. Od dawien dawna siedzi na TPC i szuka przykrych niespodzianek. Jego to bawi. Dlaczegóż? Poniewóż jest trollem pospolitym, internetową gnidą mającą nikłe pojęcie o rzeczywistości. Siedzi całymi dniami przed komputerem i szuka informacji o porażkach AMD. Najlepiej by było, gdyby morgi przeszedł metamorfozę i zaczął mówić jak biały człowiek.

  108. ... (autor: Elektron | data: 3/10/09 | godz.: 01:24)
    Co poniektórzy wiecznie stękają na morgiego, ale z tego co ja widzę, wcale nie macie od niego więcej rozumu, niestety. Po raz miliardowy dajecie się wciągnąć w idiotyczną dyskusję, którą przerabiacie z nim w każdym temacie o AMD/NV/Intel.
    Dla mnie jesteście niemal takimi samymi Trollami, co on.


  109. .:. (autor: Shneider | data: 3/10/09 | godz.: 10:06)
    Elektron - o jaki pan sie odezwal. a sam to co robi? ;-)
    takze wybacz nie trolu ale pierdzielisz glupoty.


  110. Markizy (autor: morgi | data: 3/10/09 | godz.: 12:00)
    CUDAcznosc widzialem w akcji gpgpu, natomiast amd nie, bo ten sprzet nie jest wart funta klakow do tych akcji, w sumie ile juz razy przytaczalem opinie recenzentow, ze stream przyspiesza jednoczesnie zanizajac jakosc i detale, czyli przekret a nie gpgpu.

  111. .:. (autor: Shneider | data: 3/10/09 | godz.: 12:01)
    morgi - a gdzie widziales?

    skoro nvidia nawet nie ma niedzialajacej karty. a co dopiero mowic o dzialajacej ;-)


  112. Shneider (autor: morgi | data: 3/10/09 | godz.: 12:35)
    Od 3 lat jest taka mozliwosc podziwiac CUDAcznosc, od amd nie ma nic, poza papierem i nazwa, nawet nie zbudowali konkurenta hpc, no ale nie bede wlokl lezacego.

  113. .:. (autor: Shneider | data: 3/10/09 | godz.: 12:54)
    morgi - ahh ta cuda, a co z tesla?

  114. Shneider (autor: Elektron | data: 3/10/09 | godz.: 13:09)
    żal... ja mam tutaj 1 post, a Ty 12... więc to raczej mówi samo za siebie.

  115. .:. (autor: Shneider | data: 3/10/09 | godz.: 13:16)
    AMD fusion planowane jest na 2011 wiec nie wiem o co Ci chodzi.

    moze zacytowac Twoje slowa

    Pokazali wszystko co chcieli (autor: morgi | data: 24/09/09 | godz.: 22:19)
    raytracing to jutro, rasteryzowane zabawki w formie piekarnika w obudowie to dzisiaj, niech sie bawia jeszcze troche.

    Shneider (autor: morgi | data: 25/09/09 | godz.: 10:24)
    Przynajmniej do 2012 musimy poczekac na komercyjny produkt w RT, nie ma powodow do pospiechu, wtedy faktycznie bedzie okazja pokpic sobie z rasteryzowanych plastikow, ktore osiagnely juz dno dna w kwestii jakosci i 'rewolucji' obiecywanych fizyk, teselacji, fotorealizmu opisywanego od wielu lat, a tymaczasem najlepiej wypada w mozliwosciach starenkie dx9.

    ;-)

    intel z larrabee moze sobie czekac do 2012 roku po mimo ze sprzet mial byc dawno temu, a AMD glosi plotki o Fusion ktory ma byc w 2011.


  116. .:. (autor: Shneider | data: 3/10/09 | godz.: 13:17)
    Elektron - to przypomnij sobie poprzednie newsy. pewnie to Twoj brat blizniak.

  117. Nie samym kodowaniem (autor: AmigaPPC | data: 3/10/09 | godz.: 13:24)
    materiału wideo żyje człowiek.
    ATI Stream doskonale się sprawuje w innych dziedzinach np. @FH itp.
    Ale, co poniektórzy "wiedzą" najlepiej.


  118. Schneider (autor: morgi | data: 3/10/09 | godz.: 13:42)
    Tesla w starych generacjach jest kpina, jak cale CUDA, ale jest i podobno sprzedaje sie w nakladzie kilkudzies. mln $ na rok, naukowcy jezdza po kampach i to rozpowszechniaja do obliczen i programowania, a np. amd jest na papierkach, nic nie ma, a Folding to taki bench-zabawka, ktory istnial duzo wczesniej i bez gpgpu i zliczal rozne bzdety i co z tego, dobre to do rozpalania piecyka graficznego w domku.

  119. .:. (autor: Shneider | data: 3/10/09 | godz.: 13:57)
    morgi - prosze nie przekrecac mojego nicka.

    po pierwsze nie rozumiem Twojej frustracji.
    AMD nie zapowiadalo gpgpu w 2009 ani 2010 roku.

    wiec nie wiem o co halo.

    natomiast zapowiadalo procki 4 rdzeniowe z tdp 65W, b.szybkie karty graficzne i wszystko sie sprawdzilo.

    fani intela jak chca zmienic platforme to musza wydac majatek, w przypadku AMD to tylko zmiana procka.

    NV dostala po dupie w segmencie ktory byl uwazany za zdominowany przez NV.

    a ze AMD niema gpgpu coz ich strata.

    jednak narazie AMD posiada wspanialy zestaw PII + 5XXX gdzie za male pieniadze mozna dostac naprawde sympatyczny zestaw i tutaj ani intel ani NV nie ma juz wiele do powiedzenia.

    ot taka brutalna prawda, a do zadan specjalizowanych kazdy wybierze cos dla siebie.


  120. ... (autor: trepcia | data: 3/10/09 | godz.: 14:12)
    @Elektron
    Cóż, nie każdy jest idealny :-) Jeśli stwarzam wrażenia trola, widocznie tak musi być... Przynajmniej widzę swoje zachowanie.

    @morgi
    Twoje gadanie: "renault jest do dupy, chociaż nigdy nie miałem samochodu tej marki to jednak jest do dupy, bo tak słyszałem".


  121. morgi, weź ty poczytaj! (autor: LOLO64 | data: 3/10/09 | godz.: 16:22)
    Ja już się śmieje od rana z głypoty marketingowców NVIDII. Forma przyznała się, że wystawili na pokaz atrapę, bp niby Fermi w obecnej formie przypomina jeża. Oni po prostu wymiatają głupotą. Już na prawdę lepiej obracać papierami (AMD) niż się osmieszać w ten sposób. Masz tu linka:

    http://nvision.pl/news-ext-14819.html


  122. btw (autor: Drow | data: 3/10/09 | godz.: 16:30)
    http://hardware.slashdot.org/...nference?art_pos=3

    :)


  123. Drow (autor: morgi | data: 3/10/09 | godz.: 17:09)
    Mogliby nawet nic nie pokazac, jak nie sa gotowi, a to nie uszlo uwadze mediow na premiere kart, to pogadali o teorii zero o konkretach, taki wystep na konferencji, na ktorej nawet premiery nie bylo, wiec tlumaczyc sie nie musza. Tlumaczyc sie beda po upublicznieniu wynikow testow, czy dobry czy zonk produkt, bo lewych papierow nie pokazali jak amd z wydajnoscia swoich gpu nie do gpgpu.

  124. .:. (autor: Shneider | data: 3/10/09 | godz.: 17:14)
    morgi - wiec NV zrobila wszystko jak nalezy, jedyny blad jaki popelnili to tlumaczenie sie? ;-)

    o jakich papierach AMD piszesz?


  125. oj dajze spokoj (autor: Drow | data: 3/10/09 | godz.: 17:15)
    nie musza sie tlumaczyc, nie musza pokazywac niczego, nie musza mowic o konkretach, wystarczy sama teoria..
    pierniczysz po prostu, wg ciebie nawet jak nic nie wypuszcza, to bedzie lepiej, niz nowosc od konkurencji. dla zasady, prawda?

    Zalosc.


  126. Shneider (autor: Elektron | data: 3/10/09 | godz.: 22:09)
    przestań pieprzyć, bo z morgim to ja nie wchodziłem w kilometrowe dyskusje odkąd się na nim poznałem, a to było już dawno temu.

    Wy natomiast dalej to ciągniecie, morgi ma niezły ubaw.


  127. .:. (autor: Shneider | data: 3/10/09 | godz.: 22:19)
    Elektron - myslalem ze jestes bardziej rozgarniety. Sadzisz ze ja na powaznie z nim sie kluce? Mam wiekszy ubaw z tego niz myslisz. Ale jak Tobie to przeszkadza to po prostu nie czytaj, bedziesz zdrowszy ;-)

  128. Shneider (autor: mandred | data: 4/10/09 | godz.: 08:58)
    Przydało by się nie móc czytać komentarzy morgiego, ale niestety nie ma opcji ukryj komentarze morgiego, a wielka szkoda.

  129. A tam (autor: Wedelek | data: 4/10/09 | godz.: 13:54)
    Morgi pisze głupoty, my go rugamy, a Ci co tu lookają od czasu do czasu szukając opinii widzą, że tylko funboye jadą na AMD i... kupują AMD :P

    Femi to była porażka marketingowa zielonych gnomików. Tak bardzo chcieli odwrócić uwagę od nowych radków, że aż przecholowali.


  130. @Wedelek (autor: Marek1981 | data: 4/10/09 | godz.: 15:39)
    "Femi to była porażka marketingowa zielonych gnomików. Tak bardzo chcieli odwrócić uwagę od nowych radków, że aż przecholowali."
    Aby na pewno?? Zobacz w głupiej polsce ile portali IT podało informacje o przekręcie zielonych??


  131. .:. (autor: Shneider | data: 4/10/09 | godz.: 16:25)
    Marek1981 - raczej pokazali ze narazie nie warto czekac na NV.

    pierwszy raz slyszalem wymowke ze czegos nie pokaza bo wyglada dziwnie.


  132. Ciekawe... (autor: Sandacz | data: 4/10/09 | godz.: 17:12)
    Na zaprezentowanej 'karcie' Morgi od dawna pocina w Duke Nukem Forever.

  133. Wedelek (autor: morgi | data: 4/10/09 | godz.: 18:45)
    Jasne, takie glupoty, ze nie sposob je obalic, tylko wypominam to, co od dawna jest podkreslane na kazdym miejscu. O ile na Nvidii ciazy podobne brzemie odpowiedzialnosci za bycie liderem i tworca standardow w sektorze gpu to podobna rola jak Intela w cpu. Od takich firm sie wymaga, a potem splaca dlug w formie wysokich udzialow. Co mozna powiedziec o Fermi, nic bo nawet nie mial premiery, wiec po co klepac te biedy plotkarskie, jak to pic na wode, nie ma z czego rugac, bo nic nie dali. U amd wszystko ladnie na papierku, super wydajnosc podrasowana, superpoprawki i dodatki i co... niema dx11, zeby sprawdzic, wydajnosc nizsza niz sie chwalili, wsparcie beznadziejne, jakosc obrazu niby wyzsza, ale ostatecznie nawet gorsza, sterowniki lipa, nowosc ssaa to jakas znowu wtopa, gpgpu brak, fizyki brak, perspektyw brak..

  134. @morgi (autor: Promilus | data: 4/10/09 | godz.: 19:18)
    Kłamiesz i manipulujesz. Zapowiadali jakieś 160% i tyle jest. Zapowiadali DX11 i to jest (co możesz sprawdzić w spatchowanym Battleforge korzystającym z jedynie 1 elementu nowego API - tj. Direct Compute). Ostatecznie gorsza jakość obrazu? A to skąd wytrzasnąłeś? Bo radeona to ty na oczy nie widziałeś. GPGPU brak...hmmm, rozumiem że folding@home, milkyway@home, Collatz Conjecture @ home, parę łamarek .zip, i wreszcie oprogramowanie Adobe z pluginem AMD...to nic? Heh. Nie rozśmieszaj mnie ;) Co masz do zarzucenia sterownikom - poproszę listę z dowodami. Fizyki brak? Jest bullet, jest havok...wszystko czeka na certyfikat OpenCL dla AMD udzielany przez KHRONOSA. Zupełnie nie masz pojęcia o czym piszesz, prawda? :P

  135. GPGPU rożni się od GPU (autor: mandred | data: 5/10/09 | godz.: 00:02)
    tym, że ma w nazwie GP dostawione i na razie tyle w temacie.

  136. Promilus (autor: bane1 | data: 5/10/09 | godz.: 09:00)
    Fizyki brak? Jest bullet, jest havok...wszystko czeka na certyfikat OpenCL dla AMD udzielany przez KHRONOSA.


    A gdzie one są , bo ja nie znam się i jestem ciekawe ,bo chciałem sobie oglądnąć efekty z nich jakie gry to mają , bo ostanie coś na havoku to pamiętam half life 2 . Prosił bym o info .


  137. @bane1 (autor: Promilus | data: 5/10/09 | godz.: 09:20)
    Jak się nie znasz to naucz się korzystać z wyszukiwarki. To nie elektroda gdzie każdy dostanie odpowiedź nawet na najgłupsze pytania.

  138. Promilus (autor: bane1 | data: 5/10/09 | godz.: 09:28)
    Kultura osobista i ślepe zapatrzenie w siebie tego pana zaczynają mnie zadziwiać , potrafi szczekać na każdego jeżeli nie jest z jego myślą każda wypowiedz bierzesz człowieku za atak od takich spraw są lekarze, jeżeli ktoś się grzecznie pyta to mu poprostu powiedz tego wymaga twoja wiedza i kultura osobista a teraz pokazujesz ze jesteś pod kreska tylko z jakiego powodu to nie wiem może za mało czegoś tylko czego.

    No w google coś jest ze w marcu tego roku zrobili nowego havoka , a jeżeli mówisz os arym to fakt wykorzystało parę tytułów jakieś 2 lata temu .


  139. @bane1 (autor: Promilus | data: 5/10/09 | godz.: 09:51)
    Jasne jasne, kto na szacunek zasługuje to go otrzymuje, ty już w innym temacie pokazałeś że logiczne argumenty do ciebie nie docierają - nie dziw się zatem że traktuję twoje wypowiedzi tak a nie inaczej.

  140. @bane1 (autor: Marek1981 | data: 5/10/09 | godz.: 11:02)
    Hehe, niestety ale Promilus ma rację.
    np komentarz 99


  141. Wedelek (autor: morgi | data: 5/10/09 | godz.: 13:03)
    W papierkach im wyszlo o 20% lepiej, wiadomo przekret, ze dualiki sie podlozyly ostatecznie wyszlo mniej jak zawsze z reszta. Zapowiadali, ze dzieki dx11 bedzie srednio po kilkanascie %, w testach tego niedorobionego battlefordge ni kija nie ma roznicy ani w wygladzie a tym bardziej fps, gier full dx11 nie ma i poczekamy se niewiadomo ile. Jakosc obrazu, tekstury na ati maja czesto artefakty, migaja, rozmywaja sie, sa niedofiltrowane i maja gorsze anizo i wygladzanie czasem chodzi, to loteria, nie mowiac o nagle zonku w nowych grach, gdzie radeonki chodza wolno, ale nie martw sie hotfixy w drodze. stream jest martwe od poczatku, nie ma nic na to dzielo, fizyka w zapowiedziach od kilku lat, skoro demka havoka pokazali, to niech wprowadza gry z tym cudenkiem. Prawda jest taka, ze amd to tylko sprzet, ale marnie wykorzystany przez slabiutkie wsparcie, zero kontaktow ze srodowiskiem tworzacym gry i placac za karte nie chce miec z nia problemow w grach, a tak jest czesto.

  142. ...... (autor: Marek1981 | data: 5/10/09 | godz.: 13:34)
    http://www.in4.pl/recenzje.htm?rec_id=562

    @morgi - kiedyś napiszesz prawde??
    "zero kontaktow ze srodowiskiem tworzacym gry i placac za karte nie chce miec z nia problemow w grach, a tak jest czesto." - jak jesteś ..... to twoja sprawa ale nie posądzaj o to innych.
    Ja osobiście mam radeony od ponad 6 lat (od 9550) i miałem tylko raz problem ze sterami (wywalał się w crysisie, wina crisis.exe). Dla przykładu na Nvidii mam cały czas problem.

    Miałem ostatnio wymiane słowną z przyszłym teściem, który twierdził że stery do radeona sa kiepskie. Po chwili wyszło, że nie podoba mu się panel u Ati, że jest za mało możliwości ustawień. Spytałem się o stery Nvidii bo twierdził że są zajeb.... więc się pytam czy testował wszystkie po kolei jak wychodziły i stwierdził że co 4 są dobre. I to takie właśnie debilne stwierdzenia niby światłych ludzi.
    Wqrzają mnie takie ukierunkowania i zero obiektywizmu. Najgorzej, że Ci tzw fachowcy nadal mówią to samo chociaż im udowodnić iż się mylą!!!


  143. Marek (autor: dr1zzt | data: 5/10/09 | godz.: 14:38)
    A Ty jestes obiektywny i nieukierunkowany? Wszystkie Twoje posty temu przecza :)
    A ze cc ati to jedna wielka porazka, to akurat sie zgadza. Rownie dobrze mozna tego hovna nie instalowac, i modyfikowac sobie ustawienia w rejestrze, jednym z darmowych programow..


  144. @morgi (autor: rainy | data: 5/10/09 | godz.: 14:47)
    Gdyby hipokryta (nieistotne "szczery" czy udawany) mógł latać, to już byś fruwał.

    Jeśli AMD wykręciłoby number w rodzaju Fermi, to walnąłbyś litanię na pół strony - w tym przypadku jesteś "zadziwiająco" lakoniczny.

    A co do reszty twoich wypocin - to po prostu cud, że ktokolwiek chce kupować karty AMD/ATI.


  145. @dr1zzt (autor: Marek1981 | data: 5/10/09 | godz.: 15:15)
    w przeciwieństwie do ciebie staram się być obiektywny. Do cc też mam mieszane uczucia, zwłaszcza na Vista64. Tak jak i mam ostatnio zastrzeżenia do panelu Nvidii, przerost formy nad treścią.
    Pisałem o sterach, czy rozumiesz co pisze??

    @rainy - ja swoją x1800 kupiłem tylko i wyłącznie ze względu na jakość obrazu na monitorze. Miałem porównanie z 7900 i 6600 od Nvidii, jestem uczulony na cukierkowy lub cyfrowy wygląd. Nowszych serie i tak mam wrażenie, że nadal są lepsze u ATI ( tylko moje odczucie), większość i tak mnie skrytykuje ale nie wszyscy mają taki sam wzrok, także przyzwyczajenie robi swoje.


  146. @Marek1981 (autor: Promilus | data: 5/10/09 | godz.: 15:30)
    "Pisałem o sterach, czy rozumiesz co pisze??"
    Ja wiem, ale niektórzy nie mają pojęcia o czym piszą. Przykład...niedawny test na jakimś polskim portalu układów z niższej półki obu producentów, gdzie jako wada hd4670 jest brak 'ć' spowodowany przez (sic!) sterowniki!
    A problem to 1. spowodowany przez ATI hotkey poller będący składnikiem CCC, 2. nie istnieje gdy ściągnie się paczkę osobno driver i ccc gdzie JEST możliwość wyboru języka. No, ale jak ktoś wchodzi na stronkę, wybiera sprzęt i system i od razu bezmyślnie klika pierwszy link to czego innego można się spodziewać? Szczególnie gdy obok linku wyraźnie pisze ENGLISH.


  147. @morgi (autor: Promilus | data: 5/10/09 | godz.: 15:32)
    Taaa, taka straszna jest ta jakość anizo że po testach na konkurencyjnym portalu okazało się, że 8x AMD niewiele ustępuje 16x nvidii, gdy 8x nv nie może się nawet równać z 8xAF AMD. W niższych trybach wcale inaczej też nie ma.

  148. @Promilus (autor: Marek1981 | data: 5/10/09 | godz.: 15:43)
    z tym "ć" to swoją droga wpadka:)) Intel ma z "ł"
    Znam przypadek gdzie kobieta sobie skopiowała do notatnika, a potem robiła ctrl+c i ctrl+v przez 2 lata!!!:))
    Co do tych anizo to z tego co pamiętam x4 były podobne jak x8 u Nvidii.


  149. @morgi (autor: Drow | data: 5/10/09 | godz.: 16:25)
    alez ty jestes sformatowany.

    dx11 brak roznic z grafice? teraz piejesz na Ati za to, mimo, ze oni nie maja z opracowaniem tego standardu nic wspolnego, w koncu to standard MSu. Ale jakby nvidia miala karty z dx11 to by bylo wszystko cacy pieknie i ewentualnie jebalbys na MS, ze to ich wina, a nie, ze nvidii.

    Dalej, niedorobiony battleforge to oczywiscie takze wina Ati w domysle, no bo jak inaczej? ty nawet nie beirzesz pod uwage, ze to developerzy gry dali dupy po calosci.

    "Jakosc obrazu, tekstury na ati maja czesto artefakty, migaja, rozmywaja sie, sa niedofiltrowane i maja gorsze anizo i wygladzanie czasem chodzi" <- jedno pytanie i chcialbym, bys odpowiedzial: kiedy ostatnio miales w rekach jakas karte Ati? Obstawiam, ze nigdy tak naprawde.
    Bo pitolisz takie bzdury, ze czlowiek az oczy ze zdumienia przeciera.

    "placac za karte nie chce miec z nia problemow w grach, a tak jest czesto" <- zacznijmy od tego, ze ty nigdy nie grales na Ati, wiec jak to masz tak "czesto"? :)


  150. @Drow (autor: Promilus | data: 5/10/09 | godz.: 16:34)
    A jakich różnic ktoś się spodziewał niby w grafice? Przecież za wyjątkiem tesselacji nie ma tam prawie nic co by miało wpływać na fotorealizm sceny...a battleforge tesselacji nie wykorzystuje.

  151. Drow (autor: dr1zzt | data: 5/10/09 | godz.: 16:54)
    Mylisz sie, ati ma wielki wklad (a moze wsad:)) w opracowanie tego standardu :)

  152. Ja tam rozumiem tłumaczenie nvidii (autor: pawel.xxx | data: 5/10/09 | godz.: 17:42)
    że pokazali atrapę bo działająca karta wygląda nieciekawie, jest poobwieszana kablami i przypomina jeża.
    No bo niby jak ma wyglądać karta na tym etapie? Na pewno podłączone do niej jest mnóstwo sond i innych interfejsów umożliwiających sprawdzenie czy układ działa zgodnie z założeniami. To jest etap w którym należy zweryfikować teorię z praktyką , i przygotować dokumentacje dla kart referencyjnych.


  153. @morgi (autor: trepcia | data: 5/10/09 | godz.: 18:01)
    "Jakosc obrazu, tekstury na ati maja czesto artefakty, migaja, rozmywaja sie, sa niedofiltrowane i maja gorsze anizo i wygladzanie czasem chodzi, to loteria, nie mowiac o nagle zonku w nowych grach, gdzie radeonki chodza wolno,"
    Jeśli wciąż uważasz, że Twoje słowa są tylko prawdą, wszystko poparte niezbitymi dowodami to ja podam tylko jeden argument, który obali i przebije wszystko to, co piszesz: mój komputer, zapraszam. Tego już nie oszukasz a swoje burczuńcze wypowiedzi będziesz mógł sobie schować między bajki.


  154. pawel.xxx (autor: rainy | data: 5/10/09 | godz.: 18:02)
    To powiedz po co było to wielkie halo?
    Dla mnie oczywiście po to by zasugerować jak fantastyczny będzie ten chip (i odwrócić uwagę od kart ATI).

    Nie zmienia to faktu, iż Nvidia (a sciśle jej szef) się skompromitowała.

    Uwzględniająć zaś, że AMD pokazało działające sample 58xx na początku czerwca, to nowa generacja kart Nvidii najprawdopodobniej nie pojawi się w tym roku (szczególnie, że do małych i nieskomplikowanych układów należeć nie będzie).


  155. @rainy (autor: pawel.xxx | data: 5/10/09 | godz.: 18:44)
    No i masz racje to było po to by odwrócić uwagę od kart ati i przekonać klientów by poczekali i wydali kasę na kartę nvidi. I bez wątpienia była to porażka PR.
    Tylko że niektórzy ludzie przeginają w ocenie tego potknięcia pisząc że nv nic nie pokazała, a pokazała działający układ w zestawie testowym. I stąd mój post, chciałem ich skłonić do bardziej stonowanych, przemyślanych sądów, nie wyciągania pochopnych wniosków i używania głowy do czegoś więcej niż noszenia czapki.
    Nie trzeba być geniuszem by domyślić się że po premierze hd58xx, a przed premierą gt300 inżynierowie nvidii są zawaleni pracą, niezależnie czy plotki o kłopotach z gt300 są prawdziwe czy nie. A zadanie przygotowania eksponatów na wspomnianą prezentacje prawdopodobnie spadło na tych inżynierów. Wcale im się nie dziwię że zrobili to na "odwal się"


  156. @pawel.xxx (autor: Marek1981 | data: 5/10/09 | godz.: 18:57)
    porażka jak porażka, ale teraz nie wiadomo czy pokazali komuś gotowy układ. Skąd wiesz że to była prawdziwa informacja??

  157. Promilus (autor: morgi | data: 5/10/09 | godz.: 19:41)
    Nie ciskaj komerhy, poki co ati z teselacja sieje latami pierdoly i nic z tego nie zdazylo wyjsc, licza sie dzisiaj tekstury i mapowanie, filtrowanie i szybkosc i jakosc upiekszaczy tych skadinad slabych teksturek. ati do czasu wejscia g80 bylo liderem i slusznie, ale od tego czasu nie moze zlapac iq i kiepa.
    rainy
    Zmienmy temat, no dobra szef pojechal mocno w trybuny pokazujac jakies CUDAczne tesle, a nie karte do gier, bo nic nie mowiono o kartach do gier, ani o premierze, tylko jakies CUDAczne bzdety, z ktorych wynika tylko tyle, ze nie ma tematu bo sprzet w lesie. O ati dx11 mozna powiedziec, ze maja najszybsze swoje karty w dx10 bez poprawy jakosci obrazu i tyle, reszta 'uzywek' ktore weszly sa z tym w lesie i po kiego te Eyefinity, teselacja i dx11 jak nie ma czym tego nawet sprobowac, lipa.


  158. trepcia (autor: morgi | data: 5/10/09 | godz.: 19:53)
    Tak sie sklada, ze opinie swiat wyrobil se przy okazji hd2k, a skoro to ta sama architektura, tylko szybciej, bo dolozyli mase jednostek, no to nie ma koronnych dowodow na obrone, tez wiem co pisze.
    Dzialajace sample pokazalo amd z waflem, tyle ze to nie bylo hd5800, tylko cos wolniejszego, mniejszego.


  159. @morgi (autor: trepcia | data: 5/10/09 | godz.: 20:00)
    Ehe, chyba nie wiesz co piszesz bo obecne hd4xxx i hd5xxx są zmodernizowaną wersją x2xxx i hd3xxx o czym powinieneś wiedzieć a nie wiesz.
    A skoro sobie świat wyrobił opinię to tym bardziej zapraszam bo w moim blaszaku siedzi 3870 czyli w prostej lini następne pokolenie x2xxx.
    "no to nie ma koronnych dowodow na obrone"
    Ja niczego nie bronię, weryfikuję jedynie Twoją "prawdę" z tym, co siedzi w czarnym aluminium obok moich nóg. Testuj, sprawdzaj, drzwi otwarte.


  160. @morgi (autor: Promilus | data: 5/10/09 | godz.: 20:01)
    Taaa, rzeczywiście...ta sama architektura. Działające UVD i to w nowszej wersji. AA nie zmniejszające FPS o połowę i AF nie redukujące o kolejne kilkadziesiąt % ;) Rzeczywiście. Ale pojęcia to ty nie masz...dla ciebie liczy się zatem opinia kogoś kto nie potrafił suwaków w ccc przestawić na highest quality? :P

  161. @morgi (autor: Drow | data: 5/10/09 | godz.: 20:07)
    zacznijmy od tego, ze nie majac nigdy karty w reku, to na razie g* wiesz, co piszesz..

  162. Jutro (autor: QampQ | data: 5/10/09 | godz.: 20:20)
    nV ma rzekomo podać premierę tej karty. Ciekawe czy to zrobi?

  163. ludzie (autor: LOLO64 | data: 5/10/09 | godz.: 22:39)
    przeciez morgi nawet nie miał styczności ze starszymi i nowymi Radeonami. Weź człowieku spraw sobie kiedyś HD5850 i nawet na NV nie spojrzysz. Tylko żebyś wtedy nie zrobił z siebie fanatyka AMD ;)

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.