Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Wtorek 19 stycznia 2010 
    

Architektura Nvidia Fermi GF100 w szczegółach


Autor: Zbyszek | źródło: HardCop | 08:33
(136)
Nvidia podała szereg informacji na temat architektury i wydajności swojego najnowszego układ graficznego. GF100 będzie produkowany w 40-nanometrowym (nm) wymiarze technologicznym i ma składać się z około 3.2 miliarda tranzystorów (1.4 miliarda w GT200). Chip będzie wspierał biblioteki DirectX 11, OpenGL 3.2 oraz OpenCL 1.1 i zawierał 16 głównych bloków wykonawczych, w każdym z nich po 32 procesory strumieniowe i 8 jednostek TMU. Łącznie da to liczbę 128 jednostek TMU oraz 512 procesorów strumieniowych, które określane będą mianem "rdzeni CUDA". Układ będzie dysponował 48 jednostkami ROP i współpracował z pamięciami GDDR5 poprzez 384-bitową magistralę. Karty graficzne z układami GF100 wyposażone będą standardowo w 1.5GB pamięci.

Nvidia podkreśla fakt, że GF100 to zupełnie nowa architektura i zmiany w niej wprowadzone nie ograniczają się tylko do zwiększania liczby poszczególnych jednostek.

W porównaniu do GT200 nowy układ zawiera bardziej wydajne jednostki ROP i TMU oraz unikatowy podsystem pamięci podręcznej, ze współdzieloną pamięcią podręczą drugiego poziomu. Oprócz tego podczas prac nad GF100 skupiono się nad wydajnością geometryczną, która odgrywa ważną rolę w Tesselacji i RayTracingu.

GF100 posiada 16 dedykowanych jednostek do obliczeń geometrycznych, dzięki czemu jego wydajność w obliczeniach geometrycznych ma być około 8-krotnie większa w porównaniu do GT200 i 4-krotnie większa w porównaniu do Radeona HD 5870.

Więcej szczegółów znajduje się poniżej, zainteresowani mogą także obejrzeć ciekawą animację przedstawiającą działania architektury GF100 na stronie nvidia.com/object/fermi_architecture


 

    
K O M E N T A R Z E
    

  1. poczekajmy na testy (autor: Marek1981 | data: 19/01/10 | godz.: 08:46)
    papier wszystko zniesie, ja poczekam na rzeczywiste testy do poczytania, porównam i wyciągnę wnioski.
    Z tego co pamiętam tester po wynikach w FC2 stwierdził że fermi jest ok 15% wydajniejszy od 5870.


  2. :.: (autor: arco2006 | data: 19/01/10 | godz.: 08:55)
    Powierzchnia Fermi - około 570 mm2.
    Czyli w 40nm mamy potwora wielkości GTX280 w 65nm (576 mm2).


  3. @arco (autor: pippi | data: 19/01/10 | godz.: 09:18)
    Nie ma co się dziwić - 3 mld tranzystorów nawet w 40nm procesie technologicznym wymaga sporo miejsca.
    Biorąc całość danych ujawnionych przez Nvidię za dobrą monetę można dojśc do wniosku, że to faktycznie będzie prawdziwy potwór, jeśli chodzi o wydajność.
    Z tym, że pojawia się istotne pytanie - ile taki 'monster' będzie kosztował? Stopień komplikacji konstrukcji, wysoki 'transistor count' oraz relatywnie mało efektywny (w sensie uzysku 100% sprawnych układów z wafla) proces technologiczny wskazują, że może być drogo, a nawet bardzo drogo. W efekcie nawet jeśli topowy Fermi pobije topowego Radeona w zakresie wydajności, to ze względów czysto ekonomicznych raczej mało prawdopodobnym jest, by - przynajmniej w początkowym okresie - mógł stanowić dla ATI prawdziwą konkurencję rynkową. Krótko mówiąc Fermi będzie dla Nvidii produktem czysto marketingowym, jego rolą będzie nie tyle zarabianie pieniędzy, co próba uratowania wizerunku producenta najszybszych układów graficznych.


  4. .:. (autor: Shneider | data: 19/01/10 | godz.: 09:26)
    wszystko pieknie fajnie ale jaka jest wydajnosc?

    wiem ze w marki sie nie gra, jednak jest to doskonaly wskaznik.


  5. .:. (autor: Shneider | data: 19/01/10 | godz.: 09:32)
    moze inaczej. wyznaja prosta zasade, chwalmy sie tym z czego jestesmy dumni.

    NV jest dumna ze w koncu fermi sie ruszylo, rowniez jest dumna z ilosci tranzystorow, dumna jest z szybkiej tessellacji dzieki czemu moga pokazac wykresic z unigine. rowniez sa dumni z PhysX i chwala im za to.

    ale cholera co z grami? zapomnieli o tym? ani jednej informacji ile to ma klatek w quake, lub nawet czy pasjans dziala poprawnie.

    jednak mysle ze to jest malo istotne bo jest to pierwsza karta niegraficzna, ktora posiada korekcje bledow. cos o czym marzyl kazdy gracz. eh


  6. Deja Vu Voodoo 5 6000? (autor: rookie | data: 19/01/10 | godz.: 09:42)
    Przydałoby się porównwnie Fermi vs Radeon 5970 lub fermi vs 2xRadeon 5850 w Crossfire.
    Wtedy moglibyśmy coś porównywać, a tak słowa, słowa.
    Voodoo 5 6000 miało być najlepszą kartą wszech czasów - nie doczekało niestety swojej premiery...Podobnie może być z fermi...


  7. podobno w grach (autor: zeek | data: 19/01/10 | godz.: 09:44)
    fermi jest szybsze o parenascie % od HD5870, troche zenada co ? ;/

  8. Shneider <- akurat ECC to raczej nie na potrzeby gier. (autor: Rhobaak | data: 19/01/10 | godz.: 09:50)
    Obecnie układy graficzne wykorzystuje się przecież także do innych celów.

  9. na papierze zapowiada się całkiem ciekawie (autor: Qjanusz | data: 19/01/10 | godz.: 09:55)
    widać w końcu trochę ambitniejsze (pamięć podręczna i dedykowana "geometrię") podejście w projektowaniu chipów niż tylko dokładanie kolejnych jednostek wykonawczych.

    Z niecierpliwością czekam na wyniki testów porównawczych, chodź z drugiej strony coś czuję że prawdziwy pazur grafa pokaże jak odpali się na niej dedykowany soft. A tu może już być smutno.

    Oby Fermi jak najszybciej powstał i pokazał się na półkach.

    Na mojego nosa, to karty 5870 nie będą miały konkurenta, bo najwydajniejsze Fermi będzie kosztowało krocie przewyższające 5870. Ciekawie się zrobi zapewne w okolicach 5830 / 5670. Ale to i tak w okolicach wakacji.


  10. Nie ma co gdybac, narzekac i fanboic (autor: MacLeod | data: 19/01/10 | godz.: 09:59)
    Uwazam ze karta wejdzie i poteznym kopem wywali radeony 58xx ze szczytu. To jest byc albo nie byc dla nv i lepiej dla kazdego z nas. Oby tylko wachlarzyk modeli byl duzy i na kazda kieszen. Czerwone A odpowie niedlugo i znow bedzie na gorze - konkurencja jest wazna.
    Wazne tylko zeby pojawil sie wachlarzyk modeli na kazda kieszen... 350,360,375,385... <marzyciel>


  11. .:. (autor: Shneider | data: 19/01/10 | godz.: 10:24)
    Rhobaak - doskonale o tym wiem.

    fermi to pierwsza karta niegraficzna nvidii.

    to procesor obliczeniowy z funkcja wyswietlania obrazu. cos na co czekaja wszyscy fani NV jak morgi.


  12. hehe (autor: morgi | data: 19/01/10 | godz.: 10:45)
    widze ze zaczynaja rozumiec fanowie, ze grafika do gier to dawno juz wyszla i nie potrzeba lepszej niz te w konsolach, a w zasadzie calych konsol. Po co mam wydawac kase na karty, ktorych uzyje kilka razy do roku, a niektore z nich beda wymagaly jeszcze karnego odczekania na poprawne wsparcie i sterowniki, czas realizowac obietnice z reklam, Nvidia ma taka jedna stara czyli CUDAcznosc.

  13. @morgi (autor: sz4rlej | data: 19/01/10 | godz.: 10:53)
    Chłopcze, ale zastanów się nvidia strzela sobie w stopę idąc w zastosowania profesjonale, które stanowią może 1% rynku. Reszta chce mieć zaje***tą grafikę w grach, płynne odtwarzanie filmów. Kto normalny wyda kupę kasy na potwora, który nie zapewni mu lepszej wydajności w grach? Ja rozumiem, że to jest przyszłość kart graficznych, ale NV mogła wydać też coś dla zwykłego zjadacza chleba. Obawiam się, że kastraty tej karty będą zbyt mało wydajne w grach w porównaniu do radeonów.

  14. .:. (autor: Shneider | data: 19/01/10 | godz.: 10:59)
    [usunięto]

    gdyby konsole byly takie AH, to NV nigdy nie wypuszczala by zadnego geforce'a.


  15. Shneider (autor: komisarz | data: 19/01/10 | godz.: 11:00)
    alez ty spamujesz. Moze wyjdz na spacer, zobacz ludzi? 2 posty pod rzad, kazdy naładowany faboizmem.

    "ale cholera co z grami? zapomnieli o tym? ani jednej informacji ile to ma klatek w quake, lub nawet czy pasjans dziala poprawnie." nowey Goebels normalnie. przeciez pokazali Far Cry, wiec jakas gra jednak sie uruchomila, podali liczbe klatek (nawet pokazli, wiec jednak nie "ani jedna gra". Ale ze z definicji jestes zajebisty (bo atakujesz nvidie), to nikt sie nie przyczepi, ba etatowi klakierzy przyklasna...


  16. @rookie (autor: Qjanusz | data: 19/01/10 | godz.: 11:08)
    akurat voodoo5 6000 byłby piękna kartą, gdyby wszedł na rynek. Niestety zabrakło kasy i mądrych głów w 3dfxie.

    Sama karta wrażenie robi - nawet dzisiaj :-)
    http://www.techimo.com/...ta/500/7voodoo5-6000.jpg

    Fermi bardziej przypomina Larrabee. Układ do wszystkiego, a zarazem do niczego. Mam nadzieje że się mylę.


  17. .:. (autor: Shneider | data: 19/01/10 | godz.: 11:09)
    komisarz - cos wiecej pysiu? na konkretne tematy nie odpowiadasz, ale popierdolic to juz mozna. bo tak prosciej.

    takze pysiu co masz ciekawego do dodania?


  18. Ktos raczy zartowac sprzet Nvidii w 90% (autor: morgi | data: 19/01/10 | godz.: 11:13)
    pokrywa zapotrzebowanie na profesjonalna 3D, czyli cos z czego jest konkretny dochod, a jaki no taki jak calego departamentu ati. Liczy sie to, zeby zlapac nowe rynki i mozliwosci, zanim sie je straci na dobre.
    http://www.xbitlabs.com/...2_2009_jpr_graphics.png


  19. .:. (autor: Shneider | data: 19/01/10 | godz.: 11:15)
    [usunięto]

  20. Ładne wykresy i obrazki a gdzie karta? (autor: Borat | data: 19/01/10 | godz.: 11:15)
    nVidia powinna startować w konkursach modelarskich bo atrapy budują znakomite :)

  21. @Borat (autor: Qjanusz | data: 19/01/10 | godz.: 11:25)
    dokładnie. Całe mnóstwo tematów zastępczych, ale samego sedna, czyli PRAWDZIWEJ karty graficznej BRAK!

  22. @morgi (autor: sz4rlej | data: 19/01/10 | godz.: 11:37)
    szczerze mówiąc nawet jeśli nV opanuje cały profesjjonalny rynek, który stanowi 1% całości natomiast straci 10% na rynku graczy straci znacznie więcej niż zyska. Naprawdę fajnie, że oferują coś dla profesjonalistów. Ja tego nie neguje. Może na dłuższą metę się to sprawdzi, ale możliwe też, że dużo straci. I nic nie zmieni faktu, że obecnie głównym motorem rozwoju kart graficznych są gracze a nie zastosowania profesjonalne.

  23. czepisacie sie nv że ma opóźnienie (autor: pawel.xxx | data: 19/01/10 | godz.: 11:44)
    A tego opóźnienia będzie raptem 100 dni. Przy R&D to nie jest koniec świata.
    Z punktu widzenia marketingu nv lepiej nie pokazać nic niż pokazać produkt kiepski czy nieopracowany - bo odrobić straty jakie spowoduje niedopracowany produkt w opiniach konsumentów o marce będzie ciężko.
    Ati/AMD nie musi się tym przejmować - konsumenci i tak są przekonani że konkurencja jest lepsza wiec i błąd TLB w pierwszych phenomach czy niedopracowane sterowniki nie są problemem.


  24. Dla profesjonalistów... (autor: tompo75 | data: 19/01/10 | godz.: 11:53)
    tiaaaa.... deja vu z Matroxem, który kiedy dostał zadyszki wydajnościowej i nie był w stanie konkurować z najlepszymi, to postawił na jakość grafiki i nazwał to, że dla profesjonalistów którzy nigdy tego na dobrą sprawę nie potrzebowali. Obawiam się tutaj podobnego.
    Nie zmienia to faktu, że sam pomysł, idea Intela czy NV, karty wolne od DirectX itd itp jest super... ale niestety przez to zostali w tyle z czymś co napełnia im skarbonkę... wydajnością dla graczy.
    A wszystkich pieniaczy tutaj pozdrawiam ;) i cieszcie się, że macie tylko takie problemy, bo myślę że na np Haiti mają te "problemy" i dyskusje akademickie głęboko w du**e. Peace :)


  25. ZATEM JESZCZE RAZ (autor: Barbarian | data: 19/01/10 | godz.: 12:07)
    Nie widzę żadnych nowych danych.
    Fermi nie pojawi się w 2010 roku. Odpalenie masowej produkcji takiego układu trwa miesiące. Sam proces produkcyjny trwa tygodnie od rozpoczęcia cyklu. Chwilowo, poza atrapami, nic nie było widać. Architektura jest godna uwagi i przełomowa, ale niestety coś nvidii nie wychodzi. Może się jeszcze okazać, że rzecz będzie w grach cieniutka i jedynie CUDA będą interesującym aspektem tego układu. Do tego dochodzi cena finalnego produktu, która będzie na 100% powalająca. Fermi GT104 to czyste S-F.


  26. .:. (autor: Shneider | data: 19/01/10 | godz.: 12:09)
    pawel.xxx - jednak to o czyms swiadczy. NV tak sie wprawilo w kulinariach ze zapomnieli opacowac nowe GPU.

    kiedys takich sytuacji nie bylo, kazda firma wypuszczajac nowa karte miala juz przygotowana nast generacje, ktora czekala na mniejszy proces technologiczny. NV zapedzilo sie jak larrabe, mieli wizje jednak poswiecili za duzo uwagi jednemu produktowi. badz tez slepo wierzyli ze jest to sluszna sciezka.

    3dfx, wypuszcajac voodoo 2 myslalo ze jest bogiem, s3 Savage3D opracowalo ponadczasowa technologie kompresji tekstur i wydawalo sie ze to jest to, matrox parhelia 512 mial byc przelomem, na miare fermi a poznej nastala era geforce'ow i rozpoczela sie walka z jakas tam ATI ;-)

    skoro NV chce wkroczyc na rynek prof, droga wolna. ale co z chipami graficznymi dla konsol i PC, tylko ATI bedzie na bierzaco, a to dobrze nie wrozy na przyszlosc, bo wejsc ponownie na ten rynek bedzie cholernie ciezko.


  27. ??? (autor: mandred | data: 19/01/10 | godz.: 13:09)
    dlaczego nie została pokazana sama karta? Takie filmiki z pokazaną rzekomą liczbą fps może spreparować każdy kowalski o wykresach nie wspominając.

  28. Nawet jezeli to bedzie dobra karta (autor: Galnospoke | data: 19/01/10 | godz.: 13:14)
    bo zamysl mi sie podoba, cena MUSI byc nizsza niz te 400-500$.

    http://www.youtube.com/...;feature=player_embedded


  29. Aha (autor: Galnospoke | data: 19/01/10 | godz.: 13:17)
    Mialem oczywiscie na mysli rynek graczy, nie pro.

  30. A to robi wrazenie (autor: Galnospoke | data: 19/01/10 | godz.: 13:19)
    http://www.youtube.com/...D8X0&feature=channel

  31. ... (autor: pawel.xxx | data: 19/01/10 | godz.: 13:22)
    jeszcze raz powtarzam 3 miesięczne opóźnienie w R&D nie jest katastrofą. Odkrywając, budując coś nowego niesposób przewidzieć wszystkich trudności i problemów. To nie jest produkcja na taśmie, w tej dziedzinie nie da się zaplanować że np.: "we wtorek zdefiniujemy takie a takie prawo, w środę odkryjemy takie a takie zjawisko, a w piątek wykorzystamy oba"
    Innowacyjność jest związana z ryzykiem. Nagrodą dla tego kto zaryzykuje i mu się powiedzie jest prawo do ustalania reguł, wiodąca pozycja w jakiejś niszy rynkowej i patenty za które ci którzy zechcą pójść w jego ślady będą musieli zapłacić.
    Z opisu architektury fermi wynika iż nvidia wcale nie rezygnuje z rynku graczy, a jedynie kładzie większy nacisk na zastosowania GPGPU. Które to zastosowania rozwijała juz od dwóch poprzednich generacji kart.
    W opisie arch fermi nie ma mowy o ograniczeniu możliwości w grach a jedynie o rozszerzeniu możliwości w GPGPU i dostosowanie ich do wymagań rynku profesjonalnego. Dane które właśnie zostały ujawnione także nie wskazują na regres wydajności w grach - wręcz przeciwnie, użyto kilka technologii podnoszących wydajność w grach.

    Qjanusz pisze że fermi przypomina mu larrabee
    i że układ do wszystkiego jest do niczego.
    1) rdzenie larrabee są zupełnie innej klasy: x86, kompletne w sensie Turinga, i nadal uważam że to świetny pomysł.
    2) każdy CPU jest takim uniwersalnym układem do wszystkiego i niczego


    Czepianie się dużych rozmiarów fermi także jest dyskusyjne - bo jeśli faktycznie okaże się iż fermii dostarcza GPU + dodatkowo GPGPU identyczne i kompatybilne we wszystkich segmentach od desktopa po superkomputer.
    To przewaga nad konkurencją będzie ogromna,
    a większy rozmiar jest uzasadniony.


  32. Schneider znalazłęś screen w wątku o SP1 (autor: Michał_72 | data: 19/01/10 | godz.: 13:35)
    dla win 7 ?

  33. .:. (autor: Shneider | data: 19/01/10 | godz.: 13:37)
    pawel.xxx - ale skad wziales 3mce.
    NV w momecie kiedy sprzedaje 285 powinna miec juz dzialajace wersje inzynierskie nast generacji.

    takze dodaj do tych 3mcy, jeszcze pol roku.


  34. .:. (autor: Shneider | data: 19/01/10 | godz.: 13:40)
    Michał_72 - dzieki, zapomnialem juz o tamtym watku ;-)

    czyli wyglada na to ze W7 swoje potrzebuje, ale dla sofu ladnie gospodaruje ramem. Dzieki za linka.


  35. @pawel (autor: zeek | data: 19/01/10 | godz.: 13:44)
    "Ati/AMD nie musi się tym przejmować - konsumenci i tak są przekonani że konkurencja jest lepsza wiec i błąd TLB w pierwszych phenomach czy niedopracowane sterowniki nie są problemem."

    juz to twoje zdanie swiadczy o tym ze jestes zielonym fanboyem i jakakolwiek dyskusja z toba nie ma najmniejszego sensu


  36. @ Shneider (autor: pawel.xxx | data: 19/01/10 | godz.: 13:45)
    "pawel.xxx - ale skad wziales 3mce.
    NV w momecie kiedy sprzedaje 285 powinna miec juz dzialajace wersje inzynierskie nast generac"


    najlepiej w procesie technologicznym którego TMSC jeszcze nie wdożyła :)


  37. @ zeek (autor: pawel.xxx | data: 19/01/10 | godz.: 13:50)
    Otóż nie jestem fanboyem. A to zdanie jest parafrazą wypowiedzi jednego ze zwolenników AMD który zarzucał konsumentom iż dla niech waże jest by w kompie był intel, nvidia i odpowiednia liczba gigabajtów i gigahertzów.

  38. .:. (autor: Shneider | data: 19/01/10 | godz.: 13:52)
    pawel.xxx - ale przeciez to nie problem.

    od dawna sie w ten sposob robilo prototypy, czyli wykorzystujac proces aktualnie dostepny.

    Nawet najwieksze glowy nie potrafia okreslic koncowej wydajnosci produktu, wiec trzeba miec fizycznie procesor by stwierdzic na czym sie stoi.


  39. @Shneider (autor: pawel.xxx | data: 19/01/10 | godz.: 14:02)
    Na takie prototypowanie jak piszesz to chyba tylko intel może sobie pozwolić bo ma własne fabryki i opracowując niższy proces możne równie dobrze ćwiczyć na prototypie.

  40. Nvidia w tej chwili opanowala (autor: morgi | data: 19/01/10 | godz.: 14:05)
    rynek profesjonalny 3D, jest samotnym innowatorem 3D, jako jedyna stara sie faktycznie zbudowac gpgpu i ja jestem tutaj wielkim sceptykiem, czy kiedykolwiek uda im sie oderwac gpu od cpu, bo do tej pory bylo to niezliwe, ale moze Fermi bedzie tutaj lepszym uzasadnieniem. Pelno papierow i good, bedziemy weryfikowac srogo po premierze, tak samo jak srogo zweryfikowano ati. Natomiast mierzenie czy im sie uda czy nie to pokaz zarobkow i udzialow w rynku, gdzie w tej chwili desktop maja spokojnie zaklepany bo spadek prawie zaden, a jedynie mobile ucierpial i tam powinni wrzucic cos od dawna bardzo oszczednego. Problem w tym, ze oszczednej grafiki to ja nie znam, chyba ze igp i tam zalatwione jest i ati i Nvidia na cacy, oprocz Tegra i Ion.

  41. @morgi (autor: Barbarian | data: 19/01/10 | godz.: 14:19)
    Jesteś jak zawsze SUPER. Masz totalnie krystaliczne spojrzenie na rzeczywistość i wyciągasz błyskotliwe wnioski. Tak trzymaj i nie zwalniaj tempa.
    PS. Fermi jak nie było, tak nie ma i nie będzie w AD2010.


  42. Morgi- na problem oszczędności energii patrzysz od d.. strony (autor: Michał_72 | data: 19/01/10 | godz.: 14:21)
    Jest potrzebny zupełnie nowe źródło energii dla urządzeń przenośnych, bo akumulatory doszły już do ściany jeśli chodzi o wydajność z jednostki masy.
    Bez tego dalej będzie wyścig ślimaków.


  43. ...... (autor: Marek1981 | data: 19/01/10 | godz.: 14:24)
    @paweł.xxx -
    1 "Na takie prototypowanie jak piszesz to chyba tylko intel może sobie pozwolić bo ma własne fabryki" i AMD.
    2 "Ati/AMD nie musi się tym przejmować - konsumenci i tak są przekonani że konkurencja jest lepsza wiec i błąd TLB w pierwszych phenomach czy niedopracowane sterowniki nie są problemem." jak już podsumował zeek dodam tylko zaślepionym że w c2d też występuje ten problem i co??? głupi zawsze kupi....
    @Shneider -
    1. NV ma już ok 3mc opóźnienia od planowanej premiery, a jeszcze dodaj ok3-5mc
    2. Nie dyskutuj z komisarzem bo nie warto


  44. ... (autor: 7eki | data: 19/01/10 | godz.: 14:28)
    Jak to amerykanie zwykli podchodzić do wszystkiego, GF100 bedzie za duży, za drogi i bardzo wydajny. Strategia, z której ATI zrezygnowała generację wcześniej. (ot takie bardziej europejskie i rozsądne podejście do sprawy) Wydaje mi się, że dużo się nie zmieni. Najmocniejsza wersja GF100 będzie pewnie odpowiednikiem cenowym i wydajnościowym dwóch radeonów 5850. Jedno co śmieszy to ta ciągła chęć nvidii na pokazanie całemu światu, że to oni mają GPGPU na wyłączność, kiedy za rogiem jest już otwarty standard, który niczym nie ulega rozwiązaniu zielonych, przynajmniej nie będzie powodem do rezygnacji z rozwiązań konkurencji w najbliższym czasie, bo jak wiadomo rv870 jest chipem przygotowanym także pod kątem GPGPU w przeciwieństwie do rv770. Wydawać by się mogło, że oczywistym jest to, że równowagi zaburzać się nie powinno. NV jeszcze chyba nie zwróciły się koszty opłacenia stada murzynów, którzy napisali kompilator CUDA...

  45. Co do oszczednosci to nie tylko igp (autor: MacLeod | data: 19/01/10 | godz.: 14:45)
    http://www.techpowerup.com/...mages/power_idle.gif
    http://www.techpowerup.com/...es/power_maximum.gif

    Jak widac sa oszczedne karty do desktopow najbardziej mnie zadziwia seria 57xx ktora porownywalna wydajnosciowo z 48xx zuzywa w cholere mniej pradu. Ciekawe jak bedziez nowym gf


  46. apropos, lekka prywata (autor: MacLeod | data: 19/01/10 | godz.: 14:47)
    Czy ktos posiada 5770 gigabyte i moze potwierdzic mozliwosc regulacji wentylatora? dzieki

  47. @ Marek1981 (autor: pawel.xxx | data: 19/01/10 | godz.: 14:55)
    ad1)
    no nie bardzo jest to prawda
    Shneider pisał:
    "pawel.xxx - ale skad wziales 3mce.
    NV w momecie kiedy sprzedaje 285 powinna miec juz dzialajace wersje inzynierskie nast generac"

    Czyli w przypadku AMD działające próbki inżynieryjne HD6xxx powinny powstać w sierpniu zeszłego roku.

    ad2.
    Błąd TLB dotyczył tylko phenoma pierwszej generacji i pierwszej rewizji.
    A i tak doprowadził do klapy całej linii cpu, utrwalając w konsumentach skojarzenie: AMD - to ci od zawieszających się proców.


  48. @pawel.xxx (autor: Marek1981 | data: 19/01/10 | godz.: 15:34)
    Ale ten sam błąd ma intel w c2d ( był dużo wcześniej od phenoma)

  49. @Marek1981 (autor: pawel.xxx | data: 19/01/10 | godz.: 15:41)
    jakiś link do wiarygodnego źródła?

  50. [usunięto] (autor: pml83@o2.pl | data: 19/01/10 | godz.: 15:42)
    [usunięto]

  51. [usunięto] (autor: pml83@o2.pl | data: 19/01/10 | godz.: 15:43)
    [usunięto]

  52. @pawel.xxx (autor: Marek1981 | data: 19/01/10 | godz.: 16:12)
    http://www.egielda.com.pl/?str=news&id=3955
    Poczytaj do końca i poszukaj na google.


  53. @pawel.xxx (autor: Marek1981 | data: 19/01/10 | godz.: 16:13)
    http://www.heise-online.pl/...re-2-Duo-756619.html

  54. Galnospoke (autor: mandred | data: 19/01/10 | godz.: 16:15)
    nie wiem czym tu się podniecać, efekty takie jak zawsze. Jeszcze dużo brakuje, żeby woda zachowywała się jak woda a wybuch jak wybuch. Takie same efekty można uzyskać na kartach AMD, tylko po co skoro i tak nie wykorzysta się ich w grach bo nawet kilka GF100 mając wydajność taką jak sugeruje nvidia dostało by przy tym czkawki.

  55. sorry że od konkurencji (autor: Marek1981 | data: 19/01/10 | godz.: 16:19)
    "Według doniesień strony Fudzilla, nVidii dość ciężko jest egzystować ze świadomością braku palmy pierwszeństwa w wydajności, więc po debiucie akceleratorów Fermi GF100, koncern już w kwietniu będzie chciał zaprezentować odpowiednik Radeona HD 5970, którego zadaniem ma być pobicie dwu układowej karty AMD. Jak się przypuszcza, podwójny Fermi byłby najgorętszą w historii nVidii kartą i przed inżynierami stanąłby nie lada problem do rozwiązania. Jeśli ta plotka okazałaby się prawdą, potwierdzałoby to pogłoski, że pojedynczy Fermi nie jest w stanie sprostać w grach podwójnemu Radeonowi. Być może powstanie tylko seria kilkunastu takich kart w astronomicznej cenie, tylko po to, by zepchnąć z "tronu" produkt konkurencji ... Pozostaje nam tylko czekać, bo na razie nie znamy nawet wydajności w grach, Fermiego w wersji "solo"."

  56. @all (autor: Marek1981 | data: 19/01/10 | godz.: 16:31)
    kto usuwa treści??? (nareszcie) Przydałaby się informacja za co.... po co popełniać te same błędy.

  57. @pawel.xxx (autor: Qjanusz | data: 19/01/10 | godz.: 16:50)
    o TLB wiedzą tak na prawdę nieliczni. Na pewno już nie zwykły człowiek, który chce kupić kompa w markecie. Intel ma takie same problemy, ale mimo wszystko to AMD jest wiązany w "światku" z takim błędem - Ty jesteś najlepszym tego przykładem. Ciekawe dlaczego? Czarny marketing?

    Co do tych 100 dni poślizgu, to też nieźle pobłądziłeś. Dodaj sobie kolejne 100, to będziesz bliżej prawdy. Ale nawet nie o poślizg tu chodzi, tylko o totalne błazeństwa, jakie wyczyniał marketing i szefostwo nVidii, upadając w oczach nawet własnego zarządu.

    A Fermi, jak napisałem wcześniej, będzie tak przydatnym tworem jakim miał być Larrabee, i zapewne bez sensu utrzymywanym na rynku jak Cell.
    Wielkie rewolucje, które ani nie mają szans na zwrot kosztów poniesionych na badania, ani nie spełnią idealnie swojej funkcjonalności, bo jak zwykle okaże się że konkurencja dysponuje lepszym rozwiązaniem.


  58. @pawel.xxx (autor: Qjanusz | data: 19/01/10 | godz.: 17:16)
    a jeszcze o rynku graczy...
    Jeżeli wg Ciebie nie rezygnuje z tego rynku, to jak wytłumaczysz propozycję nVidii, która nic nie zarabiając rzuci na rynek samego GPU za 200$? Gotowa karta będzie kosztowała krocie. Ilu graczy zapłaci 2-3x więcej za 10% większej wydajności?


  59. @Qjanusz (autor: Marek1981 | data: 19/01/10 | godz.: 17:26)
    "Ilu graczy zapłaci 2-3x więcej za 10% większej wydajności?" znajdzie się kilku "ynteligentów" typu komisarz i morgi co to kupi...
    Tak na poważnie marketing może zdziałać cuda...


  60. Szykuje się porażka (autor: Marucins | data: 19/01/10 | godz.: 17:38)
    Poczekajmy troszkę i zobaczymy co naprawdę zieloni przygotowali. Bo te ich kolorowe obrazki nie wiele mówią - jak to zawsze bywało w takich sytuacjach - jakieś słupki, jakieś skale nie wiadomo o co chodzi (człowiek tylko domyśla się, a i tak okaże sie że to nei jest prawda)

    Kila % za sporą ilość gotówki. A co z poborem energii a z tym wydzielanego ciepła. Cisza, zero porównań :)


  61. @Qjanusz (autor: pawel.xxx | data: 19/01/10 | godz.: 17:45)
    nie ważne jest czy konsumenci wiedzą o co dokładnie chodziło z TLB, ważne że kiedyś coś im się o uszy obiło. To wystarczy by mieli uprzedzenia do marki. Ważne że w jakimś teście zobaczą że intel jest szybszy, ważne że ich znajomi mają kompy na intelu etc. I nie jest to czarny marketing tylko próba wyjaśnienia decyzji konsumentów o które to decyzje fanboy`e AMD mają pretensje do ... nvidi i intela

    Reszta to fantazje bez racjonalnych przesłanek.

    ad2
    Dlaczego sądzisz że karta będzie kosztowała krocie. Rzeczywisty koszt produkcji karty jest mniejszy od 160$ - tyle kosztuje radeon 4870 z GPU, 1GB GDDR5, PCB i resztą elementów.


  62. @mandred (autor: Galnospoke | data: 19/01/10 | godz.: 17:45)
    Efekty takie jak zawsze? To chyba ogladamy inny pokaz. Przeciez to wgniata w fotel. Pytanie jedyne jakie sobie stawiam: czy to jest realtime, czy tez prerender bo marketingowcy to takie czasami bajki probuja wmowic...

  63. @pawel.xxx (autor: Galnospoke | data: 19/01/10 | godz.: 17:50)
    Zabawne facet... Ja nie jestem raczej zwyklym konsumentem, a nie wiem co to jest TLB, a co odpiero tata, mama ktorzy chca kupic komputer dla dziecka.

    nVidia ma wielki problem. Ja gdybym kupowal topowa grafike to raczej bym kupil tego GF100, pod warunkiem porownywalen ceny do topowej karty konkurencji. Prolem jest w tym, ze konkurencja oprucz modeli topowych ma takze budzetowe, a nVidia nie ma nic. Mowiac potocznie: umarl w butach.


  64. @all (autor: Marek1981 | data: 19/01/10 | godz.: 18:06)
    Co do błędu TLB - prawdopodobnie u nas we firmie były takie przypadki ( na 2 pc z cd) w jednej aplikacji dociążającej niemiłosiernie proce. Było wszystko robione (inny os, zmieniana płyta na nową, pamięci dysk i ram ..... wszystko nic nie dawało. Wymieniono proce (na inną serie) i problem jak ręką odjął.

  65. @Marek1981 (autor: pawel.xxx | data: 19/01/10 | godz.: 18:09)
    ale co wynika z tych tekstów?
    W drugim przypadku rzecz sprowadza się do tego że jeśli popełni się błąd pisząc OS to może się zdarzyć wywołanie złego wyjątku. Straszne! Trzeba mieć właściwą funkcję jego obsługi far jump załatwia sprawę.

    Natomiast link z egieldy jest ciekawszy. Pisze się że nie było problemu TLB w phenomach jednocześnie podając że AMD rozwiązało ten problem rewizją B3 - to jak rozwiązywali nieistniejący problem?
    Zarzuca się że w procach intela są taki same błędy, i ze błąd TLB phenpomów był nieuczciwą zagrywką marketingowców intela.


    "Dlaczego identyczny &#8222;błąd&#8221; nie został wygarnięty podczas premiery procesorów Core 2 Duo / Core 2 Quad (Kentsfield) czy Core 2 Quad (Yorkfield)?"

    No właśnie dlaczego? Albo marketingowcy AMD to dupy z uszami że siedzą cicho, albo nie ma czego wygarniać.


  66. @pawel.xxx (autor: Wyrzym | data: 19/01/10 | godz.: 19:45)
    Czytalem tego arta na e gielda jakis czas temu, ale tam raczej bylo napisane ze nie bylo problemu TLB bo nie udalo sie go nikomu odtworzyc, a AMD naprawilo teoretyczna mozliwosc jego wystapienia.

    Wiec albo cos ja zle pamietam, albo Ty czytasz to co chcesz przeczytac zeby "byc fajny" ^^


  67. recepta (autor: pml83@go2.pl | data: 19/01/10 | godz.: 21:08)
    Wolę poczekać i kupić NV niż dać satysfakcję AMDkowskim trollom.

  68. @pml83@go2.pl (autor: arco2006 | data: 19/01/10 | godz.: 21:22)
    jak tam sobie chcesz i bez ciebie AMD nie zbiednieje, bo ja wole dać AMD niż NV za te atrapy i papierowe premiery.
    Ja jak przy kasie będe to składam 2 zestawy jedem mnie a drugi znajomemu na AMD/ATi AM3 i kiedyś jak będą przystępne ceny Phenona x6 się zmieni, bo mnie nie stać na Intela i5 750 - za to mam procka i ramy


  69. @Wyrzym (autor: pawel.xxx | data: 19/01/10 | godz.: 21:49)
    Jak już pisałem dla mnie artykuł na egieldzie i stanowisko AMD w sprawie błędu TLB jest sprzeczne logicznie.
    Z jednej strony piszą ze błąd nie wystąpi z drugiej wydają patche dla os-ów korygujące błąd i obniżające wydajność oraz nowy stepping by ten błąd nie wystąpił.


  70. @pawel.xxx (autor: Marek1981 | data: 19/01/10 | godz.: 22:03)
    Tak jak i Intel wydał poprawkę do błędu w swoich prockach.
    Tylko od samego początku jak śledzę rywalizację ADM z Intelem nie pamiętam żadnych większych uszczypliwości ze strony AMD. To troszkę dziwne.

    @pml83@go2.pl - pokazałeś tylko jak żenująco niski masz poziom intelektualny.
    Każdy normalny kupuje co mu się podoba a nie po to by robić komuś na złość (fanboyomAMD:))


  71. @ Marek1981 (autor: pawel.xxx | data: 19/01/10 | godz.: 23:07)
    I co dokładnie cie dziwi?
    Działania które podejmuje dział marketingu intela by walczyć z konkurencja, za które biorą kasę?
    Czy brak takich samych dzialań ze strony działu marketingu AMD?


  72. @pawel.xxx (autor: Marek1981 | data: 19/01/10 | godz.: 23:18)
    Raczej to drugie.

  73. Co do wydajności GF100 (autor: Zbyszek.J | data: 20/01/10 | godz.: 00:19)
    Pierwsze nieoficjalne testy nie od producenta

    http://img687.imageshack.us/...2comparisonedit.png


  74. Zbyszek.J w polowie Listopada nie bylo jeszcze pracujacego GF100:)) (autor: speed | data: 20/01/10 | godz.: 01:41)
    Przepychacie sie jak dzieci a to ATI lepsza a to Nvidia lepsza co za roznica wyjdzie GF100 czy jak nazwalem (oferma) to sie okaze co to warte a ze bedzie drogie nawet bardzo drogie to jestem na 100% pewny.
    Z drugiej strony powiedzcie kto z was gra w wiekszej rozdzialce od 1920x1200??? malo (tak przypuszczam) o 2560x1600 nie wspomne bo chyba niema takiego . Do 1920x1200 wystarczy to co juz jest na rynku nie rozumie waszego podniecenia tym GF100 i czy bedzie lepszy od ATI czy gorszy .


  75. .... (autor: Marek1981 | data: 20/01/10 | godz.: 07:20)
    Mnie jeszcze ciekawi zużycie prądu.
    Bo według moich obliczeń to wychodzi 270-300W.
    Zapowiada się monstrum ala 280


  76. @pawelek (autor: zeek | data: 20/01/10 | godz.: 09:08)
    blad TLB mozliwy byl do uzyskania tylko i wylacznie w warunkach laboratoryjnych, ale nie o tym jest ten temat

  77. @Marek1981 (autor: arco2006 | data: 20/01/10 | godz.: 10:26)
    mi się też wydaje że to będzie bardzo cieplutka karta od NV. Tylko jak ktoś ją kupi i brak przewiewnej budy to ją usmoli. Mam nadzieję że oFerma będzie dobra kartą i ATi zacznie wtedy szaleć z cenami.
    Na jakimś forum czytałem że oFerma będzie najcieplejszą kartą w historii NV.
    http://www.fudzilla.com/content/view/17291/65/


  78. TSMC już ma FAB 12 na 28 i 22nm (autor: arco2006 | data: 20/01/10 | godz.: 10:33)
    http://www.fudzilla.com/content/view/17308/1/

  79. Na 28 nm (autor: morgi | data: 20/01/10 | godz.: 10:40)
    gdzie produkcje testowa zaczna w q3, a po pol roku moze przy dobrych wiatrach masowa.
    Do 22 nm jeszcze daleko
    'TSMC is also planning to construct Phase 6 of Fab 12, which will be mainly used as its 22nm production base, according to Liu.'


  80. Co za różnica (autor: tompo75 | data: 20/01/10 | godz.: 10:43)
    za 5 lat i tak wszystkie te karty, o które tyle krzyku wylądują w zakurzonym pudle na strychu ;)
    Ważne by na szczycie było tłoczno, jak i na calym przedziale cenowym, bo to oznacza właśnie rozsądny stosunek cena/wydajność.


  81. ... (autor: Marek1981 | data: 20/01/10 | godz.: 12:12)
    Czyli niespodzianka AMD to 5870 w 28nm:)
    I spadek kosztów a więc i ceny.


  82. pawel.xxx (autor: rainy | data: 20/01/10 | godz.: 13:00)
    Bazując na tym, iż Fermi ma 570 mm2 (jest to praktycznie pewne) ze standardowego wafla możesz uzyskać 124 układy (w domyśle, w idealnych warunkach).

    Nvidia ma podobno 25 procent (choć mówiło się o 20) uzysku - to oznacza 31 sprawnych układów.
    Koszt wafla to około 5000 dolarów.

    Jak nietrudno policzyć koszt samego GPU to 160 dolarów.
    Przy 20-procentowym uzysku to już 200 dolarów.

    Mówienie w tym kontekście o 160 dolarach za całego 4870 jest nieco zabawne.

    Przypominam: PCB Fermi będzie na pewno dużo bardziej złożona, do tego dochodzi więcej RAM-u (ze względu na 384-bitową szynę pamięci, minimum 1,5 GB) plus wydajne i w związku z tym całkiem kosztowne chłodzenie.

    Jak można oczekiwać cena najmocniejszego modelu nie będzie niższa (a najprawdopodobniej wyższa) niż 5970, od którego jak się zdaje, będzie jednak wolniejszy (przynajmniej w grach).


  83. @pawel.xxx (autor: Qjanusz | data: 20/01/10 | godz.: 13:13)
    oFermi będzie kosztowało krocie ze względu na chociażby bardzo kiepski uzysk sprawnych GPU, skomplikowane PCB (384bit magistrala) i mocno wydajny układ chłodzenia (i to nie po to żeby karta była chłodna, tylko po to żeby w ogóle działała)

    To są tylko powody o których my wiemy.

    Były newsy o tym, że jeżeli karta ta ma konkurować z Radeonami, to nVidia musiałaby dopłacać. Rzuca kilka sztuk na rynek a z resztą okopią się jak Matroxy swego czasu i zaczną udawać firmę nastawioną na rynek PRO.


  84. .... (autor: Qjanusz | data: 20/01/10 | godz.: 13:18)
    heh... @rainy mnie ubiegł.

    Jest tylko jeszcze jedna sprawa o której możemy nie wiedzieć. nVidia zapowiadała że nowe układy będą się rewelacyjnie skalować.
    A może są one tak zaprojektowane, że z kilku niesprawnych chipów będzie można wykroić sprawne segmenty i ze sobą je scalić tak, aby uzyskać sprawnego GPU.

    Jest to możliwe. Nie zapominajmy o potencjale nVidii. Byłby to 513 CUD(a) ;-)


  85. Za pol roku zaczna produkcje (autor: morgi | data: 20/01/10 | godz.: 13:49)
    czyli ati moze wtedy wydac gpu na test procesie, znaczy sie problemy takie jak w ostatnim roku, niby jest po premierze a jakby nie ma w sklepach. Powered by ati = power on paper.

  86. @morgi (autor: 3men | data: 20/01/10 | godz.: 14:13)
    właśnie dzisiaj kupiłem 3 juz 58xx i jakoś specjalnie nie szukałem i nie biegałem, ergo dla chcącego nic trudnego

    nie wiem czy to ma (choć powinno) znaczenie, ale cóż to za wersja catalystow?
    http://img687.imageshack.us/...2comparisonedit.png


  87. @morgi (autor: baltazarek | data: 20/01/10 | godz.: 14:14)
    Nienawisc tak cie zaslepia, ze klamiesz na potege. Nvidia ma "power on paper" i to jest dla kazdego oczywiste. Na dodatek pokazuje atrapy, co w tej branzy oznacza samookaleczenie lub strzal w jaja.

  88. @morgi (autor: baltazarek | data: 20/01/10 | godz.: 14:26)
    Wnerwiasz morgi tak strasznie, ze napisze tak: Intel to bandycka firma stosujaca bandyckie praktyki, za co dostanie omlot tegi. Niech kwiczy przez lata pod presja prawnikow i kar, niech nie wychodzi z sadu i niech zgnije.

  89. @baltazarek (autor: Qjanusz | data: 20/01/10 | godz.: 14:46)
    a Ty jak dziecko się dałeś sprowokować osobie, która dokładnie tego od Ciebie oczekuje :-)

    W nikt nie życzy Intelowi żeby zgnił, to mielibyśmy tylko super wydajne i drogie Phenomy, oraz drogie i niewydajne Nano.


  90. nie podniecajcie (autor: kretos | data: 20/01/10 | godz.: 14:46)
    sie tak bo zylka peknie... Jedna i druga firma miala juz obsuwy i wydawala gorace i glosne potworki. Z prezentacji nV wiadomo juz ze GF100 jest mocny w tesselacji i ze powinien byc szybszy o jakies 20% od 5870. Pozniej zaczna sie optymalizacje procesu produkcji, nowe rewizje prockow itd. Wystarczy popatrzec co wycisneli z poprzedniej architektury - jechali na niej jakies 3 lata i dalej to sa dobre karty. Ja trzymam kciuki za nV bo konkurencja musi byc.

  91. ten morgi jest udany (autor: zeek | data: 20/01/10 | godz.: 14:51)
    http://www.pixmania.com/...hd-5670-512-mb-gdd.html

    w niecaly tydzien po premierze karty sa dostepne w cenie nizszej od sugerowanej przez producenta. faktycznie "powered by ati = power on paper"


  92. @kretos (autor: Qjanusz | data: 20/01/10 | godz.: 14:59)
    z prezentacji nV wynikało że firma ta w październiku 2009 roku miała działające Fermi - a wszyscy wiemy jak bardzo je miała.

    Ale to nie tylko dlatego ta firma robi wszystko żeby być niewiarygodną. Obsmarowała teselację (za czasów Radeonów 9800), teraz sama skupia się na tej technologii. Obsmarowała Dx10.1 - po czym cichaczem najnowszy kotlecik dostał nalepkę że jest kompatybilny z tym standardem.

    Zarząd nVidii nie tylko powinien poobcinać pensje palantom z nV, ale wzorem akcjonariuszy Intela, powinien przygotować pozew za nieudolność i oszustwa.


  93. @zeek (autor: Qjanusz | data: 20/01/10 | godz.: 15:15)
    ciekawe co musiałaby zaprezentować nVidia żeby przedstawić ofertę odmiany Fermi za 300 pln.

    To nawet by nie był kastrat. To byłaby łupinka układu.


  94. @ rainy (autor: pawel.xxx | data: 20/01/10 | godz.: 15:20)
    Dlaczego mówienie o cenie gotowego 4870 jest zabawne? AMD ustaliło taka cenę. Czyli za tyle udaje sie im to wyprodukować i jeszcze na tym zarobić.
    Skomplikowane PCB. Cena PCB zależy od ilości warstw, powierzchni, ilości otworów metalizowanych, nie zależy natomiast od tego jak biegną ścieżki w poszczególnych warstwach.
    W obu przypadkach będzie to prawdopodobnie 8 warstwowe PCB.
    Płyty główne także korzystają z 6-8 warstwowego PCB a ich ceny zaczynają się od 200zł w detalu więc sugestie o niesłychanie kosztownym PCB są nieprawdziwe.
    Koszt pamięci DDR5. Niestety producenci pamięci nie publikują cenników. Ale można tę cenę oszacować pośrednio.
    http://fwd4.me/BzU
    http://fwd4.me/BzV
    Dwie karty graficzne. Pierwsza ma 512MB GDDR5. Druga 1024MB, pamięć jest wyżej taktowana, podobnie jak GPU.
    A różnica w cenie wynosi 60zł w detalu - czyli po doliczeniu cła, podatku, marży.
    Czyli ile kosztuje 512MB GDDR5 5-15$?
    Chłodzenie także nie będzie przerażająco kosztowne bo wystarczy zwiększyć przepływ powietrza na radiatorze.
    I zważ że cały czas piszę o kosztach produkcji, a nie o cenie fermii. Cena będzie zależała od wydajności, oferty konkurencji i dostępności GPU.


  95. pawel.xxx (autor: rainy | data: 20/01/10 | godz.: 15:32)
    Chyba nie do końca mnie zrozumiałeś - jest pewna subtelna różnica między kosztem całej karty a kosztem samego GPU.

    Twój przykład jest o tyle zabawny, iż twierdzisz na podstawie ceny gotowej karty poprzedniej generacji, iż Fermi nie będzie drogi (btw, 960 mln tranzystorów vs 3,2 mld).

    Ja natomiast twierdzę, że karta, w której sam koszt GPU to 160-200 dolarów musi być droga (o ile producent nie zechce do niej dopłacać).


  96. @pawel.xxx (autor: Qjanusz | data: 20/01/10 | godz.: 16:09)
    do tego co odpowiedział Ci rainy, wytknę Ci jeszcze jeden błąd.

    Cena Fermi nie może być uzależniona od dostępności. To AMD mógł sobie tłumaczyć wysoką cenę dostepnością swoich kart, bo te nie miały konkurencji.

    Fermi z kolei będzie miało bardzo ciężką konkurencję i nikt nie kupi geForca za dwa razy cięższą kasę niż stojący obok, tak samo wydajny Radeon, tylko dlatego że geForsy są słabo dostępne.

    Dlatego żeby te kilka sztuk Fermi rzucone na rynek domowy mogły konkurować z Radeonami, nVidia będzie musiała dopłacać do interesu.
    I dlatego właśnie rynek spodziewa się że będą to karty rzucone głównie na rynek Pro.


  97. @rainy (autor: pawel.xxx | data: 20/01/10 | godz.: 16:33)
    Widzę że czytanie ze zrozumieniem sprawia Ci jeszcze trudności. Więc Ci powtórzę może tym razem Ci się powiedzie .

    I zważ że cały czas piszę o kosztach produkcji, a nie o cenie fermii. Cena będzie zależała od wydajności, oferty konkurencji i dostępności GPU.

    Przy cenie GPU jaką oszacowałeś koszt produkcji karty z fermii wyniesie miedzy 300-350$. Co nie znaczy ze taka będzie cena. Od czego będzie zależeć cena także już pisałem .


    @ Qjanusz
    "Cena Fermi nie może być uzależniona od dostępności. To AMD mógł sobie tłumaczyć wysoką cenę dostepnością swoich kart, bo te nie miały konkurencji."

    Prawo podaży i popytu będzie obowiązywało również w przypadku fermi. A podaż to właśnie ilość dostępnych GPU.


  98. AKSJOMAT (autor: baltazarek | data: 20/01/10 | godz.: 16:33)
    Ludziska!
    Nie mozna mowic o czyms czego NIE MA. Chwilowo nie ma Fermi, zwyczajnie nie ma dzialajacego ukladu. Nvidia leci na atrapach liczac na jakis szczesliwy przelom w produkcji prototypu.


  99. @paweł.xxx (autor: rainy | data: 20/01/10 | godz.: 16:52)
    Daruj sobie (jeśli możesz) te niezbyt błyskotliwe uszczypliwości.

    Lepiej powiedz mi, jak wyliczyłeś koszt na 300-350 dolarów, nie dyponując niektórymi danymi?

    Btw, nie próbuj udawać obiektywnego/bezstronnego obserwatora (jeśli takowi w ogóle istnieją) bo Twoje pro Intel/Nvidia sympatie są aż nadto widoczne.


  100. @pawel.xxx (autor: Qjanusz | data: 20/01/10 | godz.: 16:58)
    błąd za błędem

    "...A podaż to właśnie ilość dostępnych GPU" - Tego się trzymaj. Dostępnych GPU, a nie dostępnych Fermi.


  101. @rainy (autor: pawel.xxx | data: 20/01/10 | godz.: 18:07)
    "Daruj sobie (jeśli możesz) te niezbyt błyskotliwe uszczypliwości."

    O proszę rozbawione niewiniątko się odezwało :)


    koszt chipu zgodnie z Twoim oszacowaniem, 160-200$
    Cena 4870 - 160$ w tym GPU, PCB, GDDR5, zasilanie, chłodzenie etc +zysk AMD
    Do oszacowania kosztu rv770 uzyłem identycznej metody co Ty. Przy 100% uzysku to ~20$, przy 60% ~30$. Ta kwota powinna wystarczyć na 512MB GDDR5, wzmocnione zasilanie, chłodzenie, PCB.
    Suma to~ 300-350$

    "Btw, nie próbuj udawać obiektywnego/bezstronnego obserwatora (jeśli takowi w ogóle istnieją) bo Twoje pro Intel/Nvidia sympatie są aż nadto widoczne."

    Moim zdaniem jestem obiektywny. Oceniam technologie, działania biznesowe i nie mam zahamowań by piętnować to co złe. Na tym forum są posty w których krytykuje nvidie za stagnacje w dziedzinie chipsetów zintegrowanych. Intele nie krytykowałem bo nie widze do czego mógłbym się przyczepić.
    Jeśli ktoś uważa że mylę sie w swoich opiniach to nic nie stoi na przeszkodzie by wskazał mi błędy. Ja jestem otwarty i gotowy do dyskusji. Tylko niech to będą rzeczowe i oparte na racjonalnych przesłankach argumenty. A nie jak np w tym wątku opowieści o kolosalnych kosztach produkcji fermi wynoszących 600$.

    @ Qjanusz
    A co za różnica. Dostępność GPU determinuje dostępność fermi. No chyba ze uważasz że kooperanci nvidii będą mieli problem z przylutowaniem elementów do referencyjnej płytki.


  102. pawel.xxx (autor: rainy | data: 20/01/10 | godz.: 18:47)
    Dwie uwagi:

    Po pierwsze, dlaczego użyłeś do porównania 4870 zamiast dużo bardziej "naładowanego" tranzystorami 5870 (więcej podobieństwa z Fermi)?

    Po drugie, moje wyliczenia dotyczące kosztów zakładają pewien ideał.

    W praktyce liczba układów z wafla będzie niższa (zanieczyszcenia, defekty fizyczne) dla obu producentów.

    Z tego względu koszt Fermi to może być 200 dolarów (25 sprawnych chipów).


    W przypadku ATI, z wafla można wyciąć 214 Cypressów.

    Przy 60 procentach uzysku (a tak to jest podawane) daje to 128 chipów.
    Biorąc pod uwagę elementy, o których wspomniałem można założyć 100 sprawnych układów (koszt 50 dolarów).


  103. hehe bandyckie metody koncza sie (autor: morgi | data: 20/01/10 | godz.: 19:02)
    w jail, a tymczasem zbytnio pachnie kaska Intela ktora plynie szerokim strumieniem i te winy odpuszcza sie jak w konfesjonale, czyli co laska. Inna sprawa, to Intel wlasnie przejal na utrzymanie inwestycje amd, bo ledwo zipia. Nvidia z drugiej strony ma trudno z Intelem, ale z amd to easy money, skoro ich na ruszcie gigant przyrumienil, niech sobie trzosu doloza do swoich zabawek i podpieka troche.

  104. @morgi (autor: Barbarian | data: 20/01/10 | godz.: 19:20)
    Twoje teksty to okład na moje zbolałe oczy.
    Jestem jednak pewien, że nawet taaaakiego dużego Intela można sprowadzić do parteru na drodze sądowej. Ciekawe jakie jeszcze ma czarne sprawki na sumieniu, że tak łatwo szasta kaską na wszystkie strony i w pokłonach przeprosił się z AMD. Oj jaka miłość zapanowała - chyba na 5 lat?


  105. @morgi (autor: arco2006 | data: 20/01/10 | godz.: 19:28)
    nic mądrego nie piszesz, bajki dla dzieci powinieneś pisać to byś miał tyle kasiory co intel.
    A boli go bo NV się nie postarała z oFermą.
    Ja jestem ciekawy ile by miał wydajność Fermi z szyną 256 zamiast 384bit. A po 2 - gie ile by zyskał HD 5870 z szyna 384bit ?


  106. @pawel.xxx (autor: 3men | data: 20/01/10 | godz.: 19:40)
    prawo podaży i popytu mówi, że im popyt większy tym cena wyższa - nigdy odwrotnie :)
    poza tym jeśli nv ma zamiar dopłacać do fermi=dumping, a to jest karalne


  107. to co planował intel lub i nie. (autor: arco2006 | data: 20/01/10 | godz.: 19:48)
    dumping łupieżczy: celem takiej polityki jest zdobycie jakiegoś rynku i wyeliminowanie konkurencji, poprzez zaproponowanie cen niższych od kosztów wytworzenia. Konkurencyjne przedsiębiorstwa, mając mniejsze zasoby, nie mogą sprostać takiej praktyce i zostają wyeliminowane z rynku. W przypadku, gdy przedsiębiorstwo stosujące dumping łupieżczy stanie się na danym rynku monopolistą podwyższa ceny, aby realizować zysk monopolistyczny. Ten rodzaj dumpingu uznaje się za praktykę nieuczciwej konkurencji. W handlu międzynarodowym praktyki tego typu są przyczyną nakładania przez państwo importera karnych ceł (cło antydumpingowe) czy ustanawiania ograniczeń ilościowych co do importu jakiegoś towaru;

  108. Shrek5 (autor: Barbarian | data: 20/01/10 | godz.: 19:50)
    Właśnie ogłoszono, że nvidia ma pokazać reklamówkę podobną do AMD. Różnica będzie tylko taka, że zamiast kapucynka kartę graficzną będzie montował Pinokio. Mają jednak problem z nosem, gdy zaczyna mówić, że to GF100.
    @arco2006 - morgiego boli bardziej Larrabee


  109. Larrabee (autor: arco2006 | data: 20/01/10 | godz.: 19:57)
    chyba że tak bo nikt tego czegoś nie chce. Nawet konsole.

  110. @3men (autor: pawel.xxx | data: 20/01/10 | godz.: 20:19)
    Ale o co ci chodzi?
    Mówi że im cena wyższa tym popyt mniejszy i im mniejsza cena tym popyt większy.
    I nie wnikajmy co jest pierwotne popyt czy cena-oferta.


  111. @pawel.xxx (autor: Qjanusz | data: 20/01/10 | godz.: 20:32)
    "A co za różnica. Dostępność GPU determinuje dostępność fermi. No chyba ze uważasz że kooperanci nvidii będą mieli problem z przylutowaniem elementów do referencyjnej płytki."

    To na prawdę jest tak trudne? Dostępność GPU determinuje dostępność Radeonów i Fermi, a nie tylko Fermi. Dzięki podaży właśnie Radeonów, które zalewają rynek, popyt GPU nie będzie aż tak duży, żeby umożliwić realizację zysków przez nVidię.

    Innymi słowy, na rynku nie Pro, nVidia albo dołoży do interesu, albo karty z Fermi będą tak drogie, że nikt ich nie kupi. Będą klasycznymi półkownikami i ciekawostką, którą ludzie w sklepach będą palcami pokazywać - jak małpy w ZOO.

    A co do możliwości poprawnego przylutowania elementów do PCB, to też nie jestem spokojny. W najgłośniejszej Fermi nie potrafili dobrze przylutować gniazda zasilającego. Co dopiero elementów.


  112. @rainy (autor: pawel.xxx | data: 20/01/10 | godz.: 20:37)
    Uzysk to jest ilość sprawnych układów z wafla/ ilość teoretycznie możliwych.
    Występowanie defektów ma wpływ na uzysk ale nie zmienia sposobu liczenia uzysku.

    Cenę gpu przyjąłem taka jak oszacowałeś .
    użyłem 4870 dlatego że mnie interesują koszty produkcji karty. A 5870 i 4870 są podobne mają tyle samo pamięci, PCB etc. różnią sie GPU no i ceną.
    Na obydwu kartach AMD zarabia tyle że na tańszym 4870 mniej. Więc zysk AMD 4870 stanowi mniejszy ułamek ceny, wskutek czego popełniam mniejszy błąd w szacowaniu kosztów produkcji karty z fermi.


  113. @ Qjanusz (autor: pawel.xxx | data: 20/01/10 | godz.: 21:29)
    Przecież to nvidia będzie wyceniać swoja kartę. I będzie to robić na podstawie tego ile ma dostępnych własnych GPU, jaka bedzie jej wydajność i jaka będzie aktualna oferta konkurencji.
    Jak już tu napisałem koszt produkcji Fermi to 300-350$. Póki co 5870 kosztuje 400$. A początkowe testy wskazują że będzie wydajniejsza od 5870

    W prawach popytu podaży możliwe są takie scenariusze skrajne scenariusze.
    1) Karta ma cenę zaporową.
    W efekcie sprzedaje się bardzo mało kart, TSMC dostarcza nvidi GPU za które nvidia płaci i które zalegają w magazynach. Nvidia kupuje więcej GPU niż sprzedaje,koszty zakupu i magazynowania GPU przekraczają wpływy, zysków brak, - czyli to zła strategia marketingowa.
    2) Cena za niska
    Nvidia sprzedaje wszystkie karty na pniu. TSMC nie jest w stanie dostarczyć wystarczającej ilości GPU. Popyt większy niż podaż. Sprzedawcy w sklepach podnoszą marże by więcej zarobić, Allegro , ebay pełnie ofert sprzedaży kart po cenach wyższych niż ceny nvidii. To również zła strategia marketingowa bo cześć potencjalnych zysków nvidii trafia w ręce pośredników.

    Nvidia musi tak ustalić cenę by szybkość dostarczania GPU była porównywalna z szybkością sprzedaży wtedy osiągną największy zysk.
    Należy także brać pod uwagę iż nvidia zaliczyła opóźnienie. Ale jej działania marketingowe - publikowanie opisu architektury, te wyśmiewane pokazywanie atrap i animacji spowodowało że część klientów czeka na tą kartę. Ci ludzie są zdecydowani kupić fermi, i maja gorącą gotówkę do wydania. Nvidia nadal podgrzewa atmosferę związaną z fermi, czego przykładem są wyniki testów z tego newsa. Swoja drogą dziś na hexus pojawił się kolejny fragment tych przecieków i testów fermi. Czyli nvidia realizuje plan marketingowy by ludzi zdecydowanych kupic fermi było jak najwięcej.
    O tych ludziach spece także muszą pomyśleć marketingowcy nvidii. Chłonność rynku jaki oni wywołają może być znaczna w chwili premiery, a jednocześnie ci ludzie z przygotowana kasą na nową kartę będą skłonni zapłacić wyższa cenę.
    Stąd wniosek iz w chwili premiery fermi będzie drogie, nie będa to ceny zaporowe, ale takie by czekajacy ludzie mogli pozbyć sie swojej kasy a nvidia zrealizować maxymalny zysk.
    Jak ten początkowy pik sprzedaży minie. Nvidia obniży ceny GPU dla kooperantów - da im stosowny upust przy kolejnym zamówieniu by nie byli stratni, publicznie wytłumaczy obniżkę polepszeniem uzysku. I dalej będzie zarabiać.


  114. hehe okreslen tyle ze moznaby caly (autor: morgi | data: 20/01/10 | godz.: 21:56)
    zarzad wrzucic do lochu i nie wychodzilby latami, a tymczasem sa to oskarzenia zludne bo chodzi o nie taki rynek chipow jaki sobie niektore urzedasy zycza, a w efekcie 'kare' wymierza urzedas, a to kasa nie kara, bo nawet nie nazywa sie odszkodowanie, bo pokrzywdzeni klienci nic nie dostana, a dostanie no wlasnie kto i jak to sie nazywa, czy to czasem nie mistyfikacja? W efekcie nic sie nie zmienia, bo wymienili papiery, a nie zmienili rynku.
    Milosc za pieniadze to jak sie nazywa to nastarsi gorale dobrze o tym wiedza i tyle.


  115. @morgi (autor: Barbarian | data: 20/01/10 | godz.: 22:03)
    Wszędzie, gdzie socjalizm dyktuje prawa (Europa), mamy totalną zgniliznę, ale nie zmienia to faktu, że Intel powinien być ostrożny (i chyba jest - kaska dla AMD). Już Franz Kafka 100 lat temu pokazał (Proces) jak można zgnoić każdego - myślę, że teraz można nawet zgnoić Intela.

  116. @pawel.xxx (autor: rainy | data: 20/01/10 | godz.: 22:23)
    Sorry, ale tutaj to już się mylisz.

    Koszt Fermi (najmocniejszej wersji) jako karty, jest moim zdaniem wyższy i oceniałbym go na poziomie około 400 dolarów.

    Natomiast 5870 kosztuje 400 (faktyczna cena 369 dolarów) ale jest cena sklepowa (z marżami i narzutami).

    Zaś koszt 5870 jako karty to jakieś 50 procent Fermi.

    AMD może spokojnie obniżyć cenę 5870/5850 nawet o 100 dolarów i nadal dobrze zarabiać.

    W przypadku Nvidii będzie to wyraźnie trudniejsze.


  117. @Morgi (autor: AmigaPPC | data: 20/01/10 | godz.: 22:47)
    no właśnie Twoja (Wasza) "miłość za pieniądze) do Intela i do (ponownie) nVidii - to jak się nazywa ??

    @DYD-Admin - nie mogłem się powstrzymać jak te bredzenie szaleńców przeczytałem.


  118. @rainy (autor: pawel.xxx | data: 20/01/10 | godz.: 23:00)
    Cenę GPU przy 20-15% uzysku oszacowałeś na 160-200$ i ja się z nią zgadzam
    A na podstawie jakich racjonalnych przesłanek oceniasz koszt produkcji na 400$? :)
    To prawda że amd może obniżyć cenę 5870. Ale to niekoniecznie musi być problemem dla nvidi. Póki co te fragmentaryczne testy wskazują że fermi będzie wydajniejszy od 5870 czyli wyższa cena jest do zaakceptowania.
    Natomiast w najbliższym czasie należy spodziewać się zapowiedzi kastrowanych fermi 480 i 448 cudaproców, które ukażą się w niedługim czasie po premierze fermi512. Premiera kastratów odbędzie się gdy pierwszy szał zakupów fermi minie, przy okazji tej premiery nvidia obniży ceny pełnego fermi.
    Taka zapowiedź jest logiczna z marketingowego
    punktu widzenia. Należy dać klientom coś na co będą mogli czekać jeśli pierwotna cena fermi okaże sie dla nich za wysoka, by nie wybrali produktów konkurencji.


  119. @Pawel.xxx (autor: AmigaPPC | data: 20/01/10 | godz.: 23:06)
    skoro wydajność (mitycznego na razie) Fermi jest tylko nieznacznie wyższa niż 5870 to, czy nie zachodzi obawa, że jednak klienci zrażeni ceną nie będą chcieli czekać na kastraty ?

  120. @pawel.xxx (autor: rainy | data: 20/01/10 | godz.: 23:17)
    Cena 400 dolarów - bo ma być to najgorętszy (w dosłownym znaczeniu) układ Nvidii w ich historii (chłodzenie musi być zatem b.wydajne).

    Nie zdziwiłbym się zresztą, gdyby wersja z 512 była tylko do zastosowań profesjonalnych.

    Mainstreamowy Fermi ma mieć debiut w okolicy czerwca (podobno).


  121. @rainy (autor: pawel.xxx | data: 21/01/10 | godz.: 00:11)
    czytałem taki art na eportalu bodajże o radiatorach i chłodzeniu elementów półprzewodnikowych, TDP, rezystancje termiczne itd. I z wykresów wynikało że przy chłodzeniu aktywnym sprawa sprowadza się w zasadzie do szybkości przepływu gazu.
    Wiadomo że przy takim podejściu wyjdzie suszarka, ale czy to by była pierwsza suszarka?
    Dlatego sądzę że kwestię chłodzenia rozwiążą obroty wentylatora :)
    A co do mainstreamu i kastrowanych fermi.
    To ciekawie wygląda kalkulacja ich kosztów.
    300mm wafel kosztuje 5000$.
    Jak się zgodziliśmy 20% uzysku daje ~25 pełnosprawnych fermi512 po 200$, 25*200=5000, czyli wafel jest zapłacony.
    Zostało 80% odpadów. Wśród których niektóre układy są całkiem niesprawne, niektóre mają sprawne 32 cudaproce, niektóre mają 480, inne 448 itd. itd. Cena tych częściowo sprawnych układów to praktycznie koszt obudowy, bo przecież wafla mamy już zapłaconego.
    Odnieśmy teraz to do AMD i ich lepszego uzysku 40-60% wg plotek :). Mają więcej chipów z powodu mniejszego rdzenia i więcej chipów to wersje hiendowe. Ale hiendu sprzedaje się mało by trzymać przyzwoite ceny. Czyli do wersji mainstream muszą używać pełnosprawnych GPU i blokować unishadery.
    Widać że podejście każdej z firm jest inne, ale każde z nich ma zalety. Rynek zdecyduje która strategia jest lepsza.


  122. Pawel.xxx pamietaj ze Nvidia wpakowala okolo 1,5 miliarda (autor: speed | data: 21/01/10 | godz.: 00:12)
    a stworzenie GF100 i te pieniadze musza wchodzic w sklad kosztow produkcji. zakladajac ze sprzedadza 10 mil gf100 to trzeba dolozyc po 150$ do kazdego chipa aby zwrocily sie pieniadze teraz 30% aby zarobic i policz ponownie jaka jest cena wydania jednej "ofermy' .To za ile bedzie w sklepie to juz inna bajka .
    Jak chcecie to zrobimy zawody za ile bedzie mozna kupic topowa "oferme " n.p w tym sklepie internetowym http://www.ncix.com/
    oczywiscie w dolarach kanadyjskich i pamietac ze trzeba dodac 12% podatku do ceny bo w kanadzie ceny podaje sie bez podatku.
    Ten kto trafi + - 50$ cnd dostanie odemnie GF 8800 GTX OC firmy BFG (karta prakrycznie nowa).
    To kto startuje w zawodach?:)))


  123. @ AmigaPPC (autor: pawel.xxx | data: 21/01/10 | godz.: 00:15)
    w dzisiejszych przeciekach i testach nt fermi wyszło że uzyskał 2 razy więcej FPS niż 285.
    To na tyle imponująca przewaga iż raczej będą czekać na kartę o 93, czy 87% tej wydajności.


  124. @speed (autor: pawel.xxx | data: 21/01/10 | godz.: 00:21)
    cena R&D nie wchodzi do kosztów produkcji. Za produkcję jakiegoś elementu producent wystawia fakturę i nie ma szans by na tej fakturze umieścił cenę R&D krórą zrobiła nvidia.
    A do kiedy te zawody trwają, bo cena będzie zależeć od ruchów AMD? :)


  125. @pawel.xxx (autor: rainy | data: 21/01/10 | godz.: 00:26)
    Nie zapominaj, że uwalonych układów z serii 58xx nie da się przerobić (256-bitowa szyna) na 57xx.

    Dlatego pewnie wprowadzają 5830 (pomijając już dziurę cenowo-wydajnościową pomiędzy 5850 a 5770).


  126. pawel nie wchodzi w cene produkcji chipa ale wchodzi w cene (autor: speed | data: 21/01/10 | godz.: 00:52)
    produkcji karty ,zawsze tak byla i tak bedzie . Nvidia nie produkuje kart sprzedaje chipy producenta kart i koszty R&D sa w to wliczone . Jak dlugo ? n.p do niedzieli godzina 23.59 styczen 24.2010 .Karta musi byc 'in stock' ceny podane podczes premiery nie licza sie ,liczy sie wylacznie cena karty ktora mozna bedzie kupic. Ten sklep co podalem jest dla USA i Canady cena musi byc ze wersji kanadyjskiej z doliczonym podatkiem w wysokosci 12%.
    Ja stawiam na 850.00$ cnd.


  127. @pawel.xxx (autor: 3men | data: 21/01/10 | godz.: 09:14)
    http://www.nbportal.pl/...z_popyt/podaz_popyt.html

  128. nie ma jeszcze testów Fermi (autor: Qjanusz | data: 21/01/10 | godz.: 10:23)
    to co teraz krąży po necie to tej samej klasy spekulacja, co wykresy wydajności Fermi sprzed miesiąca (Larrabee też się załapał na jakiś słupek)

    Więc nikt tak na prawdę nie wie czy oFerma będzie wydajniejsza od 5870, a jeżeli tak, to o ile.


  129. @Pawel.xxx (autor: AmigaPPC | data: 21/01/10 | godz.: 10:57)
    a co mnie obchodzi wydajność mitu w stosunku do 285 - rozmawialiśmy o różnicy między oFermi a 5870 - a ta wg (nie wiadomo czy prawdziwych) testów jest niewielka, sporadycznie osiąga +20%.

    Więc nie licz na to, że klienci będą głupi i poczekają na kastraty, który od 5870 nie będą wydajniejsze, a na 100% droższe (tak wynika z wielkości chipu i uzysku) - bo jak sam kiedyś napisałeś nV to nie organizacja charytatywna i nie będzie dopłacała do interesu.

    Z tego co mi truknął kumpel (z Sapphire Espana) ATI płaci TSMC tylko za sprawne rdzenie, natomiast nV za całe wafle niezależnie od ilości sprawnych - kto więc ma większe pole manewru cenami ??


  130. @up (autor: Qjanusz | data: 21/01/10 | godz.: 15:45)
    dokładnie. Fermi nie będzie konkurował z 285, tylko z układani HD5000 i zapewne jeszcze przez długi czas z HD6000

    Co do wydajności, to jeżeli kilka niezależnych serwisów nie przeprowadzi testów, to w żadne zapewnienia i 513 cuda od nVidii nie uwierzę.


  131. @AmigaPPC (autor: pawel.xxx | data: 21/01/10 | godz.: 17:49)
    Jeśli wydajność w stosunku do 285 Cię nie obchodzi to jest Twoja sprawa.
    Dla ludzi choć trochę znających temat GPU taka informacja jest jest przydatna.

    Mnie z kolei nie obchodzi co ci kumpel trukał.


  132. @Qjanusz (autor: pawel.xxx | data: 21/01/10 | godz.: 18:02)
    Widzę że nie przeczytałeś, ostatnich art nt fermi. A mimo to zajmujesz głos. W tej sytuacji nie możesz nadal być dla mnie partnerem do dyskusji.

  133. @pawel.xxx (autor: Qjanusz | data: 21/01/10 | godz.: 18:29)
    czytałem i to wszystkie, bo się nie mogę doczekać dostępności tego GPU w sklepach.

    Ty natomiast naczytałeś się chyba aż za bardzo. Jeżeli po tych wszystkich oszustwach nVidii dalej wierzysz w każdy slajd i każdą niepotwierdzoną bzdurę.

    Równie dobrze można pisać o wydajności kart Fermi i HD5890.


  134. @Pawel.xxx (autor: AmigaPPC | data: 21/01/10 | godz.: 19:04)
    pogrążasz się Przyjacielu w moich oczach (a uważałem Cię za inteligentnego).

    Odpowiadam na Twój post #118 - ..."esty wskazują że fermi będzie wydajniejszy od 5870 czyli wyższa cena jest do zaakceptowania"...
    A Ty mi zaczynasz nawijać o 285, o którym nie było w ogóle mowy, a następnie masz pretensje (nie wiem do kogo vide #131), że mnie wydajność 285 kompletnie nie interesuje.

    Ogólnie mi wisi co Cię obchodzi a co nie, nie mam zamiaru z Tobą w ogóle dyskutować skoro lekceważysz to co do Ciebie pisałem tym samym zrównując się w moich oczach z osobnikami prezentującymi potencjał intelektualny twora @Morgi - a co do kosztów wafli to miał rację, ATI płaci tylko za 100% sprawne rdzenie, nV za całe wafle.

    A na dodatek będę takie bydle, że nie podam linków na potwierdzenie tej informacji.

    Informacja dla "inteligentnych inaczej" - użycie www.google.pl pozwoliło mi potwierdzić tą informację w ciągu niespełna 4 minut licząc z tłumaczeniem.


  135. 135 post (autor: Barbarian | data: 21/01/10 | godz.: 21:40)
    Po x135 mówię, że nie ma i nie będzie w AD2010 żadnego Fermi.

  136. .:. (autor: Shneider | data: 21/01/10 | godz.: 22:41)
    speed - stawiam 975 cnd

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.