Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Piątek 15 października 2010 
    

Nvidia GeForce GTX580 zadebiutuje już w grudniu


Autor: Wedelek | źródło: Tech Connect | 10:11
(79)
Karty „czerwonych”, czyli Radeony serii HD 6000 już poznaliśmy, a przynajmniej sporą ilość informacji o nich, więc teraz nadszedł czas na konkurenta. Nvidia nie ma bowiem zamiaru poddać się bez walki, a ta nie będzie się toczyć jedynie na polu cen. Wygląda bowiem na to, że firma z Santa Clara usilnie pracuje nad nową generacją kart GeForce, które miałyby zadebiutować już niebawem - pierwsza w grudniu. Zgodnie z wcześniejszymi doniesieniami flagowy model, czyli GeForce GTX 580 zostanie wyposażony w GPU GF110, produkowany w 40nm procesie produkcji. Następca niezbyt udanego GF100 miałby być pełną odmianą architektury Fermi, czyli charakteryzować go ma 512 procesorów strumieniowych i aż 128 jednostek teksturujących.

Dla porównania, dzisiejszy lider w obozie „zielonych” ma ich zaledwie 60. Zwiększy się również ilość pamięci RAM typu GDDR5, której teraz będzie aż 2GB, a magistrala łącząca ją z pozostałymi elementami będzie mieć szerokość 512-bitów. Jeśli chodzi o TDP, to ma ono oscylować w granicach poziomu znanego z GTX’a 480, a karta energię będzie czerpać ze złączy 6-pin i 8-pin. Na śledziu umieszczono wyjścia wideo: mini HDMI oraz dwa DVI. Na razie nie wiadomo jak bardzo mogłaby wzrosnąć wydajność tego układu względem poprzednika, ale z pewnością nowy GeForce do chłodnych należeć nie będzie.

 

    
K O M E N T A R Z E
    

  1. tak!!! (autor: Krax | data: 15/10/10 | godz.: 10:37)
    jestesmy ocaleni.....
    moze kupie sobie hd6XXX w cenie ok...


  2. No coz (autor: Jarek84 | data: 15/10/10 | godz.: 10:40)
    po roku dopiero wydadza pełne Fermi :( Osobiście liczyłem i nadal liczę że będzie to raczej 1,5 x GF104, w GF100 na miejscu NV już bym sie nie pchał aż do 28nm.

  3. a ja się cieszę (autor: bajbusek | data: 15/10/10 | godz.: 10:42)
    kupuję złośliwie raz kartę NV a raz ATI ... mam ATI więc czas na NV :)

    Nie jestem brandzlerem testów i "markuf" więc jak gry działają płynnie to nie marudzę.


  4. hehe (autor: morgi | data: 15/10/10 | godz.: 10:43)
    Po przeszlo 1,5 roku fabryka bedzie zdolna do wyprodukowania wielkiego chipu, no coz bycie fabless sporo kosztuje czasu i pieniedzy, co widac nie tylko po Nvidii.

  5. odblokowany KOTLET (autor: Qjanusz | data: 15/10/10 | godz.: 11:01)
    :D

    założę się że architektura nie będzie różniła się od tego co jest teraz.
    Czyli będzie to odblokowany GF104, ale z numerkiem serii wyższym o jeden. Nie ma co, trzeba za konkurencją nadążać ;-)


  6. Tak dalej zwalaj na fabryke (autor: PCCPU | data: 15/10/10 | godz.: 11:20)
    za gigantyczna powierzchnie ukladu i bugi w projekcie nVidii. nVidiia sama sie przyznala i to zadne naginanie rzeczywistosci nic nie zmieni :-)

  7. CUDA (autor: Conan Barbarian | data: 15/10/10 | godz.: 11:31)
    Takie coś nawet darmo nie ma dla mnie wartości - to wymaga elektrowni. Przyjdzie technologia 28nm i wówczas wszystko będzie wyglądało inaczej.

  8. PCCPU (autor: morgi | data: 15/10/10 | godz.: 11:41)
    Tak bo to fabryka daje ciala, Nvidia u nich produkuje takie potezne chipy, wczesniej udawalo sie, ale teraz maja lipny proces, moze po 2 latach zacznie sie splacac, co jest kabaretem, bo 28 nm powinni poczynac.

  9. Po pierwsze (autor: PCCPU | data: 15/10/10 | godz.: 11:55)
    nVidia ma chipy ktore maja o 1/3 wiecej tranzystorow. nV sama sobie winna ze projektuje tak duze czipy juz nie wspominajac o bledach w projekcie G100. AMD ma chipy znacznie mniejsze i stosunek wydajnosci na mm2 do pobieranej energii jest bardzo dobry. Swiadcza o tym udzialy w GPU i sprzedaz ktora AMD ma ogromna :-)

  10. Po pierwsze (autor: PCCPU | data: 15/10/10 | godz.: 11:55)
    nVidia ma chipy ktore maja o 1/3 wiecej tranzystorow. nV sama sobie winna ze projektuje tak duze czipy juz nie wspominajac o bledach w projekcie G100. AMD ma chipy znacznie mniejsze i stosunek wydajnosci na mm2 do pobieranej energii jest bardzo dobry. Swiadcza o tym udzialy w GPU i sprzedaz ktora AMD ma ogromna :-)

  11. PCCPU (autor: Grave | data: 15/10/10 | godz.: 12:02)
    Szkoda tylko że mimo sporych przychodów AMD ciągle jest pod kreską....

    http://www.tcmagazine.com/...ting-income-increases

    Zarówno Nvidia jak i Intel są na plusie (ten ostatni na baaaaaaaaaardzo dużym plusie)


  12. PCCPU (autor: morgi | data: 15/10/10 | godz.: 12:03)
    Nvidia ma tez CUDAcznosc, ma Tesle, ma fizyke, ma powazna oferte Quadro, ma lepsze wsparcie i oprogramowanie, mozna wymieniac. Nvidia ma tez pochrzanione parametry tdp dla gf100, ale to efekt nieprzygotowanych 40 nm, a o sprzedazy rywala swiadcza jego ostatnie wyniki gpu, gdzie przychod z niewyjasnionych - hiehie impakt Fermi, przyczyn spadl o 11% i to w sporo w mobilnych zlomach.

  13. To będzie prawdziwy Fermi (autor: pomidor | data: 15/10/10 | godz.: 12:07)
    Jeszcze lepiej ulepszony niż GF104, i zapewne deklasujący Kajmany.

    @margi
    Ale Cię wzięło z tym procesem. Gdyby był uwalony wówczas wszystko do AMD i nvidia by żarło dużo prądu i kosztowało majątek (przez niski uzysk). To że Intel jest liderem w procesie, nie znaczy że inni nic nie potrafią.


  14. pomidor (autor: morgi | data: 15/10/10 | godz.: 12:12)
    Bo to swieta prawda, nawet minimalni maja to zakodowane, ostatnio w wypowiedzi padlo dokladnie to samo o procesie, ze oni tez sa ograniczeni, drobny przyklad
    'Shipments of the Radeon HD 5000 family of GPUs have been limited by undersupplies of TSMC, who has had major issues with its 40nm process technologies. Without constraints of contract maker of semiconductors, shipments of the DirectX 11-supporting products would have been higher.'
    Przy kazdej okazji przypominane sa ogromne trudnosci TSMC z ich procesem, ale to efekt nie brania doswiadczen od lepszych od siebie np. Intela, na szczescie przy 28 nm maja juz korzystac z dobrodziejstw doswiadczen giganta.


  15. Co do teselacji (autor: PCCPU | data: 15/10/10 | godz.: 12:12)
    AMD ma ja juz od lat a nikturzy uznaja za wade ze HD5000 jest tylko jeden taki uklad tyle tylko ze HD5K wyszedl pol roku wczesniej. Teselacja u nV to jedyny glowny argument bo innych nie ma. Tak zaczolem pisac o GPU a niekturzy przytaczaja dlugi i soft. Czyzby to na obecna chwile byly glowne argumenty ;-)

  16. @11 (autor: Jarek84 | data: 15/10/10 | godz.: 12:14)
    http://www.google.com/...NASDAQ:NVDA&fstype=ii

    Na plusie powiadasz?


  17. PCCPU (autor: morgi | data: 15/10/10 | godz.: 12:19)
    Teselacja to dobry przyklad tego, ze jak czegos nie potrafisz nie pchaj sie na afisz, oni z tym od lat klepali biede, a jak przyszlo co do czego, to Nvidia ich zmiazdzyla w temacie, bo minimalni maja ten sam problem, ciagle sa niskowydajni, tani i biedni, bo wszyscy sa przeciwko nim. W realu nie mam nic do nich, niech tylko mierza zamiary na sily, a nie notorycznie odwrotnie.

  18. Gdy argumenty (autor: PCCPU | data: 15/10/10 | godz.: 12:21)
    sie koncza to nawet gdy glownym argumentem byl udzial to teraz wedlug niektorych to juz sie nie liczy :-D Praw fizyki nie oszukasz i nigdy uklad z tak gigantyczna powierzchnia jak G100 energooszczedny nie bedzie a zwalanie na faby nic nie da. nVidia sama sie przyznala ze G100 to fail

  19. @16 (autor: Grave | data: 15/10/10 | godz.: 12:35)
    Sorry pierwszy kwartał na minusie - Nvidia.

    Tak czy inaczej AMD (w przeciwieństwie do Nvidii jak i Intela - i tu już na pewno się nie pomyliłem) już od dobrych kilku lat nie jest w stanie wyjść na plus na dłuższy czas. Jakieś tam przebłyski były co najwyżej bez długotrwałego efektu.....


  20. Teselacja to dobry (autor: PCCPU | data: 15/10/10 | godz.: 12:36)
    przyklad zrzynania technologii ktora polepsza sie wtedy gdy konkurencja nie uznaje ja jako szczegolnie wazna i by zamaskowac inne wady ukladu. A wielkie chipy to tylko dowod na slaba architekture i masz racje ci co nie potrafia niech nie pchaja sie na sile tam gdzie nie dadza rady :-D

  21. PCCPU (autor: morgi | data: 15/10/10 | godz.: 12:37)
    Szef Nvidii opisal jakie doswiadczyli problemy w przeszlosci z Fermi i zwalil zarowno na swoj oboz jak i na fabryke. To ze TSMC dalo tylca strasznie grzmi w wiekszosci newsow od miesiecy, chcesz wiecej masz
    'The issues with Taiwan Semiconductor Manufacturing Company's 40nm and 32nm fabrication technologies have caused a massive gloom around the industry in the recent quarters. But according to some optimistic analysts, TSMC plans to finally initiate production of low-power chips using 28nm process technology.'


  22. A co do tej karty Nvidii to musi być przeprojektowana (autor: Grave | data: 15/10/10 | godz.: 12:37)
    bo pełen Fermi obecnej generacji nie ma 512bit kontrolera, nie ma także 128 TMU.

    O ile w ogóle ta specyfikacja i fakt istnienia takiej karty w planach na grudzień się potwierdzą.


  23. @morgi (autor: pomidor | data: 15/10/10 | godz.: 12:40)
    Tak, tylko ja mówiłem o braku technicznych problemów z procesem. Natomiast to 'undersupplies', wynika z małej ilości maszyn na linii produkcyjnej, ale jest to już zwiększane. Była o tym mowa wiele razy. Dlatego niedługo - przynajmniej AMD - będą korzystać także z GF.

    'na szczescie przy 28 nm maja juz korzystac z dobrodziejstw doswiadczen giganta' - co dokładniej masz na myśli ? O ile wiem, Intel w bulku nic nie produkuje.


  24. PCCPU (autor: Grave | data: 15/10/10 | godz.: 12:43)
    Chyba nie próbujesz sugerować że Nvidia nie potrafi robić chipów graficznych.... Każdemu zdarzają się wpadki z różnych powodów, ale sorry - Nvidia zna się na robieniu GPU jak mało kto.

    ATI też zna się świetnie, ale na pewno nie można powiedzieć, że Nvidia ma w tym względzie gorsze kwalifikacje. Wystarczy popatrzeć na "dossier" Nvidii i ich karty. Poza FX-em i teraz Fermi wpadek nie uświadczysz, same bardzo udane i bardzo wydajne karty.

    Ale jak widzę wystarczy jedna wpadka i od razu tyle głosów wieszczących koniec Nvidii upadek, brak kompoentencji etc etc.

    Sugeruję opanowanie się nieco, bo ATI-owy HD 2900 był o wiele większą wpadką niż Fermi, a jakoś ATI się wygrzebało.

    Nvidia zresztą bardzo szybko zaczęła się zbierać (GF104), znacznie szybciej niż ATI po HD 2900, ale po prostu nie wszystko dało się od razu przeskoczyć.

    W kolejnej generacji powinni (Nvidia) wyciągnąć wnioski i nie popełnić 2x tych samych błędów.


  25. Grave tak bo jak (autor: PCCPU | data: 15/10/10 | godz.: 12:59)
    ktos mowi ze AMD nie porafi projektowac GPU to bede obstawial ze nVidia tez nie ;-)

  26. pomidor (autor: morgi | data: 15/10/10 | godz.: 13:03)
    Taa, braku maszyn w 3 gigafabach, braku linii po poltorej roku, ktory rzutuje na cala branze, o likwidacji wdrozenia 32 nm, o opoznieniu 28 nm, o nizszej od spodziewanej wydajnosci chipow, bo albo efektywnosc architektury - minimalni, albo tdp dalo popalic - Nvidia, normalka idzie zgodnie z planem...

  27. Up Ludz sie dalej (autor: PCCPU | data: 15/10/10 | godz.: 13:19)
    i pisz dalej bajeczki z 1001 nocy. Kazdy moze zostac bajko pisarzem ;-)

  28. Czyli (autor: scoobydoo19911 | data: 15/10/10 | godz.: 13:34)
    zieloni nie odpuszczą a sam układ bedzie rozwinięciem i ulepszeniem g104 przynajmniej tak mi się wydaje także więc efekt powinien być ciekawy i będzie ciekawa walka czyli to co lubię najbardziej w tej branży.

  29. PCCPU (autor: morgi | data: 15/10/10 | godz.: 13:35)
    Jakie bajki, dalej podajmy przyklad 40 nm te same parametry chipow co w 55 nm uzysk na wydajnosci okolo 20 kilka%, podobnie dziala jak chcemy zachowac watty na tdp.
    Teraz startuja z nowymi radeonkami no i bedzie okazja przekonac sie, czy 40 nm to badziewie, w 55 nm udalo sie minimalnym podniesc dzieki wzrostowi o 100% tdp wydajnosc o 100%.


  30. ed. (autor: morgi | data: 15/10/10 | godz.: 13:38)
    ach przesadzilem, minimalni mieli 80% uzysku na wydajnosci, chcieliby tyle....

  31. AMD jesli mialo by upasc (autor: PCCPU | data: 15/10/10 | godz.: 13:45)
    to mialo wielka okazje za czasow przejecia ATI i nieudanych Phenom I. Ale skoro wtedy nie upadli to tym bardziej teraz tego nie przewiduje. AMD ma wieksza motywacje do jak najlepszego wykorzystania budrzetu na min projekt Bulldozer niz mial intel przy SB. Nie sadze by byl to nie udany procesor poniewaz AMD ma wiecej do stracenia. Musieli postawic prawie wszystko na ten projekt.

  32. Znowu sie wszyscy (autor: Rajq | data: 15/10/10 | godz.: 13:46)
    rzucaja ze bedzie goraco, ze duzy chip, ze problemy w produckji. Tymczasem nizej mamy zapowiedz 300 watowego Radka i... cisza. Troche obiektywizmu. Zobaczymy jak te 300 W radek bedzie rozpraszal przez powierzchnie ~300 mm. Caymany beda jeszcze bardziej gorace niz wyspy z ktorych nazwe zaczerpnieto.

  33. Tak jak z K7 Athlon. (autor: PCCPU | data: 15/10/10 | godz.: 13:50)
    Co do HD6000 tez nie sadze by bylo to slabe GPU ale premiera juz w piatek za tydzien wiec zobaczymy.

  34. Rajq (autor: PCCPU | data: 15/10/10 | godz.: 14:03)
    Wszystko rozbija sie o wydajnosc. Jesli bedzie rzeczywiscie realnie tyle pobieral pradu ale bedzie znaczny skok wydajnosci to mozna to uzasadnic. Ale jesli przy tym poborze pradu bedzie nie wielki skok wydajnosci to bedzie to ogromny minus i wszyscy beda ganic AMD za to jak teraz nVidie. Juz nie dlugo premiera

  35. @up (autor: Sony Valo | data: 15/10/10 | godz.: 14:51)
    możecie jeszcze z tydzień sobie pogadać a nogonkę zaczniemy uprawiać od dostępności sprzętu

  36. Zadziwiające (autor: bananowy song | data: 15/10/10 | godz.: 14:58)
    Tyle wróżek tu mamy!
    -Upadek nV.
    -Upadek AMD.
    -Radeony 6xxx będą żłopać mustwo prądu.
    -GF 580 wogóle nie będzie ciągnąć prądu.
    Skąd wy to wszystko wiecie?


  37. >>> (autor: tompo75 | data: 15/10/10 | godz.: 15:41)
    Grudzień, którego roku?
    Wychodzi 6xxx to trzeba coś puścić w świat żeby klienci nie pouciekali tylko może część poczeka na coś, co na razie jest na papierze, no ale jak to zwykle bywa papier od amd to tylko papier, natomiast zapowiedz od nv to już pewny pogromca wszystkiego na tym świecie, łącznie z ludzką głupotą.
    Co ma nv puścić w świat przed premierą 6xxx?
    Słuchajcie, nic nie planujemy, kupujcie amd?


  38. GTX 580 (autor: rainy | data: 15/10/10 | godz.: 15:45)
    Zastanawiam się czy przypadkiem wszystkich tych newsów/plotek dotyczących AMD/Nvidii, nie "produkują" te same osoby.

    Tak jak tutaj: 512 SP, 128 TMU, 512-bitowa szyna pamięci (2 GB RAM-u) i to wszystko przy podobnym do GTX 480 TDP.
    Jeżeli jeszcze się okaże, iż powierzchnia układu jest mniejsza, to będziemy mieli prawdziwe CUDA.


  39. Mi to przypomina (autor: PCCPU | data: 15/10/10 | godz.: 15:55)
    zapowiedzi GTX480 przed premiera HD5000 ;-)

  40. nie trolowac mi tu... (autor: Krax | data: 15/10/10 | godz.: 16:30)
    brac sie za ksiazki i sie uczyc....

    1)seria 5XXX byla wczesniej.... i to nie bynajmniej dlatego ze ati sie pospieszylo
    2)nV mialo 6 miesiecy aby przeprojektowac...uklad....myslisz ze az tyle trzeba zeby dolozyc kilka tesselatorow wiecej?
    3)jak AMD stoji z tesselacja zobaczymy w seri 6XXX
    4)nV ma chyba najgorszy soft... z firm dostepnych....
    5)wclae nV niema dobrego wsparcia swiadczy o tym chodzby wsparcie dla 3D ktore firma juz dawno deklarowala, a ktorego brak(film 3D wymagaja extra platengo oprogramowania od innych producentow np. cyberlink)
    a z ocena poczekajmy do premiery bo gtx 460 i 465 oraz 480 jest na rynku i o nam pozwala oceniac.... a radki narazie na papierze....ci co niedoceniaja popelniaja blad tak jak ci ktorzy wruza sukces.... ze wszystkimi wnioskami nalezy poczekac...


  41. @up (autor: tompo75 | data: 15/10/10 | godz.: 16:41)
    "brac sie za ksiazki i sie uczyc...."
    "...popelniaja blad tak jak ci ktorzy wruza sukces...."
    no comment xD


  42. Ojeeeej ojej, Sony! Dasz radę! (autor: Lolo64_EX1_rev2.1 | data: 15/10/10 | godz.: 18:52)
    Jeszcze trochę, dasz radę! Jesteś młody, dasz radę bez viagry!

  43. no dobra (autor: Krax | data: 15/10/10 | godz.: 21:35)
    przespalem szkolnictwo podstawowe:P:E

  44. @Grave (autor: Qjanusz | data: 15/10/10 | godz.: 23:14)
    "W kolejnej generacji powinni (Nvidia) wyciągnąć wnioski i nie popełnić 2x tych samych błędów."

    Dokładnie to mówił w wywiadzie Han Solo Spocony, po wprowadzeniu udanego następny grzałeczki FXa. Dokładnie mówił że nigdy nie dopuszczą do takiej sytuacji, żeby dać konkurencji wygraną na talerzu poprzez błędy popełniane na własnym podwórku.

    Jeżeli jeszcze raz ten błąd popełnią, to nie drugi a trzeci. A jak popełnili mimo zapewnień drugi raz... To jak myślisz.... do trzech razy sztuka? :-)


  45. hmmm... (autor: Sandacz | data: 16/10/10 | godz.: 07:53)
    "które miałyby zadebiutować już niebawem - pierwsza w grudniu" - czy nie znaczy to "pierwsza" w sensie "jedyna" - jeden egzemplarz? Bo historia pokazuje że tak może być.

  46. i żeby (autor: Sandacz | data: 16/10/10 | godz.: 07:57)
    ... na dodatek ta jedyna nie była tylko atrapą.

  47. @ sandacz (autor: Lolo64_EX1_rev2.1 | data: 16/10/10 | godz.: 09:23)
    Nie martw się, teraz Jen-Hsun Huang będzie trzymał atrapę tak, aby nikt się nie doczepił, że karta jest upier**lona. Oczywiście żadnego dotykania i oglądania z bliska.

  48. ...... (autor: Wujofefer | data: 16/10/10 | godz.: 10:49)
    Widać, że Nvidia teraz stara się rozdmuchać info o nowej super grafie tak by odwrócić uwagę od nowych Radków 6xxx.
    Jak im znów nie wyjdzie to "świecące czoło" znów zwali winę na inżynierów, że nie dopracowali GPU i że wszystko było robione w pośpiechu a do tego wszystkiego powie "przecież GPU nie są już naszym głównym zajęciem".


  49. Qjanusz (autor: Grave | data: 16/10/10 | godz.: 12:06)
    Na razie Fermi jest 2 wpadką na ponad 10 generacji samych GeForce'ów!! Śmiem twierdzić że to bardzo dobry wynik.... Nie popełnia błędów tylko ten kto nic nie robi.

    I tak największą wpadką w konfrontacji ATI vs Nvidia EVER był nie FX, nie Fermi od Nvidii, a R600 od ATI znany jako Radeon HD2900, który podobnie jak Fermi miał gigantyczne opóźnienie, podobnie jak Fermi żarł tony energii elektrycznej, ALE był JEDYNYM HI-ENDEOWYM GPU który nie był w stanie pokonać nawet GPU z segmentu midle od Nvidii (GeForce 8800GTS), a po włączeniu AA jego wydajność spadała tak nisko że udawało mu się czasem przegrać nawet ze swoim poprzednikiem (Radeonem X1900XTX)!


  50. @Grave (autor: Marek1981 | data: 16/10/10 | godz.: 12:17)
    Aleś ty jesteś trollem.
    "GPU z segmentu midle od Nvidii (GeForce 8800GTS" Z tego co pamiętam w tamtym segmencie był gts8600 kłamco!!!
    R600 brał tony prądu ale oferma bierze go ponad 50% więcej.

    Co do R600 to był on pomyłką wepchaną na siłę ale AMD potrafiła z tej architektury wyciągnąć bardzo dużo (hd5xxx, może nawet i 6xxx)


  51. Marek1981 (autor: Grave | data: 16/10/10 | godz.: 12:47)
    "Z tego co pamiętam w tamtym segmencie był gts8600 kłamco!!!"

    To źle pamiętasz....


  52. @49 (autor: Jarek84 | data: 16/10/10 | godz.: 12:55)
    Pozwole sobie nie zgodzic sie co do najgorszej grafy ever - FX5xxx nic nie pobije (na razie) - wyszedł później niż R300, a w PS 2.0 to mógł konkurować co najwyżej z Radkiem 9600.

    R600 był nie najlepsza kartą, ale powstało z niego coś sensownego, pomimo wad pierwszej konstrukcji.


  53. bałem się napisać (autor: Sony Vaio | data: 16/10/10 | godz.: 13:15)
    o mocy jaką kryje ta bestia, na samą myśl człowiek zaczyna lewitować i włosy stają dęba. Wszystkie normy przekroczone, dostajemy do rąk strusia pędziwiatra o mocy wodospadu i polocie Sherlock'a Holmes'a. W sklepach potworzyły się listy kolejkowe, ludzie koczują przed witrynami w śpiworach by kupić najlepszy produkt tego roku na gwiazdkę.

  54. @Grave (autor: Wujofefer | data: 16/10/10 | godz.: 13:24)
    Nie powiedziałbym, żeby grafika za minimum 1500 zeta była w średnim segmencie cenowym. High End'em był 8800GTX 768MB (około 2tyś) i GTS 640MB(ok 1500-1700), trochę później dolną granicą High End'u wyznaczała wersja GTS 320MB ale to i tak nie zmieniało faktu, że kosztował około 1200-1400 zeta, dobrze pamiętam bo wybuliłem wtedy sporą kasę na tego "tańszego" GTS'a od EVGA.
    Właśnie GF8600 był w midle end ale to była konstrukcja średnio udana. Lepiej było kupić coś ze starych GF7800/7900 GT lub GTO albo Radeona 1950XT lub GT których ceny wtedy poszły mocno w dół. Sam wahałem się między droższym GF8 i tańszym procem albo lepszym C2D i tańszą grafą R1950XTX.


  55. OMG (autor: Wujofefer | data: 16/10/10 | godz.: 13:26)
    Widać nie tylko Apple ma swoich Maniaków (patrz Sony Vaio).

  56. Jarek84 (autor: Grave | data: 16/10/10 | godz.: 14:05)
    Tyle że gry w których FX się ksztusił wyszły przynajmniej rok po jego premierze (z małymi wyjątkami w rodzaju TR AOD), w grach generacji DX8 (czyli niemal wszystkich) walczył równo z Radeonem 9800(XT).

    Natomiast HD 2900 oferował słabą wydajność jak na hi-endową kartę już w grach które były w momencie jego premiery.

    Dlatego uważam że to HD 2900 jest większą porażką. Nabywca FX-a mógł cieszyć się w większości gier (DX8) wydajnością na poziomie najszybszej karty konkurencji (później było gorzej), natomiast nabywca HD 2900XT od początku dostawał kartę która z modelem hi-endowym nie radziła sobie kompletnie, jako tako radziła z midle, a po włączeniu AA była miejscami nawet gorsza od kart poprzedniej generacji.

    Wujofefer ---> 8800GTX był za ponad 2000zł, 8800GTS - za ok 1500zł. Wystarczająca różnica żeby zaliczyć te karty do różnych segmentów.

    Seria 86xx była bardzo mocno pocięta i oferowała kiepską wydajność po zawyżonej cenie. Zważywszy na wydajność jest to segment low i to że są od niej gorsze wiele nie zmieniało.


  57. Grave (autor: Aamitoza | data: 16/10/10 | godz.: 15:57)
    Na siłę jak zawsze starasz się coś udowodnić? ;]

    Prawda jest taka, że HD2900 był w cenie 8800GTS, a nie GTX, więc i z nim konkurował - czasami był szybszy, czasami wolniejszy. Radził sobie we wszystkich grach podobnie do owych 8800GTS (z AA sytuacja była trochę gorsza, ale i nie we wszystkich grach). Kolejna sprawa - midem to był 8600GTS - nie ważne jak pocięty - jego cena to sugerowała - koniec kropka. Do jego poziomu HD2900 nie spadał nigdy. Jednak skoro uważasz 8800GTS'a za mid, to radeon był w tym samym segmencie - wbrew Twojej opinii:

    " ALE był JEDYNYM HI-ENDEOWYM GPU który nie był w stanie pokonać nawet GPU z segmentu midle od Nvidii"

    Widzę, że W Twojej główce wyolbrzymiły się pewne problemy ;]

    wg testów na computerbase HD2900 bez AA był 18% szybszy od 8800GTS 640 (25% od wersji 320) i był 12% wolniejszy od 8800GTX. Z AA był 7% wolniejszy od 8800GTS 640 i 10% szybszy od modelu 320. - wyniki z rozdzielczości 1600x1200. Na podstawie 17 gier - więc całkiem spory przekrój.

    Gdzie ta tragedia?


  58. Grave i jego rozumowanie (autor: Wujofefer | data: 16/10/10 | godz.: 16:38)
    Zaraz zaraz. To wg. Grave'a High End to 8800GTX za 2000 zł, midle to 8800GTS 640MB za 1500zł to pewnie low end to 8800GTS 320MB za 1200zł. W takim razie jaki segment prezentuje 8600GTS? To już jakiś under end? Jeśli tak to 8500 to more then under end a 8400 to more under end then you can't ever imagine. xD

  59. @56 (autor: Jarek84 | data: 16/10/10 | godz.: 20:49)
    Tylko popatrz, że różnice w wydajności między HD 2900 a np 8600GTS nie zatarły sie tak jak między okolo 700zł Radeonem 9600 a FX5800 czy Fx5900 za 2 tyś zł. Żeby pograć porządnie z PS 2.0 w gry pokroju FarCry, czy Half-Life 2 nie wsytarczył High-end on NV, który sprawował sie niczym Radeon 9600...

  60. Jarek84 (autor: Grave | data: 16/10/10 | godz.: 21:22)
    Bo FX miał błędną implementację DX9, w DX8 wydajność była ok, czyli niemal we wszystkich grach które byly na rynku w momencie premiery FX-a.

    A jak DX9 na dobre zagościł w nowych grach to już była następna generacja kart.

    Z dwojga złego gdzie jest karta która na dzień dobry we współczesnych jej grach jest niewydajna i taka pozostaje w nowszych,

    a z drugiej strony karta która w obecnych w czasie jej premiery i przez jakiś rok od premiery grach ma bdb wydajność, a potem trafi w grach korzytsających z nowego API

    to uważam ze 100% przekonaniem, GORSZĄ opcją jest opcja taka jak Radeon HD2900 czyli od początku karta mało wydajna.


  61. grudzień którego roku (autor: GULIwer | data: 16/10/10 | godz.: 21:36)
    ciekawe ;) Jak oni takiego potworka uchowali w tajemnicy ??

  62. @all (autor: lamik91 | data: 17/10/10 | godz.: 00:22)
    A mi się wydaje że nic z tego nie będzie ;)
    a gdzie GTX 480 który miał mieć 512 sp ? ups... nie ma go jeszcze ? aj tam przecież to tylko małe opóźnienie ;)


  63. Grave (autor: Aamitoza | data: 17/10/10 | godz.: 01:06)
    Więc 8800GTS też był od początku mało wydajny? ;) A no tak - jedynie 8800GTX był wydajną kartą a reszta to wolne śmieci. ;] Różnica taka, że 5950 ultra byłą sprzedawana drożej od 9800XT, a w DX9 oferowałą wydajność karty ponad 2x tańszej, a HD2900 był sprzedawany w cenie 8800GTS640 przy czym bez AA był od niego prawie 20% szybszy, a z AA 10% wolniejszy. Więc zastanawia mnie co jest większą porażką - karta, która oferowała wydajność taką za jaką się zapłaciło, czy FX który przez pierwszy rok oferował wydajność karty za ponad 2k, a z co nowszymi grami wychodziło na to, że kupiło się badziewie i można było zainwestować te 2000zł w 9800XT.

    PS. FX nie miało złej implementacji DX9, tylko żałośnie niską wydajność shaderów, co przyczyniło się słabej wydajności w DX9.


    http://www.guru3d.com/...-radeon-9800-xt-review/16


  64. Amitoza (autor: Grave | data: 17/10/10 | godz.: 11:12)
    Na egieldzie był test MSI HD 2900XT w wielu grach i z AA i to jak piszesz 10% słabiej od 8800GTS po włączeniu AA to baaardzo optymistyczne przypadki, były znacznie gorsze, w których wydajność nowego Radeona spadała poniżej osiągów jego poprzednika, a to już jest kuriozum! A to i tak testowali do max AA4x, są przecież jeszcze wyższe tryby AA, z których zdaje się z litości nie skorzystano.

    Na to 20% lepszą wydajność bez AA od GTS8800640 to też poproszę linka, bo nie wierzę.... Chyba trochę przesadziłeś. Na pewno w przekroju większej liczby testów wydajność bez AA była mniej niż 20% lepsza u ATI. W niektórych grach być może (w końcu bodaj w Splinter Cell którymś w jednym z testów HD 2900 wyciągnął wynik na poziomie 8800GTX, ale to wyjątek).

    Pisałem że HD 2900XT jak na hi-endową kartę był mało wydajny bo był. Jasne że AMD wyceniło go na poziomie midle od Nvidii, ALE nie oszukujmy się - ten układ był od początku projektowany jako hi-end, najszybsze GPU na rynku, tylko... okazał się w rzeczywistości gorszy niż miał być i AMD nie pozostało nic innego jak obniżyć jego cenę i zrezygnować z walki w najwyższym segmencie.


  65. I tak jak pisałem (autor: Grave | data: 17/10/10 | godz.: 11:18)
    w grach DX8 czyli niemal wszystkich jakie były na rynku w momencie premiery układu Nvidii, GeForce FX oferował wydajność na poziomie najszybszych kart konkurencji, natomiast HD 2900XT na starcie poza bardzo nielicznymi wyjątkami nie był w stanie nawet zbliżyć się do wydajności 8800GTX.

    I też Nvidia nie była zmuszona ciąć ceny FX-a bo ten mimo wszystko sobie radził. Dopiero jak weszly gry korzystające z DX9 i było ich coraz więcej FX przerżnął równo, ale... to było już wtedy kiedy obie firmy miały nowe generacje GPU.

    Test na labie w DX9 uwzględnił FX-a jako ciekawostkę bo była to już karta poprzedniej generacji.


  66. @Grave (autor: Mariosti | data: 17/10/10 | godz.: 12:10)
    To że 2900XT był najmocniejszym gpu od ati w tamtym czasie nie oznacza że był to high end, po prostu ati nie miało wtedy karty walczącej o miano najszybszej, 2900xt był wyceniony odpowiednio do swoich możliwości. To tak jakbyś sugerował że procesory x86 mają architekturę risc bo tak na prawdę szeroki zestaw instrukcji jest wewnątrz procesora tłumaczony na wąski zestaw prostych instrukcji fizycznie przez niego wykonywanych ;]

    http://www.hardwaresecrets.com/...XT-Review/449/13

    Karta była znacznie szybsza od 8800gts 320, szczególnie w rozdzielczościach rzędu fullhd, czyli adekwatnych do karty za 400$, no a że z AA miała jakiś sprzętowy dylemat to wiemy.
    Topowe FX'y były w znacznie gorszej sytuacji względem radonów 9000.

    Co nie zmienia faktu iż jest to po prostu historia. Ta sugeruje że nvidia musi wypuszczać przynajmniej plotki w tej sytuacji, bo to poprawna rzecz z punktu widzenia sprzedawcy towaru. Z taką specyfikacją jak zasugerowana w news'ie fizycznie niemożliwym będzie aby karta ta zużywała mniej energii od gtx480... może mieć mniejsze tdp, ale jak wiadomo ma on mały związek ze zużyciem energii, a tym bardziej z tdp konkurencyjnych radeonów (5970 ma 50W wyższe tdp od gtx480 a jednak zużywa nawet mininalnie mniej energii od niego).
    Z resztą zobaczymy przeciw jakiej wydajności miały stawiać czoła ten gtx580, wtedy będzie można dalej dywagować.


  67. Aamitoza (autor: morgi | data: 17/10/10 | godz.: 13:28)
    hd2k nie radzil sobie z niczym, mial zepsuta jakosc obrazu, fatalne dzialanie wygladzania i sterowniki zrobione jak i dzisiejsze na kolanie. Nvidia miala problem z przejsciem sterownikow na zvisle, ale sprzet nie wymagal i do dzisiaj jak wypuszczaja nie wymaga latania pod konkretne api, tym bardziej Microsoftu. kiepscy wstydza sie za hd2-3k, a hd4-5k to docelowy sprzet dx10, zobaczymy czy hd6k rozpoczenie docelowe wsparcie dx11.

  68. @morgi (autor: Mariosti | data: 17/10/10 | godz.: 14:00)
    Sorry ale w faktycznych grach korzystających z dx11 hd5000 radzą sobie doskonale i radziły sobie na ponad pół roku przed jakimikolwiek kartami od nvidii. Benchmarki opłacane przez nvidię to nie odzwierciedlają wydajności w grach, mógłbyś sobie łaskawie zdać z tego w końcu sprawę.

  69. Grave (autor: Aamitoza | data: 17/10/10 | godz.: 14:22)
    Napisałem Ci, gdzie znajdziesz testy - computerbase.

    http://www.computerbase.de/...tt_performancerating

    Bez AA 18% lepiej, w DX10 na podobnym poziomie, z AAx4 8% słabiej, z AAx8 na podobnym poziomie. Owszem - AA na radeonie było mocno skopane, bo w takim oblivionie wydajność byłą na katastrofalnym poziomie, podczas gdy bez AA było karcie bliżej do 8800GTX niż 8800GTS...- no i ogólnie karta miała taką przypadłość jedynie na niektórych silnikach, bo można podać co najmniej kilka przykładów, gier, gdzie nawet z AA lub AF karta byłą bliżej GTX niż GTS, a były takie, że AA lub AF ją dławiło ;)

    Bez AA była to karta z lepszą opłacalnością niż 8800GTS, do grania z AA karta miała mniejszą opłacalność (z racji właśnie tego, że na niektórych silnikach działy się "cuda").

    Testy na egieldzie... traktuję zazwyczaj jak dobrą baśń ;)


  70. mysle (autor: Jarek84 | data: 17/10/10 | godz.: 16:10)
    ze Aamitoza przedstawił dobitnie to co pisałem już wcześniej, żadnej błędnej implementacji nie było - inaczej karta nie byłaby kompatybilna z SM 2.0. Fx był po prostu żenująco słaby i nic nie zmieni mojego zdania, że była to najgorsza architektura w historii NV i ATI.

    A co do GTX580 to typowe mydlenie oczu -tak samo było z Fermim - liczne atrapy, zapowiedzi, pudełka - tylko po to żeby choć trochę kupujących zwlekało z zakupem kart AMD.


  71. Jarek (autor: Aamitoza | data: 17/10/10 | godz.: 16:30)
    Ale R600 nie był dużo bardziej udany ;) FX miał kosmicznie niską wydajność shaderów, a R600 na niektórych silnikach leżał i kwiczał po włączeniu AA lub AF (czasami tylko kilka % słabiej od 8800GTS, a czasami kilkanaście i więcej). Różnica taka, że R600 w nowszych grach bez AA radził sobie na takim poziomie jak 8800GTS (a często nawet wyższym), a 5950ultra w grach DX9 oferował wydajność nie rzadko na poziomie radeona 9600, przy czym w DX8 trzymał poziom 9800XT.

    Kolejna sprawa, to jakość obrazu - w R600 bez AA wszystko było okej, a z AA przy niektórych filtrach można było dostać dosłownie blur, co nie było efektem oczekiwanym (chociaż czasami paradoksalnie dawało dobry efekt, a przy odpowiednim dobraniu filtra można było prawie zniwelować ten efekt). Jednak dla odmiany w serii FX nvidia robiła cuda na kiju w sterownikach i program dla shaderów był maksymalnie upraszczany aby karta w ogóle sobie z tym radziła i nie dość, że wydajność była na poziomie 9600 (lub ciut wyższym), to efekty DX odstawały od tych na radeonach 9xxx.

    GTX580 jeżeli będzie rozwinięciem GTX460 może być ciekawą propozycją. Powinno być trochę szybsze od GTX480, oferować podobne TDP, a sam układ mógł by być ciut mniejszy. - jednak w takim wypadku można by zapomnieć o szynie 512bit czy 128TMU.


  72. @Grave - typowe fanbojskie trollowanie w Twoim wydaniu (autor: Qjanusz | data: 17/10/10 | godz.: 21:28)
    Tłumaczysz marną firemkę wywodem, który już był użyty w historii przez samą firemkę.

    Chciałem przez to napisać, że to tłumaczenie jest absolutnie bez sensu. To tak jak byś wsiadł na rower i się zaraz wypieprzył. Po tym byś się tłumaczył że nie dokręciłeś dwóch kółeczek z boku. Za kilka lat ta sama historia. Kupy się to nie trzyma.

    Po prostu pokazuje to że firemka jest marna. Bez wizji. Jeżeli coś im się uda, to jest ok. Brak im autoweryfikacji.

    Co do GTX580, to został zapowiedziany na grudzień. Oznacza to że od lutego zaczną się newsy z pokazami i fotkami pudełek. Ludzie znów dostaną zastrzyk humoru jak na bashu.

    Niestety będzie mniej humoru o dwie dość istotne firmy. JAK NA RAZIE.... DWIE.

    Karta jak będzie gotowa pod koniec Q12011, to będzie suck-cess.


  73. Mariosti (autor: morgi | data: 17/10/10 | godz.: 21:50)
    Nie mowie tu o aktualnych grach, w ktorych dx11 i dx9 rozni sie pod lupa, a teselacje tam maja na takim poziomie, zeby przeczekac na zalatanie grafiki kiepskich.

  74. @Qjanusz (autor: Wujofefer | data: 17/10/10 | godz.: 22:18)
    No nie przesadzajmy. Nvidia miała sporo czasu na dopracowanie oFermiego. Jak im nie wyszło z GTX480 a konkurencja zapowiedziała nowe R6xxx to Nvidia stwierdziła, że po co mają wydawać pełnego Fermiego pod nazwą GTX485 jak mogą to tu to tam dodać co nieco do pierwotnego projektu i wydać pod nową nazwą GTX580.
    Myślę, że to co się pojawi miało być tym Fermim jaki teraz jest na rynku (no może teraz trochę podrasowanym o dodatkowe jednostki teksturujące i szerszą szynę).
    Jeśli im się udało uratować tą architekturę to pewnie wydajność podskoczy o te 30-40%, na więcej bym nie liczył.
    A co do premiery to wg. mnie zapowiedzą oficjalnie kartę w okolicach premiery Radeonów 69xx i na początku przyszłego roku wydadzą.


  75. wujufefer (autor: Aamitoza | data: 17/10/10 | godz.: 22:38)
    szersza szyna - 512bit równała by się temu, że znalazły by się tam 64ropy. A skoro jeszcze do GF100 dorzucili by dodatkowe 64TMU (poza tymi 16ROP'ami) to układ był by już olbrzymi i jedynym rozwiązaniem było by inne pogrupowanie shaderów (w klastry po 64 zamiast 32). Jednak tym sposobem otrzymali byśmy znacznie mniejszą ilość teselatorów w efekcie czego wydajność w dx11 mogła by ucierpieć.

  76. hmm (autor: bartek_mi | data: 17/10/10 | godz.: 23:21)
    kolejny troll-fight

    super. zupelnie jak 10 lat temu
    gdzie jest zryty beret i intel rulez?


  77. Qjanusz (autor: Grave | data: 17/10/10 | godz.: 23:53)
    Marny to Ty jesteś, a nie Nvidia.... Osatnią wpadkę przed Fermim Nvidia zaliczyła 7 lat temu, skoro uważasz że to taki kiepski wynik to może sam zaprojektuj GPU, zobaczymy jak Ci wyjdzie.... :>

  78. @Grave (autor: Qjanusz | data: 18/10/10 | godz.: 11:23)
    nie rozumiesz, nie czytasz dokładnie, ale brednie piszesz w najlepsze.

    Tłumaczysz firemke tłumaczeniem, które ona już uskuteczniła kilka latek temu wcześniej i zapowiedziała że takiego tłumaczenie już nie będzie.

    Zamiast przyznać rację, bo to są fakty, rozprawiasz
    w stylu, "a bo AMD też się potknęło na 2900"

    A teraz sam mam zaprojektować GPU. Zatańczyć może jeszcze...


  79. @up (autor: Mariosti | data: 19/10/10 | godz.: 00:48)
    Nie rozumiem czemu aż taki jest ogólny najazd na fermi... karty po odpowiednim wycenieniu są przecież bardzo atrakcyjne i oferują bardzo stabilną wydajność w szerokiej gamie tytułów dzięki swojej skalarnej architekturze mocno odpornej na nieoptymalny kod. Zużywa dużo energii owszem, nawet tyle co 5970 i nie oferuje przy tym jego wydajności, ale zauważmy że nie są w tym samym segmencie cenowym, to tak jak sugerowanie na siłę że 2900xt miał konkurować z 8800gtx/ultra mimo iż też był w innej kategorii cenowej. Główna wada fermi to ich półroczne spóźnienie względem konkurencji i co do tego nie ma dyskusji.

    Co do samego tematu to prędzej wyobrażam sobie że w odpowiedzi na caymana xt i antilles'a nvidia wypuści pełne gf100 jako gtx485 i może gtx495 złożony z dwóch pełnych układów gf104... to na pewno jest możliwe do zrealizowania w krótkim czasie i byłoby wg mnie bardzo pożądane przez rynek w razie gdyby cayman xt faktycznie przyniósł bardzo duży wydajności w porównaniu do cypress'a.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.