Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Wtorek 23 lutego 2010 
    

Radeony HD 5830 gotowe do premiery


Autor: Zbyszek | źródło: TechPowerUp | 16:39
(129)
Nadchodząca rynkowa premiera kart ATI Radeon HD 5830 będzie jedną z najlepiej przygotowanych premier w okresie ostatnich kilku lat. Karty będą dostępne w sklepach w bardzo dużych ilościach i nikt nie powinien mieć problemu z ich zakupem. Ponadto producenci już w dniu premiery zaoferują własne autorskie wersje kart, z fabrycznie zwiększonymi zegarami taktującymi oraz niereferencyjnymi systemami chłodzenia. Będą to między innymi modele firm Sapphire, PowerCoolor, HIS i Gigabyte. Znana jest już także ostateczna specyfikacja akceleratorów - finalnie karty dysponować będą liczbą 1120 procesorów strumieniowych. Częstotliwość taktowania układu graficznego wyniesie 800 MHz, natomiast pamięci 4000 MHz (efektywnie). Wydajność nie powinna być niższa o więcej niż 10-15% w porównaniu do modelu HD 5850, przy 20% niższej cenie. Premiera już za 2 dni - w najbliższy czwartek 25 lutego.


 

    
K O M E N T A R Z E
    

  1. "najlepiej przygotowanych premier" (autor: Barbarian | data: 23/02/10 | godz.: 16:58)
    PROTESTUJĘ!
    Najlepiej przygotowaną premierę ma Fermi - już trwa pół roku i końca nie widać.


  2. ... (autor: tompo75 | data: 23/02/10 | godz.: 17:03)
    I tak nic nie pobije w przygotowaniach premiery Duke Nukem Forever :) ale nv robi wszystko żeby temu dorównać :)

  3. Czepiacie się, chłopaki z nV przygotowują (autor: Mcmumin | data: 23/02/10 | godz.: 17:05)
    twardy grunt pod premierę bo nam gaciorki z wrażenia opadną ;)

  4. ładnie (autor: Qjanusz | data: 23/02/10 | godz.: 17:05)
    sporo osób sobie ostrzy pazurki na tę kartę - nie ukrywam że ja też :-)
    Ale nie spodziewałem się że customy różnych producentów będą dostępne w dużych ilościach już od pierwszego dnia. To bardzo dobra informacja.

    @Barbarian - lepiej to wygląda niż zapowiedź zapowiedzi czegoś, co miało się wydarzyć niemal pół roku temu, co nie? :-)


  5. Ma mieć 16 ROP'ów (autor: celorum | data: 23/02/10 | godz.: 17:08)
    Czyli będzie co najmniej 25% słabsza od 5850. ciekawe czemu takie duże TDP.

  6. @Qjanusz (autor: Barbarian | data: 23/02/10 | godz.: 17:11)
    Takiej inwazji AMD/ATi nikt się nie spodziewał. To jest walcowanie terenu kartami z górnej półki w przystępnych cenach. Nvidia będzie miała bardzo trudną przeprawę z Fermi, który przy tych hartach będzie wyglądał jak słoń ze śmigłem.
    Te Radeonki są na tyle ładne, że trudno wybrać, ale opinie pojawią się szybko przy takim zalewie.


  7. Ooo dobre porównanie dla Qjanusza (autor: Grave | data: 23/02/10 | godz.: 17:22)
    HD 5830 - 2mld tranzystorów
    GTX 285 - 1,4mld tranzystorów

    600 mln tranzystorów więcej a ATI i tak wolniejsze :PPP

    To odp. na Twoje porównanie GTX 260 do HD 4870....


  8. @Barbarian (autor: Qjanusz | data: 23/02/10 | godz.: 17:23)
    nVidia będzie się boksować pewnie z najwydajniejszymi kartami i wysokimi kosztami produkcji. Karty pokroju 5850 i 5830 raczej nie powinny być zagrożone (niestety) jakąkolwiek konkurencją. No chyba że w postaci HD6770.

    dla równowagi, lekka retrospekcja, jak wyglądała premiera Radeonów 3 lata temu:
    http://www.idg.pl/....raz.kolejny.przesunieta.html


  9. @Grave (autor: Qjanusz | data: 23/02/10 | godz.: 17:25)
    widzisz Grave :-)
    kolejny przykład na to że prorokowanie wydajności po licznie tranzystorów jest bez sensu.

    ps. newsy Ci się pomieszały :-)


  10. Barberian (autor: Grave | data: 23/02/10 | godz.: 17:28)
    Nvidia nie musi się zbytnio wysilać. Do pokonania jest HD 5870 - niezbyt duże wyzwanie dla Fermi.

    Dwuukładowy 5970 może wygra ale tylko tam gdzie CF zadziała, nie liczę mikro przycięć typowych dla tego typu rozwiązań. Zawsze najlepiej wybierać pojedyncze GPU niż kanapki, albo dwugłowe potworki :)

    Natomiast co do reszty serii 5xxx ATI to ze wszystkim słabszym od 5850 radzą sobie karty Nvidii poprzedniej generacji, a że gier DX11 jak na lekarstwo (praktycznie obecnie DX11 jest bez znaczenia) to Nvidia nie ma się czym przejmować.

    Takie karty jak GTX 280, GTX 260, GTS 250 - ciągle są bardzo wydajne, wystarczy je dobrze wycenić i mogą śmiało konkurować z 5xxx serią od ATI.

    Natomiast w segmencie najwyższym istotnie potrzebna jest Nvidii premiera, bo GTX 285 jest wolniejszy od Cypressa. Ale Fermi sobie z układem ATI poradzi na pewno.

    Spokojnie wprowadzą też nową architekturę do niższych segmentów, ale nie muszą się z tym spieszyć.


  11. Qjanusz (autor: Grave | data: 23/02/10 | godz.: 17:33)
    nie pojąłeś. Chciałem pokazać że w Twoim porównaniu (i moim tutaj) mamy 2 układy z których jeden choć składa się z większej liczby tranzystorów ma CZĘŚĆ JEDNOSTEK NIEAKTYWNYCH, a więc część tranzystorów idzie na marne!! Stąd takie porównanie jest niemiarodajne.

    Natomiast jeżeli dodatkowe tranzystory idą na budowę większej liczby jednostek obliczeniowych (a tak jest w przypadku Fermi) wtedy więcej tranzystorów = wyższa wydajność.

    W przypadku pełnego Fermi 3mld tranzystorów przekładają się na 512SPU, 48 ROP, 64TMU (taktowanych częstotliwością shaderów) i 384bit kontroler pamięci.

    W wydaniu Matroxa może można by mieć wątpliwości, ale nie Nvidi - tu taka specyfikacja o tyle lepsza od konkurencji MUSI przełożyć się na wyższą wydajność. Nie wierzę żeby było inaczej i jestem przekonany że tak właśnie będzie.


  12. Grave (autor: morgi | data: 23/02/10 | godz.: 17:36)
    Nie musza, zwlaszcza, ze dx11 na kartach hd5k powinno byc z naklejka 'very slow' dla najdrozszych, a 'only label' dla tanszych.

  13. @Grave (autor: Barbarian | data: 23/02/10 | godz.: 17:38)
    Nikt Fermi nie widział na oczy, więc stwierdzenie "niezbyt duże wyzwanie dla Fermi" nie ma żadnych podstaw. Nie ma jeszcze Fermi i wszystko wskazuje na to, że to będzie niezły grzejnik. Nowa architektura też niekoniecznie przełoży się na wydajność (w pierwszym wydaniu). Gdyby było inaczej, to nvidia śpiewałaby o tym już od miesięcy. Problemów może być bardzo wiele i nie będzie słodko.

  14. @morgi (autor: Barbarian | data: 23/02/10 | godz.: 17:41)
    Tracisz fason. Rozumiem, że Larrabee mogło spowodować udar mózgu, ale nie zniżaj się do poziomu opluwania produktów, które odnoszą od kilku miesięcy ogromny sukces rynkowy. Martwię się jak sobie poradzisz z potencjalnym niewypałem jakim może być Fermi. Zostaniesz na lodzie z "GPU" Intela i będziesz miał szanse na udanego pasjansa.

  15. @Grave (autor: ligand17 | data: 23/02/10 | godz.: 17:43)
    "niezbyt duże wyzwanie dla Fermi.", "Fermi sobie z układem ATI poradzi na pewno. " - po raz kolejny: albo podaj źródło tych rewelacji, albo przestań pierdolić głupoty.

  16. ligand17 (autor: Grave | data: 23/02/10 | godz.: 17:47)
    Źródłem może być dowolna recenzja 5870 uwzględniająca także GTX 285 + specyfikacja Fermi. Więcej nie potrzeba.

    Wybacz, ale jak mam specyfikację silnika przykładowo 12 cylindrów, 6.0l + dwie turbosprężarki to nie potrzeba mi testów żeby wiedzieć, że będzie miał większą moc niż silnik z 2 litrowy z 4 cylindrami i bez turbo....

    Jak Ci testy potrzebne - poczekaj jeszcze miesiąc. Poza tym to nie prawdę trzeba udowodnić tylko kłamstwo. Jeżeli uważasz że piszę nieprawdę to to udowodnij. A jeżeli nie masz jak - to sobie daruj.


  17. @Grave (autor: Qjanusz | data: 23/02/10 | godz.: 17:51)
    "praktycznie obecnie DX11 jest bez znaczenia"
    a kto Ci takich ciekawostek naopowiadał? :-)

    http://pclab.pl/art41019-3.html
    "Zainteresowanie współpracą z AMD w implementacji DirectX 11 w grach okazało się tak duże, że firma nie mogła porozmawiać na ten temat ze wszystkimi i musiała wybierać, z kim nawiązać współpracę, a z kim nie"


  18. @Grave (autor: Barbarian | data: 23/02/10 | godz.: 17:52)
    Wysunąłeś hipotezę i teraz chcesz aby ktoś to obalił. Nie ma takiej możliwości, gdyż Radeony to rzeczywisty i przetestowany sprzęt w dobrej cenie i sprzedający się jak ciepłe bułeczki - natomiast Fermi to papierowy układ z 3000000000 tranzystorów, których zasilenie będzie wymagało niezłej zasiłki i już z tego powodu mocno ograniczy grono nabywców. Nowa architektura to nowe niedopracowane stery z wieloma problemami na starcie. Wydajności nie można ocenić, a zatem nie można zakładać, że będzie taka lub inna. Nie widziano jeszcze żadnej karty na Fermi (nie licząc atrap).

  19. Barbarian (autor: Grave | data: 23/02/10 | godz.: 17:53)
    ATI trzyma gębę na kłódkę jeżeli idzie o wydajność przyszłych GPU czy nawet ich specyfikację żeby nie ułatwiać życia konkurencji. Dlaczego więc Nvidia miałaby odkrywać wszystkie karty?

    Podali specyfikację, podali budowę układu i opisali podstawowe cechy i funkcjonalność nowej architektury. Tyle na razie wystarczy.

    Na pewno sporym problem jest ogromna liczba tranzystorów jak na 40nm proces technologiczny. Ale Nvidia tak już ma że lubi do maksimum wykorzystać dany proces (tak było z 8800GTX, GTX 280 no i teraz z Fermi).

    Do tego dochodzą koszty. Jasne że byłoby dobrze gdyby wyprodukowali to w 28nm, ale póki co nie ma jak.

    Nawet kontroler docelowo miał być 512 bit, ale.. się nie zmieścił. Stąd 384 bit, pełny 512 dopiero w 28nm wersji będzie.

    Ale nawet w tych 40nm układ z taką specyfikacją musi być najszybszym GPU na rynku. Nie ma żadnych podstaw aby w to wątpić, zwłaszcza że Nvidia nie zwykła przegrywać w Hi-endzie.

    Wszystkiego jest więcej niż w HD5870. Więcej ROP, więcej TMU, więcej SPU, do tego SPU i TMU są taktowane oddzielnymi wyższymi zegarami, do tego 16 dedykowanych tesselatorów i 384bit szyna do pamięci GDDR5 vs 256bit u ATI.

    Fermi po prostu NIE MOŻE PRZEGRAĆ z HD 5870....


  20. @Grave (autor: Qjanusz | data: 23/02/10 | godz.: 17:56)
    "... + specyfikacja Fermi. Więcej nie potrzeba"

    O nie potrzeba czegoś więcej. I Ty to masz. W zasadzie jesteś tym przesiąknięty :-)

    Co do przykładu z silnikami aut, to też lepiej bądź ostrożny bo możesz kiedyś wyjść na głupka nie tylko w dziedzinie IT:
    http://www.infosamochody.pl/...mnosc_duza_moc.html


  21. Qjanusz (autor: Grave | data: 23/02/10 | godz.: 17:57)
    To pokaż mi choć jedną grę dostępną obecnie która czerpie realne WYRAŹNE korzyści z zastosowania DX11 - wydajnościowe oraz wizualne. CHOCIAŻ JEDNĄ!!

    Bo takie pierdółki jak trochę inne (bo nawet nie lepsze) cienie w Stalkerze czy równie powalające poprawki w DIRT 2 to zwykły marketing. Notabene karta ATI w trybie DX11 wyraźnie zwalnia, a korzyści z tego specjalnych nie ma.

    Przy okazji ciekaw jestem jaka jest wydajność teselacji w HD 5870. W DIRT 2 są spowolnienia po włączeniu trybu DX11, a co będzie w grach które wykorzystają bardziej możliwości DX11? Pytanie bez odpowiedzi, ale może być różnie....


  22. @Grave (autor: Barbarian | data: 23/02/10 | godz.: 17:59)
    "Fermi po prostu NIE MOŻE PRZEGRAĆ z HD 5870"
    Nie mogłeś tego lepiej uzasadnić!

    "Podali specyfikację, podali budowę układu i opisali podstawowe cechy i funkcjonalność nowej architektury. Tyle na razie wystarczy."
    Niestety nie wystarczy, gdyż śmiech jest coraz większy i już nawet autorzy newsów masowo piszą o kotletach, co świadczy o stanie rzeczy.

    Nie jestem przeciwny Fermi, ale zwyczajnie źle to wygląda. Czekałem na ten układ ze względu na możliwość wykorzystania CUDA i niestety nie doczekałem się. Teraz już wiem, że przyjdzie poczekać na Fermi w 28nm, gdyż tego pożeracza energii nie kupię.


  23. @Grave (autor: culmen | data: 23/02/10 | godz.: 18:00)
    "Wybacz, ale jak mam specyfikację silnika przykładowo 12 cylindrów, 6.0l + dwie turbosprężarki to nie potrzeba mi testów żeby wiedzieć, że będzie miał większą moc niż silnik z 2 litrowy z 4 cylindrami i bez turbo.... "

    Wchodzisz na cienki lód.
    przyklad silniki f1 2,4l v8 bez turbo
    19k rpm i ~~750km


  24. i dalej (autor: culmen | data: 23/02/10 | godz.: 18:05)
    nie wspomne juz silników f1 z lat 80
    1,5l R4 z turbinka @5bar produkowala 1300-1500bhp


  25. F1 to wyjątek i nisza, ja mówiłem o silnikach (autor: Grave | data: 23/02/10 | godz.: 18:06)
    w normalnie dostępnych seryjnie produkowanych samochodach.

    Zresztą analogicznie Fermi czy HD 5870 nie są produktami dla profesjonalistów (dla nich jest Telsa, Quadro, FireGL etc).


  26. Tzn GTX 480 konkretnie (autor: Grave | data: 23/02/10 | godz.: 18:09)
    bo na bazie Fermi także będą dostępne także modele Tesla czy Quadro :)

  27. @Grave (autor: Qjanusz | data: 23/02/10 | godz.: 18:10)
    DX11 to nie poprawiacze wizualne, tylko znaczne przyśpieszenie pracy programisty nad efektem. Kiedy w końcu się tego nauczysz!

    Każdy efekt wizualny dostępny w DX11, można obrobić również i DX9c. Tylko ile czasu to zajmie? Rzecz istotna zwłaszcza w dobie masowego klepania gier pod konsole.

    Na szczęście zaawansowanie procesu wdrażania nowego standardu można mierzyć takimi rzeczami jak liczba sprzedanych urządzeń je obsługujących, czy zainteresowanie ludźmi, którzy rozdają na rynku gier, a nie za przeproszeniem Twojego fanbojskiego czarnowidzenia, które każdy niemalże bez wyjątku ma głęboko.

    Dane powyższe możesz spokojnie wygooglować. Oczywiście wyłączając stopień fanbojskiego czarnowidzenia.


  28. @Grave i silniki :-) (autor: Qjanusz | data: 23/02/10 | godz.: 18:13)
    a silnik wankla to tez dla Ciebie F1?
    przeczytaj mojego linka.
    Kumpel nie jest zawodowym kierowcą, a ma go w taniej Maździe.


  29. @Grave (autor: culmen | data: 23/02/10 | godz.: 18:23)
    A V12 6.0L TwinTurbo to nie nisza?
    Znam tylko 2 samochody z takim silnikiem
    BMW 760i =544km
    Mercedes CL 63 AMG = 612km

    To tez sa samochody z tzw. masówki ??


  30. Qjanusz (autor: Grave | data: 23/02/10 | godz.: 18:31)
    Silnik Wankla to także nisza :) Poza tym w moim porównaniu dałem specjalnie taki rozstrzał parametrów żeby ten o słabszych parametrach po prostu musiał być słabszy.

    culmen

    To są samochody które normalnie możesz kupić. A silnika od F1 raczej nie dostaniesz....


  31. @UP (autor: Barbarian | data: 23/02/10 | godz.: 18:35)
    Ludzie! Tu jest mowa o rzeczywistych Radeonach (z piękną premierą) i nieistniejącym Fermi. Tego nie można porównać. Pojawi się Fermi, to zobaczymy wydajność. Larrabee miało zamłotować wszystko i niestety nie istnieje i już istnieć nie będzie.

  32. Qjanusz (autor: Grave | data: 23/02/10 | godz.: 18:37)
    To się w końcu zdecyduj czy implementacja DX11 w kodzie gry ma znaczenia czy nie ma. Bo raz piszesz jedno raz drugie.

    Ułatwiać programowanie to miał już DX10 i g... z tego wyszło, a do tej pory gier DX10 jak bardzo mało chociaż od premiery DX10 minęły już 4 lata.

    DX11 przynajmniej w teorii umożliwia tworzenie ładniejszych gier (teselacja) które będą chodzić szybciej (wsparcie dla wielordzeniowych CPU/GPU).

    Problem w tym, że na razie ani jednego ani drugiego nie ma. Jest kilka gier które ani szybciej w DX11 nie chodzą (wręcz wolniej) ani dużo lepiej nie wyglądają.


  33. Barbarian (autor: Grave | data: 23/02/10 | godz.: 18:40)
    Następny co się masturbuje larabee. Tu dyskusja o Nvidii i ATI, a ten wyjeżdża z Larabee. Płacą Ci za każde napisanie o Larabee, że wciskasz to gdzie się da?

    Larabee z Fermi Nvidią czy ATI ma tyle wspólnego co wyniki wyborów na Ukrainie z populacją pingwinów na Antarktydzie.


  34. @Grave (autor: Qjanusz | data: 23/02/10 | godz.: 18:43)
    Już dawno się zdecydowałem że implementacja DX11 ma znaczenie. Zdania nie zmieniałem i nie zmienię.

    Co do DX11 i średniego DX10, poczytaj sobie o nich w linku:
    http://pclab.pl/art41019-3.html

    Masz odpowiedzi na swoje pytania w temacie DX.


  35. @Grave (autor: Barbarian | data: 23/02/10 | godz.: 18:47)
    To powiedz zatem co mają wspólnego twoje samochodowe silniki z Fermi i Radeonami i zacznij czytać ze zrozumieniem.

  36. @Grave (autor: Qjanusz | data: 23/02/10 | godz.: 18:50)
    tylko że Barbarian słusznie się wypowiedział nt porównywania czegoś co jest, z czymś czego tak na prawdę nikt na oczy nie widział.

    To tak jakby Tobie napisać że coś tam sobie robisz, pisząc o czymś, czego nie ma.

    A Larrabee i Fermi mają, jak na razie, bardzo dużo wspólnego. I to właśnie przez pryzmat Twoich wypowiedzi.


  37. @Grave (autor: culmen | data: 23/02/10 | godz.: 18:56)
    "A silnika od F1 raczej nie dostaniesz...."

    Cosworth CK F1 1999 - 2005 Exclusive
    Cosworth CK 3L V10 formula one engines for sale. Full build/track support available. Call for details. £100,000 United Kingdom Pounds

    Jak zagadasz i zaplacisz dostaniesz i najnowsze


  38. @Barbarian (autor: culmen | data: 23/02/10 | godz.: 19:00)
    O silnikach zaczelo sie po "nieszczesnym" porównaniu z postu 16

  39. Widzę, że do premiery Fermi dyskusja nie ma sensu (autor: Grave | data: 23/02/10 | godz.: 19:05)
    więc może sobie ją po prostu daruję. Ale to tylko miesiąc - zobaczymy wtedy kto miał rację i czy moje przewidywania były wzięte z sufitu czy też zgodziły się z rzeczywistością.

    Bo to jest tylko odwlekanie nieuchronnego. GTX 480 będzie najszybszym GPU na rynku, bo nim być musi i tyle.

    A do tego czasu oczywiście fani obozu przeciwnego będą wymyślać niestworzone historie u wyimaginowanych problemach z Fermi premierą w 2011, lub też "cieszyć się" że Nvidia w międzyczasie wypuszcza rebrandowane karty, a to przecież najlepszy dowód że Fermi będzie do dupy. etc

    Różne rzeczy się Nvidii przytrafiały, ale jeżeli idzie o nowo wprowadzany hi-end to porażek Nvidia ma bardzo mało jeżeli nie wcale (nawet FX w momencie premiery był najszybszą kartą na rynku).

    GF 1 - najszybszy w momencie premiery
    GF 2 - najszybszy w momencie premiery
    GF 3 - tak samo (przegrywał czasami z GF ULTRA ale to też od NV)
    GF 4 - też najszybszy
    GF FX - w momencie premiery najszybszy
    GF 6 - w nowych grach najszybszy - w starszych czasami oddawał pola Radeonowi.
    GF 7 - zdecydowanie najszybszy, ATI się spóźniło potężnie z odpowiedzią
    GF 8 - najszybszy i bez konkurencji. R600 z opóźnieniem i porażka totalna
    GF 9 - rebrand, ale i tak najszybszy
    GTX 280 - najszybszy na rynku do czasu wprowadzenia HD 5870.

    No i teraz GTX 480 - analogicznie będzie najszybszym GPU.


  40. @Grave (autor: Barbarian | data: 23/02/10 | godz.: 19:14)
    Nareszcie zrozumiałeś, że mając tylko papier nie wygrasz.
    "No i teraz GTX 480" - jeszcze nie ma żadnego teraz
    Jeśli nawet Fermi będzie szybsze od Radeonków, to do sukcesu rynkowe raczej nie dojdzie ze względu na zaporową cenę, wymagania dla zasilacza i niesamowity jazgot samej karty.

    Jednak jeśli będzie zwycięstwo technologiczne i sukces rynkowy Fermi, to będę tutaj przez miesiąc przepraszał za moje przypuszczenia i fatalną ocenę rzeczywistości.


  41. @Grave (autor: ligand17 | data: 23/02/10 | godz.: 19:18)
    "Źródłem może być dowolna recenzja 5870 uwzględniająca także GTX 285 + specyfikacja Fermi. Więcej nie potrzeba." Oj, potrzeba. Bo to nie specyfikacja odpowiada za wyświetlanie klatek na ekranie, tylko sam produkt. A produktu nie ma.
    "F1 to wyjątek i nisza", "Silnik Wankla to także nisza" - a karty graficzne segmentu enthusiast to nie nisza? A teraz uważaj: co będzie mocniejsze? R4 2L z turbo, czy V8 4,4L? R1 1,4 z turbo czy V6 2,5L?
    Odnośnie kart graficznych w momencie premiery:
    Hercules - najszybszy w momencie premiery
    CGA - najszybsze w momencie premiery
    EGA - najszybsze w momencie premiery
    VGA - najszybsze w momencie premiery
    VGA VLB - najszybsze w momencie premiery
    VGA PCI - najszybsze w momencie premiery
    ATi Rage - najszybsze w momencie premiery
    S3 Trio - najszybsze w momencie premiery
    3dfx Voodoo - najszybsze w momencie premiery
    Intel i740 - najszybszy w momencie premiery
    Riva 128 - najszybsza w momencie premiery
    Riva 128ZX - najszybsza w momencie premiery
    ATi Radeon - najszybszy w momencie premiery
    ATi Radeon 8500 - najszybszy w momencie premiery
    ATi Radeon 9700 - najszybszy w momencie premiery
    I tak dalej, i tak dalej. Nic z tego nie wynika. Pierdolisz dla samego pierdolenia.


  42. Grave (autor: Zbyszek.J | data: 23/02/10 | godz.: 19:18)
    jeśli natychmiast nie przestaniesz wszczynać kłótni, może się to dla Ciebie źłe skończyć. Dyskusja ma dotyczyć tego co w newsie, i ma być prowadzona w sposób nie denerwujący dla innych czytelników.

  43. ten grave jest udany :) czyzby jakies alter ego morgiego ? (autor: zeek | data: 23/02/10 | godz.: 19:22)
    "To pokaż mi choć jedną grę dostępną obecnie która czerpie realne WYRAŹNE korzyści z zastosowania DX11"

    prosze bardzo - jak na poczatek 2 przyklady
    http://www.in4.pl/...id=597&rectr_str_numer=16

    http://www.in4.pl/...id=597&rectr_str_numer=17


  44. ligand17 (autor: Grave | data: 23/02/10 | godz.: 19:31)
    Owszem te karty też były najszybsze w momencie premiery i ja wcale tego nie kwestionuję. Ale... Nvidia także gorsza nie jest i GTX 480 także nie przegra na dzień dobry. Przynajmniej nie z kartą jednoukładową.

    Zbyszek ----> Czy jestem denerwujący dla innych to kwestia innych. Różne osoby różne rzeczy denerwują np. to że piszę źle o AMD a ktoś lubi AMD.

    Żadnych kłótni też nie wszczynam. Natomiast jeżeli humor Ci się poprawi od tego że dasz mi bana bo źle o ATI/AMD piszę to mi go daj. Aż tak tu przywiązany/uzależniony nie jestem żebym płakał po nocach ;>


  45. zeek (autor: Grave | data: 23/02/10 | godz.: 19:33)
    na początek i na koniec, bo innych nie ma....

    W obu przypadkach różnice w wyglądzie są pomijalnie małe, natomiast po włączeniu DX11 wydajność spada (DIRT2).


  46. @Grave (autor: culmen | data: 23/02/10 | godz.: 19:33)
    Mnie "wali" co ktos uwaza o AMD lub NV
    Ale na pkt motoryzacji mam hopla


  47. @Grave (autor: ligand17 | data: 23/02/10 | godz.: 19:40)
    "GTX 480 także nie przegra na dzień dobry" po raz kolejny - skąd to wiesz? Radeon 3870 nie był najszybszy. Riva TNT nie była najszybsza. Intel i752 nie był najszybszy.
    I co z tymi silnikami? Który jest mocniejszy?


  48. Nikt nie wie to taki bold claim (autor: morgi | data: 23/02/10 | godz.: 20:25)
    nikt nie przyznaje tego tytulu bo nie ma oficjalnych zawodow, niektore serwisy daja albo i nie rekomendacje wspominaja albo i nie ze jest najwiecej fps tu czy owdzie, ale to wyrywkowe pomiary i testy ktore maja albo i nie odniesienie do rzeczywistosci. Jedno jest jest pewne, zgodnie ze specyfikacja Fermi bedzie naj w wielu elementach, poczawszy od wielkosci, a byc moze skonczywszy na wydajnosci, bo tak podobno nakazuje tradycja.

  49. @grave (autor: zeek | data: 23/02/10 | godz.: 20:27)
    generalnie jest tak:
    DX10
    DX10,1 = DX10 + 20%
    DX11 = DX10,1 + 20%

    chodzi o sama szybkosc dzialania, generowane efekty pomijam, teselacje itd


  50. @morgi (autor: Barbarian | data: 23/02/10 | godz.: 20:35)
    Ty też jesteś "naj w wielu elementach".

  51. zeek (autor: morgi | data: 23/02/10 | godz.: 20:35)
    Dobra, dobra nie musisz wklejach marketingu amd bez pokrycia, to jakby w kolko powtarzac vista lyka xp, a win7 lyka viste, a co dopiero xp. Tymczasem aktywujac specjaly dx11 w grach mamy -30% na ati.

  52. @morgi (autor: zeek | data: 23/02/10 | godz.: 20:48)
    jak bez pokrycia ? szkoda juz slow na ciebie i grejwa

    z innej beczki "Plotek ciąg dalszy... VR-Zone (a konkretniej SemiAccurate) twierdzi, że GTX 480, najmocniejszy przedstawiciel nowych GF, może ostatecznie być szybszy od HD5870 o jedyne 5%... Opierają się na jakichś wewnętrznych testach, podobno uwzględniających gry DX11, które jednak nie zmieniają sytuacji. Obcięty GTX 470 jest podobno wolniejszy od HD5870, ale nie podano konkretnych liczb. Wspomina się także o tym, że karta jest głośna i gorąca (70*C w spoczynku przy wentylatorze na 70%), ale niewykluczone, że chłodzenie będzie jeszcze zmienione na wydajniejsze."


  53. @all (autor: Qjanusz | data: 23/02/10 | godz.: 21:08)
    pisanie głupot nie zmieni sytuacji, że DX11 już jest hitem, a będzie jeszcze większym. Developerzy są nim zainteresowani tak samo jak wydawcy.
    Pierwszym skraca robotę, a tym ostatnim pozwala zaoszczędzić kasę potrzebną na realizację roboty pierwszych.

    Może wydajnościowo teraz karty dostają po tyłku po włączeniu DX11, ale nie ma nic za darmo. Ktoś tę robotę musi wykonać. Proszę też nie zapominać, drodzy dyskutanci, że mamy obecnie do czynienia z pierwszymi kartami z DX11. Mimo dość wysokiej ceny i porównywalnej prędkości działania z egzemplarzami poprzedniej epoki (HD4000), sprzedają się na pniu. Kontrahenci AMD mają żniwa, a ortodoksyjni kontrahenci nVidii cudów marketingowych się chwytają a i tak mają posuchę.

    Na nic się zda pisanie przez kilka sztuk oszołomów że DX11 powoduje spadek wydajności 30, czy nawet 50% (a co tam). Fakt jest taki, że tylko im to przeszkadza, a jak nVidia w końcu się wyprodukuje z DX11, to nagle ten standard posiądzie wręcz niewiarygodne właściwości - to będzie bardziej niż pewne.

    Pewne jest również to, że 5830 już cieszy ogromnym zainteresowaniem. A przykład jego premiery powinien być wzorem dla premier produktów samej AMD, jak i nVidii. Bo obie firmy z papierowymi premierami doświadczenie mają doskonałe.


    @Grave - cieszę się że w końcu zrozumiałeś że papierem nic nie wskórasz. Bardzo Cię proszę, trzymaj się tego i nie siej zamętu. Nie chodzi o to że źle piszesz o AMD to ktoś lubi tę firmę. Chodzi o pieprzenie głupot na temat wyższości dwóch produktów, z czego tak na prawdę znasz tylko jeden. Godne Taliba ślepe wychwalanie swojego Allacha i świętej wojny, na której on musi wygrać. Przykłady godne Twoich porównań chociażby z motoryzacją. Kontra jedna, druga, trzecia i popłynąłeś. Tak samo w temacie "w momencie premiery najszybszy"


  54. Artykuł na SemiAccurate (autor: pippi | data: 23/02/10 | godz.: 21:27)
    http://semiaccurate.com/...ets-some-gtx480-scores/
    Ciekawa lektura, podobnie zresztą jak inne poświęcone Fermi, np ten, wskazujący na fundamentalne problemy nV z tym chipem:
    http://semiaccurate.com/...0-broken-and-unfixable/
    Oczywiście można przyjąć, że opinie Charliego są tendencyjne i stanowią przejaw wojującego antynvidiizmu, jednak trudno nie uznać jego wywodów za logiczne i nie pozbawione merytorycznej podbudowy.
    Miłej lektury :-)
    PS. Żeby nie było - ja laptopa mam, więc w tej wojence raczej neutralny jestem ;-)


  55. @Qjanusz (autor: ligand17 | data: 23/02/10 | godz.: 21:38)
    Weź się wreszcie zdecyduj: czy "DX11 już jest hitem" czy może "wydajnościowo teraz karty dostają po tyłku po włączeniu DX11"?
    " Developerzy są nim zainteresowani" I na tym etapie na razie się kończy.
    Jak się masowo pojawią gry wykorzystujące DX11 i będzie widać pozytywne efekty jego wprowadzenia, to będziemy mówić o hicie. Na razie jest to tylko pieśń przyszłości.


  56. @pippi (autor: Barbarian | data: 23/02/10 | godz.: 21:39)
    Z tekstu wynika, że to totalna masakra. Może dlatego chłopcy z nV zajęli się kupowaniem nowych bryczek, gdyż czas się pocieszyć ostatnią wiosną.

  57. Grave (autor: Zbyszek.J | data: 23/02/10 | godz.: 21:52)
    Ja Ci bana dać nie mogę (bo nie mam takich uprawnień) i nawet nie chce. Natomiast taki poziom prowadzenia dyskusji skończy się dla Ciebie źle ze strony innych czytelników TPC. To już widać kilka komentarzy wyżej i to miałem na myśli.

    I nie jest to kwestia poglądów, zupełnie nie obchodzi mnie komu kibicujesz, tylko rób to w sposób kulturarny, nie denerwujący dla ogółu.

    Miełiśmy już dziś Twoje komentarze z wulgaryzmami, poza tym nie bardzo wiem co ma wspólnego GeForce 1, 2 czy 3 sprzed 5-10 lat z kartami Radeon HD 5830 które to są tematem tego newsa.

    Pisz na temat, nie powtarzaj się, bo pod każdym newsem o AMD/Nvidia/Intel mamy z Twojej strony zawsze to samo. I właśnie denerwujące nie jest samo pisanie źle o AMD tylko to, że musimy Twoje wywody przerabiać 50 raz z rzędu. Poza tym już nieraz pokazano Ci iż nie masz racji, ale to do Ciebie nie dociera i nadal klepiesz swoje w kółko.

    Pisz co chcesz pisać, ale rób to w inny niż dotychczas, mniej nachalny sposób. Pozdrawiam


  58. @ligand17 (autor: Qjanusz | data: 23/02/10 | godz.: 21:53)
    jedno przeczy drugiemu?
    developerzy zainteresowali się już dawno DX11. DiRT2 zaliczył nawet obsuwę i dodatkowe koszty, żeby na niego się załapać. Standard jest implementowany w prawe każdy głośny tytuł. Czego więcej oczekujesz?


  59. ... (autor: Zbyszek.J | data: 23/02/10 | godz.: 21:55)
    Z góry przepraszam za ewentualne drobne literówki - pisałem w wyjątkowym pośpiechu.

  60. @Qjanusz (autor: ligand17 | data: 23/02/10 | godz.: 21:59)
    A jak może być hitem coś, czego widocznym efektem jest spadek wydajności? Dopóki użytkownik nie zobaczy, że programy działają sprawniej/wyglądają ładniej, niż przy poprzedniej wersji, to DX11 wielkiej furory nie zrobi.

  61. zeek (autor: morgi | data: 23/02/10 | godz.: 22:13)
    Realnie pod tymi haselkami znajdujemy o to takie mozliwosci, ze jak developerzy nie tykaja sie teselacji to jest szybciej, ale roznica widoczna pod mikroskopem. Jak sie dotkna to niech lepiej zrobia cos na okrase bo zdechnie sprzet przynajmniej ati pada przy kilku szczegolikach zaledwie, bo Nvidia byc moze zrobi to lepiej i wtedy marketing amd wynajdzie inny obiekt uwielbienia. W sumie to bladzenie w ciemnosciach, najpierw chwala czyjs produkt czyli Microsoftu jako wlasny achievement, a potem bredza cos o otwartych standardach i swojskich technologiach, a ciagle nie widze niczego przeciwko CUDAcznosci i psiks, a to juz stara sprawa i coraz mocniej im ucieka.

  62. Fermi GTX480 (autor: rookie | data: 23/02/10 | godz.: 22:22)
    Już od długiego czasu w sieci byłły informacje o tym ,że fermi to totalne porażka i prądożerny potwór ma być tylko 5%szybszy od 5870.
    http://futuremark.yougamers.com/...295&page=10
    A teraz o kłopotach w produkcji:
    ''GTX480 is too hot, too big, too slow, and lacks anything that would recommend it over a HD5870, much less the vastly faster HD5970. Nvidia is said to be producing only 5,000 to 8,000 of these cards, and it will lose money on each one. The architecture is wrong, and that is unfixable. The physical design is broken, and that is not fixable in any time frame that matters. When you don't have anything to show, spin. Nvidia is spinning faster than it ever has before.''
    Ten chip jest jak Voodoo 5 dla 3dfx!!!!!!


  63. ZbyszekJ (autor: Grave | data: 23/02/10 | godz.: 22:33)
    Jak już wspomniałem wyżej kwestia co kogo denerwuje jest odczuciem subiektywnym. Każdego może denerwować co innego.

    Mnie np. bardzo denerwuję jak mam 10 argumentów przeciwko jednemu innej osoby a i tak ta osoba uparcie twierdzi, że ma rację chociaż nie ma racji. Denerwuje mnie to jak ktoś używa argumentu ad personam zamiast ad meritum, denerwuje mnie jak ktoś mnie jawnie obraża, a w momencie kiedy sam mu odpowiem używając przekleństwa (i to z przeproszeniem) to mi zarzuca że jestem niekulturalny, denerwuję mnie wreszcie jak ktoś sam robi coś co zarzuca innym!

    Nie ma takiej osoby która jest nieomylna i ja również nią nie jestem podobnie jak wiele innych osób na forum z Tobą włącznie.

    Co nie zmienia faktu, że często mam rację.

    Z drugiej strony niestety nie da się nie zauważyć, że pisanie dobrze o Intelu a źle o AMD tutaj jest "kiepskim pomysłem", bo od razu zostaje się zjechanym od fanbojów przez.... a jakże - fanbojów AMD ;>

    I to jest najbardziej denerwujące. Bo uważam, że otwarte pisanie o czymś że jest po prostu lepsze jeżeli jest lepsze nie ma nic wspólnego z fanbojostwem, tymczasem za takie jest tu uważane zupełnie sprzecznie z definicją.

    To a propos CPU Intela.

    Natomiast co do przyszłych produktów to ja jak każdy też się opieram na jakiś podstawach jeżeli czynię jakieś przewidywania. Każdy tak robi i to że czegoś nie ma nie znaczy że się nie można o tym wypowiadać.

    Jeżeli ktoś może napisać, że AMD wprowadzi zaraz nowe IGP które odjedzie Intelowi na kilka długości (chociaż tego IGP jeszcze nie ma) to ja uważam że równie dobrze mogę napisać, że Nvidia wyda najszybszy GPU na rynku, dodatkowo podpierając tą tezę specyfikacją tego GPU w absolutnie KAŻDYM punkcie znacznie lepszą od aktualnie najszybszego GPU ATI.

    Tylko widzisz.... jak tu padają jakieś przewidywania zakładające sukces AMD to jest ok, natomiast jak padają moje przewidywania dotyczące sukcesu obecnego lub przyszłego Intela lub Nvidii to od razu "fanboy" etc

    W nieuczciwej argumentacji przoduje Qjanusz, co mu już nieraz udowodniłem tylko tego nie zauważa. Ja może nie jestem wszechwiedzący, ale tak głupi żeby nabrać się na tanie zagrywki retoryczne nie jestem i jeżeli ktoś coś takiego wobec mnie stosuje to istotnie może się spodziewać odpowiedzi na poziomie godnym takich zagrywek.

    Tak na koniec - zarzuciłeś mi masę rzeczy, spójrz ilu osobom które ze mną polemizują mógłbyś zarzucić dokładnie to samo, albo i więcej.....


  64. rookie (autor: Grave | data: 23/02/10 | godz.: 22:35)
    Arty Charliego dobrze się czyta niestety z rzeczywistością mają niewiele wspólnego. Gdyby to co on piszę się sprawdzało to ATI już dawno powinno mieć monopol w GPU a Nvidia klepać biedę, a jak jest naprawdę - każdy widzi.

  65. 16 ROP? Miał być hit, a będzie wielkie g..no. (autor: KuTeR | data: 23/02/10 | godz.: 23:09)
    Kolejna sp...dolona karta. Temu bedzie bliżej 5770 (który też rozczarował przez 128 bit) niż 5850. Zrobili kartę troszkę lepszą od 4890 i wydaje się im, że mają cały rynek. Nie rozumiem ich samobójczej polityki. Kiedyś dawali za dużo SP a za mało ROP i TMU, teraz za dużo obcinają w karcie, na którą ludzie się napalali. Teraz to trzeba czekać aż nVidia to wykorzysta.

  66. Fermi (autor: Barbarian | data: 23/02/10 | godz.: 23:24)
    Fermi zwane (już) inaczej "Laughabee" zostało przedstawione dość stronniczo w artykule Charliego, ale dokładne jego przeczytanie wzbudza poważny niepokój, że wiele z przedstawionych rzeczy to prawda (fakty), gdyż pokrywa się z rzeczywistością ostatniego półrocza. Szykuje się naprawdę niesamowita wpadka nV a o sukcesie rynkowym nie ma nawet mowy. Nie ma złudzeń, że rzecz będzie niemal niedostępna i gorąca jak gwiazda klasy widmowej O. Nie ma też szans na dobre sterowniki do produktu, który w żadnym momencie nie był zgodny z planem czasowym. Szkoda, że tak się sprawy mają, gdyż nvidia to nie Intel i nie stać tej firmy na miliardowe zabawy w "poszukiwanie drogi". SZKODA

  67. @KuTeR (autor: rainy | data: 23/02/10 | godz.: 23:27)
    Gdyby tę specyfikację podał Anandtech, Xbitlabs albo Guru3D to bym prędzej uwierzył, że jest realna.

    Ten chiński serwis nie wzbudza mojego zaufania - całkiem prawdopodobne, że jest to po prostu fake (choć nie jestem tego pewien w 100 procentach).


  68. Grave ,na jakiej podstawie twierdzisz ze ATI powinno miec monopol??? (autor: speed | data: 23/02/10 | godz.: 23:39)
    a Nvidia klepac biede. O tym co pisze Charlie
    nie ma nic wspolnego z przeszloscia a odnosi sie wylacznie do 'ofermy'.
    Rozmawiales z kims kto pracuje w Nvidii??
    Okolo dwoch miesiecy temu pisalem to co wyczytasz w jego artykole ale mimo wszytko nie stawiam kropki bo jezeli uda sie zrobic pelnosprawny chip tak jak Nvidia planowala na pewno bylby szybszy od ATI i to sporo ale tez pisalem o tym ze to spore wyzwanie i maloprawdopodobne aby sie z tym uporac . Wcale nie zdziwie sie ze nowe 480GTX bedzie minimalnie szybsze i prawie nieosiagalne w sklepach .
    Przestan zawracac Wisle kijem bo raczej to sie nie uda a wychodzi ze tylko czytasz i wyciagasz swoje wnioski nie opierajac sie wogole na swojej wiedzy i doswiadczeniu (takie madrowanie a co to nie ja) . Morgiemu i chyba Tobie pokazalem ze ATI nie taka slaba w tym dx 11 pokazalem wyniki ale po tym jak makiem zasial :)))) A pan morgi dalej cignie farmazony ze wydajnosc spada 30% . Co zrobic taka widocznie macie nature sprzeczac sie ,wymadrzac udawadniac a nie lepiej poczekac ten miesiac i jak bedzie dobre porownanie wtedy zaczac dyskusje??
    Ja jak chce sie przekonac co jest grane to kupuje poswiece kilka dni przetestuje i cos pisze majac twarde dane a tu co przepychanka bez sensu .
    Pisac mozesz sobie co chcesz ale odpowiadaj jak ktos zadaje konkretne pytanie wtedy bedzie to cos warte a nie wypinac sie na niepodwarzalne dane .
    Zrozumiales te artukoly bo jak wycjagnales wniasek taki jak w mojm pytaniu to twierdze ze nie masz bladego pojecia co tam napisano.


  69. Odnośnie DirectX 11 (autor: Grave | data: 23/02/10 | godz.: 23:46)
    to dopiero w grach od początku projektowanych z myślą o nowym API będzie można dostrzec rzeczywiste korzyści z jego użycia.

    A więc nie mówimy tu o grach które miały właśnie premierę albo w najbliższych miesiącach się pojawią, ale o grach które ujrzymy za rok lub 2 lata.

    I jak to zwykle bywa, w momencie pojawienia się takich gier dostępna będzie już nowa generacja kart graficznych.

    Natomiast jeżeli ktoś kupi aktualnie hi-endową kartę to istotnie może doczekać z nią do gier które realnie z jej możliwości DX11 skorzystają.

    W tym kontekście wybór ATI czy NV może mieć spore znaczenie.

    Moim zdaniem wiele wskazuje na to (16 dedykowanych teselatorów) że GTX 480 do gier DX11 jest przygotowany lepiej od pierwszej generacji kart DX11 od ATI.


  70. speed (autor: Grave | data: 23/02/10 | godz.: 23:51)
    Ano na takiej że Charlie zawsze był "anty Nvidia".

    Nie przypominam sobie żebym kwestionował jakieś "niepodważalne dane" widocznie takowych nie było. Ale jak pamiętasz to przytocz coś konkretnego.

    I zainstaluj sobie FF - podkreśla błędy.


  71. biada nvidii oj biada (autor: zeek | data: 23/02/10 | godz.: 23:55)
    ''GTX480 is too hot, too big, too slow, and lacks anything that would recommend it over a HD5870, much less the vastly faster HD5970. Nvidia is said to be producing only 5,000 to 8,000 of these cards, and it will lose money on each one. The architecture is wrong, and that is unfixable. The physical design is broken, and that is not fixable in any time frame that matters. When you don't have anything to show, spin. Nvidia is spinning faster than it ever has before.''

  72. @rainy (autor: KuTeR | data: 23/02/10 | godz.: 23:57)
    Pocieszyłeś mnie, obyś miał rację!
    Ja liczę na 224(1120) - 256(1280) SP, 56 - 64 TMU i 32 ROP. Zresztą jak patrzę na budowę układu to się zastanawiam, czy przy 256 bit szynie jest możliwe zastosowanie tylko 16 ROP'ów poprzez cięcie. Wydawaje mi się, że nie.


  73. Grave i jak z Toba mozna dyskutowac?? (autor: speed | data: 23/02/10 | godz.: 23:58)
    Czy ja pytam czy jest anty , znow wypinasz sie na pytania ,chyba sobie zarty robisz abym sie powtarzal do tego trzeba miec partnera do dyskusji a nie nadymanego golowasa.
    Przed proponowaniem FF najpierw sprawdz jak to podkreslanie dziala majac wersje jezykowa engielska i piszac po Polsku wtedy dopiero zabierz glos .
    Nie odpowiadales na pytania nie odpowiadasz i taki z Ciebie dyskutant :))))


  74. @Grave (autor: Marek1981 | data: 24/02/10 | godz.: 00:26)
    Bardzo dużo bzdur wypisujesz...... w sumie to bardziej naginanie faktów:)
    np: najszybszy w dniu premiery :GF 4 ??????

    Bo jak mnie pamięć nie myli to takich bzdur nie powinieneś wypisywać, to tylko świadczy o twojej wiedzy z tamtego okresu.

    GF4 wyszedł w 2 wersjach ti i mmx, gdzie 1 był na szybszy ( od gf3 ti.
    A gf4 mmx było żenująca wpadką (dx7 i słabsze od gf3).
    http://www.in4.pl/...c_id=27&rectr_str_numer=4
    http://www.in4.pl/...c_id=29&rectr_str_numer=3


  75. speed (autor: Grave | data: 24/02/10 | godz.: 00:34)
    Pytasz skąd wziąłem to, że gdyby przepowiednie Charliego się sprawdzały to ATI powinno mieć monopol a NV klepać biedę.

    I odpowiedziałem. Charlie wszystko co NV wypuszcza uważa za nie udane kiepskie lub w najlepszym razie niezłe ale i tak gorsze od ATI.

    Gdyby tak było wszyscy powinni kupować produkty ATI a nie kupować NV = bankructwo Nvidii i monopol ATI (wśród kart dedykowanych).

    Ale tak nie jest. Zresztą gdyby ten jego art się sprawdził to w tym roku w ogóle GTX-a 480 nie powinniśmy zobaczyć, bo w 40nm to w ogóle się Nvidii nie opłaca, a w 28nm nie zdążą etc

    Generalnie jest tylko jedna droga żeby zamknąć usta wszelkim narzekaczom - premiera GTX 480 i pokonanie Cypressa.

    Na szczęście wszystko wskazuje na to, że czekanie dobiega końca.

    Od FX-a Nvidii przez 7 lat nie zdarzyła się ANI JEDNA WPADKA, więc nie ma podstaw by sądzić aby tym razem było inaczej.

    Projektowanie gigantycznych GPU zawsze jest sporym wyzwaniem, ale Nvidia pokazała wielokrotnie że z tym wyzwaniem potrafi sobie radzić (8800GTX i GTX 280 też były gigantycznymi potworami jak na proces technologiczny w którym były wykonane).


  76. Marek1981 (autor: Grave | data: 24/02/10 | godz.: 00:37)
    pisałem o hi-endowych GPU. A więc pisząc GF4 miałem na myśli Ti 4600.

  77. I jeszcze do Zbyszka (autor: Grave | data: 24/02/10 | godz.: 00:40)
    Jak już coś zrobisz to nie możesz za to "z góry" przeprosić :)

  78. @Grave (autor: Barbarian | data: 24/02/10 | godz.: 00:51)
    Masz jeszcze siły walczyć o pietruszkę? Nie ma sensu. Czekanie dobiega końca, ale na Twoim miejscu byłbym pełen obaw o happy-end. Dosłownie wszystko wskazuje na to, że będzie wielka wtopa. Architektura jest niewątpliwie przełomowa, ale nvidia przeliczyła się w wielu punktach i robi bokami w niesamowitym stylu. Wielki Intel też się przeliczył, ale ma zasoby i "szybko" podjął właściwą decyzję. Strach pomyśleć co będzie, jeśli nvidia wpadnie w kolaps finansowy. Intel pewnie tylko czeka na taką chwilę i kto wie czy nie szykuje się do zakupienia potencjalnego denata. Byłoby to śliczne rozwiązanie problemów Intela z nvidią i swoich aspiracji w obszarze GPU.
    Dość późno jest, więc tak sobie tylko rozważam. Sorry.


  79. Wtopa? Ale dlaczego? (autor: Grave | data: 24/02/10 | godz.: 02:02)
    Specyfikacja jest bardzo mocna, ten GPU musi być najszybszym GPU na rynku, nie ma innej opcji.

    A że będzie drogi, duży i gorący to cóż... w hi-endzie liczy się przede wszystkim wydajność. Tak były projektowane G80 i GT200 i tak został zaprojektowany GTX 480 - ma być najszybszy jak tylko się da w ramach danego procesu technologicznego.


  80. @Grave (autor: Barbarian | data: 24/02/10 | godz.: 02:17)
    Dlatego, że wielkie wyzwania zawsze związane są z pokonywaniem problemów w podobnej skali. Nvidia wyraźnie ma ich kilka. Dokonana została próba zrobienia czegoś na granicy obecnych możliwości technologicznych i niestety pojawiły się poważne problemy. Wygląda na to, że nvidia nie ma sił, aby je pokonać. Intel w tej samej sytuacji miałby większe szanse, gdyż ma $$$, opanowany proces 32nm, własne fabryki i lepszych inżynierów. Czasem tak już jest, że ktoś podejmuje się niemożliwego i nie wychodzi, ale czasem wychodzi (np. STAR WARS Georga Lucasa) i wówczas jest bajecznie. Zobaczymy.

  81. Grave, tam pisze wylacznie o nowym dziecku Nvidii (autor: speed | data: 24/02/10 | godz.: 03:50)
    tam nigdzie nie pisze ze on uwaza (czytaj dokladnie) opisal problemy podpierajac sie informacjami i nic wiecej. Zreszta nie ma co roztrzasac tego.
    Tylko jedna rzecz orientujesz sie dlaczego jeden fafel w procesie 40 kosztuje dwa razy wiecej od 55 ,przejscie z 40 na 28 bedzie wiazac sie prawie z trzykrotnie drozszym waflem. Zapoznaj sie z procesem tworzenia tego cuda to pogadamy bo widze ze rzucasz tymi numerami nie orjentujac sie co w trawie piszczy.
    Sam proces tworzenia wafli to jeszcze nie wszytko w tej chwili prawie kazdy wafel jest 100% sprawny co by moglo wskazywac ze kazdy rdzen bedzie Ok ale tak pieknie w zyciu nie jest :))) Nvidia ma kolosalne problemy bo ich chip jest po prostu tak skomplikowany ze malo po wyprodukowaniu pracuje . Trzy tygodnie temu ATI miala prawie 90% sprawnych chipow a czesto nawet dochodzi do 95-97% . Zycze Nvidi aby jej sie udalo bo mi wisi czy to ten czy tamten ,wszyscy pracuja najlepiej jak potrafia i jak cos dobrego zrobia to sie chwali a nie jeczy ze to czy tamto.

    "ma być najszybszy jak tylko się da w ramach danego procesu technologicznego.
    Powiedz mi ile proces technologiczny ma do tego jaki bedzie szybki chip zakladajac ze konstrukcja chipa jest identyczna w kazdym procesie. Poczytajcie sobie w koncu o tych procesach bo naprawde zal dupe sciska od tej waszej pisaniny.


  82. @Grave (autor: Saturn64 | data: 24/02/10 | godz.: 08:24)
    Nikt nie mówi, że fermi będzie słabsze. Mówi się tylko o tym o ile będzie szybsze od radeona. Problem jednak polaga na tym, że ATI produkuje swoje karty już od ponad pół roku. W tym czasie nvidia została wypchnięta z praktycznie wszystkich już segmentów nie mając do zaoferowania nic lepszego (HD5830 dobije już każdy asortyment Nvidii). Charliemu chodzi raczej o to, że Nv wrzuci na rynek 9000-10000 sztuk Fermi które rozejdą się w 2 dni a na kolejne będziemy znowu czekali do lata, obserwując poważne problemy produkcyjne z kartami Fermi w TSMC. Znając możliwości finansowe fanów nv to kupili by te karty nawet po 1000$ byle by tylko były w sklepach. ATI podało w grudniu, że sprzedało ponad 2mln GPU z dx11. Dziś pewnie ta granica sięga już 4 mln szt. Do premiery Fermiego będzie ok 5mln z czego podejrzewam, że w tym czasie HD5850/5870/5970 będzie w ilości 500-700 tys szt sprzedanych egzemplaży i teraz policz koszty zarobku na każdym GPU to wyjdzie ci ile NV jest stratna na tym biznesie. To tak jak by porównać Fortune do Małysza (Małysz nie zdobył ani jednego złotego medalu na olimpiadzie ale skacze równo i już bardzo długo. W tym czasie zarobił sobie na niezłą emeryturę) Fortuna jednym skokiem pozostał w sercach kibiców ale co z tego skoro dziś klepie biede.

  83. darujcie se te porownania sportowe, do silnikow itd (autor: zeek | data: 24/02/10 | godz.: 08:34)
    problemem fermi bedzie ze bedzie duze, gorace, nieoplacalne (dla nvidii i kupujacego), pradozerne i pewnie minimalnie wydajniejsze od HD5870.

    HD5970 wciagnie fermiego nosem


  84. @Grave (autor: Saturn64 | data: 24/02/10 | godz.: 08:38)
    Dla Nv problem nie konczy się na tym, że nie mają produktu, który mogą sprzedać. Kolejną sprawą staje się zwolnienie inżynierów nad pracami nad HD5xxx (skoro mają już wszystkie generacje) zostają przesunięci do kolejnych zadań (nowych architektur) które mogą zostać szybciej dopracowane. Nv nadal skupia lwią część swoich inż. nad pracami nad fermim (wsztskie nowe rdzenie i sprawdzania możliwości od A1 do A2,A3 a może nawet nad wprowadzeniem nowego B1. (znają NV to B1 będzie już Fermim II) jednak sam wiesz co będzie w sklepach w kwietniu czy w maju (High End i nic więcej) dlatego też zarobki nv muszą skupiać się na innych rozwiązaniach bo w kartach graficznych przy dzisiejszym obstawieniu rynku swoimi produktami przestaje się po prostu liczyć (oczywiście nie mam tu na myśli robiących zakupy w supermarketach :))

  85. @Saturn64 (autor: Qjanusz | data: 24/02/10 | godz.: 11:20)
    prace nad HD5000 i HD6000 były prowadzone równolegle. Źródła można wygooglać.
    AMD mocno się podciągnęło od czasów HD2900 w hardware i wprowadzeniu nowości. Teraz mocno naciska na kwestię sterowników.

    Dostępny w sklepach Fermi będzie konkurował z HD6000 - i to będzie głównym problemem nVidii. Firma totalnie się okopała wokół Fermi, które jak coraz więcej źródeł zauważa, może być totalnym niewypałem. Ucichło o szumnym i tandetnym PhysisXie, który był dumą i chlubą zielonych. Nie licząc Tegry, to wieści od nVidii skupiają się na kolejnych wpadkach dotyczących Fermi i zawodowych jak i osobistych problemach szefa marketingu nVidii.

    Wiele serwisów zauważa że mają złą prasę, ale obawiam się ze najgorsze dopiero przed nimi. Inną sprawą jest to, że takie kwiatki jak Grave zaklną i przeklną wszystko i wszystkich tak, że wielki problem może zostać przedstawiony jak wielki sukces, aka "sukces" GeForce FX. Ręce opadają jak się czyta takie bzdury.

    Ja tam czekam na premierę 5830, testy, opisy i dobre ceny :-)


  86. @Qjanusz (autor: arco2006 | data: 24/02/10 | godz.: 11:26)
    "Ja tam czekam na premierę 5830, testy, opisy i dobre ceny :-)" ja bym jeszcze dodał spadki cen ATi. Ale to tylko s-f, bo jak widzę ceny nVidii i GTX4xx to szybko to nie nastąpi :-(

  87. Wracajac do wlaściwego tematu (autor: culmen | data: 24/02/10 | godz.: 11:49)
    A może da się odblokować brakujące ROP i SP?
    Dziwie się ze jeszcze nie został poruszony ten wątek (5830@5850). Nie gdybam co by było wtedy.


  88. @arco2006 (autor: Qjanusz | data: 24/02/10 | godz.: 11:57)
    spadki nastąpią zapewne wraz z pojawieniem się HD6000 - nie wcześniej.

    Fermi nie spowoduje spadków cen Radeonów. nVidia w zasadzie przyznała że ceną na nie powalczy. Tylko rynek PRO i kilka sztuk na rynku TOP. Będzie sobie kazała płacić krocie za mit, za chip widmo, za "luksus" i cała otoczkę, która tak na prawdę warta tyle, ile afera wokół słynnego już "are you ready".

    Co do wydajności tego GPU to się wstrzymam, ale coś czuję będzie ciekawie :-)


  89. @culmen (autor: Qjanusz | data: 24/02/10 | godz.: 12:06)
    byłby to szał na miarę Radeona 9500 -> 9700 :-)

    Osobiście obawiam się że to będzie niemożliwe. W tamtych kartach zmodyfikowane stery podmieniały id urządzenia na slocie, a stery wykrywszy "lepszą" kartę załatwiały resztę z automatu.

    Od czasów X800 "brakujące" jednostki były blokowane na etapie elektroniki, czyli sprawę trudna do obejścia.


  90. Grave (autor: morgi | data: 24/02/10 | godz.: 12:10)
    Posty i artykuly naczelnych fanow ati czy amd zawsze sa w jedna desen, czyli gorace, piekace, bolace, nienaturalne, fatalne, gwozdz do trumny i glaz u szyji, ale zapominaja sie o czym tak pisza, bo to demagogia, scifi, bo nie ma tam niczego, co mozna uznac za argument niepowtarzalny, niepodwazalny i niefalsyfikowalny, czysta zgadywanka i loteria, a trafic latwo kiedy podejrzewa sie same ogolniki. Opis techniczny czy proba analizy architektury przed premiera wychodzi im najbardziej groteskowo, bo tam zgadnac sie po prostu nie da bez przynajmniej fundamentalnych faktow.

  91. @Qjanusz (autor: culmen | data: 24/02/10 | godz.: 12:13)
    Było wiele metod i wiele sprzętu.
    Odblokowanie mnożników, potoków, rdzeni, cache i grom wie co jeszcze. Zmiana biosu, łączenie pinów i zmiany programowe i znając życie inne hokus - pokus.


  92. @morgi (autor: culmen | data: 24/02/10 | godz.: 12:14)
    Posty i artykuly naczelnych fanow Nvidi czy intela zawsze sa w jedna desen, czyli gorace, piekace, bolace, nienaturalne, fatalne, gwozdz do trumny i glaz u szyji, ale zapominaja sie o czym tak pisza, bo to demagogia, scifi, bo nie ma tam niczego, co mozna uznac za argument niepowtarzalny, niepodwazalny i niefalsyfikowalny, czysta zgadywanka i loteria, a trafic latwo kiedy podejrzewa sie same ogolniki. Opis techniczny czy proba analizy architektury przed premiera wychodzi im najbardziej groteskowo, bo tam zgadnac sie po prostu nie da bez przynajmniej fundamentalnych faktow.

  93. TEST [ HD5830 ] & HD5850 & GTX260 & GTX275 - chiński (autor: arco2006 | data: 24/02/10 | godz.: 12:24)
    znalazłem test XFX HD5830 - podkręcili go z 800/1000MHz na 951/1250MHz - ale bez testu po OC.
    GPU-Z - źle go odczytuje bo widzi szynę 128bit zamiast 256bit i przepustowość 64GB/s zamiast 128GB/s.

    Oto test:
    http://vga.it168.com/...852/000000852552_all.shtml


  94. ... (autor: Qjanusz | data: 24/02/10 | godz.: 12:35)
    coś mi mówi że testy 5830 już czekają tylko na dzień 0, kiedy będą mogły zostać opublikowane. Jak na razie serwisy trzymają wodę w ustach :-)

    Z całą pewnością na pewno nie można tego napisać o Fermi ;-)


  95. Co do chińskich testów (autor: Jarek84 | data: 24/02/10 | godz.: 12:53)
    Jeśli się potwierdzą, to widać, że AMD bardzo umiejętnie przycieło Cypressa tak żeby uderzył w ostatni segment cenowy gdzie AMD nie ma jeszcze przedstawiciela z nowej serii - w okolice GTX275. Do tego jeśli krętliwość będzie na przedstawionym w teście poziomie i cena jak GTX275, to na prawdę ciężko będzie NV, bardzo ciężko.

  96. @arco2006 (autor: rookie | data: 24/02/10 | godz.: 13:01)
    Ładny ten test. Widać znaczną różnicę na Shifcie i HAWX...275 przejdzie za chwilę do wyższego low-endu :)

  97. grave (autor: piobzo | data: 24/02/10 | godz.: 13:48)
    jak zwykle fantazjuje
    "Natomiast co do reszty serii 5xxx ATI to ze wszystkim słabszym od 5850 radzą sobie karty Nvidii poprzedniej generacji, a że gier DX11 jak na lekarstwo (praktycznie obecnie DX11 jest bez znaczenia) to Nvidia nie ma się czym przejmować."

    co duzo mowic 5870 jest nie tylko najbardziej wydajna karta na runku z singlow... w duzej czesci testow ma ona wyzsza wydajnosc niz gtx 295...
    http://pclab.pl/art38674.html
    a co do seri gf 7XXX to to byla porazka a nie karty graficzne... kumpel mial jedna z tych kart z 512 mb pamieci bodajze 7300 jemu chodzilo to strasznie..a ja na radku 9600 128 mb smigalem.


  98. culmen (autor: morgi | data: 24/02/10 | godz.: 15:27)
    Z jedna roznica, dotyczy to produktow obecnych, sprzedawanych i rozpowszechnianych z falszywa opinia jako 'dobrych' od ati i amd, a nie przyszlych i nadchodzacych. Subtelna roznica miedzy faktem, a fantazja.

  99. Qjanusz (autor: Grave | data: 24/02/10 | godz.: 15:49)
    "Dostępny w sklepach Fermi będzie konkurował z HD6000 - i to będzie głównym problemem nVidii. "

    Szklana kula, czy tarocistka Lena Tall Ci to powiedziała?

    Równie dobrze mogę powiedzieć, że po premierze HD 6xxx pojawi się Fermi 2, a potem HD 7xxx itd,

    Piobzo ---->

    Co ma piernik do wiatraka? Ja piszę, że ZE WSZYSTKIM SŁABSZYM OD 5850 radzą sobie starsze karty Nvidii (GTX 285, GTX 260 czy GTS 250).

    A Ty mi wyjeżdżasz z 5870. Owszem z nim sobie GTX 285 nie radzi, ale szczerze niewiele mu brakuje.

    Natomiast GTX-owi 480, 5870 nie da rady. Specyfikacja w każdym punkcie wyraźnie lepsza, nie ma cudów żeby dysponując takim potworem Nvidia przegrała z Cypressem.

    A 5970 to inna bajka. Może wygra, ale tylko wtedy jak CF zadziała. A ten raz działa raz nie. Raz daje większy przyrost wydajności raz mniejszy, do tego generuje spore obciążenie CPU + powoduje przycięcia animacji nawet jeżeli średni framerate jest wysoki.

    Z tego powodu zawsze najlepiej wybierać kartę jednoukładową, najszybszą dostępną, pozbawioną wad dual GPU.

    A jak ktoś koniecznie chce mieć dwa GPU to GTX 480 może sobie w SLI albo nawet Tri-SLI połączyć wg. potrzeb.


  100. @Grave (autor: Qjanusz | data: 24/02/10 | godz.: 16:03)
    powiedziały mi to plany wydania HD6000 napisane przez AMD i przewidywaną dostepność Fermi spisaną przez różne serwisy podpierane problemami z produkcją tego GPU.

  101. @up (autor: Qjanusz | data: 24/02/10 | godz.: 16:06)
    "A jak ktoś koniecznie chce mieć dwa GPU to GTX 480 może sobie w SLI albo nawet Tri-SLI połączyć wg. potrzeb" - weź jeszcze raz to przeczytaj i postaraj się nie uśmiechnąć :-)

  102. Qjanusz (autor: Grave | data: 24/02/10 | godz.: 16:12)
    To pokaż mi te "plany wydania NAPISANE PRZEZ AMD" a więc oficjalne materiały AMD mówiące cokolwiek o HD 6000 czy w szczególności o dacie jego wprowadzenia na rynek.

    Odnośnie Fermi to premierę Nvidia ustaliła na 23 Marca i to jest jedyne OFICJALNE źródło dotyczące tego kiedy GTX 480 się pojawi. Jak masz jakieś bardziej wiarygodne niż oficjalne materiały Nvidii to chętnie poznam.

    Odnośnie #101 - nie wiem co tu śmiesznego. 5970 to 2x 5870 tyle że na jednej płycie ze wszystkimi wadami rozwiązań dual GPU.

    Jak koniecznie coś takiego chcesz mieć świadomy wszystkich bolączek takie rozwiązania to SLI z 2 kart w praktyce da to samo co dual GPU w wydaniu ATI.

    Zresztą wystarczy porównać nawet wewnątrz ATI Radeona 5970 z 2x 5870 CF, ten drugi tandem nawet okaże się szybszy.

    Jeżeli GTX 480 będzie najszybszym GPU to również jego połączenia w pary czy trójki (dual lub tri SLI) dadzą największą wydajność wyższą od podwójnych kart ATI.


  103. No ładna dyskusja - już są 102 komentarze! (autor: rookie | data: 24/02/10 | godz.: 16:16)
    No ładna dyskusja - już są 102 komentarze! ....A ten jest 103 :)
    Ale marny fanboy morgi pomimo wielu dyskusji cały czas wierzy w nvidie...trudno....Zdziwi się jak któregoś dnia połknie ją takie s3 czy matrox, bo są bardzo podobni do 3dfx, którego połowa u nich pracuje :)


  104. @Grave (autor: Barbarian | data: 24/02/10 | godz.: 16:22)
    "GTX 480 ... to również jego połączenia w pary czy trójki"
    Opanuj się proszę - już jeden taki układ będzie potrzebował elektrowni zamiast zasilacza! Odnoszę wrażenie, że zupełnie nie rozumiesz - i co gorsza nie przyjmujesz do wiadomości, że to będzie straszny grzejnik i o łączeniu nie ma mowy. Fermi należy traktować jako beta-produkt i dopiero w wydaniu 28nm zacząć się tym interesować.
    W jakim celu się teraz tak wysilasz - nie można obecnie określić wydajności, gdyż nikt nie ma działającej karty w testach. Będzie premiera to zobaczymy.


  105. @Grave (autor: Saturn64 | data: 24/02/10 | godz.: 16:38)
    Karty HD5970 mają mieć wyłączany jeden rdzeń gdy karta wejdzie w tryb Idle. Ma to się pojawić wraz z nowymi sterownikami Catalyst 10,3. Dlatego też karty dwuukładowe nie będą już tak prądożerne i nieoplacalne jak wcześniej. Natomiast to, że nvidia podała datę premiery na 26 marca to jeszcze nic nie znaczy. Do tej pory podali już cztery terminy premiery (miało być na początku listopada, następnie pod koniec roku 2009, poźniej mówiono o targach CES na początku stycznia 2010 a teraz w marcu. Mogą jeszcze z 2 razy przesunąć.

  106. @Grave (autor: Qjanusz | data: 24/02/10 | godz.: 16:44)
    jesteś chyba ostatnim fanem dającym wiarę oficjalnym źródłom nVidii...
    http://twojepc.pl/news19784.html

    AMD za to sprzedaje chodliwy towar, którego premiery nawet jeszcze nie było. To tyle w temacie wiarygodności obu firm.

    @Barbarian, coś w tym jest:
    http://nvision.pl/...GPU--News-15936-ndetails.html

    zgadzałoby się to ze źródłami Charliego:
    "GTX480 is too hot, too big, too slow, and lacks anything that would recommend it over a HD5870, much less the vastly faster HD5970. Nvidia is said to be producing only 5,000 to 8,000 of these cards, and it will lose money on each one. The architecture is wrong, and that is unfixable."
    http://semiaccurate.com/...ets-some-gtx480-scores/

    Poza tym przy zegarach ok 625Mhz Fermi ma być ok 5% wydajniejsza od 5870 w grach i dużo wydajniejsza w syntetykach teselacji. Trochę się to rozbija o zapowiadane 60% przewagi. Nawet wystawia nVidię na kolejne pośmiewisko. Może się okazać że obecna zła prasa nVidii, to tylko początek prawdziwych problemów tej firmy.


  107. grave (autor: zeek | data: 24/02/10 | godz.: 16:55)
    zapominasz ze GTX480 w dniu premiery bedzie kosztowal tyle co HD5970 ?
    tandem ATI wciagnie go nosem, a moze potanieje na tyle, zeby byc tanszy :)


  108. @Grave (autor: ligand17 | data: 24/02/10 | godz.: 16:57)
    "Natomiast GTX-owi 480, 5870 nie da rady. Specyfikacja w każdym punkcie wyraźnie lepsza, nie ma cudów żeby dysponując takim potworem Nvidia przegrała z Cypressem." - a ja po raz kolejny Ci próbuję wytłumaczyć, że specyfikacja się nie liczy. Gdyby tak było, to najlepszą kartą byłoby pewnie Larrabee. Ale liczy się gotowy produkt. A produktu nie ma.

  109. @ligand17 (autor: Qjanusz | data: 24/02/10 | godz.: 17:20)
    to nie dotrze.
    Już z Gravem to przerabialiśmy na przykładzie liczby tranzystorów - jako by to miał być wyznacznik wydajności. Śmiechu warta argumentacja i godny podziwu upór "oponenta".

    Lartrabee to też złe porównanie, vide
    #37 w
    http://twojepc.pl/news20602.html

    Acha, o mocnego w specyfikacji Matroxa Parhelii też nie ma co wspominać bo to wyjątek ;-)


  110. Grave (autor: morgi | data: 24/02/10 | godz.: 19:25)
    Nie ma planow jest tylko pospiech i niedopracowanie, a potem beda umywac raczki i ani slowa o przeprosinach, ze sprzedaje sie tak problematyczny sprzet, na cale szczescie serwisy rzetelnie to opisuja i same przepraszaja, ze rekomendowaly takie babole.

  111. hehe... (autor: Qjanusz | data: 24/02/10 | godz.: 20:22)
    ktoś tu szuka kolegów na siłę :-)

  112. Qjanusz (autor: Grave | data: 24/02/10 | godz.: 21:33)
    "Poza tym przy zegarach ok 625Mhz Fermi ma być ok 5% wydajniejsza od 5870 w grach i dużo wydajniejsza w syntetykach teselacji. Trochę się to rozbija o zapowiadane 60% przewagi. Nawet wystawia nVidię na kolejne pośmiewisko."

    Ponownie SKĄD WZIĄŁEŚ TAKIE INFORMACJE?! Z TESTÓW? Wątpię....

    zeek ---->

    Wciągnie, albo nie wciągnie. Cross Fire czy SLI to bardzo kapryśnie technologie - raz działają, innym razem nie, raz dają więcej, raz mnie, a nierzadko i SPOWALNIAJĄ lub powodują przycięcia.

    Więc z tym "wciąganiem nosem" bym był bardzo ostrożny. Wady takich rozwiązań są ogólnie znane i wystarczy że CF nie zadziała i już ATI leży.

    Tylko że takie mankamenty wychodzą dopiero w testach uwzględniających dużą ilość gier, oraz nowe gry pod które często jeszcze nie ma żadnych optymalizacji w sterownikach.

    Jeżeli czytałeś dowolną recenzję "kanapek" Nvidii albo dwuukładowych kart ATI to musisz być świadomy że takie karty wybiera się w ostateczności i zawsze lepiej wybrać najwydajniejszy pojedynczy układ niż pakować się w SLI/CF bo jego wydajność jest NIERÓWNA, NIEPEWNA i ogólnie BARDZO BARDZO różna.

    A że CF we wszystkich grach nie zadziała na pewno to i z tym wciąganiem nosem też będzie różnie. Ja zakładam że w części gier HD 5970 istotnie może być szysze od GTX 480, ale w innej części karta ATI zostanie pokonana. Nie mówiąc już o pojedynczym HD 5870 który ma marne szanse.

    ligand17 ---->

    Nvidia to nie Intel. Różnica jest taka że Nvidia ma za sobą całe multum super wydajnych architektur GPU, Intel nie stworzył ANI JEDNEJ.

    W takich wypadkach istotnie specyfikacja się nie liczy, bo mówimy o firmach które na architekturze GPU się znają - a więc NV i ATI. Bo tak to Intel jest podobnie głupim przykładem jak Matrox Parhelia - wyjątkiem potwierdzającym regułę, że nie każdy potrafi zrobić porządne hi-endowe GPU. Intel nie potrafi i Matrox też nie potrafi więc już skończ Ty i Qjanusz pisać o tym nieistniejącym LARABEE!!!!

    Odnośnie tranzystorów, Qjanusz - śmiechu warte? Porównałeś układ z wyłączonymi jednostkami do pełnego układu i Ci wyszło więcej tranzystorów nie równa się lepszej wydajności. Ale to było porównanie nieuczciwe, bo pełen GTX 285 też ma 1.4mld i już Ci się teoria sypie, bo ten chip jest sporo wydajniejszy od circa 1mln tranzystorów chipa ATI (HD 4870)

    Cała kwestia nie polega na prostej zależności ilości tranzystorów od wydajności, ale zauważ że w przypadku Nvidii czy ATI te tranzystory przekładają się na WIĘKSZĄ LICZĘ JEDNOSTEK OBLICZENIOWYCH. I w tym sensie układ większy = układ wydajniejszy. Nvidia w GTX 480 dzięki użyciu 3mld tranzystorów wpakowała znacznie więcej jednostek obliczeniowych niż ATI w Cypressie. Dlatego wygra.

    Nawet ATI pokonało 1.4mld GTX-a 285 dopiero za pomocą chipa składającego się z 2mld tranzystorów, co tylko potwierdza powyższe moje zdania.

    Larabee to oczywiście złe porównanie, bo jest to wyjątek, nieudany projekt firmy która nigdy nie potrafiła stworzyć hi-endowego GPU i sama się o tym przekonała.

    NV i ATI w przeciwieństwie do Intela znają się na robieniu wydajnych GPU dlatego porównywanie z Intelem i jego jednym chybionym Larabee nie ma sensu.

    Matrox Parhelia to drugi wyjątek. Następna firma która nie potrafi robić wydajnych kart i dobrze o tym wiesz.

    Używanie jako reprezentatywnych przykładów układów (TYLKO DWÓCH!) firm które nie potrafią robić GPU i porównywanie tego z NV czy ATI jest kompletnie nie na miejscu!!

    Równie dobrze do porównania można by wziąć układy S3/VIA które też się do d.... nadają. I czego to dowodzi? Tylko tego że dana firma nie potrafi robić dobrych GPU. Tylko tego.


  113. @Greve (autor: Saturn64 | data: 24/02/10 | godz.: 22:15)
    Nie ma czegoś takiego jak "dana firma potrafi robić dobre GPU" Wszystko zależy od pomysłowości inżynierów i udanej realizacji tych pomysłów i zaprezentowanie ich w odpowiednim czasie. Przykładem może być 3dfx i jej VOODOO 5 które mogłobyć przełomem w owym czasie a stało się niewypałem (3dfx potrafiło projektować dobre GPU). Kolejnym przykładem był HD 2xxx od ATI, który to zaliczył prawie roczne spóźnienie. Był może i dobą kartą ale przy konkurencji rok wcześniej. Podobnie rzecz się miała z Intelem (architektura Larabee na pewno była przełomowa mam na myśli fakt zgodności z x86 i jej ogromną wydajność) ale pokaz jej możliwości i ostateczne stworzenie działającego układu nastąpiło zbyt późno i konkurencja już zdążyła mocno odskoczyć. Gdyby weszła półtora roku wcześniej, byłaby nie do pokonania przez ATI i NV. Mam nadzieje, że podobnie nie będzie teraz z Nvidią i jej FERMIM który to zjadłaby ATI i jej serię HD5xxx na śniadanie debiutując w dużym nakładzie w listopadzie ubiegłego roku. Nikt by wtedy nie kupował kart ATI. Jednak gdy pełna dostępność FERMI rozpocznie się w maju-lipcu to jest w czasie powolnego odchodzenia HD5xxx na zasłużoną emerytyrę Nvidia nie nacieszy się długo glorią chwały ponieważ w niedługim czasie zastąpi ją seria HD6xxx. (chyba, że seria HD 6xxx i HD7xxx okaże się totalnym niewypałem i Fermi zagrzeje pierwsze miejsce w wydajności GPU na 2-3 lata)

  114. post netcopa z in4 (autor: zeek | data: 24/02/10 | godz.: 22:21)
    wyjasnia kwestie wydajnosci w DX11 i nie tylko:

    "Dorzucę jeszcze kilka ważnych faktów w kwestii DX11, teselacji i wydajności. Teselacja jest wymogiem DX11 więc karta, nawet pokroju 5450 musi mieć teselator aby być zgodna z DX11.

    Całe zamieszanie wokół wydajności DX11 moim zdaniem wynika z błędu marketingowego AMD. Wybrali oni do promocji API grę DIRT2 i wydawało im się to słuszne, bo gra jest hitem, zbiera super oceny itd. itd. Niestety wciśnięto w niej w jedną kupę teselację (której za bardzo nie widać), HDAO i miękkie cienie, które ze swej natury nie są krzykliwymi wodotryskami, a jedynie polepszają ogólny odbiór obrazu. Całość chyba nie do końca została dobrze zoptymalizowana. Nie dano w opcjach możliwości włączenia/wyłącznie trybu DX11 kartom serii 5000 (trzeba to robić z pliku konfiguracyjnego). W efekcie spadek wydajności w trybie DX11 jest przeogromny, a na ekranie nie specjalnie widać te ulepszenia.

    BattleForge przeszedł bez echa, a podniósł wydajność dzięki łatce DX11 o ok. 20%. 20% to jest naprawdę sporo, często sięga karty z półki wyżej.

    Stalker Call of Pripyat prezentuje kwestię najlepiej. W trybie DX10 i DX11 można ustawić te same efekty (+ w DX11 dostaniemy gratis miękkie cienie). Dodatkowo możemy włączyć/wyłączyć teselację. I teraz okazuje się, że przejście z DX10 do DX11 przynosi wzrost rzędu 25-30% - to jest bardzo dużo. Natomiast włączenie teselacji powoduje spadek o 30-35%. Wniosek jest taki, że albo teselacja jest niedopracowana od strony programowej albo Radeony z serii 5xxx są w tym względzie mało wydajne. Sprawę definitywnie rozstrzygnąć powinno Fermi i porównanie wydajności teselacji na kartach o zbliżonej wydajności ogólniej.
    Póki co DX11 przyspieszający pracę jest bardzo pożądany, teselacja - najlepiej gdyby byłą opcją wł/wył.

    Zobaczymy jak to będzie w Bad Company 2. Tam coś EA przebąkiwało, że tryb DX11 znacząco przyspiesza rendering więc można wnioskować, że karty z serii 5000 dostaną kopa.


    I jeszcze o GTS250. Zrobiono nieładny trik obniżając shadery o 300MHz. Część modeli oferuje dalej te same takty ROP i pamięci ale shadery chodzą dużo niżej. Po co to zrobiono? Aby obniżyć cenę. Niższe takty shaderów = więcej chipów przechodzi testy jakości. Niestety oznacza to też słabsze o/c. Pierwsze GTSy 250 chodziły nawet do 2000MHz na shaderach bez zmiany napięcia/chłodzenia. Obecnie wyciąganie 1800MHz bywa trudne. Po prostu jest to coś za coś, niższa cena za niższe koszta produkcji."


  115. @Grave (autor: ligand17 | data: 24/02/10 | godz.: 22:25)
    Pierdolisz głupoty. Przykład:
    "Nvidia ma za sobą całe multum super wydajnych architektur GPU, Intel nie stworzył ANI JEDNEJ." - nieprawda, Intel stworzył swego czasu najwydajniejszą kartę graficzną - i740. Ta karta wydajnościowo z powodzeniem rywalizowała z Rivą 128.
    "firmach które na architekturze GPU się znają - a więc NV i ATI" - a przepraszam, chociażbby Matrox to się nie zna? Jego G100, G200, G400(MAX), G550 też zaklasyfikujesz jako "niszę" mimo, że były to w swoim czasie najwydajniejsze karty graficzne? A takie S3 to się nie zna? A taki Intel?
    "nieistniejącym LARABEE" - przecież Larrabee istnieje - Intel pokazywał nawet protypy, egzemplarze przedprodukcyjne. Jest to taki sam produkt, jak Fermi.
    "układ większy = układ wydajniejszy" - nieprawda, przykłady masz powyżej.
    "Larabee to oczywiście złe porównanie, bo jest to wyjątek""Matrox Parhelia to drugi wyjątek" - czyli wszystko, co nie pasuje do Twoich teorii klasyfikujesz jako wyjątek albo niszę. Jakoś nie przeszkadza Ci, że te "nisze" i "wyjątki" to jakieś 90% rynku?
    "Następna firma która nie potrafi robić wydajnych kart i dobrze o tym wiesz" - powyżej udowadniam, że chrzanisz głupoty.
    Reasumując: przestań pieprzyć, wracaj do piaskownicy albo się doucz.


  116. ligand17 (autor: Grave | data: 24/02/10 | godz.: 22:59)
    Stare dzieje, też je znam. Tyle że:

    Matrox skończył się na G400 (G550 to była porażka, Parhelia to już porażka do sześcianu, a dalej nie było już nic) a S3 na Sevage 2000 albo nawet i wcześniej. To samo Intel - bynajmniej nie miał czegokolwiek najszybszego, a od dawien dawna nic wydajnego nie wypuścił okopał się w ultra low endzie i tkwi w nim do tej pory.

    Ale oczywiście gwoli ścisłości masz rację sięgając do końca ubiegłego wieku da się znaleźć przykłady wydajnych układów firm które później już nic w tym segmencie nie znaczyły. Ale konkurencja się wykruszyła i dalej ciągnęły już tylko Nvidia i ATI.

    I nadal utrzymuję że Parhelia to wyjątek. To był bodaj JEDYNY przypadek kiedy bardzo mocna specyfikacja nie przełożyła się na wyższą od konkurencji wydajność. Powtórzę JEDYNY!!!

    GeForce FX jeszcze przegrał, ale jak spojrzysz w specyfikację to widać dlaczego - 4 ROP-y zamiast 8 - to na dzień dobry, a do tego błędna implementacja DX9 co później miało opłakane skutki.

    Larabee nie jest takim samym produktem jak Fermi. A przekonasz się o tym pod koniec miesiąca. Zresztą dobrze o tym wiesz.... Jeden projekt został oficjalnie skreślony, a drugi - nie i pojawi się w formie gotowych kart pod koniec miesiąca. To SPORA różnica!! Nvidia Fermi nie skreśliła, Intel - Larabee - tak.

    układ większy = wydajniejszy jeżeli porównamy GPU Nvidii i ATI i jeżeli większa liczba tranzystorów przekłada się na większą liczbę jednostek obliczeniowych o ile architektura jest dobrze zoptymalizowana. W przypadku Intela - NIE BYŁA.

    O to mi chodzi w przypadku porównań GTX 480 vs HD 5870. Te 3mld tranzystorów nie jest na marne tylko DZIĘKI TEMU Nvidia mogła dać 512SPU, 64 TMU, 48 ROP, 16 dedykowanych teselatorów - wszystkiego więcej niż w HD 5870.

    Zresztą jak nie wierzysz to będziesz musiał uwierzyć, a do tego czasu możesz pisać że specyfikacja nie ma znaczenia - Twoje prawo, imho ma i zobaczysz że tak będzie.


  117. @Grave (autor: rainy | data: 24/02/10 | godz.: 23:38)
    Dziwne, że nie zauważasz niespójności w tym co piszesz.

    Owszem Fermi to nowa archiektura ale mocniej niż jakikolwiek z układów Nvidii nastawiony na zastosowanie typu GPGPU (bardziej przypomina pod pewnymi względami CPU niż układ graficzny).

    Nie twierdzę, że jego wydajność w 3D będzie słaba ale wcale nie musi być tak dobra jak się spodziewasz.

    Co będzie jeżeli okaże się 15 procent szybszy od 5870 a cenowo (znając Nvidię) wyląduje na półce z 5970 od którego będzie wolniejszy?

    Uprzedzając kontrargument: 5970 nie jest 90-100 procent szybszy od 5870 (średnio jakieś kilkadziesiąt).


  118. rainy (autor: Grave | data: 25/02/10 | godz.: 00:12)
    Nastawiona na GPGPU, ale o grach także nie zapomnieli. Karta ma ogromną moc kwestia jak będzie z wykorzystaniem tej mocy przez gry.

    Szczerze natomiast wątpię żeby GTX 480 był opłacalną kartą. Koszt produkcji jest na pewno bardzo wysoki, karta przeznaczona dla najwyższego segmentu z ceną ponad 2000zł.

    Radeon HD 5870 moim zdaniem nawet po premierze Fermi będzie bardziej opłacalnym zakupem, zwłaszcza że jego cena najpewniej jeszcze spadnie, a dodatkowo pojawią się wersję z taktowaniem 1GHz dla GPU.

    W 5% przewagi nad HD 5870 nie wierzę, raczej obstawiam ok 30% na korzyść GTX 480 patrząc czysto po specyfikacji i po tym jak niewielką przewagę ma HD 5870 nad GTX 285 od którego GTX 480 jest znacznie ale to znacznie mocniejszy.

    HD 5970 z kolei wygra tam gdzie CF zadziała i nie będzie przycięć, przynajmniej do czasu kiedy NV wypuści swoją "kanapkę".

    Ja ogólnie "kanapkom" czy dual GPU jestem przeciwny, za dużo z tym problemów, ciągle...


  119. Grave (autor: Zaku | data: 25/02/10 | godz.: 02:00)
    Nie trwoń łez i przestań spamować, bo twoje posty sprowadzają się do porównań karty która nie miała premiery i jest już dostępna w sprzedaży z OFERMIM, który miał być już pół roku temu, a nadal go nie ma.
    Nvidia robiła bardzo dobre karty, ale to nie znaczy że lider nie może się zmienić. Obecnie liderem jest ATI i dopóki OFERMI się nie ukaże to wstrzymaj się z komentarzami przynajmniej do pierwszych nawet nie autoryzowanych testów, bo na prawdę żal czytać twoje wypociny w których popisujesz się wiedzą z nocnika - większą niż ma sam prezes NVIDII na ten temat.


  120. @Grave (autor: ligand17 | data: 25/02/10 | godz.: 09:08)
    "układ większy = wydajniejszy jeżeli [...] i jeżeli [...] o ile [...]" - strasznie wątpliwy ten wywód. I bardzo dużo tych "jeżeli", "o ile" - przypomina to trochę marzenia nastolatka.
    "Larabee nie jest takim samym produktem jak Fermi. " - dla mnie jest. Larrabee też był już prawie gotowy, były egzemplarze przedprodukcyjne, były specjalne pokazy, morgi już orgazmu dostawał i.... Skończyło się.
    "...przekonasz się o tym pod koniec miesiąca" - jeżeli Fermi oficjalnie zostanie zaprezentowany do końca miesiąca i pojawią się testy na portalach - to się przekonamy. Ale nVidia będzie musiała się mocno spiąć, bo koniec miesiąca za pasem :-)
    "wszystkiego więcej niż w HD 5870" - pamiętaj, że więcej != lepiej
    " Karta ma ogromną moc kwestia jak będzie z wykorzystaniem tej mocy przez gry" - o widzisz, tutaj zaczynasz rozumieć, co próbujemy Ci tutaj wytłumaczyć. Karta może mieć ogromne możliwości, ale co z tego, jeżeli użytkownicy nie będą w stanie ich wykorzystać. To tak, jakbyś kupił sobie samochód supersportowy, a używał go do wożenia zakupów z Castoramy do domu oddalonego o 3km.


  121. Cały czas umyka w tej interesującej dyskusji jeden podstawowy fakt (autor: geordie | data: 25/02/10 | godz.: 09:57)
    Inna filozofia budowy GPU. ATi z premedytacją zrezygnowało z pakowania tranzystorów pod korek, uważając że to błędne podejście i ślepa uliczka. Z założenia 5870 czy podobny produkt nie ma konkurować z Fermi. Od tego jest 5970. Porównywanie dwujajowców obu firm równiez z tego samego powodu jest bez sensu

  122. geordie (autor: Grave | data: 25/02/10 | godz.: 10:24)
    Tyle że jeden mocny GPU zapewni wysoką RÓWNĄ wydajność we wszystkich grach, natomiast rozwiązanie typu dual GPU będzie szybsze tylko wtedy jeżeli w danej grze zadziała Cross Fire/SLI.

    Dodaj do tego przycięcia animacji/wysokie obciążenie CPU w przypadku SLI/CF.

    Lepiej wybierać możliwie najszybszą kartę z JEDNYM GPU - może nie zawsze będzie najszybsze, ale przynajmniej nie zaliczy kompromitujących wpadek.


  123. @Grave (autor: Qjanusz | data: 25/02/10 | godz.: 11:34)
    piszesz dużo i bez sensu.

    Zupełnie mijasz się z prawdą, abo zwyczajnie kłamiesz:
    - Parhelia - wyjątek,
    - Larrabee - nie liczy się bo jeżeli chodzi o wydajna grafikę, to "Intel nie stworzył ANI JEDNEJ" - a co z i740?
    - CF czy SLI są na potrzeby chwili bez sensu - chociaż sprzedają się dobrze i mają coraz większe wsparcie,
    -GeForce FX raz wygrał raz przegrał... to w końcu jak to z nim było wg Ciebie?

    czy inne "wyjątkiem potwierdzającym regułę", "JEDYNY przypadek" itd...

    Jesteś tak wiarygodny jak twoje kontrargumenty. Objętość Twoich komentarzy jest wprost proporcjonalna do głupot i kłamstw w nich zawartych.

    Możesz być, przeklinać, zaklinać, a i tak wszyscy tu mają Cię za ślepego fanboja - no może poza ludźmi ukrywającymi się za awatarem typu "morgi", który czuje się ostatnio bardzo osamotniony.


  124. Qjanusz (autor: Grave | data: 25/02/10 | godz.: 12:02)
    Owszem Parhelia to wyjątek, pisałem Ci dlaczego jak nie zrozumiałeś to Twój problem.

    Larabee się nie liczy, Intel nigdy nie miał najwydajniejszej grafiki i już od dawna okopał się w low endzie. Jedna jaskółka wiosny nie czyni zwłaszcza jeżeli od jej wydania minął już szmat czasu.

    CF i SLI nadal są niedoskonałe - poczytaj testy to się przekonasz. Raz to to działa innym razem nie, czasami nawet spowalnia zamiast przyspieszać (wysokie obciążenie CPU), a przycięcia animacji nawet przy wysokim średnim FPS to znana przypadłość takich rozwiązań.

    GeForce FX - wyraźnie napisałem - specyfikacje miał słabą, ale wygrał dzięki bardzo wysokiemu taktowaniu rdzenia przynajmniej w grach DX8. Po pojawieniu się gier DX9 błędna implementacja tego API przez Nvidię skończyła się wydajnościową katastrofą.

    W tym sensie FX i wygrał i przegrał. Wygrywał na początku w grach DX8, później przerżnął w DX9.

    Jak nie potrafisz odróżnić precedensu od reguły to już nie mój problem. Nvidia miała bardzo niewiele wpadek (właściwie tylko FX w hi-endzie był porażką od czasu GF1) za to wypuściła całe multum wydajnych GPU które wygrywały w testach. Znają się naprawdę na rzeczy.

    Matrox czy Intel i ich wydajne grafiki to jakieś jednostkowe przypadki i to dawno temu obecnie z wydajną grafiką obie firmy nie mają nic wspólnego a to że kiedyś było inaczej nic nie znaczy.

    Jeżeli Parhelia i Larabee czy FX to nie wyjątki to podaj jakikolwiek inny przykład karty która specyfikacją MIAŻDŻYŁA całą konkurencję a mimo to okazała się wolniejsza.

    3 przypadki. Ja na te 3 Twoje mogę podać co najmniej 10 innych które dowodzą że lepsza specyfikacja = lepsza wydajność.

    Na tym polega różnica między wyjątkiem a regułą.


  125. Te wyjątki to nawet bez FX-a (autor: Grave | data: 25/02/10 | godz.: 12:04)
    bo w spec. miał 4 ROP-y i już to go mocno ograniczało. Więc zostaje tylko precedensowa Parhelia i Larabee które nigdy się na rynku nie ukazało....

  126. * oczywiście bezprecendensowa (autor: Grave | data: 25/02/10 | godz.: 12:07)
    mniejsza o to zresztą. Tak czy inaczej wyjątek. Miała super specyfikację i nędzną wydajność.

  127. @ligand17 (autor: culmen | data: 25/02/10 | godz.: 12:11)
    "To tak, jakbyś kupił sobie samochód supersportowy, a używał go do wożenia zakupów z Castoramy do domu oddalonego o 3km."

    Wiekszość supersportowców nie widziała toru. A sluzy do szeroko pojetego lansu przez ludzi jak piłkarze i celebrytki pokroju P Hilton ;)


  128. My 2 cents (autor: pippi | data: 25/02/10 | godz.: 13:31)
    Fermi, z uwagi na swoją przełomową architekturę (która - per saldo - może okazać się zarówno jego największą zaletą, jak i największą wadą, ale to pokaże dopiero czas), nie do końca powinien być traktowany, jak każde (lub prawie każde) inne GPU made by Nvidia. Firma, niewątpliwie bardzo mocna i zasłużona w sektorze "klasycznych" GPU, podjęła próbę wyjścia poza schemat i stworzenia produktu o odmiennej koncepcji. Próba taka oznacza poruszanie się po - częściowo - nieznanym gruncie i wiąże się ze sporym ryzykiem. Jak widac z dotychczasowych problemów z wyprodukowaniem działającej wersji, sama architektura - z uwagi na swój stopień komplikacji - jest "trudnoprzekładalna" na możliwości techniczne i produkcyjne współczesnych "foundries". Może też powodować, że w znacznie większym stopniu bezużyteczne będą "nieudane" chipy, które w przypadku typowych GPU są na tyle sprawne, że mogą być sprzedawane jako wolniejsze układy, dając jednak jakiś przychód ze sprzedazy, pozwalając jeśli nie zarobić, to chociaż ograniczyć koszty. Co do "papierowej" oceny wydajności Fermiego, to - z uwagi na to, że tak naprawdę nikt nie wie niczego konkretnego o zasadach funkcjonowania tego specyficznego układu - nie do końca musi sie sprawdzić założenie, że większa liczba tranzystorów/większa liczba jednostek = większa wydajność. W "klasycznym" GPU byłoby to założenie daleko bardziej uprawnione, w przypadku swoistej hybrydy, jaką jest z założenia Fermi - już niekoniecznie.
    Poza tym trzeba jeszcze wziąć pod uwagę kwestię sterowników. Awangardowość projektu wymusza zastosowanie całkowicie odmiennych driverów, które muszą obsługiwać Fermiego zarówno jako GPU, jak i procesor, dokonując "w locie" przełączania układu w zależności od aktualnego zapotrzebowania na moc obliczeniową. Nie sposób przewidzieć, ile czasu będą potrzebować sterowniki, by osiągnąć pełną dojrzałość i zdolność do wyciśnięcia maksimum (lub prawie) z silikonu.
    Ergo - Fermi, to projekt ze wszech miar interesujący i bardzo skomplikowany, z czym wiążą się liczne problemy, które nie istnieją lub wystepują z daleko mniejszym nasileniem przy tworzeniu typowego układu GPU. Okoliczność, iż do dnia dzisiejszego nie ma ani jednego kawałka działającego silikonu, który Nvidia mogłaby "rzucić na pożarcie mediom" i podkręcić hype wśród fanów marki i poszukiwaczy ekstremalnych osiągów w świecie komuterowowej rozrywki, to potwierdza. Ciekaw jestem niezmiernie, czym Fermi okaże się, kiedy w końcu zostanie zaprezentowany urbi et orbi, co jednakże niekoniecznie musi nastapić w dacie, jaka obecnie podawana jest za oficjalny termin premiery. Do tego czasu wszelkie spekulacje będą tylko spekulacjami. Nie to, że mam coś przeciwko spekulacjom - dostarczają dużo rozrywki, szkoda tylko, że niekiedy prowadzą do wybuchów agresji i niepotrzebnych wycieczek ad personam.


  129. @pippi (autor: Qjanusz | data: 25/02/10 | godz.: 13:59)
    po przebiciu się przez Twój komentarz, ciężko się z nim nie zgodzić.

    Dodać do tego obrazka można jeszcze efekt "tańczącego z atrapami". Gdyby nie te wyskoki, a uczciwe przedstawienie sprawy przez nVidię, jej notowania nie poleciałyby tka w oczach opinii.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.