Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Środa 14 lipca 2010 
    

Dwa GF104 lekiem na słabości GF100


Autor: Wedelek | źródło: Fudzilla | 11:21
(30)
Jakby na potwierdzenie krążących w sieci pogłosek portal Fudzilla zapewnia że udało się mu dotrzeć do źródeł, które potwierdzają plany wycofania GeForce GTX480 z rynku. Jego następcą miałaby zostać karta graficzna zbudowana w oparciu o jak się okazało rewelacyjną (a przynajmniej w porównaniu do GF100) architekturę GF104. Nowy produkt miałby być układem dwuprocesorowym i chociaż nie wiadomo jeszcze nic na temat specyfikacji technicznej to jest wielce prawdopodobne, że pojedynczy GPU składałby się z 384 procesorów strumieniowych i byłby taktowany zegarem większym niż 700MHz.

Oczywiście nie jest wykluczone że liczba SP będzie mniejsza niż 768. W przypadku pamięci RAM typu GDDR5 można się natomiast spodziewać taktowania efektywnego w okolicach 4000MHz. Bardzo prawdopodobne jest więc że Nvidii w końcu uda się zepchnąć z tronu lidera dwuprocesorowego Radeona HD 5970, jednak należy przy tym pamiętać że w niedługim czasie po premierze nowości od "zielonych" światło dzienne ujrzy kolejna seria od AMD a sytuacja może wrócić "do normy".

 
    
K O M E N T A R Z E
    

  1. jak powstanie (autor: Markizy | data: 14/07/10 | godz.: 12:01)
    takie dwuprocesorowe monstrum, to myślę ze użyją tej wersji z okrojona szyna pamięci, ze względu na koszty.

    Chociaż możliwe ze będą dwie wersje tej karty z 2x192 i 2x256 jeśli chodzi o kontroler pamięci.


  2. hmmm (autor: MariuschM | data: 14/07/10 | godz.: 12:02)
    zastanawiam się czym się różni architektura GF104 od GF100

  3. @up (autor: Wedelek | data: 14/07/10 | godz.: 12:07)
    Najważniejsze to

    - podwojona ilość SFU
    - bloki SM po 48 SP a nie 32SP
    - 8 bloków SM a nie 16

    http://pclab.pl/...rzy/gtx460/gf100vsgf104full.jpg


  4. MariuschM (autor: Diamond Viper | data: 14/07/10 | godz.: 12:27)
    rodzajem mięsa w kotletach:DD Ale na poważnie - to może trochę pobudzić Ati do obniżenia cen, jak stracą lidera wydajności - mam taką nadzieję;P W każdym razie niech się dzieje jak najwięcej, bo przestój nikomu nie służy - mowa o kupujących

  5. oła... (autor: Qjanusz | data: 14/07/10 | godz.: 13:15)
    najwydajniejsza karta od nVidii miałaby być dwuprocesorowa?

    I poległby koronny argument fana nVidii...

    Co do tematu, to zdecydowanie GF104 jest lepszy niż GF100


    bardzo wymowną ciekawostką tej wiadomości jest fakt przyznania się nVidii do porażki swojej koncepcji!
    To AMD budowało chipy mniejsze i je łączyło. nVidia stawiała na mega krowy na laminacie. I życie skorygowało słuszność podejścia do tematu firmowaną przed AMD.


  6. ... (autor: Xymeon_x | data: 14/07/10 | godz.: 13:18)
    to mają taką padakę z uzyskiem układów do GTX480, że topowy model muszą zmajstrować z dwóch innych układów ...

  7. @Xymeon_x (autor: Qjanusz | data: 14/07/10 | godz.: 13:22)
    w skrócie to tak
    GF100 w wszelkich kartach jest gniotem jakich mało. Wszyscy oprócz emu o tym wiedzą.

    GF104 jest rewelacją. Karta złożona z dwóch rewelacyjnych układów ma większą szansę powodzenia, niż karta z jednym zgniłym jabłkiem.


  8. ad4 (autor: MacLeod | data: 14/07/10 | godz.: 13:25)
    Jakich kotletach? Wszystko mozna powiedziec o Fermi ale nie to ze jest kotletem. Bardziej kotletowe sa radeony 5xxx... Chyba nie rozumiesz pojecia...
    Najbardziej oplacalne karty w tej chwili to 5770 i 460gtx. :)


  9. Fermi to Fermi (autor: morgi | data: 14/07/10 | godz.: 13:29)
    znowu swietna architektura i przyszlosciowa, szkoda tylko dualika, bo to koncepcja stara i marginalna, ale jak topy bic to konkretnie. Ucieszylbym sie jeszcze jak najszybszym wejsciem mobilnych Fermi, bo jeden juz jest i calkiem niezly, ale powinno byc niezle w przyszlosci.

  10. @MacLeod (autor: Promilus | data: 14/07/10 | godz.: 13:30)
    5850 i 470 również, z lekkim nastawieniem na 470 (poza Polską) i na 5850 (w naszym pięknym kraju) ^^

  11. @morgi (autor: Promilus | data: 14/07/10 | godz.: 13:39)
    Ciekawe kogo lubisz bardziej, nvidię czy intela. NV chwaliła się że ich gpu jest do 100x wydajniejsze niż intelki, intel im zarzucił, że porównują wersję softu niezoptymalizowaną cpu do zoptymalizowanej gpu. Przykładem takiej aplikacji jest... PhysX. Używając narzędzi intela do sprawdzania ilości różnych typów instrukcji (x86, x86-64, x87, sse) w programie sprytni ludzie przebadali physx i co się okazało? Ano to, że physx bardzo ładnie wykorzystuje...x87 zamiast SSE2. Z multicore też niewesoło (a tu nv odbija piłeczkę twierdząc że to sprawa indywidualnej implementacji producentów softu - ciekawe kto SDK robi i biblioteki...aaa, nv...)
    No czekam na twoje zdanie w tym temacie :P


  12. Jest test na benchmarku. (autor: MacLeod | data: 14/07/10 | godz.: 14:06)
    Bardzo fajny:)
    Jakby mial teraz kupowac karte to na pewno zamiast 5770 wzialbym tanszego gtxa.. bez dwoch zdan.
    Karta jest zimna, kreci sie jak wariatka..


  13. fermi@9 (autor: krzysiozboj | data: 14/07/10 | godz.: 14:10)
    Ano gf100 było bez zająknięcia świetną i przyszłościowa architekturą, wręcz rewelacyjną ... tylko dlaczego rynku nie zawojowało nim po krótkim epizodzie na nim jest powolutku zastępowane czymś innym? :D
    Co sie teraz stanie z piewcami chwalącymi najwydajniejsze pojedyncze GPU jak zniknie 480tka? A czy konkretnie 5970 zostanie pobite to jeszcze zobaczymy, zakładam ze konkretnie to tak min 30-40% a nie góra 5% i to w co dziesiątym teście.
    Kochany morgi, od ok 10 m-cy Nvidia stara się jak może nadrobić dystans do AMD/ATI i nic więcej. Po atrapach z kabelkami, po dziwnym monstrum gtx480 z którym nie wiadomo było co robić, mamy wreszcie coś sensownego w postaci 460tki i papierową/plotkarską zapowiedź (z tych też lubić pokpiwać ale tu widzę plotka NVidii to już prawda objawiona) dwuprocesorowej karty z których tak lubisz kpić.
    Pożyjemy, zobaczymy, może AMD coś z cenami przynajmniej zrobi lub trochę odkurzy ofertę.


  14. @macleod (autor: trepcia | data: 14/07/10 | godz.: 14:34)
    Nie można jednak zapominać, że różnica pomiędzy 5770 512MB i 1024MB wynosi odpowiednio ~300 i ~200zł. Dla niektórych może to być bariera nie do przejścia.
    Ale co by nie mówić, wkońcu NVidia pokazała układ, który można z czystym sumieniem polecić. Ot, tak powinno wyglądać pierwsze Fermi, a nie ten epic fail w postaci GF100.


  15. ceny (autor: krzysiozboj | data: 14/07/10 | godz.: 14:43)
    patrzac na ceny np 4850, wielkość rdzenia owego i np 5770 oraz 5850 (dość fajne karty chyba) to zakładając podobny uzysk z wafla i zakłądając że 4850 jest sprzedawany z sensownym zyskiem wychodzi mi że zejście z cenami do 5770-400 zł, 5850-600zł nie jest zejściem na granicę opłacalności. 10 m-cy to dość długi czas na "podatek od nowości". Poczekamy jakiś czas i zobaczymy jaka reakcja będzie, do tej pory to chyba podnosili ceny.

  16. @krzysiozboj (autor: Promilus | data: 14/07/10 | godz.: 14:52)
    Podnosić to nie bardzo, natomiast nie opuszczali. Za to ceny w Polsce zależą od kursu dolara i to najbardziej boli. Bo HD4850 w trakcie premiery kosztowało ok 500zł przy nieco ponad 2zł/$, a dolar stoi obecnie w okolicy 3zł. Nie jest rv7xx chyba już produkowane i nie mam pojęcia od kiedy - ale ogółem niskie ceny 4850, 70 i 90 obecnie to chyba tylko ze względu na wyprzedaż z magazynów.

  17. Hmmm... Czy GF100 było kompletną porażką??? (autor: Mcmumin | data: 14/07/10 | godz.: 15:43)
    Nie wyciągałbym tak daleko idących wniosków. Proponuję lekturę xbita, gdzie jest artykuł o zyskach nV wyciągniętych z Tesli 20xx.
    BTW:
    http://www-03.ibm.com/...taplex/dx360m3/index.html

    To jest prawdziwa kasa, a nie retail.


  18. Promilus (autor: morgi | data: 14/07/10 | godz.: 17:11)
    To zalezy od specyfiki uzytego programu i jak Intel dowiodl nie 100 a kilka do kilkunastu razy, srednio 2,5x, tak przynajmniej bylo przy Nehalem do gt200. Oczywiscie Fermi jako jedyny zwiekszyl ta roznice na korzysc w dual precision fpu o 6 do 8x, ale to tez tylko w specyficznych zastosowaniach.
    'To understand where such large performance difference comes from, we perform a rigorous performance analysis and find that after applying optimizations appropriate for both CPUs and GPUs the performance gap between an Nvidia GTX280 processor and the Intel Core i7-960 processor narrows to only 2.5x on average. '
    http://portal.acm.org/...783980&ret=1#Fulltext


  19. @morgi (autor: Promilus | data: 14/07/10 | godz.: 17:29)
    Ale ja ci podałem dość konkretny przykład więc nie wiem czemu wyskakujesz ze 'specyfiką użytego programu'. Opowiedz się jasno, jesteś ZA intelem twierdzącym, że GPU PhysX to jedna wielka ściema napędzająca tylko nieco rynek kart graficznych nvidii uwzględniając możliwości wielordzeniowych CPU z SSEx, czy też jesteś za nvidią twierdzącą, że wszystko jest ok i jeden rdzeń z wykorzystaniem x87 kontra całe GPU to uczciwe porównanie ;)

  20. Promilus (autor: morgi | data: 14/07/10 | godz.: 17:44)
    To proste, cokolwiek psiks moze czy nie on jest na rynku jako jedyne takie rozwiazanie, czy i jak realizowane to kogokolwiek banke obchodzi i nie zanosi sie na jakiegokolwiek rywala na lata, przynajmniej w sensownym komercyjnym zastosowaniu. Nvidia to wie i umie z tego korzystac, good for them.

  21. @morgi (autor: Promilus | data: 14/07/10 | godz.: 17:48)
    No to teraz się ładnie zaplątałeś ;) IBM Xenon oraz Cell BE (w odpowiednio Xbox360 i PS3) sobie spokojnie radzą z PhysX, a przecież IBM nie może być lepszy od intela, prawda? A jakoś jest, bo na nim fiziks działa wyśmienicie, a na i7 nie! Hahahah.

  22. Spokojnie dziala, ale co tam dziala na konsolach? (autor: morgi | data: 14/07/10 | godz.: 17:59)
    Zwlaszcza na konsoli zgodnej ze sprzetem nizej niz GeForce 8? Psiks na blacharke jest taki jaki jest, medialnie glosny, jako fizyka pod cepy jest Havok o wiele lepszy i tego sie trza trzymac.

  23. @morgi (autor: Promilus | data: 14/07/10 | godz.: 18:49)
    No właśnie na tych konsolach działa na CPU physx lepiej niż na PC... siła architektury POWER w stosunku do x86? Czy może wredna nvidia? :P Dobrze się zastanów.

  24. no to grave zalamany (autor: zeek | data: 14/07/10 | godz.: 19:31)
    ze gobliny koncza produkcje jego ukochanego szrotu GTX470

  25. @17 (autor: krzysiozboj | data: 14/07/10 | godz.: 19:45)
    A nie napisałem że totalną porażką ale też i nie taką rewelacją jak to morgi z emu malują.
    Kasę zazwyczaj największą robi się na masówce (piszę zazwyczaj bo nie zawsze), nie ma chyba jeszcze wyników za 2 kwartał dla AMD i NVidii, jestem przekonany że u AMD w dziale GPU będzie wzrost, u NVidii nie jestem tego taki pewny.


  26. Promilus (autor: morgi | data: 14/07/10 | godz.: 21:12)
    Ale co ma psiks z konsol wspolnego z psiksem na blacharke, tutaj jest gpu-accelerated a tam jakies zwykle pokemony, co wyraznie stoi na ich stronie. Jest roznica miedzy zrobieniem kilku smieci na ekranie, a jednak symulacjami kurzu, gruzu, ruch plynow, zlozona interakcja postaci, na blacharce jest zrobiona plynnie tylko pod GPU i to wisi na ich stronie.
    'Jedynym sposobem na uzyskanie realnej fizyki o wierności i poziomie interaktywności wyraźnie podnoszącej poziom wrażeń uzyskiwanych z rozgrywki będzie zastosowanie jednego z milionów procesorów GeForce z obsługą NVIDIA PhysX.'
    Wymagaja, a ja to rozumiem, ich swiete prawo, ze na cepie moga to nawet spowalniac, blokowac czy wylaczyc, czyli tak, aby klient nie kombinowal tylko nakierowal sie na pouczenie.


  27. @Promilus (autor: rainy | data: 14/07/10 | godz.: 21:53)
    Tak się zastanawiam, po co Ty z tym trollem dyskutujesz.

    To czy morgi jest trollem interesownym (czytaj opłacanym przez redakcję) czy nie, jest tutaj sprawą drugo albo nawet trzeciorzędną.

    Tak czy siak, przekaz jest zawsze ten sam: Intel jest cudowny/wspaniały/niepowtarzalny a inni się nie liczą.
    AMD jest rzecz jasna najgorsze bo bezczelnie śmie jeszcze konkurować.

    To jak mantra jest powtarzane w 99,9 procent postów.

    Oczywiście każdy z nas ma prawo do swojego hobby ale takiemu się cokolwiek dziwię.


  28. @morgi (autor: Promilus | data: 14/07/10 | godz.: 22:04)
    Tak, tak pałko
    "NVIDIA PhysX SDK is optimized for single and multi-core PC, Xbox 360, Playstation®3 and the PhysX Accelerator

    * Available now for PhysX-Ready GeForce Processors
    * Support for AGEIA PhysX Accelerator
    * Fine-grain multithreading control
    * Asynchronous Stepping support
    * Performance Profiler Support (AgPerfMon)
    * PS3 and Xbox 360 Optimizations"
    Zauważyłeś? Najpierw single and multi-core PC, a na dole przy gwiazdkach tego już nie ma. Pomijam fakt, że PPU AGEIA też już nie wspiera. To gdzie te optymalizacje dla CPU którymi się tak nv chwali na stronce physx? Bo jakoś nie zauważyłem - czyli kłamią w żywe oczy, a ty naciągasz fakty, żeby to kłamstwo rozmazać i zatuszować.


  29. Promilus (autor: morgi | data: 15/07/10 | godz.: 10:22)
    Ale co to ma byc? Ja tu mowie o tym co klient skorzysta na psiksie, czyli kupuje se konsole, albo blacharke i chce miec gierke z psiksem i co? Na konsoli moge? sprobowac z tym na czymkolwiek, bo nie wiem czy jest te pare gier, a na blacharce kupuje 1 lub kilka GeForce i wiem, ze bedzie hulac i to widac na oko. Aktywujac psiks przez cepa moge doswiadczyc kiepskich osiagow, bo w pouczeniu pisze, ze trzeba zapodac akceleracje via GPU. Zreszta jest lista gier z wymogiem akceleratora. Wg moich danych, akcelerator to jedynie sprzet Nvidii w tej chwili.
    'PC titles can take exclusive advantage of the PhysX Accelerator to provide an enhanced gaming experience'
    http://www.nzone.com/...nzone_physxgames_home.html


  30. @morgi (autor: Promilus | data: 15/07/10 | godz.: 12:26)
    Ale co to ma być? Ano info ze strony nv
    * Support for AGEIA PhysX Accelerator
    Taa, gdzie
    * PS3 and Xbox 360 Optimizations"
    Owszem, jest AltiVec użyty
    "PhysX SDK is optimized for single and multi-core PC"
    dla multicore może jeszcze (zależnie od tego jak developerzy zaimplementują), ale dla SSE już nie, a dlaczego skoro dla AltiVeca jest? Uważasz że SIMD w IBM POWER jest lepszy? Brawo.
    "PC titles"
    A ile ich jest?


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.