Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2020
Poniedziałek 5 stycznia 2009 
    

Nvidia GT212: szczegóły następcy GT200


Autor: Zbyszek | źródło: Hardware-Infos | 12:07
(24)
Znane są już szczegóły na temat układu GT212, który trafi na rynek w drugim kwartale obecnego roku. GT212 będzie nowym, topowym układem graficznym, który zastąpi dotychczasowe GT200 i GT200b. Chip będzie składał się z ponad 1.8 miliarda tranzystorów, a jego produkcją w 40nm procesie technologicznym zajmie się TMSC. Podczas gdy GT200 miał 10 głównych bloków, w każdym z nich po 24 procesory strumieniowe oraz 8 jednostek TMU, GT212 przyniesie dwie znaczące zmiany. Po pierwsze liczba bloków zostanie zwiększona do 12, a dodatkowo w każdym z nich będzie nie 24, a 32 jednostki SP. Sumarycznie nowy układ wyposażony będzie w 96 jednostek TMU oraz 384 SP, względem 80 TMU i 240 SP w GT200/GT200b.

Ponadto Nvidia zrezygnuje z 512-bitowego kontrolera pamięci, stosując 256-bitowy oraz pamięci GDDR5, dzięki czemu przepustowość pozostanie na zbliżonym poziomie, spadną natomiast koszty produkcji kart.

Informacje spokrewnione:

29.12.2008 | 11:31 | Plany Nvidia na 2009 rok

 

    
K O M E N T A R Z E
    

  1. ... (autor: Zbyszek.J | data: 5/01/09 | godz.: 12:30)
    Jak dla mnie to złe posunięcie.

    Najbardziej efektywną architekturą (wydajność w stosunku do ilości jednostek i liczby tranzystorów) było G80/G92.

    GT200 ma 2 razy więcej tranzystorów, a mimo to wydajność (choć wysoka) to jest znacznie niższa, niż można oczekiwać po specyfikacji samego GPU.
    W testach GT200 nie jest więcej niż 20-30% bardziej wydajny od G80 z 384-bitową magistralą.

    Jaki był sens zwiększać ilość SP na blok z 16 do 24, po to żeby następnie musieć obniżyć ich taktowanie z 1750 na 1350MHz? Żadnego sensu.
    W efekcie wydajność jednostek SP okazała się podobna, a jedynym efektem ubocznym była tylko większa ilość tranzystorów i powierzchnia układu.
    Teraz znów ponawiają ten krok, zwiększając SP na blok z 24 do 32...


    O wydajność w grach nadal decydują w głównej mierze jednostki TMU a tych w GT212 będzie niewiele więcej niż w GT200.
    Zresztą GT200 dlatego był słaby w stosunku do specyfikacji, bo TMU miał tylko o 25% więcej niż w G80/G92 (80 vs 64)


    Mam nadzieję że ATI/AMD zrobi odwrotnie i w RV870 zwiększy ilość jednostek TMU w każdym bloku SIMD, np. z 4 do 6.

    Przy 16 blokach SIMD, w każdym po 6 TMU zamiast 4 jak dotychczas (w RV770), nowy układ ATI miałby sumarycznie 1280 SP i 96 TMU (tyle samo TMU co GT212)

    Czyli TMU o 2.5x więcej niż w RV770, a SP o 1.6x więcej.


  2. Zbyszek (autor: morgi | data: 5/01/09 | godz.: 16:14)
    Tu nie chodzi o efektywnosc, bo ta jest wystarczajaca, ale o to na ile to 40 nm pozwoli, bo okazalo sie ze 65 nm GT200 to niewypalilo wlasnie przez koszmarne rozmiary, chociaz mialo architekture G92 ze zlozonymi shaderami. Jesli bedzie o 60% wydajniejsze, a przy tym nie drozsze w produkcji to wystarczy by wstrzelic sie w czasie i juz ati pojdzie z torbami.

  3. @Morgi (autor: AmigaPPC | data: 5/01/09 | godz.: 16:46)
    Przed premierą serii HD4xxx też tak gadałeś.
    Żal dupę ściska, że takie oszołomy wypowiadają się na temat, o którym nie mają bladego pojęcia.


  4. @morgi (autor: Marek1981 | data: 5/01/09 | godz.: 17:23)
    Ty czasami czytasz co piszesz?? A może coś z tego rozumiesz??
    @Zbyszek.J też uważam to za złe posunięcie, ale czas pokaże co z ich polityką.

    Dla mnie jest Nvidia pcha się na dno robiąc coraz droższe układy (mimo mniejszego procesu technologicznego koszty nie zmniejszają się od razu. Trzeba wszystko dopracować. Dlatego min radeony hd38xx nie zrobiły wielkiego zamieszania).
    Ale największy bubel to trochę wydajniejszy chip ale nadal z dx10 kontra najnowszy chip ATI z dx11. (tym razem karta się odwróciła, pamiętacie premierę gf8800/8600)


  5. @Zbyszek.J (autor: 7eki | data: 5/01/09 | godz.: 17:30)
    Z tego co mi wiadomo, to ATI musiała przez ostatnie dwa lata łatać błędy i skorzystać nieco ze strategii tworzenia architektury GPU nVidii. Chociaż z drugiej strony dzisiaj większość hi-endowych kart graficznych w naszych komputerach pochodzi od ATI, co świadczy o tym, że teraz to nVidia powinna wziąć przykład z ATI. Właśnie to robią. Z małym opóźnieniem. GDDR5 i mniejszy proces technologiczny wykonania samego GPU. Pytanie tylko, czy nie jest już trochę za późno, bo na horyzoncie mamy DX11, a 280GTX i 4870x2 i tak dławią dostępne na rynku CPU.

  6. Marek1981 (autor: morgi | data: 5/01/09 | godz.: 17:45)
    Tylko tak sobie zyczysz, tego co kazdy doswiadcza z Radkami 4800 nikt im nie odbierze, bo sami odchodza z traumą, najlepsze sa niezapomiane spotkania ze sterownikami, nieskalowalnosc i slabsza funkcjonalnosc. Na polu rozrywki jeszcze jest po rowno, ale co potem jak otworza sie mozliwosci raczej skromne uzycia tych grzalek do czegos innego niz gry.

  7. ... (autor: Aamitoza | data: 5/01/09 | godz.: 18:43)
    istnieje tutaj coś takiego jak moderacja? Czytanie wypowiedzi tego pana nademną zostawia mi za kazdym razem pewien uszczerbek na zdrowiu, a przy okazji tracę wiarę w ludzi.

  8. amitoza (autor: globi-wan | data: 5/01/09 | godz.: 18:56)
    to nie pisilab tu nie ma moderatorow

  9. Morgi (autor: Zbyszek.J | data: 5/01/09 | godz.: 19:07)
    Właśnie o efektywność między innymi chodzi.

    Bo po co było zwiększać liczbę SP z 16 do 24 na blok, żeby potem taktować te jednostki zamiast 1800MHz to 1200 MHz, a więc o 1/3 wolniej?

    16 SP @ 1800MHz (G92) ma taką samą wydajność obliczeniową jak 24 SP @ 1200MHz (GT200). Więc po co wogóle ta zmiana, która nie dała nic poza większą powierzchnią chipu itp ?

    GT200 byłby znacznie lepszym układem, gdyby miał 12 bloków identycznie takich samych jak w G92 (po 16 SP i 8 TMU) co dałoby sumarycznie 96 TMU i 192 SP.
    Miałby wówczas wydajność większą od obecnego GT200, przy mniejszej powierzchni, zużyciu mocy itp...


  10. Zbyszek (autor: Grave | data: 5/01/09 | godz.: 19:10)
    Odnośnie TMU, to jeżeli któraś z firm w tym względzie odstaje to ATI i to już od kilku lat. Nie wiem zatem dlaczego pijesz do nVidii, że za mało TMU daje, a z drugiej strony zakładasz (nie wiem na podstawie czego), że ATI w tym względzie będzie lepsze skoro jak dotąd było gorsze i to dużo gorsze.

    Radeon X1800/X1900 - 16 TMU, GeForce 7800/7900 - 24 TMU

    Radeon HD 2900XT/3870 - 16 TMU, GeForce 8800 - 32 TMU

    Radeon HD 4850/70 - 40 TMU (de facto 32...), GeForce GTX 280 - 80 TMU.

    Zatem w 2 ostatnich generacjach za każdym razem nVidia dawała DWA RAZY WIĘCEJ TMU NIŻ ATI!!

    Dlaczego zatem teraz nagle zakładasz, że nVidia się podłoży a ATI zaskoczy wszystkich znaczącym zwiększeniem liczby TMU?

    Znając dotychczasową politykę ATI przypuszczam, że zmiany w ich 40nm nie będą bynajmniej rewolucyjne i najprawdopodobniej nawet mniejsze niż u nVidii.

    Mówimy oczywiście cały czas o pierwszej generacji 40nm chipów planowaną na pierwszą połowę roku.

    Po 40nm układzie ATI spodziewam się zwiększenia liczby SPU (znaczącego), zwiększenia liczby TMU (nieznacznego i jestem przekonany, że w tym względzie nie dogonią nVidii) i... to tyle.

    Reszta układu moim zdaniem pozostanie nietknięta.


  11. Przecież w kontekcie RV870 nic nie zakładam (autor: Zbyszek.J | data: 5/01/09 | godz.: 19:20)
    Pisałem tylko, że ATI powinno (!) dołożyć TMU, np zwiększyć ich liczbę z 4 do 6 na jeden blok SIMD.

    Czytaj uważniej.

    A o Nvidii pisze, bo krytykuje ich nowe posunięcie, polegające na ponownym (jak w GT200), zwiększeniu liczby jednostek SP w każdym bloku, opierając swoje twierdzenie na tym, że już w GT200 była to zmiana niepotrzebna.

    Ty sam pod newsem "Plany Nvidia na 2009 rok" wyraziłeś się podobnie na temat GT200.


  12. cd. (autor: Zbyszek.J | data: 5/01/09 | godz.: 19:22)
    Napisałem przecież w tym 1 komentarzu wyraźnie:

    "Mam NADZIEJĘ że ATI/AMD zrobi odwrotnie"

    Zatem gdzie ja coś zakładałem ?


  13. Istotnie napisałem tak (autor: Grave | data: 5/01/09 | godz.: 19:24)
    bo także uważam, że architektura nVidii z każdą generacją traci na efektywności.

    Z drugiej strony podejrzewam, że ta nieefektywna architektura i tak okaże się wystarczająca na pokonanie ATI przynajmniej w kategorii pojedynczego GPU.


  14. ... (autor: reev | data: 5/01/09 | godz.: 19:26)
    morgi - "to wystarczy by wstrzelic sie w czasie i juz ati pojdzie z torbami" - wyjaśnij mi co takiego zrobiło Ci ati, że na każdym kroku czekasz na ich klęskę? tpsa też kibicujesz i wszystko inne to dno? co takiego dobrego jest w monopolu?

  15. @marek1981 (autor: 7eki | data: 5/01/09 | godz.: 19:31)
    Do czegoś innego niż gry powiadasz ? Masz udostępniony interfejs Brook+ to stwórz sobie to czego potrzebujesz. Jeśli w tej chwili nie masz na to ochoty to poczekaj za tym "http://anandtech.com/.../showdoc.aspx?i=3488" Powiadasz, że ktoś odchodzi od 4800 z traumą ? Ostatnio z traumą odszedłem od 8800GT, bo niestety nie mogłem na nim pograć w Splinter Cella Double Agent... a dwa 4850 w CF spisują się świetnie. Zapłaciłem za nie tyle ile miesiąc przed ich kupnem kosztował jeden 9800GTX.

  16. Jeszcze wyjaśnienie dla Morgiego (autor: Zbyszek.J | data: 5/01/09 | godz.: 20:17)
    Efektywność to stosunek wydajności do:

    - powierzchni układu
    - zużycia energii
    - ceny


  17. Grave (autor: morgi | data: 5/01/09 | godz.: 21:25)
    Istotnie traci na efektywnosci? Skad takie spostrzezenie, jednostki w ukladach Nvidii osiagaja nawet ciut wyzszy pulap efektywnosci niz od ati, a dlaczego jest wieksza powierzchnia? Bardziej zlozona budowa SPU, wyzsze taktowania a suma sumarum chip ciagnie podobna ilosc pradu, niezwykle przeciez powinien ciagnac 2x co radeonki skoro jest 2x wiekszy.

  18. Morgi (autor: Zbyszek.J | data: 5/01/09 | godz.: 21:34)
    A może tak raczysz odpowiedzieć prosto bez owijania w bawełnę, na powyżej zadane pytanie, powtarzam:

    "po co było zwiększać liczbę SP z 16 do 24 na blok, żeby potem taktować te jednostki zamiast 1800 MHz to 1200 MHz, a więc o 1/3 wolniej?

    16 SP @ 1800MHz (G92) ma taką samą wydajność obliczeniową jak 24 SP @ 1200MHz (GT200). Więc po co ta zmiana, która nie dała nic poza większą powierzchnią chipu itp ? "


  19. @7eki (autor: Marek1981 | data: 5/01/09 | godz.: 22:09)
    Coś Ci się pomyliło:)
    Ja od 4mc mam 4870 na pokładzie i czasami podłączam pod telewizorek FullHD i daje rade.
    Np Crysis na max det chodzi płynnie a to już niezłe osiągnięcie.
    Rozchodzi się że większość ludzi kupuje dobre grafy po to by grać.
    Składam czasami kompy (jak mi się chce bądź mi ktoś dużo marudzi) i widze jakie jest podejście:)


  20. Zbyszek (autor: Grave | data: 5/01/09 | godz.: 22:37)
    <<16 SP @ 1800MHz (G92) ma taką samą wydajność obliczeniową jak 24 SP @ 1200MHz (GT200). >>

    SP w G92 NIE są taktowane zegarem 1800MHz, ale 1688MHz (9800GTX)

    Z kolei analogiczne jednostki w GT200 także nie są taktowane zegarem 1200MHz, lecz 1296MHz.

    Zatem taktowanie SP w GT200 spadło o ~23%, natomiast liczba samych SP wzrosła o 50%.

    Co daje teoretyczny wzrost wydajności SP o 27%.

    Ale jak zapewne wiesz w % kryje się pewna pułapka, a jest nią podstawa liczenia tegoż %.

    Przekładając tą zależność na praktykę należy pamiętać o jednym:

    To że karta X jest o z % szybsza od karty Y bynajmniej NIE OZNACZA, że karta Y jest o z % wolniejsza od karty X!!


  21. Mowa o 9800GTX+ (autor: Zbyszek.J | data: 5/01/09 | godz.: 23:13)
    Ale racja, pomyliłem się w zegarach, jest 1300MHz zamiast 1200MHz.

  22. Grave (autor: Dzban | data: 6/01/09 | godz.: 00:46)
    4670 ma inną konstrukcję dużo TMU i mniej shaderów a stosunek w innych kartach AMD od serii 3xx wynosi 4:1 shadery:tmu. Jak widać zwiększenie shaderów i tmu w tym samym stosunku dało znaczny wzrost. Poza tym ulepszono TMu w serii 4. A poza tym mimo nie zwiększenia liczby ROP podwojono ich wydajność i z AA karta działała jak trzeba lub nawet lepiej niż u odpowiednika konkurencji. Właśnie przez te problemy z AA wybrałem 9600GT.
    A co GT200 to też mnie zastanawia sens zwiększania liczby kosztem taktowania shaderów. Ale przez mocny marketing CUDA nvidia zmieniła shadery na takie z wyższą dokładnością żeby dało się je szerzej zastosować. Pewnie dlatego nie mogą ich szybciej ustawić. Z nowych kart to z AMD R740 zapowiada się ciekawie. Widziałem też śmiałe projekty z kilkoma GPU na PCB. A nvidia zmniejszy proces znowu zrobi behemota i tak w kółko. Na koniec roku nowy behemot zgodny z Dx11. Brak innowacji. Aż dziw bierze że seria 8 im tak dobrze wyszła a teraz lipa. I te ciągłe rebrandingi tych samych kart. Widać że strategia AMD z małymi chipami się sprawdza. Na anandtechu był ciekawy artykuł na temat powstawania RV700. Może w końcu w 2009 zrobię Crossfire na mojej płycie.

    Do morgiego
    Skalowanie Crossfire jest na ogół bardzo dobre do rewelacyjnego dlatego taki 4850x2 jest lepszy od GTX 280. AMD ma też lepsze funkcje dekodowania i akceleracji video. Obsługa wielu monitorów też na kartach AMD jest lepsza. A sterowniki są ciągle aktualizowane. Jest wydajnie i nie nie ginie z ekranu jak u nvidii na najnowszych sterownikach.


  23. Grave (autor: morgi | data: 6/01/09 | godz.: 11:29)
    Wydajnosc liczona jest nie w sposob teoretyczny, ale w probkach kodu, wrzucajac kod shader mozna np. zmierzyc faktyczna moc obliczen. Dla przykladu moc faktyczna GT200 jest najlepsza i to 95% teoretycznej ok. 933 Gflops, a G92 to byla tragedia tylko 81% tego co w teorii, czyli ok. 650Gflops. Jak widzisz efektywnosc GT200 wyraznie wzrosla!

  24. Zbyszek a efektywność (autor: komisarz | data: 6/01/09 | godz.: 15:34)
    Bzdury wypisujesz.

    Wydajność do ceny to efektywność? A nie opłacalność?

    Wydajność do powierzchni to z kolei może być co najwyżej efektywność kleju do glazury.

    Znowu sam tworzysz jakieś definicję na potrzebę chwili i jeszcze arbitralnie ją ogłaszasz. Jedyne, co pasuje, to wydajność do pobieranej (a nie zużywanej!) energii, chociaż jak widać i tu jest błąd.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.