Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Wtorek 13 grudnia 2011 
    

Nieoficjalna specyfikacja układów GK104 i GK100


Autor: Zbyszek | źródło: 3DCenter | 22:03
(25)
W sieci pojawiła się nieoficjalna specyfikacja nadchodzących 28-nanometrowych układów graficznych Nvidia z serii Kepler, które będą podstawą kolejnej generacji kart graficznych. Dwa najbardziej wydajne z nich - GK104 oraz GK100 zastąpią dotychczasowe 40nm chipy GF104 oraz GF100 stosowane w kartach GeForce GTX 560, 570, 580 i 590. Nowe układy będą bazować na tej samej architekturze co poprzednicy jednak ze znacznie zwiększoną liczbą jednostek. Flagowe układy GK100 będą zawierać 1024 procesory strumieniowe CUDA, 128 jednostek TMU oraz 64 ROP wraz z 512-bitową magistralą pamięci GDDR5.

Mniejsze układy o oznaczeniu GK104 będą wyposażone w 48 jednostek ROP wraz z 384-bitową magistralą pamięci GDDR5 oraz 640 lub 768 procesorów strumieniowych CUDA i 80 lub 96 jednostek TMU. Najprawdopodobniej to właśnie karty zbudowane w oparciu o mniej złożone układy GK104 pojawią się na rynku jako pierwsze jeszcze pod koniec 1 kwartały przyszłego roku, natomiast akceleratorów wykorzystujące chipy GK100 należy spodziewać się pod koniec drugiego lub w trzecim kwartale przyszłego roku.

 

    
K O M E N T A R Z E
    

  1. Myślałem, że sobie odpuścili (autor: SweetDreams | data: 13/12/11 | godz.: 22:23)
    Może w końcu dogonią wydajnością karty AMD z serii 6xxx

  2. nic wiecej nie trzeba (autor: zigg | data: 13/12/11 | godz.: 23:03)
    "Nowe układy będą bazować na tej samej architekturze co poprzednicy"

    dziekuje, postoje


  3. @zigg (autor: vd81 | data: 13/12/11 | godz.: 23:31)
    gf 560 ma 384 CUDA cores wiec nie wiem czy te 640 lub 768 CUDA to zaden postep:P Gdyby przelozylo sie to na wydajnosc ok 50% wieksza i wcenie do 1000pln to jednak warto czekac. GK100 i Ati 7900 beda zapewne poza finansowym zasiegiem wiekszosci :P

  4. W sumie (autor: Piter | data: 13/12/11 | godz.: 23:42)
    to z punktu widzenia firmy takiej jak Nvidia czy AMD nie ma chyba sensu wypiszczaćsuper wydajnej karty na nowej rewelacyjnej architekturze skoro nie ma gier które by choć w połowie to wykorzystały.

  5. e tam ! (autor: bajbusek | data: 14/12/11 | godz.: 00:21)
    zrobia nowa grafe do xboxa720 i bedzie w co grac na pecetach ;)

    A gdzie prezentacja pudelek ja sie pytam!? :)


  6. @ up (autor: grafenroot | data: 14/12/11 | godz.: 01:10)
    Na pudełka przyjdzie czas. First of all - atrapa :D

    Na poważnie to mam nadzieję, że Fermi w swoim naturalnym środowisku (28nm) pokaże pazur i dzięki temu AMD za bardzo nie odskoczy wydajnościowo nVidii.


  7. ... (autor: Aamitoza | data: 14/12/11 | godz.: 07:15)
    gigantycznego układu ciąg dalszy. Zapowiada się 6 miliardów tranzystorów.

  8. up7 (autor: insomnia | data: 14/12/11 | godz.: 07:56)
    Tylko geniusze przy tej samej liczbie tranzystorów potrafią przyśpieszyć układ, a tu proste rozwiązanie - zwiększanie liczby jednostek i pewnie taktowania, więc zwiększenie wydajności murowane. Tylko pytanie brzmi co robi dział badań, modli się o kolejne zmniejszenie procesu produkcyjnego?

  9. 512 bitowa szyna do pamięci i cała reszta... (autor: TeXXaS | data: 14/12/11 | godz.: 09:38)
    tak się zastanawiam, czy może bez osobnego zasilacza da radę sobie pograć. Wiadomo - do obliczeń - nikt nie będzie się zastanawiać, ale do domu? Chyba tylko po to, żeby trochę się po lansować.

  10. proszę nie marudzić na architekturę (autor: Qjanusz | data: 14/12/11 | godz.: 10:09)
    bo w tym temacie to właśnie AMD jest z tyłu, a z GCN dopiero doganiają Fermi.

    Jeżeli chodzi o terminowość Keplera, to trzymam kciuki, mimo że przeczucia mam tendencyjne.


  11. up9 (autor: anon1984 | data: 14/12/11 | godz.: 10:10)
    IMNHO trzeba zwrócić uwagę że jak kogoś stać na kartę za 2 kola to logiczne że go stać na porządną tablicę prądową i płacenie rachunków za prąd parę stów większych - to jest inny segment niż ten najpopularniejszy.

    Pzdr.


  12. qjanusz (autor: Aamitoza | data: 14/12/11 | godz.: 10:43)
    Tylko, że w przypadku keplera nic nie zapowiada drastycznych zmian względem fermiego - od 2x więcej procesorów strumieniowych i trochę podbite ich zegary przy podobnym TDP.

    A GCN wygląda ciekawiej od fermiego i bliżej im do MIC.

    Poza tym o jaką terminowość chodzi? Bo termin nie był podany, a jedynie termin premiery architektury - tak jak w przypadku fermiego - odbyła się ona w 2009.

    Teraz nvidia ma dopiero pierwsze sample keplera. Pierwsze sample fermiego w rewizji A1 nvidia miała w sierpniu. Pomijając to, że A1 nie trafiają na półki sklepowe, to A2 mieli w listopadzie, a A3 w styczniu - produkcja aby zapełnić jakkolwiek rynek to 3 miesiące przynajmniej.

    Co daje nam 100% 3 miesiące od teraz + pytanie czy cudem trafi pierwsza rewizja, czy trzeba będzie czekać na następne - każda to około 3 miesiące.


  13. @Aamitoza (autor: Qjanusz | data: 14/12/11 | godz.: 11:14)
    "GCN wygląda ciekawiej od fermiego"

    z kolei Fermi wyglądał ciekawiej od VLIW4
    Taka kolej rzeczy.

    na potwierdzenie mojego zdania gonitwy AMD za nVidią:
    "Moving on, it’s interesting that GCN effectively affirms most of NVIDIA’s architectural changes with Fermi. GCN is all about creating a GPU good for graphics and good for computing purposes; Unified addressing, C++ capabilities, ECC, etc were all features NVIDIA introduced with Fermi more than a year ago to bring about their own compute architecture"

    http://www.anandtech.com/...architects-for-compute

    polecam cały art, bo jest dość ciekawy.


  14. @11. (autor: TeXXaS | data: 14/12/11 | godz.: 11:39)
    Jasne. Weź też pod uwagę, że jak wrzucają karty graficzne do klastrów obliczeniowych - prąd też ma znaczenie i z każdym rokiem to znaczenie rośnie.
    Kolejna sprawa kiedyś był taki potworek voodoo banshee - łabędzi śpiew akceleratorów na osobnej karcie. TNT rozwiązało ich problemy - również z poborem mocy :) Boję się, że teraz jest kolej na karty graficzne jako takie. A takie potworki nie wróżą nic dobrego.
    Nie zmienia to faktu, że jak miałbym przewalać dane - w ciemno bym brał takiego cosia :D


  15. O ile (autor: Jarek84 | data: 14/12/11 | godz.: 11:58)
    GK 104 zdaje mi się być dobrym rozwiązaniem na rynek desktop (może się okazać że będzie szło łeb w łeb w grach z HD79xx - w końcu wygląda to na pochodną pełnego Fermii z dodanymi 4 bądź ośmioma SM, chyba że mówimy o pochodnej GF114 z bardziej "growym" rozłożeniem SP w SM) to widać, że problemy z Fermim nie nauczyły NV pchania się w coraz większę kloce w świeżym procesie.

    Reasumując, to jednak patrząc na specyfikację GK to może wreszcie od dłuższego czasu doczekamy się solidnego boosta w nowej serii kart.


  16. JAREK84 (autor: Aamitoza | data: 14/12/11 | godz.: 12:38)
    Ale boost przy przejściu na nowy proces zawsze wynosi 70-90%.

  17. @Amitozqa, nie zawsze (autor: Jarek84 | data: 14/12/11 | godz.: 12:50)
    vide 2900XT vs HD3870 ;)

  18. @17 (autor: Jarek84 | data: 14/12/11 | godz.: 12:50)
    sorry za lterowke w nicku...

  19. jarek (autor: Aamitoza | data: 14/12/11 | godz.: 14:35)
    To był shrink. HD2900 był 70% szybszy od X1800XT (pierwszego układu w starym procesie) Podobnie HD4870 był szybszy 90% od HD3870.

  20. @19. (autor: Jarek84 | data: 14/12/11 | godz.: 14:42)
    wiem, aczkolwiek nie zmienia to faktu że nie było boosta 70-90% w przypadku przejścia na nowy proces ;)

    Poza tym, jak już wspomniałem porównując domniemane arch. GK100 i Thaiti, to wygląda to tak, jakby NV jednak więcej dorzuciła do swojego nowego smoka ;)


  21. Jarek (autor: Aamitoza | data: 14/12/11 | godz.: 15:24)
    No właśnie nie bardzo. Nvidia dorzuca 30% ROP, podwaja ilość procesorów i TMU W zasadzie robią mniej niż AMD przy HD5870, bo tam wszystko podwojono, a wzrost wydajności był około 70%. AMD za to zwiększa Ilośc ROP i TMU o 50% i wrzuca zupełnie nową architekturę procesorów strumieniowych. i tutaj nie można przeliczyc starego VLIW4/5 na nową architekturę, bo to tak jak by porównywać 512procesorów strumieniowych w GTX580 do 1600 procesorów w HD5870. Owszem - czysto teoretyczna różnica w wydajności pojedynczej precyzji jest, ale w grach jakoś nie widać, że radeon ma ponad 2x większa teoretyczną moc obliczeniową.

    Nowa architektura jest obecnie bliższa tej w fermim do tej w HD69xx. Może i teoretyczna moc obliczeniowa będzie tylko 25-30% większa, ale realna zdecydowanie podskoczy.

    Zauważ, że Thaiti ma być złożony z 32CU - czyli będzie miał 128 SIMD.

    Wystarczy popatrzeć na wielkość układu - z 2,6miliarda tranzystorów do około 4,5 miliarda. Zmian będzie więcej niż w keplerze, który wygląda na fermiego z podwojoną ilością SM.


  22. VLIW dedykowany jest gierkom (autor: Qjanusz | data: 14/12/11 | godz.: 15:41)
    GCN z kolei GPGPU.

    Wykorzystanie potencjału GCN w gierkach uzależnione będzie od rzemiosła ludzi piszących stery i od konstrukcji przyszłych silników i softu. Obstawiam początkowo średnie małe rozczarowanie wydajnością HD7900 w sporej części pozycji gier, podczas wybitnej wydajnością w tytułach zoptymalizowanych i rzecz jasna sMarkach.
    nVidia ma to za sobą, chociaż oni mieli bardzo dużo czasu na dopracowanie sterów pod mocno opóźniającą się nową architekturę Fermi.


  23. @21 (autor: Jarek84 | data: 14/12/11 | godz.: 16:10)
    Dokładnie tak jak pisze Janusz - wcale nie zdziwiłbym się, jesli w zastosowaniach czysto rozrywkowych GCN nie będzie się spisywało szczególnie lepiej niż starsze Caymany - fakt będzie więcej TMU, ROP, może teselatorów pewnie wszystkich ulepszonych, ale cała nowa kostrukcja CU w nowych kartach AMD służy tylko i wyłącznie maksymalizacji utylizacji jednostek w GPGPU.

    To że potencjał "pustych" TFlopsów jest ciężki do wykrzesania na HD58xx w obliczeniach nie musisz mi mówić ;) - chociaż mający wolny czas potrafią przy pomocy STREAM/CAL rozruszać leniace się tranzystory;) (np GPU RAR, czy łamacz WPA-PSK od bodajże rosyjskiego emisoftu, czy jakoś tak ich zwał)


  24. @up (autor: pio2 | data: 14/12/11 | godz.: 16:49)
    Ma realne szanse na 50-100% wzrost (srednio 70%) uwzględniając lepsze wykorzystanie jednostek onliczeniowych (4 vs ~3.5), wieksza ich liczbę (2048 vs 1536) i wyzszy zegar (1000 vs 880). W obliczeniach będzie to srednio znacznie więcej.

    Jeżeli rdzenie bedą taktowane tak samo jak cały układ to Tahiti powinien być porównywalny z hipotetycznym montrum nVidii (2048 vs 1024 dual clocked), podobna liczna TMU. Ale dopiero sterowniki i praktyka pokaże


  25. ... (autor: Aamitoza | data: 14/12/11 | godz.: 16:52)
    I tutja się mylicie. VLIW owszem jest dobre do gier, ale jak widać moc obliczeniowa nie pokrywa się w najmniejszym stopniu z realną. Kolejna sprawa - VLIW jest wydajne, tylko jak ma długie instrukcje do wykonania. Kiedy są krótkie, albo są jakieś skoki (lub jakikolwiek warunek), to nagle wydajność SIMD może spaść nawet do 1/64 konkretnego SIMD. W przypadku GCN takich problemów nie będzie.

    Inna sprawa, jak już wyżej pisałem. 512 procesorów w GTX580 jest lepsze od 1536 w caymanie. Śmiem twierdzić nawet że 384 procesory w GTX560 są porównywalne z 1536 procesorami caymana w grach. Nawet wliczając 2x wyższe taktowanie(praktycznie 800 vs 1500 procesorów), to mamy 2x większą sprawność na jeden procesor niż u AMD - i to w grach. Tam gdzie niby VLIW ma być najlepsze.

    Więc nie ma co twierdzić, że nie będą, tym bardziej że z większości przecieków mamy informacje o tym, że jednak thaiti będzie tylko nieznacznie wolniejszy od HD6990.

    Kolejna sprawa - nie wiem czy zauważyliście, ale w tej generacji będzie jużmożna jak najbardziej porównywać wydajnośc pojedynczych procesorów do siebie. Nvidia będzie mieć 1024procesory 2x wyzej taktowane, a AMD 2048. Gdyby wydajnośc nie ruszyła do przodu, to AMD w grach byłą by w szarej... ;)


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.