Najmocniejsze karty graficzne wzbudzają największe emocje, ale ze względu na wysoką cenę pozostają jedynie w sferze marzeń większości graczy. Dlatego też po oficjalnej prezentacji modelu GeForce GTX 1080 uwaga większości użytkowników skupiła się na słabszym, ale i znacznie tańszym GTX 1070. Kilka godzin temu do sieci trafiła jego specyfikacja techniczna. Sercem słabszego GeForce’a jest GPU GP104 w wersji 200-A1, zbudowany na bazie architektury Pascal z wykorzystaniem 7,2-miliarda tranzystorów. Dzięki zastosowaniu procesu 16nm zmieściły się one na powierzchni 314mm^2.
Na pierwszy rzut oka wykorzystany przez Nvidię układ jak identyczny jak ten zastosowany w modelu GTX 1080. Diabeł tkwi jednak w szczegółach, a konkretnie w ilości aktywnych bloków SM (Streaming Multiprocessors). W GeForce GTX 1070 jest ich aktywnych tylko 15 z 20 jakie pracują w mocarniejszej 1080-tce. W sumie daje to 1920 procesorów strumieniowych, 120 jednostek teksturujących i 48 renderujących. Dla porównania GeForce GTX 1080 ma 2560 jednostek CUDA, 160 TMU i 60ROPów.
Na tym nie koniec różnic pomiędzy obiema kartami. GPU modelu GTX 1070 będzie bowiem pracować z niższą częstotliwością wynoszącą 1600MHz w trybie TURBO, a więc o 133MHz niższą niż w TOPowej karcie Nvidii. Ponadto producent zdecydował się na użycie starszej pamięci typu GDDR5 w miejsce GDDR5X. Ta będzie mieć pojemność 8GB i interfejs 256-bit.
GeForce GTX 1070 w wersji referencyjnej otrzyma trzy złącza DisplayPort 1.4 i po jednym HDMI 2.0B oraz DL-DVI. TDP karty wyniesie 150W, a jej zakup będzie się wiązać z wydatkiem rzędu 379 dolarów
K O M E N T A R Z E
Nagłówki (autor: Dzban | data: 18/05/16 | godz.: 11:19) Proszę o ponowne podawanie daty newsa zamieszczonego na twojepc w nagłówku tegoż newsa. Teraz nie wiadomo kiedy news był zamieszczony.
@up (autor: Wedelek | data: 18/05/16 | godz.: 11:40) No jak to nie wiadomo? Dziś o 11:00.
Ciekawe co będzie potrafił (autor: losarturos | data: 18/05/16 | godz.: 12:29) i ile kosztował? Bo jak na razie to 1080 jest wyceniony na tyle ile kosztuje cały całkiem sprawny komp do grania. ;-) I ciekawe jak do tego 1070 będzie się miau Polaris? ;-)
... (autor: radonix | data: 18/05/16 | godz.: 13:37) Kosmiczne technologie w kosmicznych cenach.
Ciekawe, ile sprzedają nowych kart w Polsce, w ''kraju miodem i mlekiem płynącym''? :-)
PS. Sam działam na oldschoolowej karcie GTX-660 i nic nie wskazuje, aby sytuacja ta miała się wkrótce zmienić ;-)
... (autor: power | data: 18/05/16 | godz.: 13:37) Sadze ze GF 1070 bedzie kosztowal w Polsce okolo 2300zl i bedzie mial wydajnosc zblizona do GF 980Ti.
hmm (autor: GULIwer | data: 18/05/16 | godz.: 15:52) wycieli 1/4 to pewno i 1/4 pamięci będzie pracować na pół gwizdka. Cena pewno poniżej 2000.
@6 zastanawiam się czy będziesz miał rację, czy nie (autor: AbrahaM | data: 18/05/16 | godz.: 16:44) osobiście mam jednak nadzieję, że po awanturze z powolnym 0,5GB w 970ce, nauczyli się czegoś i że 1070 będzie w bardziej rozsądny sposób "cięta"...
... (autor: Zbyszek.J | data: 18/05/16 | godz.: 18:10) 1920 jednostek oznacza wycięty cały jeden z czterech GPC. Dokładnie tak samo jak w GTX 970.
Co innego gdyby było 2048 jednostek - wycięte cztery SM, na przykład po jednym z pięciu w każdym GPC. Lub inaczej z uwzględnieniem defektów spowodowanych nie stuprocentowym uzyskiem. Wówczas nie byłoby problemów z pamięcią.
@Zbyszek (autor: Wedelek | data: 18/05/16 | godz.: 21:03) Jest dokładnie tak jak piszesz. Zobaczymy jak wyjdzie w praniu. Nie chce mi się wierzyć, że Nv nie wyciągnęła wniosków z burzy wokół 970-tki.
@4. (autor: loccothan | data: 19/05/16 | godz.: 13:44) Radonix oj zmieni się: Cena detaliczna 1070 ~2000zł w sklepie a blowera 1070 >2400zł
Tak jest to photoshop ale nie bzdura, tę kartę pokazało już ATI działającą w grze HitMan DX12 w 1440p Max detalach z FXAA w 60FPS średniej przy 130W TDP !
Zobaczymy jak będzie z ceną w PL. jak <1000zł to będzie Hit nad Hity.
Jak to Raja Konduri rzekł (autor: loccothan | data: 19/05/16 | godz.: 13:46) Niechaj wszyscy mają super GPU do FHD i 1440p za małe pieniążki !
Jego słowa: Performance per Watt per Dollar in 14nm Fin-Fet.
@loccothan (autor: Qjanusz | data: 19/05/16 | godz.: 15:04) widzę że dalej lubisz czytać pisane patykiem po wodzie ;-)
Problemem AMD były koszta produkcji (autor: pwil2 | data: 22/05/16 | godz.: 17:52) Fury miał trudne w produkcji pamięci, duży chip i interposer, 280-tki 384-bit szynę pamięci. Trudno było im zjechać z ceny. Jeśli te karty zabłysną ceną i niskim poborem energii, to przy wydajności 290+ masa osób wymieni swoje 28nm i starsze układy.
D O D A J K O M E N T A R Z
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.