Na łamach portalu VideoCardZ pojawiły się slajdy zdradzające specyfikację i wydajność desktopowego GeForce GTX 1060. Jego sercem będzie układ graficzny zbudowany w oparciu o mikroarchitekturę Pascal z 1280 procesorami strumieniowymi, pracujący z zegarem do 1,7GHz (w trybie Boost). Prawdopodobnie jest to wytwarzany w 16nm GPU GP106, a więc przycięta wersja układu który trafił do modeli GTX 1070 i GTX 1080. W sprzedaży pojawią się dwie odmiany z 3GB i 6GB pamięci RAM typu GDDR5, obie z interfejsem 192-bit.
Referencyjny GeForce GTX 1060 otrzyma trzy złącza DisplayPort 1.4 i po jednym HDMI 2.0B oraz DL-DVI, a zasilany będzie przez pojedynczą wtyczkę 6-pin. Wydajność opisywanego akceleratora będzie oscylować wokół 4.4TFLOPsów a TDP wyniesie 120W. Premiera modelu GTX 1060 będzie mieć miejsce 7 lipca, a dostępność kart w sklepach jest planowana na 14 lipca.
K O M E N T A R Z E
--- (autor: zolty | data: 1/07/16 | godz.: 19:27) Bardzo nie lubie wykresow, ktore nie zaczynaja sie od zera.
Ciekawe (autor: Zbyszek.J | data: 1/07/16 | godz.: 20:13) ma połowę jednostek z tego co posiada GTX 1080, trochę wolniejsze taktowanie i zapewne 52,5% (7 Gbps) do 60% (8 Gbps) przepustowości pamięci GTX 1080.
A połowa wydajności GTX 1080 to za mało na RX480.
Świetna wydajnosć (autor: scooby14444 | data: 1/07/16 | godz.: 20:28) Karta będzie miała wydajnosć jak 980 OC, więc będzie dobrze. Do tego pobór prądu na poziomie 120W, 6GB pamięci i zapewne świetne OC sprawi, że nawet w cenie 1400-1500 zł karta będzie sprzedawać się jak ciepłe bułeczki.
Zapomnieli dodać (autor: pwil2 | data: 2/07/16 | godz.: 00:22) że tylko w starociach pod DX10... DX11...
c.d. (autor: pwil2 | data: 2/07/16 | godz.: 00:23) nVidia boi się wprowadzić "4GB/8GB" 192-bit jak widać ;-)
@ Scooby (autor: Zbyszek.J | data: 2/07/16 | godz.: 01:22) Nie może mieć wydajności 980 OC. To mniej więcej połowa GTXa 1080. A ten jest 70% szybszy od GTX 980. A połowa ze 170% to 85% GTXa 980.
@6. (autor: Kosiarz | data: 2/07/16 | godz.: 03:51) co prawda to racja ale zapewne wyjda autorskie konstrukcje pod OC z 8pin albo 2x6 i wtedy moze sie okazac ze ten kastrat moze byc naprawde interesujacy. ja tam jestem ciekaw jak to sie wszystko w 14nm rozegra bo jak narazie to i AMD i NV maja spore pole do popisu.
@6. (autor: scooby14444 | data: 2/07/16 | godz.: 09:07) To się nie odwzorowuje liniowo. 1060 ma mieć wydajnosć 5-10% wyższą niż ref. 980tka.
@6. (autor: Kenjiro | data: 2/07/16 | godz.: 09:47) Połowa jednostek nie musi oznaczać połowy wydajności. Wystarczy, że podniosą taktowanie (mniejszy układ, mniej problemów) o np. 20% i już, będzie 60-70% wydajności 1080.
Co jak co, ale nVidia całkiem nieźle pozycjonuje swoje produkty, a jeśli faktycznie dotrzyma słowa z dostępnością na 14.07, to AMD będzie się wyginać i gryźć w tyłek... szkoda, bo kibicowałem AMD, ale niestety, dali ciała...
@9. (autor: Kenjiro | data: 2/07/16 | godz.: 09:50) Właśnie dostrzegłem, że proponują 1.7 w Boost czyli tak samo jak 1080. Wycofuję tedy swoje proroctwa ;).
Zobaczymy jak będzie.
Kosiarz (autor: Markizy | data: 2/07/16 | godz.: 09:55) mogą tylko nie zapominaj że tutaj może być dużo trudniej trafić dobry chip niż w 1070 i 1080 bo przypuszczam że będzie tutaj ten sam chip tylko mocniej pocięty. I dopiero za jakiś czas zastąpią tutaj układy dedykowanymi.
@scooby14444 (autor: g5mark | data: 3/07/16 | godz.: 02:09) Brawo dla tego Pana, proponuje codziennie rano isc po zakupy i GTX1060...jak cieple byleczki, kazdego rana nowa grafa...
@9. (autor: power | data: 3/07/16 | godz.: 11:04) Zegarow w GF 1060 nie podniosa powyzej GF 1070/1080, bo to beda odpady z tych GPU.
Sama mniejsza ilosc jednostek az tak bardzo nie poprawi TDP, a jezeli uklady oprocz uszkodzen blokow maja pozostale bloki o slabej jakosci to trzeba bedzie wiecej pradu dac zeby utrzymac standardowe taktowanie co zwiekszy TDP.
3GB (autor: franiux | data: 3/07/16 | godz.: 11:16) 15% szybciej max referant do referanta 480 vs 1060 i aż o 70$ drożej przy mniejszej ilości vram 3GBvs4GB, 6GBvs8GB. Te 15% to pewnie w DX11, bo w DX12 różnica będzie 0% jeśli nie -10% W zależności od tytułu, Ale fanboye kupią choćby 1600zł kosztowała.
Swoją drogą w 2016r. dawać do karty 3GB ? to jakaś pomyłka.
@13 (autor: Kenjiro | data: 3/07/16 | godz.: 14:32) Skąd pomysł, że to będą pocięte odpady? Gdzieś czytałem, że to jest odrębny i mniejszy układ na podobieństwo 960... czy tak jest naprawdę, tego nie wiem, okaże się po premierze.
@franiux (autor: AbrahaM | data: 3/07/16 | godz.: 16:30) Po pierwsze, mam wątpliwości czy rzeczywiście są tytuły potrzebujące 4GB, więcej niż 2GB na pewno, ale 4GB to nie jestem pewien. Choć biorę pod uwagę, że czegoś nie wiem i/lub jestem w błędzie.
Po drugie, czy wolałbyś, żeby była powtórka z 970, gdzie było 3.5GB pełnosprawne i 0.5GB sporo mniej wydajne, a przez to producenci gier musieli kombinować, by tą cechę 970 jakoś omijać?
16. (autor: franiux | data: 3/07/16 | godz.: 19:24) Najzwyczajniej mogli by zrezygnować z wersji 3GB.
Tomb Raider wciąga ponad 4GB i myślę że z biegiem czasu coraz więcej gier będzie potrzebować tyle, więc głupotą będzie zakup 3 GB wersji, bo w każdej takie grze 480tka będzie lepsza.
@17. (autor: pwil2 | data: 4/07/16 | godz.: 11:40) To będzie wersja dla tych, którzy będą argumentować, że za jedynie 50$ więcej od 480 8GB kupili kartę, która w starociach pod DX11 będzie od niej szybsza.
D O D A J K O M E N T A R Z
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.