Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 1 lipca 2016 
    

Kolejna garść informacji o GeForce GTX 1060


Autor: Wedelek | źródło: VideoCardZ | 19:14
(18)
Na łamach portalu VideoCardZ pojawiły się slajdy zdradzające specyfikację i wydajność desktopowego GeForce GTX 1060. Jego sercem będzie układ graficzny zbudowany w oparciu o mikroarchitekturę Pascal z 1280 procesorami strumieniowymi, pracujący z zegarem do 1,7GHz (w trybie Boost). Prawdopodobnie jest to wytwarzany w 16nm GPU GP106, a więc przycięta wersja układu który trafił do modeli GTX 1070 i GTX 1080. W sprzedaży pojawią się dwie odmiany z 3GB i 6GB pamięci RAM typu GDDR5, obie z interfejsem 192-bit.

Referencyjny GeForce GTX 1060 otrzyma trzy złącza DisplayPort 1.4 i po jednym HDMI 2.0B oraz DL-DVI, a zasilany będzie przez pojedynczą wtyczkę 6-pin. Wydajność opisywanego akceleratora będzie oscylować wokół 4.4TFLOPsów a TDP wyniesie 120W. Premiera modelu GTX 1060 będzie mieć miejsce 7 lipca, a dostępność kart w sklepach jest planowana na 14 lipca.


 
    
K O M E N T A R Z E
    

  1. --- (autor: zolty | data: 1/07/16 | godz.: 19:27)
    Bardzo nie lubie wykresow, ktore nie zaczynaja sie od zera.

  2. Ciekawe (autor: Zbyszek.J | data: 1/07/16 | godz.: 20:13)
    ma połowę jednostek z tego co posiada GTX 1080, trochę wolniejsze taktowanie i zapewne 52,5% (7 Gbps) do 60% (8 Gbps) przepustowości pamięci GTX 1080.

    A połowa wydajności GTX 1080 to za mało na RX480.


  3. Świetna wydajnosć (autor: scooby14444 | data: 1/07/16 | godz.: 20:28)
    Karta będzie miała wydajnosć jak 980 OC, więc będzie dobrze. Do tego pobór prądu na poziomie 120W, 6GB pamięci i zapewne świetne OC sprawi, że nawet w cenie 1400-1500 zł karta będzie sprzedawać się jak ciepłe bułeczki.

  4. Zapomnieli dodać (autor: pwil2 | data: 2/07/16 | godz.: 00:22)
    że tylko w starociach pod DX10... DX11...

  5. c.d. (autor: pwil2 | data: 2/07/16 | godz.: 00:23)
    nVidia boi się wprowadzić "4GB/8GB" 192-bit jak widać ;-)

  6. @ Scooby (autor: Zbyszek.J | data: 2/07/16 | godz.: 01:22)
    Nie może mieć wydajności 980 OC. To mniej więcej połowa GTXa 1080. A ten jest 70% szybszy od GTX 980. A połowa ze 170% to 85% GTXa 980.

  7. @6. (autor: Kosiarz | data: 2/07/16 | godz.: 03:51)
    co prawda to racja ale zapewne wyjda autorskie konstrukcje pod OC z 8pin albo 2x6 i wtedy moze sie okazac ze ten kastrat moze byc naprawde interesujacy. ja tam jestem ciekaw jak to sie wszystko w 14nm rozegra bo jak narazie to i AMD i NV maja spore pole do popisu.

  8. @6. (autor: scooby14444 | data: 2/07/16 | godz.: 09:07)
    To się nie odwzorowuje liniowo. 1060 ma mieć wydajnosć 5-10% wyższą niż ref. 980tka.

  9. @6. (autor: Kenjiro | data: 2/07/16 | godz.: 09:47)
    Połowa jednostek nie musi oznaczać połowy wydajności. Wystarczy, że podniosą taktowanie (mniejszy układ, mniej problemów) o np. 20% i już, będzie 60-70% wydajności 1080.
    Co jak co, ale nVidia całkiem nieźle pozycjonuje swoje produkty, a jeśli faktycznie dotrzyma słowa z dostępnością na 14.07, to AMD będzie się wyginać i gryźć w tyłek... szkoda, bo kibicowałem AMD, ale niestety, dali ciała...


  10. @9. (autor: Kenjiro | data: 2/07/16 | godz.: 09:50)
    Właśnie dostrzegłem, że proponują 1.7 w Boost czyli tak samo jak 1080. Wycofuję tedy swoje proroctwa ;).
    Zobaczymy jak będzie.


  11. Kosiarz (autor: Markizy | data: 2/07/16 | godz.: 09:55)
    mogą tylko nie zapominaj że tutaj może być dużo trudniej trafić dobry chip niż w 1070 i 1080 bo przypuszczam że będzie tutaj ten sam chip tylko mocniej pocięty. I dopiero za jakiś czas zastąpią tutaj układy dedykowanymi.

  12. @scooby14444 (autor: g5mark | data: 3/07/16 | godz.: 02:09)
    Brawo dla tego Pana, proponuje codziennie rano isc po zakupy i GTX1060...jak cieple byleczki, kazdego rana nowa grafa...

  13. @9. (autor: power | data: 3/07/16 | godz.: 11:04)
    Zegarow w GF 1060 nie podniosa powyzej GF 1070/1080, bo to beda odpady z tych GPU.
    Sama mniejsza ilosc jednostek az tak bardzo nie poprawi TDP, a jezeli uklady oprocz uszkodzen blokow maja pozostale bloki o slabej jakosci to trzeba bedzie wiecej pradu dac zeby utrzymac standardowe taktowanie co zwiekszy TDP.


  14. 3GB (autor: franiux | data: 3/07/16 | godz.: 11:16)
    15% szybciej max referant do referanta 480 vs 1060 i aż o 70$ drożej przy mniejszej ilości vram 3GBvs4GB, 6GBvs8GB. Te 15% to pewnie w DX11, bo w DX12 różnica będzie 0% jeśli nie -10% W zależności od tytułu, Ale fanboye kupią choćby 1600zł kosztowała.
    Swoją drogą w 2016r. dawać do karty 3GB ? to jakaś pomyłka.


  15. @13 (autor: Kenjiro | data: 3/07/16 | godz.: 14:32)
    Skąd pomysł, że to będą pocięte odpady? Gdzieś czytałem, że to jest odrębny i mniejszy układ na podobieństwo 960... czy tak jest naprawdę, tego nie wiem, okaże się po premierze.

  16. @franiux (autor: AbrahaM | data: 3/07/16 | godz.: 16:30)
    Po pierwsze, mam wątpliwości czy rzeczywiście są tytuły potrzebujące 4GB, więcej niż 2GB na pewno, ale 4GB to nie jestem pewien. Choć biorę pod uwagę, że czegoś nie wiem i/lub jestem w błędzie.

    Po drugie, czy wolałbyś, żeby była powtórka z 970, gdzie było 3.5GB pełnosprawne i 0.5GB sporo mniej wydajne, a przez to producenci gier musieli kombinować, by tą cechę 970 jakoś omijać?


  17. 16. (autor: franiux | data: 3/07/16 | godz.: 19:24)
    Najzwyczajniej mogli by zrezygnować z wersji 3GB.
    Tomb Raider wciąga ponad 4GB i myślę że z biegiem czasu coraz więcej gier będzie potrzebować tyle, więc głupotą będzie zakup 3 GB wersji, bo w każdej takie grze 480tka będzie lepsza.


  18. @17. (autor: pwil2 | data: 4/07/16 | godz.: 11:40)
    To będzie wersja dla tych, którzy będą argumentować, że za jedynie 50$ więcej od 480 8GB kupili kartę, która w starociach pod DX11 będzie od niej szybsza.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.