TwojePC.pl © 2001 - 2024
|
|
Poniedziałek 6 lutego 2012 |
|
|
|
GPU Kepler znacznie wydajniejszy i o wiele większy od Tahiti Autor: Wedelek | źródło: LenzFire | 12:41 |
(48) | AMD prezentując rdzeń Tahiti, który stał się podstawą dla Radeonów HD 7970 i HD 7950 postawił wysoko poprzeczkę dla konkurenta ze stajni Nvidia, który jeszcze swoich kart nie zaprezentował. Oficjalnie Nvidia jest rozczarowana wydajnością akceleratorów z serii HD 7000, a produkowany w 28nm procesie produkcji GPU Kepler ma być znacznie wydajniejszy od konkurenta. Z niedawno upublicznionych informacji wynika, że Nvidia prawdopodobnie faktycznie przejmie pałeczkę lidera, jednak zwycięstwo zostanie osiągnięte metodą „siłową”.
W pierwszej kolejności na rynku zadebiutują akceleratory o oznaczeniach GTX 660, GTX 670 oraz GTX 680, a ich oficjalna premiera miałaby nastąpić w kwietniu. W pierwszym przypadku będziemy mieć do czynienia z kartą o wydajności GTX’a 580, która zostanie wyceniona na 319 dolarów. GTX 670 kosztujący 499 dolarów ma być o około 20% wydajniejszy od Radeona HD 7970, a TOP’owy, jednoprocesorowy akcelerator Nvidia, kosztujący aż 649 dolarów ma być wydajniejszy o 45% od najmocniejszego Radeona.
Niestety nic za darmo, a układ GK110 (Kepler), który trafi do najmocniejszych kart Nvidia będzie zajmować powierzchnię aż 550mm^2, co oznacza, że będzie większy od GF110 (Fermi) o 30mm^2. Dla porównania rdzeń Tahiti, produkowany w tym samym, 28nm procesie produkcji charakteryzuje się powierzchnią 365mm^2.
W maju bieżącego roku (premiera w maju) do sklepów trafią również modele GTX 650 i GTX 640, kosztujące odpowiednio 179 i 139 dolarów, a w drugim i trzecim kwartale zadebiutują akceleratory oznaczone jako GTX660Ti (o 10% wydajniejszy od HD 7950, cena 399 dolarów), GTX650Ti (249 dolarów) i w końcu dwuprocesorowy GTX690, kosztujący bagatela 999 dolarów.
Wszystkie nowe karty Nvidia będą wyposażone w interfejs PCI-Express 3.0, a szczegółową specyfikację poszczególnych modeli znajdziecie w tabelkach poniżej.
|
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- tiaaa (autor: zigg | data: 6/02/12 | godz.: 12:44)
sraly muchy bedzie wiosna
- AMD zjedzie z ceny (autor: Kosiarz | data: 6/02/12 | godz.: 12:47)
i wypusci 7990 ktory pewnie bedzie sklejka czegos posredniego pozmiedzy 7950 i 7970 i nawet jak 690 bedzie wydajniejszy od 7990 to chwile pozniej wskoczy seria 8k. No nic, w kazdym razie zapowiada sie w miare wyrownana walka a to cieszy portfel rzeszy.
- AMD ma pole do manewru (autor: Teriusz | data: 6/02/12 | godz.: 13:04)
bo ich układ jest dużo mniejszy, przez co mają więcej tych układów z wafla. Także Tahiti będzie chłodniejszy. Widać, że Nvidia niczego się nie nauczyła po wielkim i gorącym Fermi.
- patykiem po piasku pisane... (autor: Qjanusz | data: 6/02/12 | godz.: 13:04)
dodatkowo informacje te nie pochodzą od nVidii.
Do czasu jak nVidia wyprowadzi swoich zawodników, AMD może:
- wypuścić HD8K
- obniżyć ceny HD7K
- skorzystać z ogromnego zapasu OC istniejących HD7K
Pewne jest natomiast to, że klocki (550mm2 !!!) nVidii będą:
- na pewno bardziej prądożerne niż karty AMD porównywalne wydajnościowo,
- z całą pewnością droższe,
- raczej wydajniejsze niż odpowiedniki AMD (tylko czy będą to odpowiedniki cenowe?)
Zdjęcie rumianego RULEZ! :-)
- @2. (autor: Mariosti | data: 6/02/12 | godz.: 13:10)
Raczej nie będzie problemu aby 7990 miało dwa pełne gpu 7970 bez obniżonego taktowania. Mało tego, amd będzie mogło wypuścić coś w rodzaju 7980 będącego Tahiti XT ale domyślnie taktowanego np 1100MHz (taka analogia do hd4890).
Dla mnie w pogłoskach z tematu interesująco wyglądają 660 i 650Ti, bo niby high end obecny nvidia sprowadza do średniej/niskiej półki, ale jakoś ceny nie pasują do tych serii... Pewnie dotychczasowe gpu wykotletują na 610, 620, 630 i masę modeli pomiędzy ;]
- Pan spocony san wychylil sie na zakrecie... (autor: gantrithor | data: 6/02/12 | godz.: 13:18)
zeby sie nie okazalo ze nvidia znowu bedzie ciela uklady jak to mailo miejsce podczas prezetacji "patrz legendarne zdjecie" i kiedy mieli wypuscic karte gtx480 okazalo sie ze czesc ukladu zostala odkrojona zeby uklad sie nie stopil w temperaturach pokojowych...
- GTX680 (autor: Vitorek | data: 6/02/12 | godz.: 13:20)
Pięknie... przeogromny GPU i nowy proces technologiczny:) Szykuje się powtórka z rozrywki:)
- @news (autor: lcf | data: 6/02/12 | godz.: 13:56)
Trochę jakby TDP w tych tabelkach zabrakło ;].
- To był by niezły hit... (autor: szpak3 | data: 6/02/12 | godz.: 13:57)
...tej zimy
- @up (autor: Qjanusz | data: 6/02/12 | godz.: 14:00)
raczej kolejnej...
- Nigdy wiecej amd (autor: Milan13 | data: 6/02/12 | godz.: 14:31)
Jak zwykle większość osób z miłą chęcią lubi wbijać szpilkę nvidi.Dla mnie osobiście liczą się karty nvidi.Miałem swego czasu dwa radki i nigdy wiecej tego badziewia nie kupie.
- UP@11 (autor: pitersan007 | data: 6/02/12 | godz.: 14:39)
A ja miałem już kilka kart AMD i Nvidi w desktopie czy łapkach i szczerze nie widzę różnicy nigdy nie miałem problemów ani z jednym ani z drugim gdy mam potrzebę coś zmienić przeglądam testy i wybieram akurat lepiej dopracowany produkt w danym momencie z tego co pamiętam co jakiś czas pałeczka pierwszeństwa się zmienia wiec śmieszą mnie tematy że gdzieś są jakieś problemy :D no chyba ze pod Linuksem ze sterami :D
- @Milan13 (autor: Marek1981 | data: 6/02/12 | godz.: 14:45)
Jakie radki??
Ja od 9550 nie widzę innego producenta. problem ze sterami miąłem tylko raz.
- najpozniej 2 miesiace po premierze (autor: Mario2k | data: 6/02/12 | godz.: 14:57)
Nvidi AMD zaoferuje nam updejt w postaci 7970 z zegarami 1100MHz na gpu i pamieciami xdr2 co zaowocuje 40 % wzrostem predkosci w stosunku do obecnych 7970
- @up (autor: Simon89 | data: 6/02/12 | godz.: 15:02)
Potencjał do tego jest, co widać już teraz. Poprawić tylko nieco architekturę aby podrasowane karty nie pobierały 1KW, dać wspomniane pamięci i jazda.
- @pitersan007 (autor: MateushGurdi | data: 6/02/12 | godz.: 15:19)
Mam podobnie, dlatego pewnie zazwyczaj mam karty AMD, 4850 w dniu premiery zmiazdzyl cenowo wszystko, ale jesli chodzi o stery to mam tez GTX-a 460 i tylko raz mialem problem ze sterami. Na linuksie z zadna z kart :)
- @Milan13 (autor: Qjanusz | data: 6/02/12 | godz.: 15:35)
"Dla mnie osobiście liczą się karty nvidi" - dla mnie osobiście liczą się karty dające za określoną ceną max. wydajności. Najczęściej są to karty AMD, przy czym nie jest to regułą.
"Jak zwykle większość osób z miłą chęcią lubi wbijać szpilkę"
-> "Miałem swego czasu dwa radki i nigdy wiecej tego badziewia nie kupie."
co racja to racja :-)
- Milan13 (autor: Markizy | data: 6/02/12 | godz.: 16:03)
współczujemy ? lepiej się poczułeś.
Zdobywanie wydajności poprzez bardziej gorący i większy chip nie jest dobrą drogą.
- @up (autor: zigg | data: 6/02/12 | godz.: 16:33)
daj mu spokoj, ma 13 lat
- a nowy xboks (autor: RusH | data: 6/02/12 | godz.: 16:43)
ma ponoc miec HD6670 :)
- RusH (autor: Markizy | data: 6/02/12 | godz.: 17:41)
bardziej bym obstawiał coś pokroju 6850 :)
skoro następca wii ma mięć coś pokroju 4850 to chyba MS nie wybrał by gorszego produktu ;)
- takie male porowanie (autor: zigg | data: 6/02/12 | godz.: 17:55)
550m2 vs 356mm2
uklad nvidii jest 50% !!! wiekszy
- Strach pomyśleć (autor: draconewt | data: 6/02/12 | godz.: 18:29)
ile mm2 miał by ten układ w planowanym przez Nvidię 32nm procesie.
- NVidia (autor: Conan Barbarian | data: 6/02/12 | godz.: 18:31)
"najmocniejszych kart Nvidia będzie zajmować powierzchnię aż 550mm^2"
WNIOSKI: produkcja nieopłacalna, produkt strasznie prądożerny, karty drogie, chłodzenie wściekle wyjące, rachunki za elektryczność kosmiczne
- @24. (autor: Mariosti | data: 6/02/12 | godz.: 18:48)
Ale krwią i potem zdobędą z powrotem flagę najwydajniejszego gpu na rynku ;] Tylko czy tędy droga? Za wszelką cenę?
- @add. (autor: Mariosti | data: 6/02/12 | godz.: 18:49)
Ta koncepcja przypomina dokładnie ideologie z ZSRR ;] Ale nie ma co się czepiać... przecież to nowoczesna racjonalnie zarządzana firma...
- @Mariosti (autor: Qjanusz | data: 6/02/12 | godz.: 19:18)
"...krwią i potem..." - potem to HD8K lekką ręką bez pocenia zgarnie to, co nVidia wyszarpała wściekle wirującymi licznikami miliardów graczy na całym świecie...
- a potem (autor: arco2006 | data: 6/02/12 | godz.: 21:06)
się dziwią, że trzeba elekt. jądrowe budować, bo wiatrowe i wodne nie wyrabiają.
- Nvidia (autor: Milan13 | data: 6/02/12 | godz.: 21:10)
Kiedyś miałem radka hd 4850 i potem 5870 .W pierwszy cały czas miałem problemy ze sterownikami i sama kartą a drugim egzemplarzu microprzycięcia .Notabene kolega który tez miał radka 5870 narzekał na mikroprzycięcia .Nie wiem moze to faktycznie jakiś dziwny zbieg okoliczności .Ja wróciłem do 8800gtx(i właśnie czekam na keplery za chiny nie kupię juz radka).Kolega jedzie na 560 ti i jest bardzo zadowolony.
- załośni są (autor: djXone | data: 6/02/12 | godz.: 21:14)
tam chyba idioci pracują, na siłę starają się wyprzedzić konkurencję co cały czas owocuje kaloryferami!
a jaki będzie uzysk z wafla? Sami się pogrążają, nie dość, zrobili by mniejszy układ, trochę szybszy, też będą ludzie kupować, nigdy nie zabraknie miłośników nVidi, no i ten PhysX...
Jeszcze trochę i wpadną w wielki dół i po co? Mało kto kupuje najmocniejsze karty, niech zaatakują ofertą cenową, a nie wielkością układu, już nie wspomnie o wydajności/Wat
- tia (autor: zigg | data: 6/02/12 | godz.: 21:14)
mikroprzyciecia w pojedynczych ukladach :)
- @milan13 (autor: popierdulka1234 | data: 6/02/12 | godz.: 22:46)
dziecko uderzyłeś argumentem jak łysy grzywą o kant kuli.
1. najpierw trzeba mieć mikroprzycięcia na jednym układzie a taką herezję zgłaszasz tylko ty i kolega który się tu nie wypowiada.
2. to że masz coś nie znaczy że umiesz to obsługiwać.
3. ludziom o twojej inteligencji powinni dać pegasusa, chociaż ty na siłę i tak wepchnąłbyś "carta" złączem do góry.
4. 8800gtx karta zacna, tylko że nie ta epoka w kompach ... do konsol może podskakiwać jeszcze
5. 560ti karta niezła ale nie za te pieniądze
- Czekałem z niecierpliwością na tabelkę (autor: Marcel | data: 6/02/12 | godz.: 22:55)
Jak podali kiedyś max 1024CUDA to spodziewałem się kloca większego od GF110 i to się potwierdziło. Więc uzysk będzie zapewne do d..., taktowania też raczej nie zachwycą bo przy 850MHz trzeba będzie własnej elektrowni i będzie cieplutko, oj będzie...
Do tego cena (dla HD7970 rywalem będzie pewnie 660Ti czyli też klocek 550mm^2) powinna być konkurencyjna więc jak nV chce na tych kartach zarobić?
- Popierdulka (autor: Milan13 | data: 6/02/12 | godz.: 23:29)
Nie wiem kto dla kogo jest dzieckiem.Jeśli ci nie dorównuje inteligencją to jest mi bardzo przykro,ale na pewno nie jestem arogancki i niegrzeczny .Człowiek z twoją inteligencją powinien wiedzieć co to kultura osobista .Jeśli chodzi kwestie sprzętu komputerowego to zawsze komputery składam sobie sam i troche w tym już siedzę.mikroprzyciecia w pojedynczych ukladach :)
tak jak najbardziej .
- mikroprzycięcia na jednym GPU :D (autor: Qjanusz | data: 6/02/12 | godz.: 23:37)
no to kolego dałeś dupy w szukaniu haków na niedobre AMD.
Dziwnym zbiegiem okoliczności jest to, że kolega miał tę same nierealne objawy co Ty. Jeszcze dziwniejszym jest to, że obaj znaleźliście te same rozwiązanie :-)
"Kolega" psia mać.... Co na to Twoja "dziewczyna" :D
- @Milan13 (autor: Wedelek | data: 7/02/12 | godz.: 00:29)
Mikroprzycięcia występują TYLKO w konfiguracjach multi GPU i wynikają z nierównomiernego rozłożenia pracy na oba rdzenie graficzne. Czasami zdarza się tak, że jedna karta wykona swoją pracę szybciej niż druga i musi czekać na brata, przez co na chwilę spada drastycznie ilość wyświetlanych klatek. A zjawisko to zwie się mikroprzycięciami, bo nie występuje cały czas, a jedynie od czasu do czasu. Z tego też powodu w benchmarkach, które podają średnią ilość klatek zjawisko to jest niewidoczne, ale w prawdizwym użytkowaniu już tak.
W przypadku kart jednoprocesorowych można natomiast mówić o spadku wydajnośći. Z tym że nie zawsze zależy ona od samej karty. Co więcej nie żadko to inny element negatywnie wpływać na działanie niektórych gier. Przykładowo gdy mamy zbyt słaby procesor, a na ekranie pojawi się zbyt dużo efektów fizycznych i bohaterów CPU może nie wyrabiać, a karta czekając na obliczenia jakie musi wykonać procesor zwyczajnie się nudzi i generuje mniejszą liczbę klatek na sekundę. Tyle, że to nie jej wina.
W tym momencie nawet nie będę wspominać o tym, że stan systemu, sterowniki i inne pierduły również wpływają na końcową wydajność. W końcu mamy również gry preferujące jednego bądź drugiego producenta.
- Wedelek (autor: Milan13 | data: 7/02/12 | godz.: 00:56)
W tym momencie nawet nie będę wspominać o tym, że stan systemu, sterowniki i inne pierduły również wpływają na końcową wydajność. W końcu mamy również gry preferujące jednego bądź drugiego producenta.Dokładnie.Karty fixowały i tyle może stery może problemy z dana grą .Rozwiazanie bylo oczywiscie zakup kart nvidi .Jakoś na tych kartach nigdy niema problemów
- @Milan13 (autor: Subvoice | data: 7/02/12 | godz.: 06:44)
Jeżeli jako miłośnik nVidii, nagle zaistalowałeś produkt konkurencji to sterowniki mogły się poczuć nieco urażone i nie odinstalować się poprawnie. Mogło to skutkować złośliwym zaniżaniem wydajności nowych kart. Ostatnio zmieniłem gtxa 260 na 6850 (mało gram a karta AMD siorbie zdecydowanie mniej prądu, zwłaszcza podczas obsługi 2 monitorów i telewizora). Dopiero po skrupulatnym wyczyszczeniu systemu z wszelkich śladów sterowników zielonych karta zaczęła działać jak powinna. Warto przypomnieć także, że to nie AMD od początku miało poważne problemy ze sterownikami do systemów vistopodobnych i do dziś stery nV o wiele bardziej obciążają procesor. Przy czterech rdzeniach CPU nie ma to może większego znaczenia, ale przy dwóch framerate potrafi polecieć.
- A w koncu prawdziwa konkurencja w mobilnych bedzie (autor: josefek | data: 7/02/12 | godz.: 06:50)
nie ten wojne wygrywa, ten ktory najciezszy czolg ma...
- nie wiem jak wy (autor: zigg | data: 7/02/12 | godz.: 07:36)
ale ja wlasnie problemy ze sterami mialem na kartach nvidii
albo w laptopie w ogole brak sterownikow 64 bitowych do ukladu nvidia 6150 :)))
musialem 32 bitowy system instalowac, parodia
- ....... (autor: Marek1981 | data: 7/02/12 | godz.: 08:13)
Moje przypuszczenie co do Milan13 się chyba potwierdza.
To kolejne wcielenie norgiego...
a) problem nierealny
b) jego kolega ma to samo
c) zmiana na nv pomaga
d) z nv nie ma problemów ze sterami
Kiedyś ok 90% wszystkich moich napraw PC dotyczyło błędu działania karty NV (od sterowników, wiatraka do zrypanej karty). Z radeonami nie miałem nigdy styczności ( może dlatego że ich posiadacze byli mądrzejsi w obsłudze PC)
Teraz się zdarzają prośby o naprawę PC z radeonem na pokładzie wynikającej głównie z !!! zakurzonego komputera!!!
Kiedyś miałem polemikę z obecnym teściem o sterownikach do N, które bardzo zachwalał. Ne dał sobie przepowiedzieć, że co 4-5 ich wersja nie powodująca jakiś problemów z wydajnością to nie jest normalne
- Tak sobie właśnie policzyłem... (autor: Marcel | data: 7/02/12 | godz.: 11:06)
HD7970 ma 2048SP i 365mm^2. Jak by dodać 50% powierzchni rdzenia to mamy ~548mm^2 i w uproszczeniu dodatkowe 1024SP czyli +50% wydajności (no może mniej - wiadomo skalowanie). W takim układzie wynik najlepszego Keplera nie zachwyca, tylko +45% do HD7970... To co pan prezesik chrzanił że spodziewali się więcej po GNC? Przecież na mm^2 maja podobną wydajność a na Wat to się okaże (nV może być ciężko bo HD&970 łyka max 250W)
- Nvidia (autor: Milan13 | data: 7/02/12 | godz.: 11:31)
Nie jestem jakimś fanbojem nvidi.Seria Fermi to była totalna klapa ,ale była jedna perełka geforce 460.Jeśli chodzi o keplera to poczekajmy na oficjalną premiere zobaczymy co będzie.Radki z seri 7000 jak dla mnie rozczarowały.Oczywiscie tdp znacznie mniejsze ale wydajność i architektura ...szału niema
- nie narzekajmy (autor: Pider | data: 7/02/12 | godz.: 12:23)
wkoncu dobry zasilacz 1000w+, 2karty w sli i nie potrzebne ogrzewanie w domu :)
- @Pider (autor: Qjanusz | data: 7/02/12 | godz.: 21:59)
no zgoda, ale patrzmy deko przyszłościowo. Już na wiosnę bez klimy w pomieszczeniu ani rusz...
- Qjanusz (autor: Pider | data: 8/02/12 | godz.: 11:40)
Kurcze, no masz rację. W takim razie pozostaje tylko karta od AMD.
- @46. (autor: Mariosti | data: 8/02/12 | godz.: 18:53)
Ewentualnie przebić małą dziurę w ścianie na dwór i nakierować na nią wylot powietrza z pc'ta, a w zimie przestawić sobie na wlot ;]
- Nie możliwe...! (autor: KPRT | data: 12/02/12 | godz.: 09:23)
Pomidor jeszcze nic nie napisał?! Nie możliwe!
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|