Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Poniedziałek 12 marca 2012 
    

GK104 jeszcze mniejszy niż sądzono, ma powierzchnię około 300mm^2


Autor: Wedelek | źródło: Expreview | 14:20
(53)
Jakiś czas temu na łamach TPC można było zobaczyć "rozebranego" GeForce'a GTX 680 z układem GK104, produkowanym w 28nm procesie produkcji. Na ich podstawie dokonano pomiarów, z których wynikało, że środkowy Kepler zajmuje powierzchnię 320mm^2, a więc mniejszą niż konkurencyjny GPU Tahiti od AMD - 365mm^2. Tymczasem po bliższych oględzinach osoby, które miały do czynienia z nowymi akceleratorami Nvidii donoszą, że w rzeczywistości układ GK104 jest jeszcze mniejszy i zajmuje zaledwie 300 mm^2 (±5 mm^2), a więc mniej więcej tyle co archaiczny już G92.

Oczywiście oba te GPU dzieli przepaść, tak pod względem wydajności jak i zaawansowania zastosowanej technologii produkcji - 55nm kontra 28nm.

Stosunkowo mały GPU powinien być więc tańszy w produkcji niż konkurencyjne GPU od AMD, chociaż na jego drodze do sukcesu może stanąć TSMC, które rzekomo w połowie lutego wstrzymało produkcję 28nm układów scalonych. Powodem takiego stanu rzeczy miała być konieczność wprowadzenie drobnych korekt w technologii produkcji, a fabryki TSMC miałyby ruszyć ponownie pod koniec marca. Premiera Keplerów i zbudowanych na ich bazie kart graficznych odbędzie się natomiast 23 marca.



 
    
K O M E N T A R Z E
    

  1. Kepler - niedościgniony wzór (autor: pomidor | data: 12/03/12 | godz.: 14:37)
    dla AMD. Mniejszy, chłodniejszy i szybszy od najnowszej porażki GCN.

  2. #Up (autor: Alt-Computer | data: 12/03/12 | godz.: 14:42)
    poproszę link do wiarygodnych testów zamiast niczym nie popartych bredni.

  3. @1. (autor: mlodybe | data: 12/03/12 | godz.: 14:43)
    od czego chłodniejszy chyba od reaktora w czarnobylu w czasie awarii

    wtedy to sie zgodzw


  4. @ pomidor (autor: guziel | data: 12/03/12 | godz.: 14:53)
    jak może być wzorem coś co jeszcze nie wyszło !!!!!!!!!!!!!!!!!!!

  5. pożyjemy zobaczymy... (autor: Qjanusz | data: 12/03/12 | godz.: 14:55)
    na razie to działa marketing, który jak widać stał się już faktem dla mniej wymagającego od siebie konsumenta
    :-)


  6. ad4 (autor: piobzo | data: 12/03/12 | godz.: 15:10)
    :)jak to jak..
    mamy wzór zdjęcia, wzór reklamy, wzór wykresów, wzór przecieków no i wzór warzywa


  7. @6. (autor: mlodybe | data: 12/03/12 | godz.: 15:13)
    mamy jeszcze wrór na delte i na równanie kwadratowe:)

  8. Tylko rozmiar sie nie zgadza (autor: pio2 | data: 12/03/12 | godz.: 15:18)
    Za Wikipedią: G92 w 65nm miał ok. 324 mm2 a w 55 nm - 260 mm2

  9. hehhhhh (autor: Shamoth | data: 12/03/12 | godz.: 15:25)
    wiecie co, jestem w stanie wysupłać te kilka złociszy i zrobić zrzutę na 12 najnowszych kart nV. Złożyć 3 zestawy quadSLI i wstawić w najgorętsze dni do jednego pomieszczenia razem z trolami, zapętlić furmarka, wyrzucić klawe i myszkę, zostawić chusteczki, zamknąć drzwi, wyrzucić klucz i niech się tam "odwadniają"...

  10. @8. (autor: mlodybe | data: 12/03/12 | godz.: 15:28)
    racja

    G92b tez występował w dwóch wersjach 330/230mm*


  11. ad 9 (autor: sew123 | data: 12/03/12 | godz.: 15:39)
    po paru pętlach by sie to w pizdu zawiesilo i tyle:)

  12. @12 (autor: mlodybe | data: 12/03/12 | godz.: 15:53)
    albo przyszedł by pan z elektrowni i powiedział że ci odcinają bo nie stać pana bedzie na zapłate tego rachunku przez najbliższe 3lata

  13. . (autor: x123x | data: 12/03/12 | godz.: 15:54)
    .

  14. to znaczy że będzie wolniejszy (autor: hideox | data: 12/03/12 | godz.: 16:08)
    cudów nie ma, mniejszy chip będzie miał mniejszą wydajność, chyba że jednak będzie większy a plotki to ściema :p

  15. Nvidia (autor: Milan13 | data: 12/03/12 | godz.: 16:09)
    Napalili się na nowe radki a teraz gul im skacze i po łbach sie drapią ...

  16. wiesz to nie chodzi o firme nvidia (autor: sew123 | data: 12/03/12 | godz.: 16:09)
    bo akurat w swoim komputerze mialem karty i nv i ati i jakos szczegolnym fanem jednej z firm nie jestem - tylko o DEBILI pokroju pomidora .

  17. nam wszystkim zylka peka (autor: samsung | data: 12/03/12 | godz.: 16:32)
    a pomidor sie cieszy.
    przeciez jemu o to chodzi wlasnie :)


  18. dominator? (autor: Krax | data: 12/03/12 | godz.: 16:40)
    nie sadze, ale trzeba poczekac az w sklepie sie pokaza to bedzie mozna powiedziec czy cena nie zabije klientow

  19. Pięknie, brawo (autor: Rakieta1 | data: 12/03/12 | godz.: 16:44)
    Widać że po premierze tych kart czeka nas rewolucja wydajnościowa u nvidii i cenowa u konkurencji, która w bardzo wysokich cenach wypuściła karty w połoćzeniu ze zmianą na niekorzyść stosunku cena/wydajność, nawet tle własnych starszych kart. Nvidia moim zdaniem w końcu wyjdzie na taką pozycje w rynku GPU jaką ma obecnie Intel na rynku CPU.

  20. Co się stało z tym portalem? (autor: Dather | data: 12/03/12 | godz.: 16:45)
    pomidor się cieszy niepotwierdzonymi przeciekami i bredzi o "niedoścignionym wzorze" a fanboje AMD to ładnie łyknęli i nie potrafią strawić ^^

    Liczę że cześć info z tego newsa będzie prawdą bo przynajmniej nv nawiąże walkę z radkami i ceny chociaż spadną.
    Nie chce nawet myśleć że nv jest w czarnej doopie a amd szybuje nadal z cenami swoich kart.
    Potrzebna jest konkurencja, bo to będzie korzystne dla nas wszystkich a wy nadal się kłócicie o coś co dla każdego z nas będzie dobre.
    I nie obchodzi mnie czy "krulem" GPU na rynku będzie nv czy amd, ważne jest to żeby w końcu ceny się ruszyły w dół, bo chce kupić wydajną kartę za rozsądną cenę!


  21. @pomidor (autor: Rakieta1 | data: 12/03/12 | godz.: 16:56)
    Pomidor, Ty im nie wytłumaczysz że AMD od czasu odejścia Dirka Meyera raz za razem odnośi totalne niepowodzenia. Dirk Meyer odszedł po premierze Sandy Bridge, kiedy stało się jasne że Bulldozer na długie lata pogrąży AMD w biede. Gdzie tu sukcesy? Llano - niemal zerowy postęp względem niemłodego już Athlona II. Bulldozer - brak słów. Seria kart graficznych 7xxx GCN - bardzo wysoka cena w stosunku do wydajności. Jednym słowem zero sukcesów. Przyczyna jedna - chęć ucieczki z tonącego okrętu - każdy przed bankructwem chce zarobić na swoje wille itd. Praprzyczyną tego bankructwa był oczywiście zakup ATI - na skutek przepłacenia musieli sprzedawać fabryki, dział CPU poszedł na psy - frima straciła sporo czasu, który konkurencja bezlitośnie wykorzystała.

  22. @Rakieta1 (autor: pomidor | data: 12/03/12 | godz.: 16:59)
    Nvidia już jest blisko pozycji podobnej do Intela. Chodzi mi o karty graficzne, bo szroty APU mogą zapewnić co najwyżej slideshow.
    Slideshow z 2 fps, to i tak za szybko dla opóźnionych w rozwoju osobników typu mlodybe, więc im to wystarcza i nic więcej nie trzeba.


  23. @Rakieta1 (autor: pomidor | data: 12/03/12 | godz.: 17:12)
    Myślę że cała historia AMD to żenada. Ta firemka zawsze miała problemy z dobrymi produktami i zyskami. Jedyny ich dobry okres to właśnie K7 i K8 stworzony przez inżynierów z DEC i NextGen. Ale ci inżynierowie szybko zdali sobie sprawę w jakim bagnie przyszło im pracować, więc szybko opuścili firemkę, a rozwojem zajęli się firmowi nieudacznicy i rezultatem jest Bullshit.
    Odpływ cokolwiek potrafiących ludzi którzy przyszli z zewnątrz trwa do dzisiaj. Jedynie ekipa ATI jeszcze istnieje, ale tylko dlatego że zostali w swojej kwaterze w Kanadzie.


  24. . (autor: zigg | data: 12/03/12 | godz.: 17:26)
    .

  25. @24 zigg (autor: biuro74 | data: 12/03/12 | godz.: 17:33)
    a ty polam sobie paluchy, bo czytac takie niekulturalne teksty to czlowieka az wzdraga.

  26. @25 (autor: lamik91 | data: 12/03/12 | godz.: 17:48)
    Bo aż człowieka krewa zalewa jak się czyta takie brednie... no a oczywiście redakcja czyli banda nieudaczników nie potrafi usunąć kilku kont :)

  27. @zigg (autor: pomidor | data: 12/03/12 | godz.: 17:54)
    Rozumiem Cię, i nie mam pretensji o poziom wypowiedzi. Po prostu prezentujesz poziom jakiego sam doświadczasz od innych, i te klimaty są Ci znane.

  28. ... (autor: trepcia | data: 12/03/12 | godz.: 18:07)
    Hej, co to jest? Był morgi, nie ma morgiego ale za to teraz mamy pomidora... No jasny uj ciasny. Nawet nie chce się komentarzy czytać.

  29. ... w protokole tcpip brakuje naprawde jednej funkcjonalnosci... (autor: Okota | data: 12/03/12 | godz.: 18:20)
    mozliwosci obicia mordy przez komende :
    mordobicie.exe -t


  30. @Okota (autor: Rakieta1 | data: 12/03/12 | godz.: 18:38)
    Ale mi to śmieszne ha ha ha

    Moim zdaniem wulgarnie odnoszący się do pomidora czy do mnie tak na prawdę nie potrafią merytorycznie dyskutować, bo pewnie kupili jakiś wynalazek typu llano, który ani do gier ani do programów pro a do internetu i filmów za drogi. Albo kupili jakiegoś 95W bulldozera i nie wiedzą co z nim zrobić. O ile modele 125W olbrzymim energetycznym kosztem CZASEM w wielowątkowych programach zbliżają się do ponad trzyletnich Core i7 Nehalm, o tyle modele 95W to kompletna pomyłka. Wiem że to jest flustrujące kupić coś co nie spełnia wymagań, ale nie należy odegrywać na zwolennikach konkurencji...


  31. @Rakieta1 (autor: cana | data: 12/03/12 | godz.: 18:50)
    nie żebym był bardzo złośliwy, ale ciężko umieścić twojego nicka i termin merytorycznie w jednej wypowiedzi...
    i o ile pomidor bywa czasem zabawny i rzadko bo rzadko to jednak napisze coś sensownego to ty jesteś męczący...


  32. @30 (autor: mlodybe | data: 12/03/12 | godz.: 18:52)
    tylko według ciebie fx to złe procesory a llano do niczego sie nie nadaje

    w gpgpu llano przebija i7-2600k + gt520 nie wiem czy wiesz


  33. pomidor daj linka do testow keplera... (autor: gantrithor | data: 12/03/12 | godz.: 18:56)
    chcial bym poczytac jakies testy lub porownania :P

  34. . (autor: Pider | data: 12/03/12 | godz.: 19:08)
    .

  35. Zapomniałem dopisać (autor: Pider | data: 12/03/12 | godz.: 19:10)
    że zawsze do tego 4rdzeniowaca można dokupić zewnętrzną kartę graficzną i połączyć w crossfire... Do tego szybkie pamięci DDR3, najlepiej 1866MHz i jazda :) Żaden atom nie dorównuje APU-prawda boli fanboyów intelika :)

  36. . (autor: zigg | data: 12/03/12 | godz.: 19:12)
    .

  37. Jozefie Stalinie[DYD] (autor: Plackator | data: 12/03/12 | godz.: 19:14)
    Przybywaj i czyn swą powinność po raz drugi!

  38. @Pider (autor: Rakieta1 | data: 12/03/12 | godz.: 19:39)
    No, ale dla mniej liczy się przedewszystkim CPU. Powiem że wydajność llano robi wrażenie, ale w laptopach tanich. Przeglądam właśnie test lapotów PCFormat. A6 pokonał w 3DMarkV popularne pary i5+540. Uległ za to i5+6770M. Ale należy uwzględnić że w CPU zostało to zrekompensowane przez Intela - i5 prawie 1.8 razy szybszy niż A6 (Quad). Czyli niska wydajność CPU psuję cały efekt. Ja ten minus także biorę pod uwagę. Gdyby Intel miał np. 25% przewagi w CPU to bym to zaakceptował, ale nie 75%! To przesada - dlatego llano nie uważam za udane.

  39. pomidorowi płacą (autor: acd | data: 12/03/12 | godz.: 19:52)
    za nabijanie komentarzy i to sporą kasę! Nie dawajcie mu zarobić

  40. nawet (autor: Krax | data: 12/03/12 | godz.: 20:04)
    jesli to bedzie moc...to nie wydaje mi sie zeby nV zrobila wojne cenowa. poprostu walna cene jaka nalezy zaplacic za najlepszy uklad... nie wydaje mi sie zeby w ich interesie bylo zanizanie cen przez amd...

  41. C38- niestety masz racje (autor: josefek | data: 12/03/12 | godz.: 20:35)
    dla mporownania E-450 jest duzo wolniejsze od 4 letniego Dual core...choc zegar prawie taki sam jest.

  42. Rakieta1 (autor: Markizy | data: 12/03/12 | godz.: 20:38)
    ciekawe jak miało llano pokonać układ który jest od niego już fizycznie mocniejszy http://www.notebookcheck.net/...6770M.43955.0.html
    400SP vs 480SP dochodzi do tego dodatkowa magistrala dla pamięci której llano po prostu nie ma.

    CPU intela jest mocny ale do czego ludzie najczęściej lapka kupują (chociaż tej mody nie rozumie) do neta, filmów i nie wymagających gierek ? I co nawet z 3 razy mocniejsze CPU jak 4 rdzenie jest aż nad to. Jak ktoś potrzebuje maszyny do pracy to kupuje konkretna stacjonarkę a nie laptopa.


  43. litości (autor: RoXall | data: 12/03/12 | godz.: 20:48)
    DYD jeśli zostało Ci choć odrobinę ambicji to zrób tu w końcu porządek...

  44. @Markizy (autor: Rakieta1 | data: 12/03/12 | godz.: 20:57)
    No, może coś w tym jest. A ja np. będe potrzebował nowego laptopa do takich zadań jak łączenie się przez USB ze złożonymi układami elektronicznymi i tam mocne CPU sie przyda, bo nie mogę sobie pozwolić np. na zawieszenie się systemu podczas prezentacji układu innym osobom. O ile do altiuma czy jakiegoś avr studio nawet llano da rady o tyle w bardziej ambitnych zadaniach wole mocne cpu od Intela.

  45. @43 (autor: popierdulka1234 | data: 12/03/12 | godz.: 21:00)
    pozwolę się podpiąć

  46. paru... (autor: DYD-Admin | data: 12/03/12 | godz.: 21:07)
    ...osobom przyda się odpoczynek, proszę o spokój...

  47. haha! (autor: RoXall | data: 12/03/12 | godz.: 23:21)
    DYD wiedziałem, że można na Ciebie liczyć!

  48. @DYD (autor: trepcia | data: 12/03/12 | godz.: 23:23)
    Ty żyjesz! :-)

  49. Krax - pewnie masz racje. (autor: Majster | data: 13/03/12 | godz.: 01:45)
    "poprostu walna cene jaka nalezy zaplacic za najlepszy uklad... nie wydaje mi sie zeby w ich interesie bylo zanizanie cen przez amd...".


    Oczywiście że tak, nVidia będzie chciała sporo zarobić na nowych (jak i jeszcze nie na starych) GPU, więc obniżki nawet jeśli będą to znikome. Zobaczcie jaki jest bałagan z kartami graficznymi. Np. GeForce GT520 kosztuje w okolicach 200 zł. Jakiś czas temu gdy były dostępne GeForce GT220 DDR2, ceny takich kart oscylowały w przybliżeniu 220 zł. Z kolei GeForce GT240 z DDR5 kosztował już 245 zł. Po prostu ceny nakładają się na siebie, a wydajność jest różna.

    Teraz nowości... gdy wyjdzie taki GeForce GT620 (dla przykładu) znowu będzie się nakładał cenowo z poprzednimi grafikami. Nie mówiąc już o tym, że do kwoty 250 zł. można jeszcze trochę dorzucić i kupić szybszego Radeona, prawda ? Gdzie tu sens, gdzie logika ? Karty graficznie nVidii są za drogie, szczególnie te z niskiego pułapu wydajnościowego. Żeby GF GT520 z szyną 64-bit kosztował ok. 200 zł ? Chyba kogoś pogięło...


  50. Moze dlatego Nvidia w nizszym pulapie droga jest (autor: josefek | data: 13/03/12 | godz.: 06:33)
    bo tam intelowskie HD 3xxx normalnie dostepne w CPU sa , bo te APU od AMD z dziwnych powodow okazaly sie fiaskiem, i jak dlugo APU sie nie poprawia tak dlugo Nvidia bedzie usilowala na swoich lepiej zarobic...bo chyba malo rozsadnych nabywcow znajdziesz, ktorzy APU kupili i teraz z niskiej polki Radeon dolaza, jak w APU czesc CPU zalosna jest, a wiekszosc programow w Windows wlasnie na wykorzystaniu CPU sie opiera...
    Opieram moja wypowiedz na porownaniu dwoch laptopow , jeden dopiero co kupiony Acer z E450 i stary 4 letni Dell z Dual core( 1, 8 Ghz-Vista) ...niestety Acer duzo wolniejszy sie wydaje...choc 4 GB Ram ma.


  51. Pakieta1 (autor: Marek1981 | data: 13/03/12 | godz.: 08:17)
    Pozwolę się wtrącić i dodać kilka spostrzeżeń.

    "łączenie się przez USB ze złożonymi układami elektronicznymi i tam mocne CPU sie przyda"
    - bzdury piszesz że potrzebny mocny procek, po co???
    - i3,i5,i7 pierwszej generacji są gorsze od e450, niby zajebiście wydajne tyle że w testach syntetycznych. Ludzie się uskarżają na przycinki, zawiechy itp. Winą jest tutaj kontroler pamięci. W nowszych prockach problem został poprawiony ale nie naprawiony, miałem styczność wczoraj i mnie to wqrzało a usera nie ( ach te przyzwyczajenia).

    Dla ścisłości nie mam uprzedzenia do firmy Intel tylko ludzi zaślepionych tylko w 1 kierunku. Każde rozwiązanie ma swoje + i -.


  52. Czasy GeForce 6600GT na AGP... (autor: Majster | data: 13/03/12 | godz.: 20:50)
    Na prawdę, chciałbym aby nadeszły takie czasy, jakie były kiedy wyszły karty GeForce 6600GT na AGP 8x. Gdy kupiłem takiego Asusa, narzekałem później że cena była zbyt wysoka, bo zapłaciłem 640 zł. Po świętach Bożego narodzenia w 2005 roku, jakieś 3 tyg. po zakupie, karta potaniała o 70 zł. Tylko że wtedy karty graficzne taniały, i to taniały konkretnie... a teraz wszystko "zalatuje" zmową cenową.

    "Spoko spoko ATI, Wy utrzymacie wysokie ceny to zarobicie swoje. My utrzymamy podobnie wysokie ceny i też swoje zarobimy. Najwyżej będziemy mamić ludzi o pewnych obniżkach, których i tak nikt normalnie nie zobaczy, bo kursy walut zrobią swoje i cała reszta."


  53. @Rakieta1#38 (autor: pawel.xxx | data: 14/03/12 | godz.: 15:19)
    Pod względem cpu w mobile APU A8 ma wydajność na poziomie pentium

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.