Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Czwartek 9 grudnia 2010 
    

AMD przesuwa premierę dwurdzeniowego Antilesa


Autor: Wedelek | źródło: Fudzilla | 07:28
(43)
Firma AMD postanowiła przesunąć premierę swojej najmocniejszej kary graficznej - Radeona HD 6990 na pierwszy kwartał 2011 roku. Początkowo akcelerator o nazwie Antiles , zbudowany z dwóch rdzeni Cayman miał ukazać się jeszcze w 2010 roku. Nie wiadomo dlaczego koncern z Sunnyvale zdecydował się przesunąć datę debiutu. Bardzo możliwe, że AMD ma problem ze zbyt dużym poborem prądu lub przegrzewaniem się układu. Tak czy siak Radeona HD 6990 na gwiazdkę nie kupimy, no chyba że przyszłą.

 
    
K O M E N T A R Z E
    

  1. normalne (autor: Diamond Viper | data: 9/12/10 | godz.: 07:34)
    chcą dopracować układ, lepiej się wstrzymać skoro coś tam nie gra - zresztą i tak wydajność będą sobie poprawiać sterownikami - jak to zwykle bywa, ale temp. czy tam pobór prądu ważna rzecz mimo wszystko. Czyżby znowu Radek królował wśród graf?:P

  2. normalne, to amd, papierowe premiery (autor: Sony Vaio | data: 9/12/10 | godz.: 08:45)
    zero realnych produktów, obsówy na każdym kroku. Fani Nvidia w tych mrozach grzeją sobie stopy pod biureczkiem, a amd wypuści sprzęt latem i wszyscy będą się pocić. Po drugie po co czekać na te mizerne produkty? Jest przecież GTX460 rozkładający wszystko dookoła, a kupony są odcinane.

  3. Oj głupiutki ten SV... (autor: Kenjiro | data: 9/12/10 | godz.: 09:05)
    GTX 460 jeśli cokolwiek rozkłada, to tylko sam siebie ;). O ile jest rozsądną i opłacalną propozycją, to nazywać go rozkładającym wszystko dookoła jest idiotyzmem ponad wszelką miarę.

  4. Sony (autor: Diamond Viper | data: 9/12/10 | godz.: 09:11)
    w takim razie odcinaj sobie kuponiki na te 460-tki;P Fanboye AMD poczekają sobie na powrót króla wydajności, zresztą nie przeczę, że to nie będzie nVidia na powrót - a wręcz kuźwa bardzo bym się ucieszył z tego powodu - obiektywizm podstawą.. przede wszystkim

  5. Ale chwileczkę chwileczkę!!! (autor: Qjanusz | data: 9/12/10 | godz.: 09:52)
    Segment najdroższych i najwydajniejszych kart średnio się rządzi prawami przymusu kupna okazyjnego (święta, rocznica, wygrane wybory)

    Na te karty ludzie czekają niezależnie kiedy się one pojawiają. To nie jest tani i powszedni prezent pod choinkę jak HD6850. Takich perełek jak HD6990 nie kupuje się komuś na prezencik. Takie perełki zawodowcy i zapaleńcy sami sobie kupują, kiedy tylko nadejdzie pora debiutu karty.

    Osobiście obstawiam że plotkowanie i gdybanie nt jakichkolwiek problemów produkcyjnych i technologicznych z kartą, to z palca wyssana bzdura! Wg mnie to raczej zagranie marketingowe.
    nieVidia wyprztykała się przed świętami ze wszystkiego. AMD skupi teraz swoją uwagę na Caymanach, a w 1Q2011 podczas posuchy u konkurencji, ponownie rzuci światło prawdy na zazdrosnych leszczyków chowających po szafach pudełka od GTX570 i mobasów z LGA1155


  6. btw... (autor: Qjanusz | data: 9/12/10 | godz.: 09:55)
    AMD nie ma gorączki z wprowadzaniem Antillesa. nVidia dała wszystko co miała, a i tak to AMD posiada najwydajniejszą kartę na świecie. AMD nie musi sie śpieszyć bo i tak posiada pas mistrza, a Antilles jeszcze bardziej utwierdzi potęgę AMD na poletku GPU.

    ---
    text dedykuję SV ;-)


  7. @up (autor: Qjanusz | data: 9/12/10 | godz.: 10:15)
    powyższe nie dotyczy zagubionego Piotrusia, w którego kolorowym i radosnym świecie wszystko jest na opak.

  8. Co prawda Nvidia też miała (autor: pomidor | data: 9/12/10 | godz.: 10:19)
    przestoje z Fermi, ale to były poważne problemy w GPU, których nie da się szybko rozwiązać. Za to AMD ma poważne problemy prostymi rzeczami typu zasilanie, chłodzenie i płytką PCB.

  9. @pomidor (autor: Vitorek | data: 9/12/10 | godz.: 10:29)
    Ależ ty jesteś KRETYNEM... Do tego jeszcze hipokrytą... nVidia wypuściła GTX 480 ignorując właśnie te "drobne problemy", a jaki był tego efekt każdy wie... Aż żal że AMD nie chce robić takich błędów... ZAMILCZ

  10. @Vitorek (autor: pomidor | data: 9/12/10 | godz.: 10:44)
    Więc twierdzisz że GF 480 pobierał dużo prądu i był gorący, bo miał żel skonstruowane zasilanie i chłodzenie ? Do mądrali Ci jeszcze brakuje.

  11. @10 (autor: pomidor | data: 9/12/10 | godz.: 10:45)
    żel -> źle :|

  12. @pomidor (autor: Vitorek | data: 9/12/10 | godz.: 10:48)
    Twierdzę tylko tyle że karta jako całość była porażką, między innym ze względu na pobór prądu, NIE WYSTARCZAJĄCE CHŁODZENIE, a co za tym idzie głośność. Skoro GF100 był jaki był, można było przynajmniej problem chłodzenia rozwiązać tak jak w GTX580... Ale po co ja ci to wszystko piszę. Jak byś chciał już z pierwszej mojej wypowiedzi byś to wywnioskował...

  13. Bo mieli (autor: culmen | data: 9/12/10 | godz.: 10:54)
    Z rok na dopracowanie pcb.

  14. tym razem popieram komentarz Sony Vaio (autor: josefek | data: 9/12/10 | godz.: 10:55)
    za niedlugo bedzie mialo AMD problemy z farba na opakowaniu....powinni raczej ich przewizioni na realnych ich mozliwosciach opierac a nie na ich uronionych zyczeniach...pamietam jeszcze jak microprocessory AMD sie zapalaly i eksplodowaly a Intellu sie po prostu zatrzymywaly....z powodu nieodpowiedniego chlodzenia...

  15. @12 (autor: xlg | data: 9/12/10 | godz.: 10:56)
    nikt im nie wmówi, że białe jest białe, a czarne jest czarne :b

  16. Żenua (autor: Vitorek | data: 9/12/10 | godz.: 11:00)
    josefek masz jakieś wtyki w AMD, że wiesz co i jak? Dlaczego? A może SV takowe ma? Wydaje mi się jednak że swoje płacze opieracie na portalach typu fudzilla... I oczywiście niema jak to udawać że nVidia przez blisko rok nie była w ciemnej dupie względem ATI/AMD... POD KAŻDYM WZGLĘDEM W MNIEMANIU NORMALNEGO, POWTARZAM NORMALNEGO GRACZA.

  17. C16 - to ze Nvidia byla przez rok do tylu (autor: josefek | data: 9/12/10 | godz.: 11:05)
    to z mojego punktu widzenia nie duzo zmienia, tutaj mowimy o AMD....wpadki Nvidia do wpadek AMD nie upowazniaja...nieudolnosc jednego nie usprawiedliwia nieudolnosc drugiego...

  18. @josefek (autor: Vitorek | data: 9/12/10 | godz.: 11:32)
    OK... to jeszcze uzasadnij:) Dlaczego nieudolność AMD?! Jakieś potwierdzone informacje o których nie wiemy?

  19. @josefek (autor: Conan Barbarian | data: 9/12/10 | godz.: 11:58)
    zrób sobie odpoczynek od myślenia

  20. Qjanusz (autor: Grave | data: 9/12/10 | godz.: 12:18)
    oczywiście że można to tłumaczyć, że "AMD nie ma gorączki, AMD się nie spieszy, AMD sobie w spokoju dopracowuje". Ale jestem przekonany, że samo AMD wolałoby wprowadzić pełną ofertę (łącznie z 6990) przed świętami o to z takim wyprzedzeniem aby ich karty mogły się sprzedać właśnie jako prezenty gwiazdkowe.

    Nie od dziś wiadomo, że gwiazdka jest największym "świętem zakupowym" w roku i wprowadzenie czegoś PO gwiazdce zamiast przed = SPORO mniejsze zyski!

    Nawet Cayman jeśli zostanie wprowadzony 15 grudnia, nie do końca doczepi się do "świątecznego pociągu", bo wiadomo że poczta w tym okresie jest bardzo obciążona i żeby mieć pewność, że uda się kupić prezent przed 24 trzeba zamówić go dużo wcześniej.

    Bardzo wątpię że AMD celowo opóźniło premiery tak Caymana jak Antilesa. Raczej zaważyły jakieś problemy techniczne (jakiekolwiek by one nie były).

    Btw. w tym rozdaniu Nvidia także szykuje kartę dual GPU, więc sytuacja kiedy AMD wystawi 2GPU przeciwko jednemu Nvidii raczej się nie powtórzy.....

    Nvidia póki co ma najszybszą kartę graficzna z jednym GPU, która przegrywa tylko z dwuprocesorowym HD 5970 a i to nie zawsze, bo w niektórych przypadkach GTX 580 potrafi swoim jednym GPU pokonać dwa GPU AMD....


  21. Bardziej jestem ciekaw co pokażą AMD i Nvidia w 28nm :-D (autor: Grave | data: 9/12/10 | godz.: 12:27)
    Zwłaszcza Nvidia. Hm.. tak patrząc:

    8800 GTX - ~0,7 mld tranzystorów
    GTX 280 - 1,4 mld tranzystorów
    GTX 580 - 3 mld tranzystorów
    GTX 680 (?) - hm... 6 mld ? :-D

    Jedno u Nvidii zawsze mi się podobało - nie boją się wyzwań. Czasami wychodzi lepiej czasami gorzej, ale odważnie pakują się w projekty gigantycznych GPU, które siłą rzeczy są znacznie trudniejsze do opracowania i wyprodukowania w ramach danego procesu technologicznego niż mniejsze układy.

    A mimo to Nvidia się takich projektów nie boi. I okazało się że "na raty" ale MOŻNA wyprodukować pełnego Fermi w 40nm, który nie będzie musiał mieć przyciętych zegarów, czy zablokowanych jednostek obliczeniowych, chociaż zajęło to sporo czasu.


  22. @Grave (autor: AmigaPPC | data: 9/12/10 | godz.: 12:36)
    co racja to racja, a co z GPGPU w tym "pełnym" Fermi?

  23. No zobaczymy... (autor: Jarek84 | data: 9/12/10 | godz.: 12:47)
    nu pur pc .pl piszą, że TSMC ma zamiar wystartować z 28nm już na początku przyszłego roku - więc należy się pewnie spodziewać gdzieś w połowie roku refreshy Caymanów i GF110 w tym rozmiarze, ewentualnie SI i kepler wyjdą trochę wcześniej...

  24. AmigaPPC (autor: Grave | data: 9/12/10 | godz.: 12:49)
    nic nie zostało wycięte. Nvidia nie poświęciła funkcjonalności GPGPU na rzecz gier (wbrew plotkom). GTX580 wykorzystuje pełne "odblokowane" Fermi z 3mld tranzystorów, ze wszystkimi jednostkami wykonawczymi, przy czym TMU zostały usprawnione, zegary taktujące podbite, powierzchnia układu zmniejszona, a upływy prądu w tranzystorach zredukowane.

  25. @Grave (autor: bmiluch | data: 9/12/10 | godz.: 13:14)
    tworzenie wydajnych olbrzymich układów nie jest żadnym wyzwaniem - to rozwiązanie typu "brute force" z cyklu doklej nowe rdzenie i nie licz się z kosztami;
    z technicznego punktu widzenia można by było zrobić arkusz w excelu, gdzie CEO wpisuje ilość jednostek i automatycznie za 3 miesiące mamy nowe układy;

    wyzwaniem natomiast jest zrobienie małego wydajnego układu


  26. @Grave (autor: AmigaPPC | data: 9/12/10 | godz.: 13:16)
    czytałem, że GPGPU jest (cytat) "upośledzone" w stosunku do GTX480, ponoć (podkreślam ponoć) Badaboom działa mniej wydajnie.
    Na jednym z hiszpańskich for gość o tym pisał twierdzi, że wydajność GPGPU w Badaboom spadła o około 15% w GTX580.


  27. no cóż czyli informacje (autor: emuX | data: 9/12/10 | godz.: 13:20)
    o brakach konstrukcyjnych się sprawdziły. nVidia nadal pozostanie królem wydajności ze swoim GTX580 mając za konkurenta droższego o 300zł HD5970 z mikroprzycięciami, spadkami fps poniżej GTS250 w NFS: HP czyli w ogóle niskim minimalnym fps realnie wpływajacym na poziom rozrywki.

    AMD = drogo i nieopłacalnie, praktycznie w każdym segmencie.


  28. bmiluch (autor: Grave | data: 9/12/10 | godz.: 13:27)
    Skoro nie jest żadnym wyzwaniem to proponuję zgłosić się do Nvidii - na pewno w mig zaprojektujesz im olbrzymi układ do granic możliwości wykorzystujący aktualny proces technologiczny, który to GPU bez najmniejszego problemu zostanie wyprodukowany ze znakomitym uzyskiem.

    W końcu.... "to żadne wyzwanie" :-D

    Zaprojektować to sobie można co tylko zapragniesz nawet i układ o powierzchni boiska piłkarskiego, tylko jeszcze jakaś fabryka musi być w stanie to wyprodukować w sensownej liczbie egzemplarzy....


  29. mam nowe info nt. (autor: emuX | data: 9/12/10 | godz.: 13:33)
    wydajności HD6970... okazuje się że w smarku Vantage jest trochę szybsza od GTX570... czyli już znamy przełożenie na gry mając doświadczenie z poprzednimi produktami, gdzie może okazać się wolniejsza od GTX570... no i oczywiście jak to na AMD przystało droższa na zachodzie pierwsze preordery za 500EUR. Czyli kompletnie nieopłacalna.

  30. @Grave (autor: rainy | data: 9/12/10 | godz.: 13:39)
    Ne bądź komiczny - powierzchnia zmniejszona?
    GTX 480 529 mm2 a GTX 580 zdaje się, że 520 mm2.

    Gdyby to było, kilkadziesiąt mm2 to bym rozumiał, ale tutaj?

    Tak jak słusznie zauważył, bmiluch, sztuką jest zrobić wydajny układ o relatywnie niewielkiej powierzchni.

    Nvidia konstruuje grzmoty o dużo większej powierzchni i poborze mocy, a stosunkowo niewiele szybsze (GTX 480 jest szybszy od HD 5870 o 20 procent).

    Ciekaw jestem, czy gdyby AMD produkował procesory dużo większe i ze znacząco wyższym TDP od intelowskich a tylko trochę wydajniejsze, też byś się nimi zachwycał?


  31. @29 (autor: Jarek84 | data: 9/12/10 | godz.: 13:55)
    Szkoła - źródło newsów IT. Przy okazji, to zalatuje na masochizm - chyba, że komputer jest taty, to wtedy zrozumiem, że nie można z niego wyrzucić paskudnego HD5750... :E

    Co do rozmiarów - niech NV zaprojektuje coś o powierzchni Bartsa i takiej samej wydajności obliczeniowej...

    Powtórka z ASD, bądź informacja 'co inni maja/mieli na studiach' - podejście brute force nigdy nie było i nie będzie najoptymalniejsze i taka jest niestety prawda - o problemach typu NP może co poniektórzy słyszeli...

    Dodanie SP do układu, podniesienie im taktowań i założenie kagańca, byleby tylko 2 molexy i PCI-E dało rady dostarczyć papu dla kloca nie jest rozwiązaniem bo kiedyś proces produkcyjny może takie zapędy przystopować.

    Co do Caymanów to pewnie co dostarczą to i tak sprzedadzą ;)
    http://www.tcmagazine.com/...-made-official-update


  32. rainy (autor: Grave | data: 9/12/10 | godz.: 14:18)
    Nie wiem czy pamiętasz, ale do czasu spektakularnej porażki ATI z R600 stałem murem za tą firmą i kolejnymi GPU ATI, trochę może z sentymentu do Rage'a 128 który baaaardzo długo i dobrze mi słuzył swego czasu ;)

    Nawet po premierze R600 byłem przekonany (do czasu....) że tragiczna wydajność po włączeniu AA wynika z wczesnej wersji sterownikow, i że to poprawią a.... w ogóle ten AA na co komu skoro bez ATI radzi sobie dobrze :P No i tak to było :-D

    Podobnie zresztą było z AMD które w moich oczach podpadło z kolei beznadziejnym Phenomem, od którego też oczekiwałem że zostawi daleko z tyłu Core2.


  33. @emuX (autor: witekv | data: 9/12/10 | godz.: 22:47)
    Jak ja uwielbiam takich ludzi, nie wiedzą co piszą zazwyczaj głupoty wyssane z palca.
    "AMD = DROGO I NIEOPŁACALNIE ?????? PRAKTYCZNIE W KAŻDYM SEGMENCIE?????"
    Co ty chłopie piszesz weź się najpierw podrap po głowie.

    Mogę ci przedstawić, że tak nie jest na podstawie kart do lapków(bo na niczym innym się nie znam tak dobrze:) :

    1. AMD MobilityRadeon HD 5650
    2. Nv GeForce GT 425M
    3. Nv GeForce GT 335M

    wyniki spisane z notebookcheck.pl>ranking kart (inaczej nie uwierzysz)

    1. 3DMark06:6498 3DMark05:12422
    2. 3DMark06:6682 3DMark05:12866
    3. 3DMark06:6544 3DMark05:12228

    czyli wychodzi że są to podobne lapki parametrami (specjalnie)
    a teraz najmniejsza cena (pierwsza z lapkiem z intel i5, druga najtańsza > Skąpiec.pl

    1. 2599zł i 1682 zł
    2. 3330zł = 3330zł ten sam
    3. 3199zł i 2899zł

    czyli wynika z tego że amd bije nv o przynajmniej 600 zł
    więc gdzie jest to królowanie nvidii "praktycznie w każdym segmencie"??????

    chcesz wydajniejsze? > masz
    AMD MR HD 5870 VS. nV GF GTX 285M

    takie same wyniki ten sam procek a cena o 500zł większa zresztą sami sobie sprawdźcie, po co mam to przepisywać,
    na POLSKIM notebookcheck jest ranking kart, trochę niedopracowany ale większość wyników się zgadza,
    + skąpiec lub ceneo , a nie jakieś głupoty że nv najfajniejsza i najtańsza, dziękuję, jak było to sorry, jak się mylę to mnie poprawcie,


  34. AMD probem ma, NVIDA miala (autor: josefek | data: 10/12/10 | godz.: 07:13)
    powinni szkole zmienic i moze CB, za nauczyciela wziasc. oni problemi maja, a brzydki ryjec Intel studiuje,kompity robi i swoimi ograniczonymi GMA chleb niedouczonym geniuszom zabiera...

  35. @34 (autor: Jarek84 | data: 10/12/10 | godz.: 08:37)
    Chyba masz coś wspólnego z AMD...

  36. C 35- mam, dwa miesiaace temu notebook z nimkupilem (autor: josefek | data: 10/12/10 | godz.: 09:05)
    kupilem, ale potem niestety odkrylem ze ten sam model z i3 i z tam sama karta garaficzna byl o 600 zlotych tanszy i szybszy...

  37. rainy (autor: morgi | data: 10/12/10 | godz.: 10:45)
    W powierzchnie Nvidii wliczamy lepsza architekture graficzna, CUDAcznosc i Tesle, psiks jest tego sporo, a oszczednosci mozna robic na jakosci i wydajnosci, czego przykladem jest denna seria radeonkow, manipulacje, kiepskie wsparcie, polaczone z ogromnymi problemami sterownikow, praktyczny brak wsparcie i kontr technologii.
    Mozna tak wyliczac, a w rezultacie ponarzekac, ze na blacharstwo nie ma ciekawych gierek oprocz kilku co najwyzej na rok, a wiec lepiej zainteresowac sie konsolowym swiatkiem, lub przejsc na konsolowa jakosc, czyli zmarnowane szanse i mozliwosc odpalenia jakosci sprzed 5 lat na wyprodukowanym na biezaco sprzecie.


  38. @morgi (autor: Gigant | data: 10/12/10 | godz.: 13:39)
    Nvidia ma gorszą a nie lepszą architekturę. Co się zresztą przekonasz w dniu premiery Caymana ;)

  39. Gigant (autor: morgi | data: 10/12/10 | godz.: 15:35)
    Taaa, wlasnie widac, po newsow o retuszowaniu obrazu na zlomach i o kolejnych supermaszynkach na Teslach. Przekonam sie o czym? Jak nie zalatali architektury, bo podobno ja zmienili po raz pierwszy od 3,5 roku w kierunku praktycznego posiadania dx11 to nie maja co szukac, beda to zwykle padaki, wyswietlacze pulpitu i konsolowych konwersji.

  40. @39 (autor: Jarek84 | data: 10/12/10 | godz.: 15:43)
    morgi wybiegasz w przyszłość - o Intelu i DX11 jeszcze porozmawiamy - gdzieś w 2012 myślę ;)

  41. @morgi (autor: Gigant | data: 10/12/10 | godz.: 15:52)
    Przekonasz się o tym co mówię ;)

  42. @morgi (autor: Gigant | data: 11/12/10 | godz.: 12:26)
    ATI zawsze było prekursorem nowych technologii na polu grafiki. Ta teselacja to nie jest przypadkiem pomysł ATI? Nvidia go bezczelnie skopiowała ;)

  43. o i jeszcze jedno ;) (autor: Gigant | data: 11/12/10 | godz.: 22:06)
    ta CUDAczność którą tak zachwalasz to pic na wodę marna kopia pomysłu ATI którym jest STREAM:
    http://developer.amd.com/...SDK/Pages/default.aspx


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.