Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2020
Piątek 12 listopada 2010 
    

AMD Radeony HD 6900 zadebiutują najwcześniej 13 grudnia


Autor: Wedelek | źródło: Fudzilla | 19:49
(44)
Od dłuższego czasu w sieci krążyły pogłoski, jakoby AMD miało problemy z uzyskiem sporej wielkości GPU Cayman. Okazało się, że coś jednak jest na rzeczy, a firma z Sunnyvale ostatecznie poinformowała swoich partnerów o przesunięciu premiery Radeonów HD 6900. Początkowo miały one zadebiutować już 22 listopada, jednak w wyniku niedoboru niektórych elementów zdecydowano że prezentacja nowych akceleratorów odbędzie się najwcześniej 13 grudnia (50 tydzień). Co ciekawe partnerzy ponoć nie otrzymali jeszcze nawet BIOS'ów i sterowników dla nowych kart.

Możliwe więc, że AMD nadal opracowywuje specyfikację techniczną swoich układów, czego główną przyczyną mogły by być GeForce'y GTX 580. AMD chce zdążyć na gwiazdkę, ale nie wiadomo, czy TSMC uda się zaspokoić olbrzymi popyt.

 

    
K O M E N T A R Z E
    

  1. ... (autor: Aamitoza | data: 12/11/10 | godz.: 19:58)
    "Co ciekawe partnerzy nie otrzymali jeszcze nawet BIOS'ów i sterowników dla nowych kart."

    Tego nie było w oficjalnym stanowisku AMD, tylko plotce z fudzilli.


  2. HEH (autor: Mario2k | data: 12/11/10 | godz.: 20:01)
    Te plotki z Fudzilli sprawdzaja sie calkiem czesto ,
    mam nadzieje ze spozniony radek da rade GTX 580


  3. nadchodzi mocarz (autor: Lolo64_EX1_rev2.1 | data: 12/11/10 | godz.: 20:01)
    nvidia go home

  4. jedna plotka mówi że problemem jest uzysk Caymana (autor: Qjanusz | data: 12/11/10 | godz.: 20:36)
    kolejna że AMD ma problem z TI, który dostarcza mu jakąś nową kostkę do sterowania zasilaniem. Trzecia że AMD podkręca zegarki żeby dać radę GTX580

    Cholerka wie co jest prawdą.

    Prawdą na pewno jest to, że jeżeli AMD nie zdąży przed świętami, to ma przesrane :-)


  5. To znaczy (autor: pomidor | data: 12/11/10 | godz.: 20:37)
    że GF 580 jest jednak szybszy. Teraz w pocie czoła (hehe) kombinują jak by go tu podkręcić, co nie jest prostą sprawą, jako że bez OC miał już wysysać 300W.

  6. @up (autor: Qjanusz | data: 12/11/10 | godz.: 20:52)
    a to nasz pomidorek ma pożywkę przed zmienieniem w sokowirówce :-E

  7. @ pomidor (autor: Lolo64_EX1_rev2.1 | data: 12/11/10 | godz.: 21:01)
    masz beznadziejnego nicka

  8. Pomidor (autor: Aamitoza | data: 12/11/10 | godz.: 21:02)
    W pocie czoła, to kombinuje prezes zielonych ;)

    Jeżeli jest wolniejsza, to dadzą mniejszą cenę i po problemie.

    Kolejny bulszit " jako że bez OC miał już wysysać 300W."

    od kiedy poniżej 300W to 300W? GTX580 miał brać 244W, a w rzeczywistości bierze 304W pod maksymalnym obciążeniem bez "magicznych ograniczników".


  9. @Lolo_coś_tam (autor: pomidor | data: 12/11/10 | godz.: 21:48)
    To się odezwał z pięknym i łatwym do zapamiętania nickiem :) To jest szczyt Twojej inwencji ? :)

  10. @Qjanusz (autor: trepcia | data: 12/11/10 | godz.: 21:55)
    Nie jakaś kostka lecz DrMos.

  11. Aamitoza (autor: morgi | data: 12/11/10 | godz.: 22:01)
    bullshit bierze ile bral, czyli kolo 250W przy normalnej wymagajacej grze, natomiast testy wypalarkowe sluza chyba tylko niszczeniu kart, przekraczaja tdp wszystkie zgodnie, ale to jak zwykle bullshit w highendzie wydajnosc, potem komfort uzytkowania, tdp nisko.
    http://ht4u.net/...eforce_gtx_580_test/index13.php


  12. @ pomidor (autor: Lolo64_EX1_rev2.1 | data: 12/11/10 | godz.: 22:05)
    Tak to jest mój szczyt. A tyś nie pomidor tylko burak buraczany.

  13. morgi (autor: Aamitoza | data: 12/11/10 | godz.: 22:20)
    To w takim razie AMD mocno przesadza z TDP skoro u nich karty w tym normalnym obciążeniu grami biorą 20-50W mniej (a w przypadku HD5970 prawie 100W mniej).

  14. @morgi (autor: rainy | data: 12/11/10 | godz.: 22:24)
    Morginalny, oglądaj wykresy jak podsyłasz linki bo coś GTX 580 mizernie tu wygląda: tylko w idle wypada wyraźnie lepiej niż GTX 480, natomiast pod obciążeniem (gra) całe 2 W mniej, zaś w Furmarku "żłopie" nawet więcej.

  15. @11 (autor: culmen | data: 12/11/10 | godz.: 23:54)
    "bullshit bierze ile bral, czyli kolo 250W przy normalnej wymagajacej grze, natomiast testy wypalarkowe sluza chyba tylko niszczeniu kart"
    W tym wasza ulubiona gra UH extreme ;)
    Chyba ze juz teselacja sie nie liczy?


  16. na gwiazdkę to zobaczymy (autor: emuX | data: 13/11/10 | godz.: 00:29)
    GTX570 a nie caymana, pewnie wszystkie te plotki są prawdziwe i AMD ma niezłą obsówę.

  17. @emuX (autor: Vitorek | data: 13/11/10 | godz.: 08:04)
    Kilka tygodni nazywasz "niezłą obsówą"... To teraz jeszcze zachowaj się obiektywnie i określ spóźnienie nV z GTX 470/480...?!

  18. @Viktorek (autor: trepcia | data: 13/11/10 | godz.: 12:21)
    Idąc w ślady emuX, nazwałbym to wpadką roku.

  19. ja nie rozumiem tej podniety tymi kartami (autor: zeek | data: 13/11/10 | godz.: 13:18)
    dla mnie to ciekawostka technologiczna, nigdy nie wydam na karte graficzna wiecej niz 1000zl. a do tej sumy AMD ma mnostwo ciekawych kart. nvidia tylko GTX460, ale co zrobic :)

  20. hehe kolejna obsówa amd (autor: Sony Vaio | data: 13/11/10 | godz.: 14:13)
    u Intela i Nvidia wszystko jest na tip/top, a tu opóźnienia, drogo, brak dobrych sterów, gorąco i mało wydajnie. SB nadchodzi, GTX460 bije rekordy sprzedaży, a amd czeka na części z wystawek by sklecić jakiś układ. Jak w życiu, należy omijac teściową i amd.

  21. hahaha (autor: Aamitoza | data: 13/11/10 | godz.: 14:41)
    u nvidia bez opóźnień... hahaha ;) te 6 miesięcy fermiego to nie było opóźnienie tylko przemyślane zagranie, no nie? ;)

    Jak na razie 3 tygodnie opóźnienia AMD ma się nijak do tego co zrobiła nvidia w przypadku fermiego.


  22. @21 (autor: popierdulka1234 | data: 13/11/10 | godz.: 15:14)
    daj chłopakowi szanse żeby się napawał, pół roku biedaka gnębili więc teraz w samouwielbienie popadł

  23. Aamitoza (autor: morgi | data: 13/11/10 | godz.: 15:35)
    Normalka, ich efektywnosc uzycia chipa jest niska, moze stosuja jakies trefne sterowniki, albo taka architektura, zobaczymy co wysmaza z hd6k, ale juz zapowiadaja palniki.

  24. @5. (autor: RoXall | data: 13/11/10 | godz.: 17:23)
    I tak ma przesrane bo nawet jeśli zdążą z premierą na 13 grudnia to do świąt pozostaje raptem 11 dni. Zanim karty rozejdą się po sklepach mini jeszcze trochę czasu.
    Teoretycznie powinni w listopadzie mieć premiera jak planowali aby karty trafiły na czas do sklepów.

    A jeszcze trzeba rozreklamować produkt. Klient musi wiedzieć, że takowy jest i istnieje a zegar tyka.


  25. @4 vs @24 (autor: RoXall | data: 13/11/10 | godz.: 17:25)
    Powyższa wypowiedź kierowana była do @4 - Qjanusza.

  26. @Aamitoza (autor: emuX | data: 13/11/10 | godz.: 18:29)
    śmiać mi się chce z twoich żałosnych komentarzy przeciw nVidia na pclabie. Wszytskie maja po klikadziesiąt minusów.

  27. @26 (autor: Jarek84 | data: 13/11/10 | godz.: 19:15)
    to az tyle kont zalozyles na PCL? :E

    Data premiery dla Polski "nietrafiona" ;(


  28. rainy (autor: morgi | data: 13/11/10 | godz.: 20:33)
    Czyli test dobry, miesci sie w tdp, a to ze lepiej wypada nawet o kilkanascie W w innych to rybka, zalezy od sposobu w jaki nowy regulator zasilania ustawi sie do konkretnych warunku, po zdjeciu blokady wychodzi dobre oc, ale i kiepskosc fabryki, ktora dala kolosalna wtope zbyt ambitne te 3 mld tranzorkow na nich.

  29. @RoXall (autor: Qjanusz | data: 13/11/10 | godz.: 21:11)
    powiedzmy że to ostatni gwizdek - pod warunkiem że karty faktycznie będą na półkach nawet od 15 grudnia - chodź najlepiej byłoby zrobić to w połowie listopada - tu zgoda.

    Inna sprawa to taka, że zakładając prawdziwe problemy z czymkolwiek, lepiej rzucić nawet sam papier na rynek w postaci premiery w połowie grudnia (+ obiecanki cacanki), po to tylko żeby dać na wstrzymanie potencjalnym klientom nVidii.

    Niektórym to rybka czy Mr. Santa odfajkuje Delivery Status prezentu podczas karpia/indyka, czy nawet 2 tygodnie później ;-)


  30. @trepcia (autor: Vitorek | data: 13/11/10 | godz.: 22:39)
    Pozostaje pytanie którego...:) 2009 czy 2010?:>

    Oczywiście emuX niepełnosprytnie pominął "niewygodne" pytanie:> xD


  31. @jarek85 (autor: trepcia | data: 13/11/10 | godz.: 23:18)
    Na PCL nick emuX to "herbatnik".

    @Vitorek
    Ano, masz rację, nie sprecyzowałem którego roku ;-) Ale że 2010r jeszcze trwa (i wszystko może się zdarzyć, gdzie wielką niewiadomą pozostaje Cayman) to jak narazie Fermi jest wpadką 2009r.


  32. C21-tylko AMD opoznienie Fermi-ego (autor: josefek | data: 14/11/10 | godz.: 08:32)
    nie bardzo wykorzystal ....

  33. @josefek (autor: Vitorek | data: 14/11/10 | godz.: 09:36)
    90% rynku z 25mln sprzedanych kart DX11 nazywasz "niewykorzystaniem?:D Proszę Cię...

  34. C33-jestes pewny tych cyfr (autor: josefek | data: 14/11/10 | godz.: 10:27)
    bo jezeli tak t pownien takze AMD dobrze na cartach graficznych zarabiac, abo znowu swoje niumiejetnosci na innych zwalii zacznie opowiadac, ze NVIDIA po stolem placi fonderija aby zlecenia AMD-u jak najbardziej opoznialy, jakosc obnizali itd ..
    Niestety musze tez dodac, ze w ostanich 6 latach jako dostawca podzespolow niepowazne bylo....maj nadzieje,ze to sie zmieni....


  35. C33- i jak Zydzi moia (autor: josefek | data: 14/11/10 | godz.: 10:31)
    lepszy maty kawalek duzego tortu niz duzy malego (DX 11).....

  36. 34-35 (autor: Jarek84 | data: 14/11/10 | godz.: 11:15)
    bo AMD na swoich kartach graficznych zarabialo i zarabia stosunkowo dobrze.

    http://store.steampowered.com/...deocard/?sort=pct

    Nie jest to w pelni odzwierciedlenie rynku, ale jako taki poglad na niego przedstawia (brak tam jeszcze uzytkownikow chociazby slabszych GTS i GT4xx czy HD68xx) i widac że tak na prawde procentowo najwiecej przybylo posiadaczy GTX460,ale rowniez to ze NV zarabia jeszcze dosc duzo kasy na starszej generacji kart - vide co siedzi w MaC Bookach...

    Trudno powiedziec jak bardzo nasycil sie rynek kart DX11, ale najbardziej dochodowe dla producentow wg mnie w najblizszym czasie beda GTX460 i jego nastepca oraz HD68xx, bo ludzi ktorzy chca miec w niewysokiej cenie cos szybszego niz HD5750/GTS450 bedzie przybywac. Ciekawie zapowiada sie tez walka na rynku dyskretnych kart graficznych do notebookow, bo tam AMD zapowiada juz na Q1 druga generacje kart DX11, Apple chce korzystac z APU od AMD, zas NV dopiero od niedawna wprowadza Fermi-based mobile. W desktopie zas bedziemy miec poprawione odswiezynki od NV w 500 plus cos dwuchipowego, a AMD szykuje Caicosa, Turksa i Antillesa + ewentualne rebrandy.


  37. C 36- calkowicie sie zgadzam (autor: josefek | data: 14/11/10 | godz.: 13:40)
    chc do APU zaczynam watpliwosci miec , Intel chce rynek 12 inchowych netbookow przed wyjsciem Ontario swoimi N520 zapelnic ( cena na te nie juz ponizej 1500 zlotych jest, a Apple potrzebuje jakosci, ktora nie zawsze AMD gwarantuje....

  38. @josefek (autor: Qjanusz | data: 14/11/10 | godz.: 16:50)
    "potrzebuje jakosci, ktora nie zawsze AMD gwarantuje...."

    możesz rozwinąć tę złotą myśl?


  39. @Qjanusz (autor: trepcia | data: 14/11/10 | godz.: 17:39)
    Znaczy, AMD jest za tanie i na nim nie można zrobić ekskluzywnych rzeczy. Kto z resztą kupiłby powiedzmy, gdyby kiedyś wyszło, Ferrari F60 i nazywałoby się Fiat F60 a byłoby dokładnie tym samym co Ferrari lecz kosztowało jedynie 70% tego?

  40. @up (autor: Qjanusz | data: 14/11/10 | godz.: 17:47)
    he he

    syndrom potrzeby wyłożenia sporej ilości kasy, po to tylko żeby uwierzyć że wydało się ją dobrze :-)

    a to ciekawe...

    "ekskluziw" z AMD w roli głównej:
    http://www.benchmark.pl/...i._Czemu_nie-31779.html


  41. Jeszcze nt... (autor: Jarek84 | data: 14/11/10 | godz.: 23:17)
    popuszczenia GTXowi cugli (czyli co się dzieje z GF110 jak się wyłączy power Throttling) to GTX580 taki energooszczedny nie jest ;)

    http://nvision.pl/...owe--News-18408-ndetails.html


  42. C38/ a nie mial rok temu Apple problemow (autor: josefek | data: 15/11/10 | godz.: 09:27)
    z HD 5XXX w jego najdroszych Mac ach, moze Aplle jest jedyny ktory moze prawdziwe interess na Zagato miec, w tzw subnootbokacb( tych okolo 12 inch) juz Intel zaczal ceny obnizac, 2 core Atom z Ion 2 dostarczac, aby ich Celeron dual core zastapic, pytanie jest potrafi AMD ten Zagato dostarczyc/ jak stajnia gdzie je robi, nie jego jest....wlasciciel stajni nie bardzo tym polarabom ufa i innych klientow jako jepszych i pewniejszych wybiera....

  43. a ja mysle (autor: mikay | data: 15/11/10 | godz.: 09:31)
    ze nawet jesli przed swietami AMD nie wyrobi sie z 69X0, to nie bedzie miala przesrane. straci co najwyzej nieco prestizu, bo nie uwazam, zeby popyt na jakby nie patrzec drogie topowe karty byl az tak wielki, zeby miala spowodowac jakies gigantyczne zyski zielonych. gtx580 do najtanszych nie nalezy, podobnie jak i do najtanszych nalezec nie beda nowe karty AMD. jak dla mnie i dla wielu te topowe sprzety stanowia jedynie ciekawostke :)

  44. C43/tez prawda (autor: josefek | data: 15/11/10 | godz.: 09:58)
    ale drogie karty sie nie codziennie kupuje, kijent teraz stracony, moze juz sie nie pojawi....w gotowych Desktopach ,ktore w ipermagazynach kupujesz normalnie ich nie maja, a firmy ktore je potrzebuje, normalnie w koncu roku nowy sprzet kupuja ze wzgledow podatkowych i normalnie wszsytkie karty takie same...kazda firma aby suksess miec musi z jednej strony doskonala jakosc robic i mala grupe wiernych klientow miec a z drugiej strony dla wszystkich tani i dobry produkt miec, albo cos specjalnego....drogim i doskonalym produktem sobie reklame robisz a na tanim zarabiasz....jezeli przypadkiem Intel sie z Nvidia bardziej dogada to jest AMD do kata wpedzony, Nvidia ma umyslowa technologie a Intel wykonawcza....tylko ja mam nadzieje ze Nvidia sie bardziej do ARM zblizy....
    tak pozatym chcialbym sie wszsytkich zapytac, kto ma w firmie intel I7 czy do domu za wlasne pieniadze P920 kupi_szczegolnie tez ze duzo duzych firm kupuja grupowo dla pracownikow PC aby uniknac placenia podatkow , daja je pracownikom jako wieczne uzywanie i pracownika pensji symboliczna kwote potracajac...jak szef mojej malej firmy o tym juz mysli to pomysl sobie te wieksze...


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.