Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Poniedziałek 3 grudnia 2012 
    

Premiera Radeonów HD 8000 na początku przyszłego roku?


Autor: Wedelek | źródło: Fudzilla | 07:12
(18)
AMD już dawno wypełniło szczelnie rynek kart graficznych swoimi Radeonami z serii HD 7000, chociaż wciąż są jeszcze pewne luki, w które mogłyby wskoczyć nowe modele. Przynajmniej jedna z takich luk niebawem zostanie wypełniona przez akcelerator na bazie GPU Tahiti LE, o którym pisaliśmy (TUTAJ ). Tymczasem portal Fudzilla donosi, że AMD szykuje się już do premiery kolejnej generacji Radeonów, które mają wkroczyć na scenę na początku przyszłego roku. Nowe akceleratory zwać się będą HD 8000, będą produkowane w 28nm technologii litograficznej i otrzymają GPU na bazie ulepszonej architektury GCN.

Na tym konkrety się kończą, a w sieci krążą również doniesienia, sugerujące, że nowa generacja Radeonów zadebiutuje jeszcze w tym roku. Swoją drogą w ofercie niektórych sklepów internetowych pojawiły się już nowe laptopy Acera i Asusa, wyposażone w mobilne Radeony HD 8000, o czym pisaliśmy TUTAJ. Niebawem powinna rozpocząć się ich sprzedaż.

A tak prezentuje się nieoficjalna specyfikacja techniczna przyszłych kart graficznych AMD.


 

    
K O M E N T A R Z E
    

  1. uczta numerologa (autor: Kosiarz | data: 3/12/12 | godz.: 08:07)
    wyglada smacznie

  2. @Kosiarz (autor: VP11 | data: 3/12/12 | godz.: 09:29)
    Co bedzie jak dojda do 9xxx, zostanie zmodyfikowana nazwa o inne numerki czy nie. Bo 10970 czy 12970 stanowczo za dluga nazwa.

  3. zresetuja numeracje (autor: Kosiarz | data: 3/12/12 | godz.: 11:00)
    tak jak przeciez byly juz radeony 9800... 7800 dawno dawno temu.

  4. zbyt piekne zeby bylo prawdziwe (autor: Mario2k | data: 3/12/12 | godz.: 11:22)
    Skoro 8850 w dniu premiery bedzie tanszy niz 7950 przy czym lekko 30%+ szybszy to AMD chce uderzyc z grubej rury ;)

  5. @ 4 (autor: Macom | data: 3/12/12 | godz.: 11:52)
    Tego im teraz potrzeba :) Życze im tego z całego serca aby się udało no i w końcu po 2,5 roku będzie na co wymienić R 6870 ;]

  6. Cyferki cyferkami... (autor: Dather | data: 3/12/12 | godz.: 12:19)
    to jest nieoficjalna specyfikacja, do tego nie wszystko co jest na papierze zgadza się w praktyce, czas pokaże co z tego będzie.
    Ja liczę na 8870, gdyby była wydajność 7970 i TDP 160W w cenie 1000-1050zł to by mi pasowało :D


  7. 8850 po obniżce (autor: OSTVegeta | data: 3/12/12 | godz.: 15:00)
    Myślę, że po pierwszej obniżce można się połasić.

  8. +60-70% (autor: kombajn4 | data: 3/12/12 | godz.: 18:02)
    wydajności ojj żeby tak w dziale cpu amd dało rade zrobić taki przeskok wydajnościowy ... ahh ale sie rozmarzyłem. Swoja drogą to dowodzi tylko jednego że grafika może się rozwijać w szybkim tępie bo zadania są dobrze zrównoleglone. A w świecie cpu co? Bidujemy dalej na kilku marnych rdeniach podczas gdy taki radek 7970 ma 512 SP

  9. kombajn4 (autor: Markizy | data: 3/12/12 | godz.: 20:02)
    coś ci się liczby popierniczyły.

    Co do CPU wykonują one kompletnie inne zadania (nie tylko czysta arytmetyka jak gpu) stad te biedowanie z mala ilością rdzeni. Bo niektórych rzeczy nie da się zrównoleglić a innych informatykom nie chce się przepisywać od nowa jak stare dobrze działa.


  10. @9. (autor: Mariosti | data: 3/12/12 | godz.: 20:32)
    Teraz wiem z pierwszej ręki że nawet jeśli programistom chce się przepisać od nowa to zwyczajnie koszt w roboczogodzinach czegoś takiego przy wielkich projektach jest niewyobrażalny, a często zdarzają się duże fragmenty kodu których działania nikt nie potrafi wyjaśnić bo pracownicy za nie odpowiedzialni od dawna już tam nie pracują...
    Tylko projekty tworzone całkiem od zera będą miały szansę na optymalne wykorzystywanie wielu rdzeni, po czym one też rozrosną się do rozmiarów które powodują że sens finansowy ma tylko dodawanie funkcji, a zagłębianie się w istniejący kod to samobójstwo ;] I powstanie jakaś nowa zasadniczo architektura i nikomu nie będzie się chciało na nią przepisywać softu bo będzie to za drogie ;]


  11. @10 (autor: kombajn4 | data: 3/12/12 | godz.: 20:46)
    to że ktoś nie pracuje, to pikuś jeżeli kod był porządnie okomentowany to idzie dojść do tego o co chodzi twórcy. Problem polega na tym że wraz z rozrostem projektu rzadko komu chce się wogóle pisać jakieś komentarze poza ogólnikami. Z własnego doświadczenia wiem że po paru miesiącach od napisania kodu sam mam spore zagwozdki czasami dlaczego coś napisałem tak a nie inaczej i po co to tam jest.

  12. @Deweloperzy (autor: franc# | data: 3/12/12 | godz.: 22:41)
    Od dawna piszemy soft, który aż się prosi, powinien wykorzystywać GPU, bo mamy milirady wierszy do przeliczenia. Niemniej jednak cała reszta kwiczy, tzn. szyna, dysk - generalnie I/O. Gpu jest tak szybkie, że najlepsze jego zastosowanie to w zasadzie GENEROWANIE czegoś, a następnie przetwarzanie tego. Zaczytać coś z dysku nie da rady, bo z 1000 razy za wolny niż być powinien... Dlatego dłuuugo grafika pozostanie jedynym zastosowaniem GPU.

  13. franc# (autor: Markizy | data: 3/12/12 | godz.: 22:51)
    nie do końca winny jest tutaj dysk, bo jak ktoś robi kombajn obliczeniowy to dyski w radzie maja już dobry transfer, a żeby nie skrócić czas wyszukiwania danych można sporo rzeczy przechowywać w pamięci ram, a dysk będzie odczytywał po kolei pliki nie tracąc czasu na latanie głowicą po całej powierzchni dysku. Ale i tak najdłużej by trwało przetworzenie tych danych.

  14. koszt hardware zmalal (autor: RusH | data: 4/12/12 | godz.: 03:16)
    IBM w 2010 opublikowal badania z ktorych wynika ze obecnie koszt pisania softu jest wyzszy od kosztu hardware

    niedluge ( w sumie mozna powiedziec ze juz od dawna, np soft pisany w Indiach :P) bedzie sie oplacac posadzic 10 tysiecy malp przed klawiturami niz zaplacic za dobry team developerski

    @12 jak masz problem z HDD to zastosuj SSD, nie widze problemu


  15. "Miliardy wierszy do przeliczenia" (autor: MBR[PL] | data: 4/12/12 | godz.: 10:01)
    Co to ma być - zwykły arkusz kalkulacyjny?
    Tak się składa, że większość projektów GPGPU ma minimalne transfery IO, problemem jest raczej opieszałość programistów - mało komu chce się pisać pod OpenCL, nawet pod CUDA pewnie byłaby taka sama posucha gdyby nvidia nie płaciła za te projekty chcąc z zamkniętego rozwiązania zrobić kartę przetargową fla swoich kart (jeszcze po łbie za to dostanie od MS w postaci DirectCompute i dopiero wtedy pożałuje).
    A co do fantastów - i 70% wzrostu wydajności, w tym w grach - pomarzyć dobra rzecz, ale skończy się pewnie jak zwykle - przyrost ~10% w kolejnej generacji. Tym bardziej że to tylko poprawione GCN (jak wygląda optymalizacja podobnej architektury skalarnej widać po optymalizacji FXów w kolejnej generacji) więc cudów bym się nie spodziewał, tym bardziej że to AMD = mierny wzrost wydajności z generacji na generację albo wręcz spadek wydajności w odpowiednich rodzinach jak przy przejściu z R5000 na R6000. Do czasu gdy Radeony rozwijało ATI każda kolejna generacja, zwłaszcza HD4000, HD5000 przynosiła bardzo znaczący wzrost wydajności. Od kiedy przejęło ich AMD jest tu znacznie gorzej - marketoidzi kroją rynek na plasterki, odgrzewają kotlety w niższym segmencie (mobilne przemalowane HD8000 już "są" na runku) i wprowadzają drożyznę w segmencie wydajnościowym.
    Jak tak dalej pójdzie to marketoidzi z AMD zniszczą Radeony tak samo jak już praktycznie na własneżyczenie zniszczyli pozycję AMD na rynku CPU x86.


  16. MBR[PL] (autor: Markizy | data: 4/12/12 | godz.: 10:17)
    radeony rozwijało ati?, o czym ty pitolisz za przeproszeniem, od h2000 radeony należą do amd i to oni kierowali rozwojem.

    Na wydajność ma wpływ proces technologiczny jeśli nowa rodzina powstaje w starym procesie cudów nie będzie bo nie ma jak, druga rzecz porównanie do FX to też bezsensu jest, bo to całkowicie inne rozwiązania. Dołożyć xxx malutkich procesorów do gpu jest łatwiej niż kolejny moduł do cpu, gdzie ten ma już pewne ograniczenia wynikające z kontrolera pamięci itp.


  17. @16: (autor: MBR[PL] | data: 4/12/12 | godz.: 10:37)
    Nie bierzesz pod uwagę, że GPU projektuje się z kilkuletnim wyprzedzeniem i R600 oraz R700 to jeszcze wkład konstrukcyjny i decyzje strategiczne ATI. IMHO marketing AMD zaczął się szarogęsić w Radeonach od serii 6000.

    "Na wydajność ma wpływ proces technologiczny jeśli nowa rodzina powstaje w starym procesie cudów nie będzie"

    Tak - to porównaj sobie złożoność oraz wydajność takiego R3850 i R4850 (chyba jeden z bardziej udanych debiutów w Radeonach) i pytanie za 100 punktów - w jakim procesie wykonane są obie te karty?

    "porównanie do FX to też bezsensu jest, bo to całkowicie inne rozwiązania. Dołożyć xxx malutkich procesorów do gpu jest łatwiej niż kolejny moduł do cpu, gdzie ten ma już pewne ograniczenia wynikające z kontrolera pamięci itp."

    No właśnie cała architektura modułów w FXach jest tak zaprojektowana, żeby tak łatwo dodawać bloki CPU jak bloki GCN w GPU. Tyle tylko że z tego mały pożytek, bo paralelizacja x86 leży i kwiczy, a wydajność pojedynczego wątku w FXach jest fatalna.


  18. e tam (autor: sizeer | data: 4/12/12 | godz.: 19:41)
    e tam

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.