Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy miejsce na Twojš reklamę
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Wtorek 31 grudnia 2013 
    

Pełny GPU Hawaii ma 3072 procesory strumieniowe?


Autor: Wedelek | źródło: WCCFTech | 14:35
(14)
Na kilka miesięcy przed premierą Radeonów R9 290X i R9 290 po sieci krążyła plotka, która sugerowała, że GPU Hawaii może być wyposażony w ponad 3000 procesorów strumieniowych. Ostatecznie pierwszy z Radeonów dostał 2816 procesorów strumieniowych, 172 jednostki TMU i 64 ROP, a wersja R9 290 z GPU Hawaii Pro może się pochwalić 2560 procesorami strumieniowymi, 160 TMU i 64ROPami. Po bliższej analizie Hawaii wychodzi jednak na jaw, że nie wszystkie jednostki są aktywne i w rzeczywistości pełny GPU Hawaii, wytwarzany w 28nm procesie litograficznym dysponuje 48 blokami CU, które budują w sumie 3072 procesory strumieniowe, 192 jednostki teksturujące i 64 rasteryzujące.

Wszystkie te elementy zostały ułożone na kawałku krzemu o powierzchni 438mm^2. Tak przynajmniej twierdzą autorzy opisywanej rewelacji, którzy na dowód swego odkrycia załączają obliczenia i diagram prezentujący GPU Pitcarin, Tahiti i Hawaii. Wiele wskazuje zatem na to, że w niedalekiej przyszłości możemy mieć do czynienia z sytuacją podobną do kart z GK110, gdzie Nvidia ostatecznie aktywowała wyłączone jednostki tworząc tym samym wydajniejszy model. Sam producent na razie nie komentuje przedstawionej analizy.


 
    
K O M E N T A R Z E
    

  1. Wątpliwe... (autor: BeeDead | data: 31/12/13 | godz.: 19:24)
    Bardzo wątpię, to raczej plotka.

  2. Jesli nawet... (autor: Jarek84 | data: 31/12/13 | godz.: 19:38)
    to raczej nie w 28nm...

  3. a czemu zakładacie, że AMD nie mogło zrobić tego samego co nV? (autor: Sławekpl | data: 1/01/14 | godz.: 09:40)
    skoro u nV się sprawdziło...
    wszyscy wiemy, że układ się bardzo grzeje więc takie rozwiązanie ma sens,
    nie będę zaskoczony, jeśli za jakiś czas pokażą pełne karty gdy opracują inne chłodzenie lub dopracują proces produkcji, AMD przy kolejnych rewizjach swoich układów potrafi zmniejszyć TDP lub podnieść zegary układu, tutaj to mało prawdopodobne (zegary) ale dołączenie kolejnych bloków jak najbardziej
    jeszcze jedno spostrzeżenie gdy jakaś redakcja rozpuszcza plotkę o produktach AMD która nie ma miejsca jest bardzo szybko dementowana, za to nie są komentowane przez firmę żadne bliskie prawdy informacje, tak jest od kilku lat


  4. mysle ze raczej chodzi o uwalone kawalki (autor: Kosiarz | data: 1/01/14 | godz.: 12:12)
    po co caly czip na smietnik jak mozna wylaczyc.

  5. ++4 (autor: RusH | data: 1/01/14 | godz.: 13:50)
    binning
    przy tej geometrii i wielkosci sa duze odpady, juz od dawna i amd i nv i intel klepia karty z zapasowymi modulami
    na poczatku produkcji nowego projektu zawsze jest okres dopracowywania, 6sigma itd
    na odpady mozna sobie pozwolic klepiac male ARMy badz diody, ale nie klepiac 400mm2 patelnie, wtedy kazdy udklad jest cenny i lepiej kombinowac niz wyrzucac

    tak samo jest z pamiecia flash (dyski, karty), nie dosc ze w opakowaniu jest jej wiecej niz na to wskazuje nadruk, to jeszcze firmware kombinuje jak kon pod gore aby zapaczowac uszkodzona przestrzen


  6. @4. (autor: Mariosti | data: 1/01/14 | godz.: 13:51)
    zdecydowanie chodzi o wydzielane ciepło i chłodzenie, 290x już na samym lepszym chlodzeniu potrafi dużo zyskać, a w złych warunkach termicznych schodzi wydajnością do 290. W takiej sytuacji oczywiste jest ze już z 290x raczej przesadzili i powinno mieć o jeden blok cu mniej. Reakcja klienteli byłaby na pewno lepsza bo nie byłoby całych tych dywagacji o spadajacej wydajności i selektach do recenzji

  7. @5. (autor: Mariosti | data: 1/01/14 | godz.: 13:58)
    nieprawda, flashe z uszkodzonymi sektorami mogą trafiać najwyżej do pendriveów za 5 zł. jakiekolwiek poważne urządzenia z gwarancją mają zawsze w pełni sprawne kości na których prawdopodobieństwo szybkiego pojawienia się bada jest znacznie mniejsze niż na dysku twardym i to popijając nawet kwestię overprovisioningu którą błędnie zinterpretowałeś

  8. @7. (autor: anon1984 | data: 1/01/14 | godz.: 14:32)
    Praktycznie w każdej produkcji masowej jest stosowane zjawisko opisane przez Rush'a. Najpierw się produkuje układy, testuje przycina, aby spełniały wymagania rynku i sprzedaje. Ty jako klient nie masz żadnej możliwości, aby sprawdzić ile sektorów jest na starcie realokowane, lub czy twoje układy Flash mają wszystkie komórki w pełni sprawne.

    Producentom nie zależy na jakości - produkt ma się zepsuć po okresie gwarancji i ma nie wyglądać na tyle tandetnie, aby użytkownik stwierdził że to normalne zużycie ...

    Pozdrawiam


  9. *errata 8 (autor: anon1984 | data: 1/01/14 | godz.: 14:34)
    użytkownik <nie> stwierdził

  10. @8. (autor: Mariosti | data: 1/01/14 | godz.: 15:27)
    Przy takich gwarancjach jakie są udzielane na ssd z wysokiej półki nie ma takiej możliwości. Wspomniany przez rush'a binning to normalna praktyka, a jej skutkiem jest masa okaleczonych układów i bardzo dużo układów w pełni sprawnych. Im bardziej dopracowany proces tym mniejszy jest procent układów niesprawnych i nawet w przypadku niebywale skomplikowanych procesorów x86 jak również gpu we względnie niedługim czasie układ nie sprawne w pełni sprowadzają się do mnie niż 10% produkcji. Wtedy właśnie proces zwany jest dojrzałym i przynosi największe dochody.

    Układy flash są zresztą zbyt proste w swej konstrukcji aby je częściowo wyłączać. To nie to samo co gpu czy wielordzeniowe cpu. Zresztą prawdopodobieństwo że przypadkowo znaczna ilość uszkodzonych układów będzie miała uszkodzone tylko jakieś małe grupki sp'ków w ramach jednego cu z całej wielkiej powierzchni układu jest bardzo głupim założeniem.


  11. *10. (autor: Mariosti | data: 1/01/14 | godz.: 15:29)
    miało być: "we względnie niedługim czasie układy nie sprawne sprowadzają się do mniej niż 10% produkcji."

  12. @7 Mariosti (autor: RusH | data: 2/01/14 | godz.: 02:05)
    o jakze sie mylisz :D

    tylko najdrozsze firmowe pendrivy maja trafiajacy sie w 100% dobry flash, wiekszosc dobrej pamieci flasz leci do dyskow SSD ( i to hiendowych), OCZ byl milosnikiem odpadow - kupowal od Toshiby cale wafle, sam testowal, przycinal, enkapsulowal, NIC sie nie marnowalo :)

    w KAZDYM pendrive, karcie SD, telefonie, dysku SSD jest proces/procesor odpowiadajacy TYLKO I WYLACZNIE za udawanie ze rozmawiasz ze sprawna pamiecia gdy on w tle podmienia adresy/obszary i paczuje zepsuta sraczke

    polecam od 3 akapitu
    http://www.bunniestudios.com/blog/?p=3554
    http://youtu.be/r3GDPwIuRKI?t=2m44s

    badz zapoznanie sie z jakakolwiek platforma embedded, kazdy tablet/telefon albo uzywa flasha eMMC z wbudowanym kontrolerem maskujacym bady, badz jedzie na systemie plikow wiedzacym jak to robic (yaffs jffs oraz wreszcie UBI)

    co wiecej, to samo jest w HDD, dyski w fabryce odpalaja firmware testowy i same sie kalibruja mapujac badbloki, sa odrzucane tylko jesli na starcie fabrycznie jest zbyt duzo badow

    do tego na pewno bedziesz zachwycony tym
    http://www.hgst.com/...shingled-magnetic-recording
    http://www.youtube.com/...ilpage&v=upvxl7YgeUQ

    HDD ktore nie beda w stanie zapisac danych bez czesciowego niszczenia danych zapisanych obok :D

    caly przemysl storage staje na glowie jak wcisnac nam fabrycznie zrypane dziadostwo byle tylko co roku zwiekszyc srednia pojemnosc i wymusic nowy cykl upgrejdow


  13. @12. (autor: Mariosti | data: 2/01/14 | godz.: 21:04)
    Wiesz rush, dla mnie kontrolery do pamięci flash nie są żadną nowością, podobnie jak kontrolery do hdd i na prawdę, fakt ich istnienia, jak również posiadania przez nie algorytmów korekcji błędów nie jest równoznaczny z tym że nowe kości flash są na starcie niesprawne. Te kontrolery są tam po to żeby zagwarantować przynajmniej te 2-3 lata funkcjonowania tej pamięci bez nieodwracalnych błędów zapisu/odczytu.

    Wspomniałeś o hdd, o ile w ssd można skutecznie maskować bad sectory, to już w hdd jest to niemożliwe i wychodzi na prostym teście sekwencyjnego odczytu z dysku np w hdtune, pojawią się skoki transferu do prawie zera bo siłą rzeczy głowica musi latać niewiadomo gdzie aby dostać się do danego sektora.


  14. Mariosti (autor: RusH | data: 4/01/14 | godz.: 17:45)
    pisze ci po raz x, te kontrolery NIE SA tylko w celu wear leveling

    formatowales kiedys pendrive niskopoziomowo oprogramowaniem producenta? pierwsze co soft robi to skanuje goly nand i informuje cie ile % jest sprawne na starcie - NOWY FABRYCZNY NAND a soft kontrolera pendrive/karty SD pierwsze co robi to lata bledy.

    dyskow tez chyba dawno nie kupowales, 2TB Seagate maja fabryczne skoki transferu w dol w hdtune bo przy obecnym stopniu upakowania danych na talerzach 1TB NIE DA SIE zapewnic calego taleza w 100% sprawnej liniowej przestrzeni na dane
    hdd fabrycznie nie realokuja sektorow z krawedzi talerza, fabryczne bady nie sa tak bardzo odczuwalne bo dysk przy kalibracji po prostu przeskakuje fabrycznie bledne obszary. Polecam zapoznanie sie z np PC3000 i procedura kalibracji.

    To o czym pisze to sa fakty. Codziennie uzywasz fabrycznie uszkodzonych nosnikow, ale dzieku sprytnym algorytmom jest to tak dobrze maskowane ze bez glebszej wiedzy zwykly uzytkownik nie ma o tym pojecia.

    flash NOR byl w 100% sprawny bez zadnego maskowania, ale dzisiaj juz nikt (poza firmware w np routerach) nie uzywa NOR bo byl za drogi w produkcji


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.