TwojePC.pl © 2001 - 2024
|
|
Poniedziałek 7 listopada 2011 |
|
|
|
APU Trinity z zegarem 3,8 GHz i podstawką Socket FM2 Autor: Zbyszek | źródło: ChipHell | 19:07 |
(33) | W pierwszym kwartale przyszłego roku AMD wprowadzi na rynek nowy procesor APU o nazwie kodowej Trinity, który zastąpi oferowane dotychczas APU Llano z rdzeniami K10.5+. Układ będzie wyposażony w dwa moduły Piledriver (ulepszony Bulldozer) z czterema rdzeniami x86 oraz zintegrowany układ graficzny Radeon zbudowany w oparciu o architekturę VLIW4. Firma AMD rozesłała już pierwsze próbki układów w rewizji A0 wraz z listą modeli, dzięki temu możemy dowiedzieć się nieco więcej na ich temat. Najszybsze sample Trinity działają z zegarem 3,8 GHz oraz maksymalnie 4,1 GHz w trybie turbo.
Ponadto APU Trinity mają podstawkę Socket FM2. Nowa podstawka ma 904-piny - o jeden mniej niż FM1, a także różni się rozmieszczeniem dwóch pozostałych pinów. Ponadto gniazdo FM2 będzie również najprawdopodobniej malowane na kolor czarny, podobnie do AM3+. Częstotliwość taktowania zintegrowanego układu graficznego w standardzie (bez turbo) sięga 711 MHz - wartość ta może być zwiększana dzięki technologii Turbo Core w wersji 3.0.
Ostateczne częstotliwości taktowania układów które trafią na rynek w 1 kwartale przyszłego roku mogą jeszcze ulec zmianie. Warto przypomnieć, że sample układów FX rozsyłane kilka miesięcy przed premierą w najszybszej wersji były taktowne zegarem 3,2 GHz, a układy które ostatecznie trafiły do sklepów - 3,6 GHz.
Po lewej - APU Llano A8-3850, po prawej - APU Trinity
APU Trinity obok podstawki Socket FM1
|
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- Na szczescie nowy szef oglosil chec zwolnienia pewnej ilosci pracownikow (autor: josefek | data: 7/11/11 | godz.: 19:32)
teraz napewno zaczna ich terminy i dostawy dotrzymywac...w koncu sie pojawily Brazosy C-60 za mniej niz 200 euro , wtej sytuacji kupoic netbooka z Atomem swiadczy doskonale o ograniczonych mozliwosciach umyslowych nabywcy...
- josefek (autor: Markizy | data: 7/11/11 | godz.: 19:36)
czy decyzje szefa były by tak szybko widoczne to nie wiem, w każdym razie przekonamy się czy wybór trafny był już w najbliższym roku.
- A co z poborem prądu (autor: pomidor | data: 7/11/11 | godz.: 20:54)
tego Trinity ? Rdzenie BLDZ są żarłoczne + 30% więcej prądu dla GPU.
- ... (autor: pawel.xxx | data: 7/11/11 | godz.: 21:22)
Zegary przyzwoite więc pewnie wydajność będzie zadowalająca, czyli na takim poziomie jakiego użytkownicy spodziewali się po llano. Nie wiadomo jak przy takich zegarach będzie wyglądało zużycei energii.
Natomiast to, że Trinity da się włożyć do fm1 jedynie za pomocą młotka,to bardzo źle. Obawiam się że ta informacja spowoduje załamanie sprzedaży llano.
W ogóle to zaczyna wyglądać na to że celem działań marketingowych amd stało się przekonanie użytkowników by zamiast kupować sprzęt czekali na premierę nowych produktów amd
- @02 (autor: Plackator | data: 7/11/11 | godz.: 21:31)
Rok-dwa musi minac.
@04
Bulldozer przy małych napięciach ma bardzo mały pobór ;P
- ... (autor: Sławekpl | data: 7/11/11 | godz.: 22:38)
trochę szkoda, że nie zachowano zgodności z aktualną podstawką, AMD przyzwyczaiło nas do czegoś innego, choć pewnie miało ku temu powody
krytykom przypominam o intelowskim 1156 więc bez oburzenia na AMD jeśli nie krytykujecie Intela za ich wcześniejszy pomysł :P
z doniesień wynika, że TDP ma się mieścić w zależności od wersji pomiędzy 65-125W i znów marudom przypominam, że to jest za CPU+GPU, zapewne połowa tych wartości przypada na procka a połowa na grafikę
w najmocniejszej wersji 65W przy 4 rdzeniach taktowanych 3,8GHz + całkiem wydajna grafa wystarczająca sporej większości użytkownikom to moim zdaniem nie jest dużo
(wy)pestkowiec i Hindenburg - wasze komentarze ignoruję, więc nie musicie się trudzić by dopisać znów swoje 3 grosze bo i tak już nigdy więcej nie zareaguję, nie ma sensu, buźka :*
- @up (autor: Plackator | data: 7/11/11 | godz.: 22:41)
Oczywiście chodzi ci o TPD wersji desktopowej?
- @Sławekpl (autor: VP11 | data: 8/11/11 | godz.: 09:02)
Moze poprostu probuja wstrzelic sie w odpowiedni socet. Tak jak bylo z am2+, po ktorym bardzo szybko pojawil sie am3. Miejmy nadzieje ze FM2 bedzie dluzej, w koncu mieli plany aby byl kompatybilny z buldozerami.
Lepiej by AMD zrobilo Procek ktory by pasowal na FM1 i FM2. To bylaby superowa sprawa.
- A mnie jakoś wysokie zegary nie cieszą (autor: Marcel | data: 8/11/11 | godz.: 10:21)
bo oznacza to zapewne gonienie wydajności (choćby jednego wątku) do przyzwoitego poziomu właśnie MHz-ami. Gdyby IPC było w Piledriverze znacznie poprawione to mogliby startować z niższego pułapu np 2,5GHz a w razie potrzeby cisnąć ponad 4 dzięki czemu uśredniony pobór prądu byłby jeszcze niższy.
- @9. (autor: Mariosti | data: 8/11/11 | godz.: 11:10)
A może ma niższe IPC, ale lepiej radzi sobie z wyższym taktowaniem? Architektura procesorów to bardzo skomplikowany koncept, ale jeśli wiesz lepiej od inżynierów amd...
- @ up (autor: Zbyszek.J | data: 8/11/11 | godz.: 12:12)
Bulldozery mają dużo dłuższy potok wykonawczy od K10, stąd niższe IPC ale wyższe zegary w tym samym procesie technologicznym (Llano vs BD)
- IPC to nie tylko potok (autor: pio2 | data: 8/11/11 | godz.: 12:40)
SB ma też dużo dłuższy potok i znacznie wyższe IPC. IPC zależy od liczby jednostek wykonawczych, ich możliwości jednoczesnego wykorzystania, dekoderów i sprawności przesyłu danych i rozkazów i mnóstwa detali, o których nawet nie wiemy i które ciągle odkrywaja inżynierowie projektujący układy.
- @10 (autor: Marcel | data: 8/11/11 | godz.: 13:39)
Oczywiście ze nie wiem lepiej od inżynierów AMD ale jak napisał pio2 w poście 12 chodzi nie tylko o samo IPC i MHz. Poza tym przykład intelowskiego P4 pokazał co oznacza brnięcie w MHz. P4 mógł walczyć z A64 bo miał procentowo dużo wyższe taktowanie. AMD jest w o tyle gorszej sytuacji, że w zasadzie z architekturą BD dochodzi do granicy taktowania podobnej jak Intel i to nieważne czy w 32nm czy 45nm. Nawet w 22nm nie liczyłbym na spektakularny skok np o 0,5GHz wyżej bez problemów. W taki sposób walczyć z Intelem się nie da - masz np. max 5GHz i jeśli twój układ potrafi "wypluć" więcej instrukcji na takt to jest po prostu lepszy i wydajniejszy. Tego jakoś niestety AMD nie zauważyło i z Piledriverem nadal pcha się w wysokie zegary...
- @ pio2 (autor: Zbyszek.J | data: 8/11/11 | godz.: 13:47)
IPC to wymysł czysto hipotetyczny, narodził się chyba podczas debiutu Core 2 Duo kiedy Intel chciał podkreślić, że jego architektura jest lepsza. I od tego czasu przyjęło się jego stosowanie.
O długości potoków i innych kwestiach związanych z architekturą kiedyś już piłem dość obszerny (ale i ogólny) felieton, zapraszam do lektury: http://twojepc.pl/...ly.php?id=droga_ku_wydajnosci
- @ add (autor: Zbyszek.J | data: 8/11/11 | godz.: 14:03)
o potokach wykonawczych, a także zależności ich długości z zegarem taktującym i wydajnością CPU traktuje drugi i trzeci rozdział felietonu
http://twojepc.pl/...ga_ku_wydajnosci&strona=2
http://twojepc.pl/...ga_ku_wydajnosci&strona=3
Sprawa jest banalnie prosta - więcej faz potoku to podzielenie procesu wykonywania instrukcji na więcej etapów. Poszczególne etapy są upraszczane i dają się wykonywać w krótszych ułamkach czasu, stąd możliwy jest wzrost taktowania procesora.
Ale to działa też w drugą stronę - przejście z 15 fazowego do 20 fazowego potoku powoduje, że wykonanie instrukcji zajmuje 20 cykli zegara procesora zamiast 15. W efekcie przy zachowaniu tego samego taktowania wydajność CPU (a tym samym i to mityczne/hipotetyczne IPC) spada dokładnie o 1/4.
Oddzielna kwestia to to, czy można tą stratę nadrobić poprzez wzrost taktowania zyskany dzięki wydłużeniu potoku. Niezależnie od tego prąd jest pobierany raz na takt, czyli pobór mocy wzrasta liniowo wraz ze wzrostem taktowania. Lepiej zatem mieć 15-fazowy CPU 3GHz który osiąga taką samą wydajność jak 20-fazowy taktowany zegarem 4GHz, bo ten drugi będzie bardziej energochłonny.
Powyższe stwierdzenia nie odnoszą się i zupełnie pomijają kwestię innych zmian w architekturze, typu usprawniony system predykcji skoków, 4-drożny dekoder zamiast trójdrożnego, które są zupełnie niezależne od długości potoku wykonawczego. Tzn można wprowadzić te zmiany i równocześnie zachować 15-fazowy potok wykonawczy zamiast 20-fazowego. I jeszcze jedno, dotyczące tego poboru mocy - ilość faz potoku można teoretycznie zwiększyć nawet i do 100, jak się komuś zachce i spodoba, ale zmniejszyć poniżej pewnego minimum (jakieś 7-10 faz) raczej nie można. Tzn. owszem da się, ale będzie to de facto powrót do 8086.
PS. Pisałem na szybko, z dużymi uogólnieniami przykładów i skrótami myślowymi.
- @13 (autor: Plackator | data: 8/11/11 | godz.: 14:37)
bulldozera jest 18 etapowy
SB ma potok 20 etapów
C2D z tego co pamiętam 14 etapowy
A64 ma 15 etapowy
Wiec gdzie tu widzisz długi potok wykonawczy? tak samo core2duo>core i7, zwiększenie potoku z 14 faz do 20 faz, wzrost wydajności był? był! spadek był? nie było...
- @Zbyszek.J (autor: pawel.xxx | data: 8/11/11 | godz.: 14:42)
"Sprawa jest banalnie prosta ...
Ale to działa też w drugą stronę - przejście z 15 fazowego do 20 fazowego potoku powoduje, że wykonanie instrukcji zajmuje 20 cykli zegara procesora zamiast 15. W efekcie przy zachowaniu tego samego taktowania wydajność CPU (a tym samym i to mityczne/hipotetyczne IPC) spada dokładnie o 1/4. "
To nie jest tak banalnie proste jak to przedstawiłeś,
a IPC jest realną metryką architektury procesorów.
Uprościłeś tę kwestię do granic możliwości i stąd pewnie wrażenie że jest to banalnie proste. Mało tego gdyby była tak jak piszesz to podnoszenie zegara dzięki wydłużeniu potoku nie powinno przynosić żadnych korzyści.
Ilość cykli jaka jest potrzebna do wykonania jednej instrukcji jest poprawna tylko w przypadku gdy potok wykonawczy został opróżniony np w wyniku wykonania instrukcji skoku.
W pozostałych wypadkach niezależnie od długości potoku kolejne instrukcje będę się kończyć w każdym kolejnym cyklu zegara, a ponieważ przy dłuższym potoku zegar jest wyższy ... .
Reasumując dzięki dłuższemu potokowi można mieć wyższe taktowanie i w normalnych warunkach wykonywanych będzie więcej instrukcji w tym samym czasie.
Po natrafieniu instrukcji skoku trzeba potok opróżnić i zaczekać tyle cykli jak jest on długi aż instrukcja się wykona. Przy czym trzeba mieć świadomość że pomimo tego że przy dłuższym potoku trzeba czekać więcej cykli to sam cykl trwa krócej.
- @ pawel.xxx (autor: bwana | data: 8/11/11 | godz.: 14:58)
o 1/3
- @04 Trafne spostrzeżenie (autor: Pijar | data: 8/11/11 | godz.: 15:21)
Coś w tym jest.
- @ pawel.xxx (autor: Zbyszek.J | data: 8/11/11 | godz.: 15:42)
Tak to wszystko co piszesz to oczywiście prawda, nie mniej przykład dydaktyczny musi być maksymalnie prosty (i taki miał być w poście 15) i dopiero potem można wchodzić w szczegóły
- @ Plackator (autor: Zbyszek.J | data: 8/11/11 | godz.: 16:07)
posiadam inne dane na temat długości faz potoku SB. Natomiast co do Bulldozera nie spotkałem nigdzie informacji o dokładnej liczbie faz potoku, poza tym że jest dużo większa niż w K10.
- No to pszepięknie (autor: losarturos | data: 8/11/11 | godz.: 16:24)
Ulepszone rzdzenie spychacza plus gpu na pokładzie. Takie cudo będzie prąd żarło przeokrutnie. Przy tym wspaniałym stosunku wydajności do pobieranej mocy, przez te rdzenie buldożera, może się okazać że każde włączenie kompa z takim prockiem spowoduje masowe protesty ekologów...
- @up (autor: Plackator | data: 8/11/11 | godz.: 17:00)
rejestracja dozwolona - trolle się pojawia
A myśleć ze mi na pisanie komentarzy zezwolenie zabrano podczas opętania konta DYD'a :)
@21
W sumie nikt nie wie ile ma jeden, jak i drugi
Powiedzmy ze obydwa nie przekraczają 20, raczek ten potok takiego dużego wpływu na wydajnosc nie miał, tak samo na wydajnosc FPU buldka, która teoretycznie jest 2x większa zegar w zegar od SB, a przy maksymalnym wykorzystaniu FPU.. jest na poziomie 2600k.
Wiemy tylko ze ma spieprzony podsystem pamięci cache, ale czy to by miało taki efekt, jaki widzimy teraz ?
czyli rozrzut wydajności względem phenoma II 1100T, 80%-150%.
- @ up (autor: Zbyszek.J | data: 8/11/11 | godz.: 18:09)
Sandy Bridge ma 16 lub 17 faz.
Co do tego co jest zwalone w BD podsystem pamięci cache L1 (potwierdzone) oraz według spekulacji nowy mechanizm przemianowywania nazw rejestrów PRF (Physical Registry File) i część FPU której działa tylko połowa (1 z 2 jednostek).
Na forum xtremesystem jakaś grupa programistów w tamtym tygodniu lub jeszcze w poprzednim chwaliła się, iż opracowała „Registry Fix” dla Bulldozera w postaci łatki na system operacyjny, po którego zastosowaniu wydajność FX-8150 w teście Passmark CPU Score wzrosła z około 8500 do 13000. Niestety procesor wykazywał dużą niestabilność...
- @16 a gdzie ja napisałem że BD ma długi potok? (autor: Marcel | data: 8/11/11 | godz.: 18:10)
Podałem jedynie że walka samym zegarem gdy jest się już blisko jego granicy (i gdy przeciwnik tez już do niej dobija) jest bezsensem. Powinni walczyć właśnie dobrym IPC, bo tym C2D zlały dupska A64 nawet mając niższe zegary.
@Zbyszek - dla mnie IPC ma jak najbardziej wartość realną i mierzalną - jest to jak sama nazwa mówi ilość instrukcji na takt. Wydajności IPC natomiast nie powinniśmy wiązać z długością potoku ale raczej np z "drożnością" dekodera instrukcji czy ilością jednostek wykonawczych.
- @ Marcel (autor: Zbyszek.J | data: 8/11/11 | godz.: 18:39)
Wskaźnik IPC wg. mnie jest tworem nieco sztucznym oraz bardziej hipotetycznym niż praktycznym i został wciśnięty trochę na siłę przy okazji wprowadzania Core 2 Duo z czterodrożnym dekoderem.
Wydajność procesora z architekturą x86 zależy od tak wielu czynników jego architektury, a nawet od samego kodu który jest akurat wykonywany, że wskaźnik IPC może przyjmować diametralnie różne wartości w danych ułamkach czasu.
Można go podać jako maksymalną możliwą do wykonania na jeden takt zegara liczbę rozkazów. Tylko że nie ma to żadnego związku z rzeczywistą wydajnością procesora w dłuższym czasie (znacznie większym niż czas trwania 1 taktu, np 1 sekunda). Sens mógłby mieć ewentualnie wskaźnik IPC max określający maksymalne możliwości architektury procesora w czasie 1 cyklu, nieosiągalne jako średnia w dłuższym przedziale czasowym.
Bliższy realnej i rzeczywistej wydajności procesora jest wskaźnik IPC tzw. średni, np. w czasie jednej sekundy i on miałby sens. Tylko że do tego są już jednostki MIPS i M lub GFLOPS.
- @26 (autor: Marcel | data: 8/11/11 | godz.: 18:56)
"wskaźnik IPC max określający maksymalne możliwości architektury procesora"
i z takim podejściem mogę się zgodzić
Samego IPC oczywiście nie można brać za wyznacznik wydajności bo dookoła jest zbyt wiele innych zależności (długość potoku, rodzaj wykonywanego kodu - dużo/mało skoków, zegar, itp). Nie zmienia to jednak faktu że max IPC da się określić i wskaźnik ten potrafi dać zarys wydajności co właśnie sprawdziło się swego czasu w C2D. Intel wykombinował IPC w granicach 4 zamiast 3 jak w A64 i odjechał z wydajnością pomimo nieco niższych zegarów.
Wracając do Trinity to jak napisałem po wysokim zegarze na starcie wnioskuję że niespecjalnie poprawili bolączki BD (no może poza problemami z cache) z niska wydajnością wątku na zegar.
- kontynując (autor: Zbyszek.J | data: 8/11/11 | godz.: 18:58)
z naukowego punktu widzenia wskaźnik IPC nie jest nawet dobrze zdefiniowany, nie wiadomo jak go mierzyć i co dokładnie ma on określać. Jedynie co można o nim stwierdzić potwierdzonego to to, że przyjął się w recenzjach jako prosty sposób na dość ogólne wytłumaczenie ludziom że wydajność procesora na takt zegara wzrosła, przy czym nie jest sprecyzowane czy chodzi o wydajność maksymalną w jednym takcie, czy średnią w dłuższym czasie, w praktyce IPC odnosi się do jednego i drugiego lub obu tych rzeczy jednocześnie. Ostatnio jest już nawet stosowany przez marketingowców od slajdów, zarówno tych z Intela jak i AMD, nad czym osobiście ubolewam. Bardziej precyzyjne, poprawne i po prostu bardziej naturalne jest wyrażenie "performance improvement" niż "IPC improvement"
- @Zbyszek (autor: rainy | data: 8/11/11 | godz.: 20:01)
Odnośnie Twojego posta (nr 24): to jednak oznacza, że pomimo popełnionych przy projektowaniu Bulldozera błędach, ma ta archiektura spory czy wręcz duży potencjał, co oznacza, że najwięksi krytycy jednak błądzą, twierdząc, iż jest beznadziejna.
- @ up (autor: Zbyszek.J | data: 8/11/11 | godz.: 20:09)
To jest oczywiste że sam koncept jest niezły, natomiast kuleje i to bardzo wykonanie. Tak to jest gdy się nie ma za co opłacać dobrych inżynierów i trzeba polegać na oprogramowaniu/automatach projektujących (polecam wywiad z byłym pracownikiem AMD na Xbit-Labs). No ale nie ma co się dziwić, w końcu Bulldozer powstawał w czasach gdy AMD notowało kwartalnie 300-400 mln. USD straty.
- @up (autor: Plackator | data: 8/11/11 | godz.: 20:48)
Zawsze jest trudno z czymś nowym, ile intel pracował nad tym, ze by powstała grafika która potrafi coś więcej niż wyświetlanie pulpitu, i to nie specjalnie dobrze?
- znowu nowa podstawka? (autor: Adex1234 | data: 9/11/11 | godz.: 18:08)
a pisali że Intel często zmienia, a tu tak dymają klientele
- @pomidor Zgadza się... (autor: losarturos | data: 11/11/11 | godz.: 19:14)
Ulepszone rdzenie spychacza i gpu. Przecież to będzie żarło prąd bardziej niż Wielki Zderzacz Hadronów ;-) Przy takim cudownym stosunku... wydajności spychacza to pobieranej energii bałbym się kupić Trinity z obawy przed masowymi protestami ekologów, pod moją chatką, po włączeniu kompa z tym cudem.
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|