GlobalFoundries, czyli spółka joint venture stworzona przez ATIC oraz AMD zaprezentowała podczas konferencji Global Technology zdjęcia prezentujące układy zbudowane w oparciu o architekturę Bulldozer. Uczestnicy konferencji mieli okazję przyjrzeć się bliżej serwerowej odmianie nowego rozwiązania firmy z Sunnyvale - Orochi. Pomimo iż na zaprezentowanym w rozwinięciu newsa zdjęciu poszczególne elementy nie zostały opisane, to jednak z łatwością można dostrzec cztery moduły Bulldozera, każdy wyposażony w dwa rdzenie ze współdzieloną pamięcią podręczną L2. W środkowej części możemy również dostrzec dostępną dla wszystkich rdzeni pamięć trzeciego poziomu, kontroler pamięci został najprawdopodobniej ulokowany po prawej stronie a interfejsy na pozostałych bokach.
Zdjęcia te nie prezentują jednak całego układu, co ma utrudnić inżynierom Intela oszacowanie wydajności nowego produktu AMD. Oprócz Bulldozer'a w 2011 roku zadebiutuje również architektura Fusion. W tym przypadku najciekawiej prezentuje się wykonany w 32nm technologii produkcji APU (accelerated processing unit), którego elementy zostały wyszczególnione i opisane. Llano to połączenie CPU, będącego rozwinięciem architektury K10 z 1MB pamięci podręcznej drugiego poziomu przypadającym na każdy z czterech rdzeni i GPU wyposażonego w 480 procesorów strumieniowych. Procesor graficzny pod względem wydajności jest porównywany z Radeonem HD 5670 i w pełni wspiera nowe API Microsoftu - DirectX 11, ale jego realną wydajność poznamy prawdopodobnie dopiero w dniu premiery. Jeszcze przed debiutem Llano, którego wytwarzaniem zajmie się Global Foundries światło dzienne ujrzy produkowany w fabrykach TSMC Ontario (40nm).
Orochi (Bulldozer)
K O M E N T A R Z E
Wedelek (autor: Grave | data: 2/09/10 | godz.: 13:19) <<Umieszczony w dolnej części procesor graficzny pod względem wydajności został porównany z Radeonem HD 5670 >>
Gdzie został porównany i przez kogo? Na tej konferencji przez przedstawicieli AMD (ew. GF)?
Ktoś z AMD w ogóle wypowiadał się na temat GPU w LLano i podzielił się jakimikolwiek szczegółami donośnie tego GPU?
A tak btw. warto dodać że zdjęcie Orochi nie przedstawia dokładnie wyglądu nowego CPU, bo zostało przerobione celowo w Photoshopie....
Taaa (autor: pomidor | data: 2/09/10 | godz.: 13:52) Photoshop, Powerpoint, Adobe Acrobat Acrobat. to są główne narzędzia pracy a AMD
NIEE... (autor: kosa23 | data: 2/09/10 | godz.: 14:05) AMD przerobiło zdjęcie w GIMPIE, bo przecież mają budżet nadwyrężony ;)
Wedelek, te 480SP to "na oko" ustalone przez Xbit (autor: Grave | data: 2/09/10 | godz.: 14:18) na podstawie zdjęcia LLano. AMD ofcjalnie żadnych danych odnośnie GPU w LLano poza tym, że będzie wspierał DX11 nie podało.
Zresztą nie wiem czy zauważyłeś, ale wszędzie gdzie jest mowa o tych 480SP powołują się na Xbit, a rzeczony Xbit napisał tak:
<<Based on the die shot displayed by Rick Bergman, senior vice president and general manager of AMD’s products group, the first Fusion processor from AMD will feature 4 x86 cores that resemble those of Propus processor (AMD Athlon II X4) as well as 6 SIMD engines (with 80 stream processors per engine>>
Tyle gwoli ścisłości względem oficjalnych komunikatów AMD.
Hmmmm... (autor: Mcmumin | data: 2/09/10 | godz.: 14:20) "Zdjęcia te nie prezentują jednak całego układu, co ma utrudnić inżynierom Intela oszacowanie wydajności nowego produktu AMD" - raczej, aby utrudnić dziennikarzom i użytkownikom zjechanie produktu przed premierą. Nie ma bata, aby wydajność procesora takt w takt była lepsza od SB.
Zarty zartami (autor: PCCPU | data: 2/09/10 | godz.: 14:22) Ciekawe kture moduly Orochi sa blizej prawdy te gorne czy dolne.
Już widzę że to ma wydajność R 5670 (autor: pomidor | data: 2/09/10 | godz.: 14:29) Chyba że umieszczą tego cztery na płycie, połączone Quad Crossfire i chłodzone ciekłym azotem
@Grave (autor: trepcia | data: 2/09/10 | godz.: 14:37) "A tak btw. warto dodać że zdjęcie Orochi nie przedstawia dokładnie wyglądu nowego CPU, bo zostało przerobione celowo w Photoshopie...."
Jeśli mieliby wprowadzić coś nowego, coś czego nie ma konkurencja to krok jak najbardziej odpowiedni.
@Mcmumun (autor: bananowy song | data: 2/09/10 | godz.: 14:38) kogo obchodzi takt w takt? ważniejsze jest cena w cene :) ewentualnie wat w wat
... (autor: pawel.xxx | data: 2/09/10 | godz.: 14:39) te dolne rdzenie buldozera sa znacznie mniejsze od tych górnych o co chodzi?
trepcia (autor: Grave | data: 2/09/10 | godz.: 14:42) Konkurencja już ma na to odpowiedź - leży i się kurzy od roku w oczekiwaniu, aż AMD w końcu coś się "urodzi" z tych zapowiedzi serwerowanych od dobrych 3 lat...
pawel.xxx (autor: Grave | data: 2/09/10 | godz.: 14:44) Bo, jak napisałem wyżej, to zdjęcie zostało przerobione. Żadna skala tam nie obowiązuje, część zamazali, część pomniejszyli, część powiększyli i cholera wie co jeszcze. Tak czy inaczej to co widać nie oodaje realnego produktu.
Z tego co widać bulldozer to wtopa (autor: pomidor | data: 2/09/10 | godz.: 15:11) Nawet zakładając że te górne większe rdzenie są prawdziwe, to i tak są zbyt małe aby mieć sensowną wydajność. U Intela rdzenie zajmują jakieś 50 % powierzchni - http://www.anandtech.com/show/2960/2. Zaś w Bulldozer jakieś 30 %. Widać że w AMD brakuje inżynierów którzy potrafią stworzyć zaawansowany rdzeń. Zamiast tego wpychają na siłę L2 i L3.
...... (autor: Wujofefer | data: 2/09/10 | godz.: 15:12) A co jeśli te wyliczenia są błędne a wydajność APU jest nie na poziomie R5650 czy R5670 a o oczko wyżej czyli R5750 lub R5770? http://pclab.pl/news43118.html
AMD widzi, że interfejs 128bitowy trzeba zarezerwować dla układów niskobudżetowych a nie dla średniej klasy kart.
@pomidor (autor: Wujofefer | data: 2/09/10 | godz.: 15:15) OMG. Odezwał się inżynier zajmujący się od wielu lat projektowaniem układów. :/
@Grave (autor: trepcia | data: 2/09/10 | godz.: 15:17) Skąd wiesz co dokładnie ma AMD i co tam zamazali? Kolejne wróżenie z fusów z Twojej strony? Szkalana kula mode ON?
Nie tak dawno Zbyszek wypominał Twoje błędy w "przewidywaniu" a widzę, że kolejny raz to robisz, po co? By znowu wyjść na kretyna?
@bananowy song - wszystkich powinno to interesować. (autor: Mcmumin | data: 2/09/10 | godz.: 15:22) Why? Ano dlatego, że dopóki Intel nie będzie miał realnej konkurencji, to ich polityką cenową będzie rządził dział marketingu a nie rynek. Przykład niemal z tej samej beczki - rynek kart graficznych. Ceny kart AMD z serii 5xxx spadły nieznacznie od czasu premiery. U nas w ogóle, bo małe obniżki zostały zjedzone przez osłabienie złotówki. Realna obniżka czeka nas dopiero ładnych kilka tygodni po premierze kart z serii 6xxx, bo działania nV nie zmuszają ich do tego zupełnie.
Jest Grave - jest impreza (autor: Zbyszek.J | data: 2/09/10 | godz.: 15:22) Górne zdjęcie to oryginał z konferencji (nawiasem mówiąc to zdjęcie to wyciek, bo konferencja była zamknięta, a wypływ informacji zabroniony). Dolne zdjęcie jest przerobione w Photoshopie przez pewną osobę z forum xtemesystems, specjalnie po to, żebyś więcej i lepiej widział.
Jeżeli nie przemawia do Ciebie, że są osoby bardziej znające się na procesorach niż Ty, które widząc rdzeń są w stanie z całą pewnością stwierdzić, że to jest 480 procesorów strumieniowych, to ja napisze inaczej:
GPU w LIano (32nm) zajmuje około 90mm^2, co po przeliczeniu odpowiada powierzchni około 120-125 mm^2 w wymiarze technologicznym 40nm. Dla porównania 40nm rdzeń Redwood (400SP) ma powierzchnię 104 mm^2.
Lepiej byłoby dla ogółu, gdybyś nie zabierał głosu w tematach o procesorach, lub bardzo mocno ograniczył ilość swoich wypowiedzi. Nie znasz się na procesorach a udajesz najmądrzejszego, co udowodniłem Ci już wiele razy, ostatnio tutaj: http://twojepc.pl/news22118.html
Wracając do samych zdjęć - są one bardzo niewyraźne i w małej rozdzielczości, dlatego trudno wiele zauważyć. Nie mniej to co rzuca mi się w oczy to:
- na pewno nie jest to Orochi, tylko układ testowy (różnice w rozmiarze rdzeni)
- sumaryczna pojemność pamięci L2 jest taka sama (lub bardzo zbliżona) jak L3.
- pomimo różnicy w wielkości dole i górne rdzenie są bardzo podobne w budowie - w górnych rdzeniach można zauważyć te same jednostki co w dolnych tyko niektóre z nich są zdublowane. Gdybym miał spekulować - górne rdzenie to pełny moduł Bulldozera, natomiast dolne to Bulldozer ale bez drugiej części INT. Zapewne powyższy układ służy do testów, jaki jest zysk wydajności po zaimplementowaniu drugiej części INT w rdzeniach.
Wujofefer (autor: Grave | data: 2/09/10 | godz.: 15:24) Nie wiadomo nawet czy Fusion na pewno ma te 480SP (zależy jak dobre okulary mają panowie z Xbita), a co dopiero mówić o >700SP (HD 5750)....
Spodziewam się realnie czegoś co najwyżej o wydajności ~Mobility Radeona HD 5650.
Ten pożera 20W energii, co przy przejściu na 32nm powinno dać 12-15W a więc wartość adekwatną dla IGP.
Natomiast więcej raczej nie dadzą, bo inaczej TDP całego układu im pójdzie ostro w górę.
tacy jak fanboy-e wyżej (autor: mandred | data: 2/09/10 | godz.: 15:25) powinni zostać ubezwłasnowolnieni i wykastrowani dla dobra ludzkości.
Nie pokażą źle pokażą jeszcze gorzej. Panowie macie syndrom małego penisa, w dodatku pewnie wykorzystujecie go w takim procencie jak mózg.
Orochi (autor: rainy | data: 2/09/10 | godz.: 15:26) Jak widzę, tradycyjny zlot haterów AMD, a przoduje Grave - trudno powiedzieć, żebym był zaskoczony.
Btw, pomidor - wiem, że są one czerwone, zielone, pomarańczowe, żółte ale o niebieskich, jako żywo nie słyszałem.
Pomidor (autor: Aamitoza | data: 2/09/10 | godz.: 15:27) Ale Ty smęcisz. Jeżeli górne są prawdziwe, to sam moduł zajmuje około 15mm2 + 6,3mm2 L2 = 21,3mm2 (obliczenia oparte o upakowanie L2 w 32nm Llano - 6,3mm2 na 1MB). W przypadku intela rdzeń wraz z cacheL2 zajmuje 18,4mm2, bez L2 również około 15/16 mm2.
Zbyszek (autor: Grave | data: 2/09/10 | godz.: 15:29) Czyli wg tego co napisałeś AMD albo jeszcze nie udało się wyprodukować "pełnego" buldozera, albo udało się ale jakoś nie chcą się tym chwalić. Tak czy inaczej, nice....
Grave (autor: Aamitoza | data: 2/09/10 | godz.: 15:31) A czy tę prezentację zorganizowało AMD?
"GlobalFoundries, czyli spółka joint venture stworzona przez ATIC oraz AMD zaprezentowała podczas konferencji Global Technology zdjęcia prezentujące układy zbudowane w oparciu o architekturę Bulldozer"
tyle w temacie chwalenia się przez AMD.
rainy (autor: Grave | data: 2/09/10 | godz.: 15:35) Ty za to jesteś piewcą AMD. Tylko w przeciwieństwie do Ciebie ja jestem w o tyle lepszej sytuacji że Intel broni się sam swoimi produktami nawet bez moich pochwał, natomiast AMD nawet Twoje opinie o ich produktach bardzo podkolorowane nie pomogą, bo po prostu są mocno zapóźnieni za Intelem. Takie fakty.
A w rewolucyjne zapowiedzi AMD już nie wierzę. Po tym jak rozpowiadali na prawo i lewo jak to ich K10 "changes the game" etc a okazał się słabym CPU.
Dziękuję, następnym razem uwierze jak zobaczę. A na razie widzę tylko papierowe prezentacje i wafle krzemowe czyli etap na którym Intel był z Sandy Bridge rok temu...
@ Aamitoza (autor: Zbyszek.J | data: 2/09/10 | godz.: 15:39) Wyliczenia są dobre, ale przy założeniu że L2 jest faktycznie 1MB na moduł i gęstość cache w Bulldozerze jest identyczna jak w Llano (może być inna, dla przykładu gęstość cache 65nm Brisbane i 65nm Barcelony/Ageny - w Barcelonie 512KB cache L2 zajmuje blisko połowę mniej powierzchni niż w Brisbane.).
Dwa - jeżeli L2 jest 1MB na rdzeń, to L3 na cały układ jest 4MB - a to chyba trochę mało... (tej pamięci ma być 8MB). Także bardziej prawdopodobny wariant to 2MB cache L2 na moduł. Ale pamiętajmy, że to tylko układ testowy a nie Orochi w wersji produkcyjnej. Także na razie wiemy zbyt mało, by pisać cokolwiek o powierzchni rdzeni, modułów i całego układu. Wystarczy inna gęstość cache niż w Llano i jesteśmy w czarnej dziurze z obliczeniami...
powiem tak (autor: Krax | data: 2/09/10 | godz.: 15:47) prawie wszystkie komentarze sa zbedne, zwlaszcza te na poczatku.... ja tez tak potrafie" intel to syf... nie wart swej ceny" itp... cos takiego nic nie wnosi...
Zbyszek.j u ciebie widac jakis tok myslenia....
ja sie nie wypowiadam.... dalej mam nadzieje ze programisci wykorzystaja potencjal apu
@Grave (autor: Marek1981 | data: 2/09/10 | godz.: 15:51) Ot kolejny przydupas morgiego:)
"A w rewolucyjne zapowiedzi AMD już nie wierzę." Tak a kto wprowadził rewolucyjne amd64, athlona Barton??
"że Intel broni się sam swoimi produktami"
tak tak a skąd tyle przegranych procesów???
"bo po prostu są mocno zapóźnieni za Intelem" fakt ale spowodowany w połowie praktykami Intela a w połowie lekkomyślnością samego AMD.
Zbyszek (autor: Aamitoza | data: 2/09/10 | godz.: 16:06) Właśnie biorę pod uwagę, że to układ testowy. Kontroler pamięci z tego co widzę, jest wywalony na prawą stronę, więc po środku jest sporo nie zagospodarowanej przestrzeni.
Lub inna opcja - tak ma być i AMD pisząc o 8MB cache podaje całkowitą ilość cache. - 4MBL2 + 4MB L3, tak jak obecnie jest mowa o 8MBCache w denebie i 9MB w Thubanie.
@up (autor: wind | data: 2/09/10 | godz.: 16:08) Grave zachowujesz się trochę jak fanatyk
takich to juz widziałem pod krzyżem(przepraszam za porównanie)
każdy wie-lub prawie każdy, że Intel ma wydajniejsze procki ale po co sie tak gorączkujesz?
IGP maja teraz lepsze bo wydali je wcześniej niż AMD
ale to akurat sie zmieni-czas pokaże kiedy :)
nie ma sie co tak zaciekle kłócić nie uważasz ?
nie szkoda CI życia na takie pierdoły?
@ Grave #23 (autor: Zbyszek.J | data: 2/09/10 | godz.: 16:11) Po raz kolejny pokazałeś swój kunszt i komplety brak wiedzy na temat procesu opracowywania układów.
Testy różnych układów które nigdy potem nie trafią do produkcji i sklepów są normalnością. Robi się je między innymi po to, żeby ostatecznie zadecydować co produkować i dobrze wiedzieć jakie to ma właściwości. Dowód? Proszę bardzo - oto zdjęcie jednego rdzenia Brisbane (65nm Athlon X2, K8), które wyciekło tuż przed wprowadzeniem tych układów na rynek: http://images.dailytech.com/...5nm_amd_jprdmap.jpg
Na pierwszym zdjęciu jest 1MB cache na rdzeń oraz 4-dekodery rozkazów. Na drugim (wersja produkcyjna) 512KB na rdzeń i 3 dekodery rozkazów. Tylko, trzeba jeszcze wiedzieć gdzie te dekodery są...
W tym momencie, jeżeli zrozumiałeś, to znając Cie zapewne chciałbyś napisać, że skoro tak - to pewnie zysk z drugiej części INT Buldozera musi być niewielki jeżeli zastanawiają się czy ją dodawać do rdzeni - nieprawda, testują choćby po to, żeby nie napisać kompletnych bzdur na slajdach premierowych. Zwyczajnie, chcąc chwalić się tym ile daje druga część INT muszą dobrze znać wydajność modułu bez niej. Proste ja drut, niestety nie dla wszystkich.
Żeby dotarło, muszę się zniżyć i wyłożyć Ci to łopatologicznie na pewnym lakonicznym przykładzie: na 6-12 miesięcy przed wprowadzeniem Radeonów HD 4870 grupka testerów dostała kilka kart graficznych z różnymi wersjami układów RV770 różniących się np. liczbą procesorów strumieniowych (np jeden układ 640, drugi 800, trzeci 960). Każdy dostał po jednej karcie i miał przedstawić między innymi wykresy zależności wydajności od częstotliwości taktowania rdzenia, poboru mocy od częstotliwości taktowania rdzenia oraz napięcia zasilania wymaganego dla dalej częstotliwości taktowania. Potem takie dane dostaje kierownictwo i po analizie decyduje co produkować na masową skalę - na przykład czy bardziej opłaca się wprowadzić RV770 z 960 procesorami strumieniowym i zegarem 650 MHz, czy z 800SP i 750 MHz. Same układy w różnych wersjach w niewielkich ilościach są gotowe na wiele miesięcy przed premierą końcowego produktu.
Przepraszam, ale rozmowa z Tobą nieraz przypomina dyskutowanie o liczbach zespolonych i fizyce kwantowej z pierwszakiem w podstawówce.
@28 (autor: krzysiozboj | data: 2/09/10 | godz.: 16:14) Trochę naciągasz.
1. Grave chyba nie kwestionuje przebojowości Athlona64 kiedy ten wchodził, ot zwyczajnie jest widocznie zmęczony papierowym straszeniem czym to buldozer nie będzie już od ok 3 lat chyba, to nieco za długo.
2. Intel dzisiaj broni się produktem swoim, procesy wywodzą się z czasów P4 i Athlona64 a to już ładne kilka lat.
3. co do zapóźnienia - fakt i tyle, skąd to się wzięło to już osobna bajka.
@Aamitoza (autor: rainy | data: 2/09/10 | godz.: 16:17) Intel miał zawsze więcej cache w swoich procesorach ale trudno mi uwierzyć, aby AMD zmniejszyło jego wielkość w 8-rdzeniowym procesorze względem obecnej generacji.
hiehie (autor: morgi | data: 2/09/10 | godz.: 16:21) atrapy no nie moge, myslalem ze tylko gpu to dotyczy i photoshopa mozna se darowac, ale jak sie nie ma gotowego procesu to mozna ciskac kity.
globalik tez juz urealnia roadmapy na pozniejsze terminy, radosny chocholi taniec, mieli zloty rog i nawet sznura ni ma. Oki doki, przynajmniej Intel w 32 nm klepie.
@Grave, widzę że dalej jesteś niewyleczony z kompleksów (autor: Qjanusz | data: 2/09/10 | godz.: 16:22) pie...isz głupoty, opowiadasz bajki FanSryntela aż żygać się chce.
Jakiekolwiek wróżenie w wydajności, zwłaszcza komentujących gówniarzy z tego portalu jest totalnie bez sensu. Fotki są tak zrobione, aby nie mogła zrobić tego sama konkurencja, ale jeden debil z drugim już przeliczył sobie ilość kolorowych kratek tak, aby być pewnym że to to wydajne nie będzie.
Bez sensu jest również pisanie o przewidywalnej wydajności części GPU układu APU. Nie znamy szczegółów podsystemu pamięci, więc wszystkie przewidywania szlag może trafić, pewnie ku uciesze pudelka Grave'a.
I na koniec dodam że dam sobie rękę uciąć, że "owe" przecieki były moderowane, komponowane i inspirowane przez samą fabrykę.
@ Aamitoza (autor: Zbyszek.J | data: 2/09/10 | godz.: 16:24) Możesz mieć rację - 8 MB cache ale łącznie L2 + L3. Zresztą to, że moduł Bulldozera (bez cache L2) zajmuje około 60% więcej powierzchni niż rdzeń Llano (też bez cache L2) jest bardzo sensowe.
Tak więc można (ale bardzo orientacyjnie) przyjąć powierzchnię jednego modułu BD na około 15-16mm2.
@Amitoza (autor: pomidor | data: 2/09/10 | godz.: 17:08) Sprawdź swoje rachunki, bo mi wyszło inaczej. Zakładając że L2 ma 6 mm, wówczas 2 rdzenie + FP mają 14mm, zaś bez jednego rdzenia (12%) jest 12.5 mm. W przypadku gulftowna mamy 18.35 mm na rdzeń, zaś bez L2 mamy 17.3 mm. Wówczas 17.3 / 12.5 = 1.4, czyli 40 % tranzystorów więcej.
@krzysiozboj (autor: Marek1981 | data: 2/09/10 | godz.: 17:13) Nie masz racji, nie zauważyłem w tamtej wypowiedzi "teraz" a więc to stwierdzenie uogólnione. Jak trzeba ganić to jednych i drugich.
"Grave chyba nie kwestionuje przebojowości Athlona64" to o ile mnie pamięc nie myli nie jest prawdą, przypominam sobie jak chwalił ostatnie P4 iż były lepsze od athlonów.... (w niektórych aplikacjach tak rzeczywiście było)
"co do zapóźnienia - fakt i tyle, skąd to się wzięło to już osobna bajka" nie inna bajka tylko ciągle jedna i ta sama co trwa od ponad 10 lat.
@Grave (autor: rainy | data: 2/09/10 | godz.: 17:26) Muszę przyznać, iż dość irytujące jest, jak puszczasz mimo uszu opinie/uwagi osób, (np. Zbyszek), których wiedza jest z całą pewnością dużo większa od Twojej.
Sam fakt przeczytania od czasu do czasu artykułu na Anandtechu lub podobnym portalu, nie czyni z Ciebie eksperta w dziedzinie procesorów i ich potencjalnej wydajności.
Btw, może zwróciłeś uwagę iż Fudzilla (Fuad) wycofowała się ze swojej bzdury - piszą o K8 ale w kontekście Athlona II.
Będziesz odszczekiwał, to co napisałeś?
Pomidor. 6,3mm2. (autor: Aamitoza | data: 2/09/10 | godz.: 17:30) Więc wzrasta o 1 mm2 do 16mm2.
Poza tym 1 moduł = 2 wątki i 1 rdzeń SB także =2 wątki. Więc nie dziel sobie tylko po to aby pokazać wyższość intela, bo nic tym nie pokazujesz.
Więc 1 czy 1,5mm2 różnycy wiele nie zmienia.
...... (autor: Marek1981 | data: 2/09/10 | godz.: 17:39) @Aamitoza - zgadza się, ale u intela 1 rdzeń to 2 wątki dające kopa w określonych sytuacjach. Natomiast w B ma 1 rdzeń (moduł) złożony z 2 mniejszych i teraz wszystko zależy od tego jak AMD uda się rozwiązać problem z aplikacjami tzn czy jeden moduł będzie widziany w nich jako całość czy będzie obciążać tylko jeden rdzeń. Jak uda im się to pierwsze to możemy liczyć na duży wzrost wydajności.
rainy (autor: Grave | data: 2/09/10 | godz.: 17:45) pretensje do źródła a nie do mnie. Okazało się niezbyt precyzyjne i to wszystko co mogę przyznać.
A co do takich przewidywań na podstawie zdjęć układów to przecież nie kto inny a Zbyszek właśnie do końca bronił K10 uważając że budowa układu wskazuje na to że powinien on być dużo szybszy od Core2 i... dużo szybszy niż jest w rzeczywistości (4 dekodery instrukcji rzekomo).
Tak więc nikt nie jest nieomylny.... Zresztą takie oględziny fotek powierzchni CPU to ciągle w dużej mierze zgadywanka i często nietrafiona. Vide art. Ryszarda Sobkowskiego o Brisbanie i "podejrzenie" o dołożenie 4 jednostki wykonawczej przez AMD, które niestety się nie sprawdziło.
Marek 1981 - czasy P4 minęły 5 lat temu, od premiery Core2 to AMD goni, a Intel ucieka i to coraz szybciej. Próba międlenia cały czas tamtej sytuacji nie ma żadnego sensu.
"Co by było gdyby Intel WTEDY grał uczciwie..." można zostawić, bo nie wiesz jakby było. Może AMD miałoby teraz dużo większe udziały, a może tylko trochę. Może by mieli opracowaną wcześniej nową architekturę, a może nie, moze mieliby więcej kasy, ale ile więcej - też NIE WIADOMO.
Nie da się cofnąć w czasie i rozgrać całej historii na nowo bo TO JUŻ MINĘŁO!!
Marek (autor: Aamitoza | data: 2/09/10 | godz.: 17:49) Będzie tak jak u intela - najpierw każdy moduł jest obciążany przez 1 wątek, a potem dopiero dochodzi drugi. W pierwszym wypadku masz 4 dekodery na wątek 2 ALU, 2AGU i pełne 2x128bit(1x256bit)FPU. Więc w porównaniu do SB będzie 1 ALU mniej, więc zapewne będzie to wolniejszy procesor od SB, ale po dołożeniu 2 wątku dojdą dwie dodatkowe ALU i 2 AGU, a FPU zostanie podzielone po 128bit na moduł. - u intela jedynie zostaną zapełnione puste przebiegi co w zależności od aplikacji daje od 10-40% wydajności. W przypadku Bulldozera ten wzrost będzie dużo łątwiejszy do przewidzenia, bo po prostu dostajemy drugi moduł INT i nie martwimy się ilością pustych przebiegów. A co do wykorzystania pełnego modułu do 1 wątku - wątpię, ale na pewno nie jest to niemożliwe.
PS. A co do tego o czym pisał Zbyszek - czyli robieniu wersji testowych układów z różną liczbą jednostek - pamiętam jeszcze jak sporo przed premierą Ageny były skany K8L z 4 dekoderami, a skończyło się i tak na 3 w ostatecznym produkcie.
Grave (autor: Aamitoza | data: 2/09/10 | godz.: 17:52) "A co do takich przewidywań na podstawie zdjęć układów to przecież nie kto inny a Zbyszek właśnie do końca bronił K10 uważając że budowa układu wskazuje na to że powinien on być dużo szybszy od Core2 i... dużo szybszy niż jest w rzeczywistości (4 dekodery instrukcji rzekomo)."
Bo w pierwszych projektach K8L były 4 dekodery, ale widocznie się nie sprawdziło, bo co nam po 4 dekoderach, skoro nadal mamy 3ALU/AGU? Może wzrost wydajności był minimalny, a sprawiał taki układ więcej problemów.
otwarcie w 32nm (autor: rookie | data: 2/09/10 | godz.: 18:11) Widać normalny rdzeń a nie papierowe obietnice jak u niebieskiego potwora ;)
Ciekawe tylko ile L3 będzie przypadać na rdzeń. Jakby było 2mb na rdzeń w przypadku zarówno l2 jak i l3 to byłoby super. Rok 2011 zapowiada nowe otwarcie: 8rdzeni 32nm+sprzętowy HT +nowy Socket am(3+) z nową wersją Hypertransport. Zapowiada się to ciekawie. O wiele bardziej obiecująco niż zamki na piasku intela :)
... (autor: Pararocker | data: 2/09/10 | godz.: 18:17) Od Intela wyciekacją testy SandyBridge, a AMD prezentuje niewyrazne zdjecia swojej papierowej architektury.
@38 (autor: krzysiozboj | data: 2/09/10 | godz.: 18:19) ajjj, z tym "teraz" to takie czepianie się na siłę, co do zapóźnienia - chyba tylko morgi z emu mógłby kwestionować wpływ praktyk intela na rozwój AMD ale to już było, nie wiem czy jest sens ciągle to wałkować. Jeśli mówimy o obecnym rynku CPU to jest jak jest, Intel ma sporą przewagę i tyle, stwierdzenie tego faktu nie musi oznaczać że doszedł do tej pozycji czysto ale to moim zdaniem temat na inną dyskusję, dyskusję o tym co było i co by było gdyby ...
co do wróżenia wydajności ze zdjęć/przecieków - ano było sporo szumu o spodziewanej super wydajności K10, o owych 4 dekoderach etc, analizy zdjęć itp. Czas pokazał że gdybania były błędne, że wyszło bardzo mizernie, nie widzę powodów by teraz wieszać psy po kimś kto sugeruje możliwą powtórkę z rozrywki. Bo to co się pisze n/t spodziewanej wydajności/sposobu pracy buldozera to WROZENIE Z FUSÓW które może okazać sie bardziej lub mniej trafne. Optymiści będą chcieli powtórki z Athlona/Athlona64, pesymiści mogą zapowiadać powtórkę z PhenomaI, czas pokaże czym buldozer będzie a wycieczki osobiste średnio sens mają bo ... to nadal bajdurzenie na podstawie fusów.
@ all (autor: Zbyszek.J | data: 2/09/10 | godz.: 19:12) Ten przykład który podałem, dotyczący robienia wielu różniących się wersji testowych tych samych układów przed ich premierą jest tylko przykładem ogólnym, poglądowym. Różnice pomiędzy wersjami testowymi a produkcyjnymi niekoniecznie muszą dotyczyć ilości jednostek. Weźmy jeszcze raz RV770 - jedną z głównych zmian była rezygnacja z kontrolera RingBus. Myślicie, że ktoś podjął decyzję o rezygnacji z RingBusa, bo tak mu się podobało? bo miał akurat takie „widzimisię” w ten dzień? Nie - musiały równolegle na wiele miesięcy przed premierą powstać dwie wersje RV770 z taką samą liczbą SP, ale jedna z RingBusem a druga bez. Następnie po serii testów i analizie zysków i strat stwierdzono, że warto zrezygnować z RigBusa, bo korzyści są dużo większe niż spadek wydajności.
Takich rzeczy nie robi się na oko, na podstawie „widzimisię” - wszystko musi być zbadane, udokumentowane i przeanalizowane. Do tego służą całe masy układów testowych, w różnych wersjach mniej lub bardziej odbiegających od wersji produkcyjnych.
Tak samo nie buduje się mostów na oko, a ich projektant w momencie ich otwarcia i puszczenia ruchu nie oczekuje z wielką ciekawością, czy po wjechaniu na most 50 samochodów most się zawali czy nie. Wszystko wcześniej musiało być policzone, sprawdzone i udokumentowane.
@ K10
Co do dekoderów w K10 to fizycznie jest 4 dekodery. Dysponuje zdjęciami wielu rdzeni w bardzo wysokiej rozdzielczości, w tym rdzenia Deneb w rozdzielczości 2260x1768 pikseli. Zaznaczyłem na biało 4 dekodery w jednym z rdzeni: http://img697.imageshack.us/...esingle04720888.jpg
Problem jest taki, że pomimo fizycznej obecności 4 dekodera nadal pracują tylko 3, tak jak w K8. Dlaczego tak jest trudno powiedzieć, nie mniej jest to główną przyczyną kiepskiej wydajności K10.
Opracowanie procesorów nie jest takie proste jakby mogło się wydawać. W dużym skrócie - nie wystarczy dołożyć jednostek i wszystko będzie działać. Trzeba jeszcze wprowadzić zmiany w mikrokodzie wewnętrznym procesora, innymi słowy oprogramować nowy hardware w jego wnętrzu, zapanować nad przepływem i przetwarzaniem rozkazów w zmodyfikowanym procesorze.
Widocznie na tym etapie w K10 coś musiało się nie udać, tak jak pisze Aamitoza ( "co nam po 4 dekoderach, skoro nadal mamy 3ALU/AGU?" ), jednak raczej na pewno przyczyną wyłączenia 4 dekodera w K10 nie był brak wzrostu wydajności tylko inne problemy - Core 2 zawdzięcza duży wzrost wydajności 4 dekoderowi, a ma tylko 3 jednostki ALU i 2 AGU (mniej niż K8).
@ Grave
„A co do takich przewidywań na podstawie zdjęć układów to przecież nie kto inny a Zbyszek właśnie do końca bronił K10 uważając że budowa układu wskazuje na to że powinien on być dużo szybszy od Core2 i... dużo szybszy niż jest w rzeczywistości”
Owszem przewidywałem, że K10 będzie zegar w zegar 10-15% bardziej wydajny od Core 2, czyli jakieś 20% bardziej niż jest teraz. I gdyby ten 4 dekoder instrukcji (który jest obecny fizycznie w układach) działał, to mniej więcej tak właśnie by było. Ale nie działa, więc jest jak jest...
Masz rację, nikt nie jest nieomylny, także ja. Nie mniej należy dodać, że ja przewidywałem wydajność tego co było zapowiadane, a nie tego co w końcu trafiło na rynek.
@ Grave (autor: Zbyszek.J | data: 2/09/10 | godz.: 19:25) Jeszcze jedno - często powtarzałem już, że układy są gotowe na wiele miesięcy przed ich wprowadzeniem na rynek.
Zobacz sobie dane EXIF tego zdjęcia Deneba, które wyżej wrzuciłem - a konkretnie na datę wykonania tego zdjęcia.
Z tego co pamiętam, to wiele miesięcy po zrobieniu tego zdjęcia, gdzieś w połowie 2008 roku naśmiewałeś sie, że AMD jeszcze pewnie w ogóle nie ma ani 45nm ani nawet próbek Deneba, nie to co Intel, który gotowe układy prezentuje już z pół roku przed premierą...
To tak dla ostudzenia głowy, apropos Twoich twierdzeń o papierowych procesorach...
Aamitoza (autor: morgi | data: 2/09/10 | godz.: 19:29) smt to najtansza wersja wielowatkowosci i jest najszerzej stosowane. To co chca zrobic minimalni to probujac oszczedzic na miejscu i budzecie tranzystorow oszczedzic na wydajnosci, bo ich rdzenie wspoldziela znacznie wiecej sprzetu, ktorego jest wiecej. Zadna nowosc, oni nie chca konkurowac z xeon, sparc64 i power7, ktore posiadaja smtx2 lub x4, probuja brnac w oszczednosci przy architekturze, po czesci z beznadziejnosci walki z fabami Intela.
Czy ja dobrze przeczytałem? (autor: AmigaPPC | data: 2/09/10 | godz.: 19:34) "...beznadziejnosci walki z fanami Intela..."
A, tak tu się z Wami @Morgi zgadzam - z Wami AMD nie wygra :P
Troche dziwne, że szopneli to (autor: shadowxxz | data: 2/09/10 | godz.: 19:39) Nawet jakby spece z intela jakieś cuda wypatrzyli (z niewyraźnego zdjęcia) to i tak nie mogą nic zrobić bo niby co?
@Grave (autor: trepcia | data: 2/09/10 | godz.: 19:52) I znowu wyszedłeś na kretyna, a nie mówiłem?
Czasem lepiej siedzieć i nic nie pisać gdy się nie ma o tym pojęcia :-) Lepiej stwarzać pozory mądrego niż odezwać się i rozwiać wszelkie wątpliwości...
@shadowxxz (autor: trepcia | data: 2/09/10 | godz.: 19:54) Mogą to zaimplementować w swoich przyszłych produktach albo któryś z inzynierów wpadnie na genialny pomysł oparty na tym, co zobaczył u konkurencji.
Im dłużej trzyma się coś w tajemnicy przed konkurencją, tym ta jest o tyle opóźniona z tym.
@trepcia (autor: imarid | data: 2/09/10 | godz.: 19:54) To przysłowie brzmi troszkę inaczej,ale ok xD
Zbyszek (autor: Aamitoza | data: 2/09/10 | godz.: 19:58) "Widocznie na tym etapie w K10 coś musiało się nie udać, tak jak pisze Aamitoza ( "co nam po 4 dekoderach, skoro nadal mamy 3ALU/AGU?" ), jednak raczej na pewno przyczyną wyłączenia 4 dekodera w K10 nie był brak wzrostu wydajności tylko inne problemy - Core 2 zawdzięcza duży wzrost wydajności 4 dekoderowi, a ma tylko 3 jednostki ALU i 2 AGU (mniej niż K8)."
Tylko, że w K8/K10 mamy 3 jednostki uniwersalne w zależności od zapotrzebowania ALU/AGU.
Jeżeli chodzi o core, to ma on owszem 4 dekodery, ale jest w stanie wykonać nawet 5 instrukcji x86 dzięki macro-Op Fusion. W przypadku K8 można było wykonać nie więcej jak 3 instrukcje x86. Nie można też pominąć tego, że Core dysponuje wydajniejszym FP z 3 jednostkami SSE. (w przypadku K8 są to 2 jednostki).
Aamitoza (autor: Zbyszek.J | data: 2/09/10 | godz.: 20:08) Tak jest. Generalnie problem niedziałającego 4 dekodera w K10 jest na tyle złożony, że nawet w AMD sobie z tym nie poradzili. Dlatego nie ma nawet co gdybać, to nic nie da. Pozdrawiam
Zbyszek (autor: morgi | data: 2/09/10 | godz.: 20:15) Istotne jest nie ilosc dekoderow, ale ile instrukcji na cykl dekoduje.
Core 2/i7
'The maximum output of the decoders is 7 µops per clock cycle
if instructions are organized in a 4-1-1-1 pattern so that the first decoder generates four
µops and the other three decoders generate one µop each. The output from the decoders is
a minimum of 2 µops per clock cycle if all the instructions generate 2 µops each. In this
case, only the first decoder is active because the other three decoders cannot handle
instructions that generate more than one µop. If the code contains many instructions that
generate 2-4 µops each then these instructions should be spaced with two or three single-
µop instructions between in order to optimize decoder throughput. Instructions that generate
more than 4 µops use microcode ROM and take multiple clock cycles to decode. The
number of µops generated by each instruction is listed in manual 4: "Instruction tables". The
figure that is relevant to decoder throughput is the number listed under "µops fused
domain".
amd
'The throughput of the microprocessor is three instructions per clock cycle, even for an
instruction stream that contains predicted jumps. We know that a jump incurs a delay
bubble in the instruction fetch process, but there is a buffer between fetch and decoding
which enables it to catch up after this delay.
Each of the instruction decoders can handle three prefixes per clock cycle. This means that
three instructions with three prefixes each can be decoded in the same clock cycle. An
instruction with 4 - 6 prefixes takes an extra clock cycle to decode.'
@morguś (autor: Promilus | data: 2/09/10 | godz.: 20:27) Tak, a co z tego wynika? Ano to, że AMD ma 3 kompleksowe dekodery, a intel tylko 1 ;)
Promilusiu (autor: morgi | data: 2/09/10 | godz.: 20:32) Nic, bo amd ma lipne jednostki wykonawcze, a nie problemem jest przeplyw i dekodowanie instrukcji. Krotko mowiac, efektywnosc architektury, wydajnosc zalezy od uzyskiwanych faktycznych mocy obliczeniowych, a nie tylko przeplywow instrukcji, a oni w bzdurozer dalej o przeplywach...
'The AMD microarchitecture is somewhat simpler than the microarchitecture of Intel
processors. This has certain advantages because the processor spends less resources on
complicated logistics. It also has drawbacks in terms of suboptimal out-of-order scheduling.
The throughput of 3 macro-operations per clock cycle is obtained simply by having a 3-way
pipeline all the way through. The ability to move macro-operations from one of the three
pipelines to another is limited.
The execution units are less specialized than in Intel processors. All of the three integer
execution units can handle almost any integer operation, including even the most obscure
and seldom used instructions. Only the integer multiplication unit has been too expensive to
make in three copies. This generality makes the logistics simple at the cost of bigger
execution units.
The three floating point execution units are more specialized. Only the simplest operations
are supported by more than one of these units. The distribution of macro-operations
between the three floating point units is far from optimal. There is certainly room for
improvement here.
The floating point execution units also have a problem with mixing macro-operations with
different latencies. This problem is handled in a rather complicated and inefficient way by
blocking the dispatch of a macro-operation with a short latency if it can be predicted that it
would need the result bus simultaneously with a preceding macro-operation with a longer
latency. A simpler and more efficient solution would be to keep the result of a short-latency
macro-operation in the pipeline until the result bus is ready. This would solve the problem
that a macro-operation with a short latency can be postponed for a long time if the pipeline
is dominated by long-latency macro-operations, and it would get rid of the complicated logic
for predicting when the result bus will be vacant.'
Morgi (autor: Aamitoza | data: 2/09/10 | godz.: 20:44) W Core masz 4 dekodery - 3 proste i jeden złożony. W K8 masz 3 złożone. Jednak u AMD 3 złożone dekodery robią 3 instrukcje x86 na cykl, a u intela 3 proste robią 3, a czwarta złożona jest w stanie łączyć 2 instrukcje x86 (macro-ops fusion) tym samym wykonać nawet DO 5 instrukcji x86 na cykl. W zasadzie największą wewnętrzną różnicą między core 2 i nehalemem było to, że w tym pierwszym macro-ops fusion działał jedynie dla instrukcji 32bitowych, dlatego też czasami okazywało się, że różnica wydajności między core2 i K8 w 64bitach zmniejszała się.
Swoją drogą, to chyba news o bulldozerze, a nie poprzednich procesorach ;)
@krzysiozboj
"Bo to co się pisze n/t spodziewanej wydajności/sposobu pracy buldozera to WROZENIE Z FUSÓW które może okazać sie bardziej lub mniej trafne."
Sposobu pracy? AMD dokłądnie opisała sposób pracy bulldozera. Gdy działa jeden wątek ma on dostęp do wszystkich współdzielonych układów w procesorze - więc 4 dekodery + całe FPU (z prezentacji nic nie wynikało, że drugi blok INT będzie wykorzystywany), więc nie powinien być dużo wolniejszy od SB. No i kolejna sprawa - dodatkowy wątek dla na pewno większy przyrost wydajności niż w przypadku SMT u intela, więc na tym polu wielowątkowości być równie szybki, jak nie szybszy od SB i 80% wzrost który podaje AMD może być jak najbardziej realny.
trepcia (autor: Grave | data: 2/09/10 | godz.: 20:59) Dzięki za radę, ale o tym kiedy lepiej a kiedy nie się odezwać i co powiedzieć to już ja sam będę decydował, a nie Ty ;)
wind --->
Niby każdy wie że Intel ma lepsze CPU, ale spróbuj tu coś dobrego napisać o Intelu albo skrytykować kiepskie procesory AMD to od razu odezwie się "beton" AMD który "udowodni" że choć AMD ma nikłe udziały to sprzedaje się lepiej (w lokalnych sklepikach w Polsce...) i chociaż ma gorsze CPU to de facto ma lepsze bo... np. obsługują stare pamięci DDR2 etc i inne takie bzdury.
Nie jestem fanatykiem, ale mocno sprzeciwiam się lansowanemu tutaj na TPC faworyzowaniu AMD i krytykowaniu Intela za cokolwiek co zrobi. Wyłania się z tego obraz "dobrego AMD" i "złego Intela" który kompletnie nie oddaje rzeczywistości.
I już mi się żygać chcę jak kolejne lata mijają a ja ciągle na argument w postaci wyników testów gdzie Intel wygrywa, albo udziałów w rynku gdzie Intel dosłownie miażdży AMD, dostaje w odpowiedzi coś w stylu "aaa bo to wszystko dlatego że Intel oszukiwał".
Te KILKA LAT TEMU!! Tak jakby Intel nie potrafił w ogóle dobrego CPU zrobić, a Ci wszyscy co kupili Intela to jacyś zaślepieni idioci którzy nie widzą że AMD jest lepsze.
To jakaś paranoja i ja się temu sprzeciwiam. Jak AMD miało lepsze CPU korzystałem z ich CPU i je chwaliłem, teraz jest inaczej i nie ma sensu wystawiać laurki za coś co zasługuję na krytykę i już bo jest słabe.
Aamitoza (autor: morgi | data: 2/09/10 | godz.: 21:14) Ale popatrz Intel ma od 4 lat jednostki wykonawcze pracujace jako 4way microops, minimalni tyle co zwiekszyli przepustowosc do 128bit, a powinni sie wziasc za calosciowa poprawe jednostek wykonawczych. Bzdurozer ma 4waya zapewnic w podziale na 2int+2lds czy to podniesie efektywnosc i oszczedzi energii shall see. Intel stopniowo przerabia co najlepsze w cisc, do ulepszenia predecoding, fetching i przerobka mikrokodu pod fma3 w przyszlosci, nieco dalszej wieksze microops execution.
@ Grave (autor: Zbyszek.J | data: 2/09/10 | godz.: 21:14) Paranoją to jest to, że na wiele miesięcy przed pojawieniem się procesora Intela wiesz że będzie bardzo wydajny i udany.
Natomiast na wiele miesięcy przed premierą procesora AMD z góry wiesz, że będzie nieudany, mało wydajny, prądożerny itp. Również zdaje się z góry wiesz, że IPG w Sandy Bridge będzie bardziej wydajny od tego w Llano. Nie będę nawet pisał o tym, że od 3-4 lat aż do ostatnich miesięcy wiedziałeś, że niebawem nastąpi bankructwo i koniec AMD.
Nie wyrokuj z góry jakie będą przyszłe procesory, bardziej trzymaj się faktów bo nieraz mocno je naginasz i stąpaj mocniej po ziemi, to będzie lepiej.
A jeszcze jedno (autor: Zbyszek.J | data: 2/09/10 | godz.: 21:23) Również z góry wiesz, że Bulldozer jest opóźniony do końca 2011 roku. Z góry wiesz że Global ma problemy z 32nm i wiesz że "AMD nie udało się jeszcze wyprodukować "pełnego" Buldozera" (komentarz 23). Pracujesz w AMD i/lub GF? Nie? To skąd taki pewny powyższego?
To jest dopiero paranoja! Nie dziwię się, że większość tu piszących się temu sprzeciwia.
Zbyszek (autor: Grave | data: 2/09/10 | godz.: 21:52) <<Paranoją to jest to, że na wiele miesięcy przed pojawieniem się procesora Intela wiesz że będzie bardzo wydajny i udany. >>
Jeżeli mowa o Sandy Bridge to niedawny test dowodzi tego że tak jest.
<<Natomiast na wiele miesięcy przed premierą procesora AMD z góry wiesz, że będzie nieudany, mało wydajny>>
Uważam że Orochi będzie słabszy od Sandy Bridge (top vs top, reszta to kwestia ceny, ale w hi-endzie AMD przerżnie z SB jestem tego pewien) jest kilka przesłanek które pozwalają tak sądzić i nie sądzę abym się tu pomylił.
Acha oczywiście także uważam że CPU LLano przegra z pierwszą "falą" mainstreamowych SB a przynajmniej z najszybszym z nich. IGP może będzie wydajniejsze ale chodzi o CPU a tu Intel będzie lepszy.
<<Również zdaje się z góry wiesz, że IPG w Sandy Bridge będzie bardziej wydajny od tego w Llano>>
Tego nie napisałem
<<Nie będę nawet pisał o tym, że od 3-4 lat aż do ostatnich miesięcy wiedziałeś, że niebawem nastąpi bankructwo i koniec AMD.>>
Uratował ich ATIC. Ich szczęście że mieli z czego się "wyprzedawać" i znaleźli kogoś kto będzie chciał to kupić (fabryki).
Sprzedaż fabryk to była ostatnia próba znalezienia kasy której AMD nie miało. Ich szczęście że ktoś te fabryki kupił.
Oczywiście dobrze że przetrwali, ale przy gigantycznych długach brak inwestora = puściem do piachu. Bardzo niewiele do tego zabrakło.
Zresztą nawet teraz sytuacja finansowa AMD wcale nie jest różowa. Ledwo co wychodzą na plus (a w niektórych kwartałach nawet ciągle jest minus) do tego sprzedają swoje CPU za grosze żeby w ogóle ktoś chciał je kupić.
Jedyny jasny punkt na tym tle to dawne ATI które swoimi GPU podreperowuje trochę marne finanse AMD.
<<Również z góry wiesz, że Bulldozer jest opóźniony do końca 2011 roku.>>
Nie napisałem że jest opóźniony do końca 2011, tylko że jest opóźniony. To różnica. To oczywiste że jest opóźniony skoro miał się pojawić w 2009, a pojawi w 2011!
I nie "z góry wiem" tylko z materiałów AMD - roadmapów ściślej....
<<Z góry wiesz że Global ma problemy z 32nm >>
Również nie z góry z tylko z wypowiedzi przedstawicieli AMD. O tym że uzysk w 32nm procesie w GF jest niezadowalający i z tego powodu nowe 32nm procesory zostaną opóźnione można było przeczytać na necie jakiś czas temu, ja tego nie wymyśliłem!
<<"AMD nie udało się jeszcze wyprodukować "pełnego" Buldozera">>
To była odpowiedź na Twój post w którym stwierdziłeś że ten CPU jest okrojony względem "pełnego modelu"
Tak czy inaczej to co AMD pokazuje teraz (wafle krzemowe i zdjęcia układu) Intel w przypadku SB pokazywał rok i ponad rok temu. O czymś to świadczy w kwestii tego kto jest bardziej "do przodu" ze swoimi projektami i na pewno nie jest to AMD....
@morgi (autor: Promilus | data: 2/09/10 | godz.: 21:57) oj plączesz się, najpierw piszesz w odniesieniu do intela jak to dekoder rozkazów ma zajebiaszczy, a potem:
"amd ma lipne jednostki wykonawcze, a nie problemem jest przeplyw i dekodowanie instrukcji", dodatkowo twierdzisz, że buldożer nastawia się na poprawę przetwarzania rozkazów x86 na mikrokod gdy wyraźnie zwiększono same zasoby jednostek wykonawczych na 1 rdzeń - tak, 2 128bitowe FPU dla jednowątkowej aplikacji i 4 jednostki int. W porównaniu do 1 FPU 128bitowego i 3 jednostek int z K10. Zatem konkretny boost dla aplikacji jednowątkowych. Co dalej? Dwa wątki? Ależ proszę... 8 jednostek int do dyspozycji. U intela oba wątki dzielą te same zasoby. Wszystkie. I ALU i FPU, w buldożerku tylko FPU. Ale morgusia nie zrozumie, bo potrafi tylko cytować co mniej lub bardziej ogarnięci w temacie piszą.
@Grave (autor: Promilus | data: 2/09/10 | godz.: 21:58) Intel pokazywał też wafelki z larrabee i co z tego widzimy teraz na rynku? No... nie czaruj.
Grave - jeszcze jedno, gwoli ścisłości: (autor: Zbyszek.J | data: 2/09/10 | godz.: 22:10) Z tego co zauważyłem to nikt nie czepia się Ciebie jak napiszesz, że obecne procesory AMD są gorsze od procesorów Intela (bo to prawda), że zintegrowane grafiki AMD to 3 letnie ciągle te same starocie (to też prawda) i że Intel dogonił je swoim HD Graphics (bo dogonił, ale jeszcze nie przegonił). Tyle że... to każdy wie. Każdy wie, że obecna generacja procesorów AMD jest gorsza od obecnej generacji Intela i nie musisz tego powtarzać pod każdym newsem.
Czepiają się natomiast jak zaczynasz pisać swoje wyssane z palca historie o tym co będzie za kilka-kilkanaście miesięcy, wliczając rdzenie K8 w Llano i wiele innych. Dodatkowo masz do innych wielkie pretensje, że Twoich wizji nie traktują jako tego, co wydarzy się za jakiś czas naprawdę.
Wracając do początku komentarza - nie wiem po co to robisz ale schemat jest taki, że gdy pojawia się jakikolwiek news na temat Intela i AMD np. o obniżce cen kilku procesorów, czy o wprowadzeniu kilku nowych układów, lub news o jakiejś płycie ze zintegrowaną grafiką (można by tak dalej wymieniać) wpisujesz się i powtarzasz po raz 100 to, co każdy dobrze wie, dodatkowo dodając, że AMD niedługo upadnie bo ich przyszłe procesory nie istnieją, a jak się pojawią będą opóźnione i nieudane. Ten sam schemat powtarzasz przeciętnie 2-3 razy na tydzień. Tylko po co?
Zbyszek.J (autor: PCCPU | data: 2/09/10 | godz.: 22:18) Panie Zbyszku czy jest choc cien mozliwosci ze modul Bulldozer moze wykonywac jeden watek na wszystkich Int gdzie wszystkie zasoby sa wspolne a gdy ma byc wykonywany wiecej niz jeden watek przelacza sie w tryb z podzielonymi zasobami i jednostkami Int. Nie jestem specem w projektowaniu CPU ale bardzo mnie to interesuje.
@Zbyszek.J (autor: AmigaPPC | data: 2/09/10 | godz.: 22:21) ad. Pytania na końcu #70
Wiesz dlaczego kobieta przed okresem gotuje 40 litrów grochówki?
Bo tak.
Promilus (autor: Grave | data: 2/09/10 | godz.: 22:29) Jedno z drugim nie ma nic wspólnego (Larabee z SB). Już od roku słyszę ten argument z Larabee kiedy piszę o tym że Intel jest do przodu z SB względem nowych CPU AMD. Jak pisałem o tym że była prezentacja na IDF rok temu to dostałem w odp. że Larabee też była (chociaż to nie ma nic dorzeczy) jak zaprezentowali go drugi raz na kolejnym IDF, to znowu dostałem w odpowiedzi że wcale Intel nie jest do przodu bo... taaak zgadłeś "bo Larabee też prezentowali i..."
Teraz mamy pierwszy test inżynieryjnego egzemplarza Sandy Bridge, ze strony AMD dopiero wafle i papierki i co... ZNOWU MAM CZYTAĆ O TYM LARABEE....???!!!
CO JESZCZE?? Może jeszcze jak w sklepie już będą dostępne gotowe procesory (SB) to dopóki do ręki nie weźmiesz będziesz forsował teorię że to o niczym nie świadczy bo pewnie to atrapy. A na "dowód" wygrzebiesz linka jak to jeden sklep omyłkowo do sprzedaży wprowadził partię dekoracyjnych Core2 jako pełnoprawne CPU.
Na kilometr widać że Intel jest circa rok z Sandy Bridge do przodu względem Buldozera i pieprzenie o Larabee tego nie zmieni. Jak tego nie widzisz to Twój problem.
Bo tu już mamy standardowy zestaw odpowiedzi:
Teza: AMD jest w kiepskiej sytuacji finansowej?
Odp. Produkty ma super tylko Intel nakradł się 5 lat temu i to wszystko wina Intela. Tak AMD byłoby finansową potęgą
Teza: AMD tłucze odgrzewane kotlety na przestarzałej architekturze i nie może nic nowego wypuścić.
Odp. Intel od kilkunastu lat tłucze kotlety na Pentium PRO
Teza: Intel zaprezentował Sandy Bridge, rok przed premierą, a AMD nie pokazało nic
Odp. To o niczym nie świadczy w końcu Larabee też pokazywali i wiadomo jak się skończyło
Teza: Intel ma miażdżącą przewagę w udziałach we wszystkich segmentach rynku
Odp. Produkty ma słabe a to wszystko dlatego że się nakradł... a jakże (!) 5 lat temu przy okazji Pentium 4. Tak to by miał już 50:50 co najmniej udziały, albo zmiótł Intela.
Do tego dochodzi kontr teza a raczej przekonanie (zakłamane do bólu ale bardzo wygodne) że Intel = ATOM, GMA i... nic więcej (bo tylko z tymi 2 pierwszymi elementami AMD potrafi wygrać więc po co zaprzątać sobie głowę pozostałymi - one nie istnieją - ergo AMD jest potęgą :D).
No i tak to wygląda....
@all (autor: trepcia | data: 2/09/10 | godz.: 22:35) Dajcie już Grave spokuj, chłopak chce sobie popisać to niech sobie pisze. Może nie ma z kim porozmawiać a jego pies już dawno się za kanapą schował to tutaj swoje żale wylewa :-)
Szkoda tylko, że jest taki schematyczny...
@grave (autor: trepcia | data: 2/09/10 | godz.: 22:37) "ZNOWU MAM CZYTAĆ O TYM LARABEE....???!!!"
A my znowu mamy czytać "K8 to, K10 tamto" ???!!!
ZNOWU MAM CZYTAĆ O TYM K8, K10....???!!!
ZNOWU MAM CZYTAĆ O TYM K8, K10....???!!!
ZNOWU MAM CZYTAĆ O TYM K8, K10....???!!!
ZNOWU MAM CZYTAĆ O TYM K8, K10....???!!!
ZNOWU MAM CZYTAĆ O TYM K8, K10....???!!!
ZNOWU MAM CZYTAĆ O TYM K8, K10....???!!!
Hehe :-)
@PCCPU (autor: Aamitoza | data: 2/09/10 | godz.: 22:38) Ze slajdów AMD wynika, że nie
"when only one thread is active, it has full access to all shared resources."
To nie jest kwestia źródła jako takiego, tylko Twojego podejścia.
Sam news był skonstruowany na zasadzie, że podobno X słyszał, iż Y coś powiedział.
Kilka osób (w tym ja) próbowało Ci wytłumaczyć, że jest to po prostu plotka, ale nie dawałeś się przekonać (popatrz zresztą na swoje odpowiedzi).
A teraz odwracasz kota ogonem, twierdząc, iż źródło było nieprecyzyjne - popełniać błędy jest rzeczą ludzką, ale nie umieć się do nich przyznać, to już zupełnie inna historia.
@Promilus
Ten z bródką (Pat Gelsinger), który demonstrował wafla z Larrabee, najwyraźniej niepowodzenie z nim związane przypłacił stanowskiem - i to pomimo bardzo wielu lat pracy w Intelu.
trepcia (autor: Grave | data: 2/09/10 | godz.: 22:51) Jakbyś nie zauważył Larabee kontekście SB jest kompletnie nie na temat. Natomiast K8 czy K10 jest tematem tak długo aktualnym jak długo AMD będzie w kółko sewerwować tę samą lub tylko lekko odpicowaną architekturę która coraz bardziej odstaje od sukcesywnie poprawianego Core.
Zobacz jak mało piszę o P4 (znacznie mniej niż fanboye AMD dla któych ten temat jest ciągle żywy bo to obok larabee największa porażka Intela i pal diabli że już dawno nieaktualna, ale jest po czym pojechać)
Gwarantuję Ci że jak AMD w końcu wprowadzi nową architekturę do lapków, destkopów, serwerów etc i rzeczywiście będzie to rewelacyjny procesor odstawiający poprzednią generację do lamusa (K10) to od tego momentu (Jak on nastąpi) o K10 będę pisał równie mało co o P4 teraz w przypadku Intela.
A póki co AMD tłuczę ciągle to samo to i K10/K8 ciągle jest aktualnym tematem i wcale mnie to nie cieszy, bo teatr jednego aktora nie gwarantuję dobrego widowiska.
@PCCPU (autor: Zbyszek.J | data: 2/09/10 | godz.: 22:52) Nie przesadzajmy, nie jestem jakimś wielkim specjalistą. Generalnie zadałeś bardzo dobre pytanie i wielu znanych specjalistów, nieproporcjonalnie większego ode mnie formatu chciało by znać na nie odpowiedź.
Osobiście zaprojektowałbym Bulldozera trochę inaczej - połączył obie te oddzielne części INT w jedną współdzieloną, wzorem jednostki FPU. Czyli zamiast dwóch części INT każda po 2xALU byłaby jedna 4xALU, ale za to współdzielona pomiędzy dwa wątki, gdyby drugi się pojawił. Przy takiej budowie jeden wątek mógłby korzystać ze wszystkich zasobów.
A w sytuacji takiej jaka jest, czyli dwie zupełnie oddzielne części INT nie wiadomo, czy jeden wątek będzie mógł korzystać z dwóch, czy z jednej. Jakiś cień szansy jest, zależy jak to jest zrobione...
rainy (autor: Grave | data: 2/09/10 | godz.: 22:54) A czy nie taką plotką czy naciąganiem jest news że Fusion trafi do komputerów Apple albo (jeszcze bardziej naciągane) do konsol nowej generacji i to nie Fusion jako sama koncepcja (bo to już mamy w X360) ale FUSION OD AMD!!?
Zwłaszcza z tym Apple. Też news na zasadzie "mówi się, że podobno apple jest zainteresowane" i od razu reakcja - "AMD zdobywa ostatinie nie zdobyte tereny, Intel zostanie wypchnięty etc" i inne takie.
Chociaż znowu - nikt nic oficjalnie nie powiedział co najwyżej "jedna pani drugiej pani, że PODOBNO trzecia pani (hm.. Apple:P) coś tam ROZWAŻA....
@ Aamitoza (autor: Zbyszek.J | data: 2/09/10 | godz.: 22:55) No to mam odpowiedź, nawet tego nie doczytałem jeszcze :)
@grave (autor: trepcia | data: 2/09/10 | godz.: 23:49) Jak to nie jest na temat? Pewnie, że Larabee jest zawsze odpowiednie w kontekście Intela. Przecież to taki wielki, wspaniały i cudowny młot mający zniszczyć konkurencję na rynku GPU, przełomowe środowisko programistyczne i wogóle rewolucja podobna do opracowania kształtu widelca na planecie Melmac (ta od Alf'a, kto oglądał ten wie o co biega).
Wybacz, ale pan duże M przy każdym temacie AMD/ATI/Intel/NVidia/Via itp pisał o młocie. Larabee weszło w życie tego portalu, nic nie zrobisz. No prawie nic... możesz podziękować panu duże M za spaczenie wypowiedzi i powstanie dwóch obozów jak za czasów Atari/Commodore.
I tak Intel jest bee bo Larabee :-) Hihi.
Larabee to i Larabee tamto. A wiesz co? Larabee :-)
trepcia (autor: Grave | data: 3/09/10 | godz.: 00:24) Tylko że "pan przez duże M" pomimo swojego wybujałego entuzjazmu względem produktów Intela, miał chociaż tyle rozumu (!!), że w momencie kiedy Intel oficjalnie z Larabee się wycofał i projekt przeszedł do historii (w planowanym początkowo kształcie) PRZESTAŁ O TYM PISAĆ.
Tymczasem fani AMD odgrzewają to Larabee do znudzenia.
Takie 3 punkty fanatyków AMD:
1. Larabee (nieistniejący)
2. GMA (wszystkie za wyjątkiem najnowszego w SB, bo ten ośmielił się ostawić do lamusa "super wydajne" IGP AMD)
3. ATOM
Tu można sobie poużywać do woli, a reszta? (Core i3/i5, mobile UV czy ULV, Xeony etc). Reszta nie istnieje, nie liczy się po prostu RESZTY NIE MA (:-D) bo reszta u Intela jest znacznie lepsza i AMD nie ma tam czego szukać.
I tak jeżeli popatrzymy na Intela tylko pod kątem 2 marginalnych produktów + jednego nieistniejącego to w takim porównaniu AMD błyszczy pełnym blaskiem :-D
Dzielny destkopowy Athlon II rozprawia się z marnym Atomem pokazując potęgę architktury AMD (o Core iX ULV oczywiście zapominamy - ta architektura nie istnieje istnieje tylko Atom :)
Potężny 890GX miażdży marne GMA i pokazuję swą moc kiedy to Crysisa w 800x600 ze wszystkim na low odpala bez strachu :-D
A na koniec ten Larabeee - dzięki niemu wszystkie porażki i opóźnienia ze strony AMD byłe czy obecne przestają mieć znaczenie, bo i tak Intel przerżnął z Larabee i zawsze można to podać jako kontrargument na wszelkie bolączki AMD. Tak teraz jak i za 5 czy 10 lat - zawsze aktualne :-)
A tak na poważnie - ja jak już czytałem n-ty raz na tym portalu o tym młocie etc. to zaczynałem tym "srać". Teraz sobię odreagowuję za moją zniszczoną psychikę i Intel = Larabee = epic fail.
Podziękuj panu duże M. To, że już nie pisze o młocie to nie znak, że nagle nikt o tym nie pamięta. Statek też nie od razu skręca.
A wogóle to Ci powiem, że Larabee.
Grave (autor: piobzo | data: 3/09/10 | godz.: 01:02) i5 sie zgodzę i3 już nie.. jestem zwolennikiem w laptopie proc intela ale grafa nv albo ati, a nie prawie jak grafa by intel i nie chodzi o to, nie lubię tej firmy po prostu kto raz się sparzy na zimne dmucha... intel nigdy nie miał za dużo do powiedzenia w sprawie grafiki.. uchodzi mu to bo ma bardzo dobre procesory, hmm tylko, według mnie nie są to procesory przyszłościowe.. według mnie procesorem przyszłości będzie karta graficzna, już teraz powoli się odchodzi o cpu.. a apu to kolejny krok w te strone... i czy ci się podoba czy nie intel będzie miał problem jeśli wizja ta się spełni
up. (autor: piobzo | data: 3/09/10 | godz.: 01:03) "(...)i nie chodzi o to, że nie lubie(...)"
piobzo (autor: Grave | data: 3/09/10 | godz.: 01:23) Intel ma najlepsze procesory "na teraz" i na najbliższą przyszłość (~5 lat do przodu spokojnie).
A czy ta "dalsza" (perspektywa >10 lat) będzie należeć do Intela, do AMD czy do kogoś/czegoś zupełnie innego to już temat na inną dyskusję, zwłaszcza że pomału zdaje się zbliżać kres krzemowej technologii.
Na razie mamy X86 nieśmiało wspierany przez GPU w garstce zastosowań.
Może Sandy Bridge jest przyszłościowym CPU, może nie jest (nie wiadomo jaka ta przyszłość ma być dokłądnie) ale... AMD i tak nie ma nic lepszego na teraz i w najbliższej przyszłości.
W tym wypadku myślę że lepiej jest brać najlepsze to co jest niż zastanawiać się czy za 10 lat nadal będzie wystarczające, bo i tak zanim doczekasz się jakiejkolwiek rewolucji zdążysz pare razy zmienić CPU :-D
@61 (autor: krzysiozboj | data: 3/09/10 | godz.: 08:10) Ano wróżenie, zobacz sam co piszesz w owym poście - na podstawie zaprezentowanej papierowej prezentacji (a i tu głowy pod topór nie wsadziłbym ze nic się nie zmieni) robisz już jakieś analizy spodziewanej wydajności porównując go z SB. Takiego wróżenia było też sporo przed wejściem Phenoma i ...
@ Zbyszek.J
Grave obrywa bo na TPC nie wypada nic dobrego o intelu napisać. Ty jakoś tam analizujesz zdjęcia, na ich podstawie starasz sie przewidzieć czego można się spodziewać po owym układzie i niby fajnie to poczytać o ile ma się sporo dystansu do tego. O ile piszący i czytający mają świadomość tego że to takie swoiste wróżenie dla pogawędki które wcale trafne nie musi się okazać. Fajne to poczytać o ile nie jest to przeplatane ostrymi wycieczkami personalnymi. To są jakieś wróżenia (jak dla mnie za mało sensownych danych by nazwać to analizami) podobnie jak i wcześniej to robiono, przy Intelu mamy chyba przetestowany gdzieś układ, można zastanawiać się nad wiarygodnością źródła ale wróźenia jakby tam mniej.
Athlon, Athlon64, AthlonX2 (świetne CPU) inaczej wchodziły na rynek niż buldozer, ten ostatni moim zdaniem powiela ścieżkę fermi, wieszać po kimś psy jeśli napisze że może być podobnie jak przy fermi a samego traktować się jak wyrocznię w analizach zdjęć (być może spreparowanych) przyszłego procka?
@Grave (autor: Promilus | data: 3/09/10 | godz.: 08:15) Pisałem - nie czaruj. Ktoś kiedyś na pclabie przetestował gulftowna ładne kilka miesięcy przed jego oficjalną premierą... i intel troszkę się na laba obraził. Ale procków AMD tyle przed premierą nie oglądali nawet. Próbki układów AMD Llano i Ontario trafiły ok kwietnia (!!) do producentów sprzętu - jak do tej pory nie ma żadnych przecieków nt. wydajności. Nie oznacza to, że AMD nie ma nic do pokazania, tylko ich NDA jakoś widocznie jest bardziej egzekwowane ;) Dlatego nie zaklinaj rzeczywistości (Intel ma najlepsze procesory "na teraz" i na najbliższą przyszłość (~5 lat do przodu spokojnie)
(Na razie mamy X86 nieśmiało wspierany przez GPU w garstce zastosowań)
Nie takiej garstce skoro 2 superkomputery w top10 opierają się na gpgpu. Skoro użytkonicy pakietów Adobe mogą wykorzystać szybkie filtry, a ci konwertujący wideo zrobić to kilka razy szybciej niż na samym CPU.
"AMD i tak nie ma nic lepszego na teraz i w najbliższej przyszłości"
A swoją opinię opierasz na...?
wróżenie ... (autor: krzysiozboj | data: 3/09/10 | godz.: 08:52) sporo było o zgodności am3 z buldozerem - ktoś postawi coś realnego w zakład że taka zgodność będzie? Że buldozera wsadzi w am3? Dlaczego teraz niby trzeba traktować slajdy jako pewnik a ich analizy jako prawdy objawione? Jeśli ktoś robi takie wróżenie ze slajdów a kogoś innego objedzie za coś podobnego (w sensie wróżenia) to sam prowokuje ostrą jazdę po sobie. "ssać z palca" można i na temat tego co będzie za kilkanascie miesięcy i na temat tego jaką wydajność będzie miał buldozer.
Grave (autor: morgi | data: 3/09/10 | godz.: 09:46) Nie produkuj sie tyle, tony wypowiedzi, a fan ci odpowiedzie tak i tak niczym konkretnym, bo co za konkret w bronieniu nieudacznych, zwlaszcza w serwerach, workstation i hpc, gdzie Intel miazdzy i rozwala wrecz w x86, buduje kolosy i pracuje na exascale projects, no comments, oni wola ufac pustym cyferkom, nomen omen osiaganym na Xeonach.
@up (autor: rookie | data: 3/09/10 | godz.: 10:05) Ale się uśmiałem. Intel miażdży, ale samego siebie w serwerach. Zobacz sobie jak radzi sobie xeon a jak opteron w programie Blender (odpowiednik 3dsmax) w profesjonalnym zastosowaniu: http://www.anandtech.com/...-intel-s-6-core-xeon/7
Na linuksie program przy opteronie 6174 renderował przykładowy filnik w 18 sekund. Xenon 5670 potrzebował na to samo 32sekund - prawie dwa razy więcej! Rzeczywiście widać wydajność niebieskich...
@morgi (autor: trepcia | data: 3/09/10 | godz.: 11:58) Właśnie przez Ciebie TPC jest antyIntel. A po drugie wiesz co? Larabee.
Promilus (autor: Grave | data: 3/09/10 | godz.: 12:03) Ciekawe że Intel nie boi się prezentować swoich CPU i to 1,5 roku przed premierą (IDF 09), potem rok przed premierą (IDF 10) i zapewne na wrześniowym IDF też coś pokażą.
A AMD takie "przetraszone" że konkurencja coś "zerżnie"?
Moim zdaniem to jest raczej przejaw obaw AMD, bo udało im się przez te kilka lat przekładanych zapowiedzi Buldozera wytworzyć całkiem niezły "hype" wokół tego procesora który po prostu mógłby nie wytrzymać zderzenia z rzeczywistością.
Bardziej opłaca im się dalej podsycać zainteresowanie, dawkować jakieś szczegóły bardzo ostrożnie tak żeby ludzie sobie wyobrażali że rzeczywiście nadchodzi przełom.
Ja przełomu, rewolucji czy nawet rewelacji się nie spodziewam. Spodziewałem się wtedy jak o tym mówili w 2007 i planowali wypuścić to w 2009. Wtedy sobie pomyślałem że AMD wróci do gry na serio w hi-endzie.
Ale im dalej tym moje nastawienie do tego buldozera jest coraz bardziej sceptyczne. Im więcej o nim wiadomo tym bliższy jestem tezie, że z tego Buldozera będzie co najwyżej dobre CPU i Intela nie przebije wbrew zapowiedzią ("the fastest core in the history" AAD '07 - I doubt It very much....)
Grave (autor: Promilus | data: 3/09/10 | godz.: 12:09) Nie udawaj idioty, bo wiem że nie jesteś. AMD ukrywało Eyefinity przed NV i dobrze na tym wyszło, bo by sprostać presji nv musiała wymyślić odpowiednik - surround vision - tyle że wymagający 2 kart. Z dobroci serca tego nie stworzyli i dobrze o tym wiesz.
"Bardziej opłaca im się dalej podsycać zainteresowanie, dawkować jakieś szczegóły bardzo ostrożnie tak żeby ludzie sobie wyobrażali że rzeczywiście nadchodzi przełom."
Zapomniałeś dopisać "wydaje mi się, że..."
@rookie (autor: Wujofefer | data: 3/09/10 | godz.: 12:25) Jestem pod wrażeniem jak szybko działają procki AMD pod linuxem. O ile pod Windowsem wyraźnie wygrywa Intel o tyle pod "pingwinem" AMD miażdży Intela.
Wg. mnie blender jest trochę niedocenianym narzędziem. Większość animacji tworzy sie przy pomocy komercyjnych programów jednak w blenderze drzemie ogromna moc a filmiki typu Big Buck Bunny http://www.youtube.com/watch?v=XSGBVzeBUbk
pokazują na co stać ten darmowy programik.
Jak kogoś to interesuje to polecam książkę Kompendium Blender. Tak na dobry początek. xD
Chyba trochę odbiegłem od tematu. :P
@Wujofefer (autor: Promilus | data: 3/09/10 | godz.: 12:32) 24 fizyczne rdzenie kontra 12 fizycznych rdzeni - miazgą bym tego nie nazwał, chociaż cenowo jest to do tego blendera lepszy wybór.
@Promilus (autor: Wujofefer | data: 3/09/10 | godz.: 12:58) Słysząc jak to AMD jest mocno zacofane do tego prezentowany procek jest znacznie niżej taktowany (2,93GHz vs 2,2GHz) a mimo to w blenderze pod linuxem rozkłada na łopatki Intela. :D
Co prawda Intel ma 2X6 rdzeni a AMD 2X12 jednak mimo wszystko miłe zaskoczenie. :)
@99 (autor: krzysiozboj | data: 3/09/10 | godz.: 13:06) przy sporych różnicach w budowie będą różne zachowania CPU w różnych zastosowaniach, emu takim sposobem (niszowe zastosowanie gdzie wynik inny niż w większości zastosowań) pokazywał jakie to fermi świetne. A tu jest podobnie, pokazanie zastosowania które interesuje pewnie malutki promil użyszkodników PC i zachwyt nad tym. To jest (podane zastosowanie) co najwyżej ciekawostka dla zdecydowanej większości nabywców pc i nic więcej.
ahaha (autor: morgi | data: 3/09/10 | godz.: 14:14) blender w wersji alpha, moze znajdzie wiecej testow na niestabilnej prefinalnej wersji. Znajdzie sie pare, w ktorych nedzne platformersy minimalnych nawiazuja walke z prawie 3x mniejszym wielkoscia Gulftown, ta sama spiewka. Robic sklejke to juz tak, zeby wydajnosc byla na highend i z porzadnym clock, a nie taka desperacka lipa, wynik sprzedazy przemowil, na nowe platformy serwerowe ciezko przeskoczyc gdy nie ma odpowiedniej wydajnosci, gdzie tu kompromisy, w cenie to groszowe sprawy, chyba ze porownac power7 do opteronikow.
@morgi ciapeczko (autor: Promilus | data: 3/09/10 | godz.: 14:17) POV-Ray smt też pokaże dokładnie to samo co i blender.
Promilus (autor: morgi | data: 3/09/10 | godz.: 17:30) Dekodery, caly front instruction i retirment, jednostki wykonawcze sa u Intela lepsze, lepiej dostosowane do potrzeb, lepiej wykorzystywane i zaplanowane, nie ma problemow z efektywnym wykorzystaniem w wiekszosci przypadkow, nie tak jak u minimalnych, jest 9 jednostek fizycznych wykonawczych, a widac to...nie.
@102 (autor: morgi | data: 3/09/10 | godz.: 17:49) taaa kolejny open cos tam, show me the money...
@morgi (autor: trepcia | data: 4/09/10 | godz.: 10:41) "show me the money"
Biedaczku, pewnie już dawno mamusia nie dała Ci kieszonkowego. Oj... chodź, otworzę Ci porfel i zobaczysz sobie pieniążki.
D O D A J K O M E N T A R Z
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.