TwojePC.pl © 2001 - 2024
|
|
Piątek 12 lutego 2010 |
|
|
|
AMD Llano - wydajny GPU i zmiany w architekturze rdzeni x86 Autor: Zbyszek | 15:59 |
(100) | Krótko po oficjalnej prezentacji procesorów o nazwie kodowej Llano, będących połączeniem klasycznego procesora oraz układu graficznego w jednym układzie krzemowym, na światło dzienne wychodzą nowe fakty. Opublikowane po prezentacji fotografie rdzenia LIano przedstawiają znacznie większy obszar zajmowany przez układ graficzny. Oznacza to że GPU zintegrowany wewnątrz procesora będzie bardziej wydajny, niż wcześniej przedstawiano. Zamiany dotyczą także rdzeni x86 - te składają się z ponad 35 milionów tranzystorów (bez pamięci L2) - podczas gdy rdzenie aktualnie oferowanych 45nm układów zawierają około 32-33 miliony tranzystorów. Wreszcie - nieoficjalnie wiadomo, że Llano dysponować mają odpowiednikiem technologii Turbo Boost znanej z procesorów Intela. Nie jest także wykluczone, że podobna funkcjonalność pojawi się już w układach Thuban i Zosma, które trafią na rynek w maju.
|
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- Ciekawe (autor: Wujofefer | data: 12/02/10 | godz.: 16:18)
Ciekawie to wygląda. Mam nadzieję, że GPU będzie znacznie bardziej wydajne od tego, które siedzi w nowych CPU intela.
- O właśnie (autor: kosa23 | data: 12/02/10 | godz.: 16:24)
Tak wygląda prawdziwe fusion na jednym krzemie. Brawa dla AMD.
Za to intel ma namiastkę tego, bo szczerze mówiąc grafika i procesor w i3, i5, i7 to nadal 2 odzielne układy, tak jak integra na płycie. Jak już ktoś kiedyś przetoczył na forum. "Intel chce się pozbyć badziewia" jeszcze przy tym zarabiając.
- @kosa23 (autor: Wujofefer | data: 12/02/10 | godz.: 16:30)
To nie jest tak, że intel chce się pozbyć badziewia. Czym by je zastąpili? Oni cały czas produkują te pseudo GPU. Nie od dziś wiadomo, że w CPU wyprzedzają AMD o generacje bądź nawet dwie ale za nic w świecie nie są w stanie zrobić dobrej karty graficznej i nie sądzę aby to się miało zmienić w najbliższym czasie.
- kosa23 (autor: Grave | data: 12/02/10 | godz.: 16:33)
Wszystko pięknie tylko bierz poprawkę, że CPU Intela z GPU zintegrowane na jednej podstawce są TERAZ, natomiast Fusion od AMD będzie ZA ROK (drobna różnica).
A za rok Intel wypuszcza Sandy Bridge, z IGP i CPU w jednym kawałku krzemu czyli tak samo jak w fusion.
Co więcej Intel ma działające egzemplarze SB - JUŻ TERAZ, natomiast AMD nie ma wcale. Fusion istnieje póki co tylko na papierze.
I jeszcze jedno, SB wykorzystuje nową architekturę CPU Intela, natomiast Fusion bazuje na starej arch.
Tak więc na 100% CPU w SB będzie szybsze od CPU w Fusion, natomiast PRAWDOPODOBNIE IGP w FUsion będzie lepsze niż IGP Intela (aczkolwiek póki co nic pewnego).
- @Wujofefer (autor: kosa23 | data: 12/02/10 | godz.: 16:43)
32 nm TO TYLKO ZMIANA SPOSOBU PRODUKCJI, A GENERACJA JEST CIĄGLE TA SAMA(krzem i trazystory).
- @grave (autor: kosa23 | data: 12/02/10 | godz.: 16:45)
pracujesz w fabryce intela i jesteś tajnym agentem, który wie jak postępuje konkurencja(AMD)
- Koncepcja Fusion (autor: Qjanusz | data: 12/02/10 | godz.: 16:46)
tak właśnie to powinno wyglądać. A nie dwie kostki wyciosane, spasowane na siłę i doklejone na kropelkę.
To że GPU będzie kilkanaście razy wydajniejsze niż INTELOWE URZĄDZENIE DO MĘCZENIA PIXELI, to wiedzieli wszyscy.
Okazuje się że i jednostki CPU i3 i i5 będą musiały trzymać się za pośladki :-)
- Grave (autor: Zbyszek.J | data: 12/02/10 | godz.: 16:52)
Z informacji przeze mnie posiadanych wynika, że sample fusion (LIano) istnieją już od kilku miesięcy. Niepodważalnym dowodem tego jest fakt prezentacji zdjęć rentgenowskich układu - żeby je zrobić trzeba najpierw mieć rzeczywisty obiekt.
Termin o którym była mowa w poprzednim newsie (2 kwartał 2010), nie dotyczy wyprodukowania pierwszych sampli, tylko rozesłania ich w dużej ilości do partnerów handlowych, producentów płyt, oprogramowania, entuzjastów (xtremesystems.org).
GPU w Sandy Bridge wedle zapowiedzi będzie 2-krotnie bardziej wydajny od tego w Core i3/i5. Odpowiada to GPU AMD z 80 procesorami strumieniowymi (785G/790 GX mają 40 SP).
Natomiast na fotce powyżej można dostrzec albo 6 bloków SIMD po 80-100 procesorów strumieniowych (=480-600 SP) albo 18 bloków po 40 (=720 SP). Chyba kpisz, jeżeli uważasz że GPU z Sandy Bridge będzie w stanie rywalizować choćby z 480 procesorami strumieniowymi LIano.
Ponadto to GPU w LIano (32nm) zajmuje około 90mm^2, co odpowiada powierzchni około 120-130 mm^2 w wymiarze technologicznym 40nm. Dla porównania 40nm rdzeń Redwood (400SP) ma powierzchnię 104 mm^2.
Coś tam gdzieś poczytałeś, wiesz gdzie ptaszki ćwierkają ale nie wiesz na którym drzewie a kreujesz się na wszechwiedzącego w temacie CPU/GPU.
- @up (autor: Saturn64 | data: 12/02/10 | godz.: 16:57)
Nie wiem skad informacje, że procesor AMD Liano będzie w starej architekturze? Czy jest to oficjalnie potwierdzone? Jeśli będzie stara to skąd Turbo boost? Skad zintegrowany z rdzeniem GPU? Czyż to nie nowe rozwiązanie? Dla fanów intela AMD zawsze ma starą architekturę i tak będzie. Ciekawe co powiedzą jak pseudo stara architektura AMD pokona nową architektura Intela :). Ja jestem wkurzony bo dzis przeczytałem na innych portalach, że intel Sandy Brigde będzie wspierał nowy socket LGA1155 (nie mylić z 1156) Więc moja przyszłościowa płyta z USB3.0 i SATAIII zakończy swój żywot tylko na i7-860 :(
- @Saturn64 (autor: Aelavin | data: 12/02/10 | godz.: 17:17)
Tak, jest to potwierdzone. Przy czym Nie będzie to architektura w obecnych Phenomach, lecz w tych, które wyjdą w połowie tego roku (Zosma, Thuban), czyli z tymi poprawkami.
- Saturn6 (autor: Grave | data: 12/02/10 | godz.: 17:17)
Taka stara, że rdzeń CPU jest wzięty z Phenoma, a nie Buldozera. AMD samo to potwierdziło oficjalnie.
Zbyszek ---> Intel zaprezentował gotowy układ W DZIAŁANIU, AMD - nie. Oczywiście że do zdjęcia RTG muszą mieć chip, ale ten chip wcale nie musi działać. Jakoś w necie próżno szukać informacji o spuszczeniu z taśm pierwszych egz Fusion, a zawsze jak nowy układ przechodzi ten pierwszy etap produkcji jest to jakoś nagłaśniane (tak było w przypadku SB).
Gdyby mieli gotowca to by o tym było głośno. Jak wypuszczali pierwsze egz Istambula albo Barcelony to można było o tym przeczytać, zobaczyć zdjęcia etc A tu - nic. Głucha cisza, tylko prezentacje w PP....
Nie kreuję się na żadnego znawcę, bazuje na tych samych danych co wszyscy, a więc na tym co można znaleźć w necie.
2 kwartał 2010 i rozesłanie w dużych ilościach? To oznaczałoby wstępne testy i wyniki w Sieci. Wierzysz w to? Bo ja nie.
Napisałem, że IGP będzie prawdopodobnie szybsze u AMD, więc gdzie tu kpiny?
Qjanusz - spójrz w kalendarz. Integracja w ramach podstawki (AMD nie ma nawet tego obecnie) jest TERAZ u Intela, Fusion jest ZA ROK.
W SB integracja jest taka sama jak w Fusion, a dodatkowo IGP może wspomagać się pamięcią podręczną CPU. Więc o sklejkach można mówić TERAZ, ale za rok już będzie co innego.
Należy odróżnić zapowiedzi od stanu faktycznego. Bo tak to i Intel może sobie walnąć zapowiedź co też nie wypuści za rok dwa albo 3 i na tle tego co jest teraz będzie to wyglądać nie wiadomo jak efektownie.
- Grave i inni (autor: Qjanusz | data: 12/02/10 | godz.: 17:22)
po testach porównawczych będą płakać, albo śmiać się przez łzy ze "słabej" konkurencji, tak samo jak wszystkie morgi po zawaleniu się ostatniego bastionu Larrabee.
Ale nie jest źle Panowie, ślepotę można leczyć.
- @grave (autor: trepcia | data: 12/02/10 | godz.: 17:24)
Kreujesz się na znawcę ale tak naprawdę jesteś nim jak z koziej dupy trąba jest.
"Gdyby mieli gotowca to by o tym było głośno. Jak wypuszczali pierwsze egz Istambula albo Barcelony to można było o tym przeczytać, zobaczyć zdjęcia etc A tu - nic. Głucha cisza, tylko prezentacje w PP...."
Do czasu premiery nowej rodziny kart graficznych hd4xxx nikt tak na prawdę nie wiedział, ile będzie jednostek SP co wcale nie oznaczało, że tego układu wcześniej fizycznie nie było.
Lepiej się zastanów dwa razy przed napisaniem czegokolwiek bo głupoty pociskać to Ty umiesz :-)
- @Grave (autor: Saturn64 | data: 12/02/10 | godz.: 17:29)
C2D też oparty jest na architekturze PIII a jednak działa od niego szybciej. Czasami wystarczą kosmetyczne poprawki i można uzyskać super efekt.
- @up (autor: Qjanusz | data: 12/02/10 | godz.: 17:41)
Panowie, znaffca jest tylko jeden.
Ziemię poruszy, a swoje "udowodni"
ps. Miłego weekendu 4 @all
- @Grave (autor: Wujofefer | data: 12/02/10 | godz.: 17:42)
Nie nagłaśniają tego ponieważ wszystkie firmy współpracujące z AMD są zobowiązane do nieujawniania żadnych faktów na temat najnowszych chipów. W chwili obecnej testują układy pod kątem kompatybilności z ich płytami głównymi, biosami a także zajmują się tworzeniem nowych płyt. Gdy nadejdzie czas i AMD da zielone światło zobaczysz masę testów. To, że obecnie opublikowano zdjęcia rentgenowskie układu nie oznacza, że jest on skończony, dalej inżynierowie pracują nad nim i testują go pod kątem wszelkich niedoróbek. Od wyprodukowania pierwszego chipu aż do produktu finalnego wiedzie daleka droga. Proces tworzenia CPU trwa latami. W chwili obecnej inżynierowie pracują nad CPU, których premiera odbędzie się dopiero za 5 a nawet 10 lat.
- hehe (autor: morgi | data: 12/02/10 | godz.: 18:00)
Moga tam wladowac nawet cypress i tak to zbedna moc i wiele nasuwa sie problemow jak to bedzie wspolpracowac razem jak teraz osobno jest wszystko w czarnych barwach. Tylko dobre CPU pozwoli im na zyskanie respektu i jakiegokolwiek szerszego rozglosu, a jak wladuja starozytne kotlety to znowu bedzie mulilo i ssalo prad, tak na oko maja do nadrobienia 20-30% wydajnosc na watt i wydajnosc na takt w aplikacjach jednowatkowych, a w multiwatkach to znacznie wiecej.
- Hmm ciekawe. (autor: yantar | data: 12/02/10 | godz.: 18:04)
Jeszcze 2 dni temu AMD nie przewidywało w tych prockach funkcji typu Turbo Boost, a dziś proszę... Pytanie czy ktoś robi zasłonę dymną, czy ktoś może redaktorzy wypisują pobożne życzenia na portalach (nie patrzyłem jeszcze an stronę AMD)? Swoją drogą przynajmniej się wyjaśniło jak AMD rozwiązało problem poboru energii przez rdzenie. Przez przekonstruowanie od podstaw Clock Grid i wykorzystaniu tranzystorów N-FET. Zatem jest to prztyczek w nos dla tych co smęcą o starych technologiach. LIano stoi dobre dwa kroki dalej niż K10.
- Zapowiada sie intersujaco (autor: cp_stef | data: 12/02/10 | godz.: 18:05)
ciekawe jak bedzie to dzialo w praniu
- sens łączenia (autor: fanzboj | data: 12/02/10 | godz.: 18:54)
Jeśli te llano ma w zamyśle nie być łączone z osobną grafiką, to nie ma sensu ładować jakiegoś bardzo wydajnego procka. Stara architektura wystarczy pod warunkiem dobrej energooszczędności. I tylko tyle powinno zrobić AMD. Czyli tani mainstream. To jest właśnie odpowiednie podejście. W przeciwieństwie do łączenia mocnego procka ze słabą grafą jak Intel. W dzisiejszych czasach, dla większości użytkowników to grafa jest ważniejsza. Zwłaszcza wobec trendu pisania sterowników/aplikacji przerzucających wykonywanie kodu z CPU na GPU.
- @fanzboj (autor: Wujofefer | data: 12/02/10 | godz.: 19:13)
Patrząc po tym co zapowiadało AMD procek będzie wydajny a grafika ma być średniej mocy, może nawet górne stany średnie. Łączenie z osobną grafiką z pewnością będzie możliwe. Jak dla mnie Liano w wersji mobilnej byłoby bardzo ciekawe. CPU i GPU w jednym układzie zredukowałoby pobór prądu i wydłużyło działanie lapka na baterii. AMD i tak w kwestii mobilnej mocno odstaje od Intela.
- ... (autor: kubaswielgus | data: 12/02/10 | godz.: 19:19)
Po przeliczeniach Zbyszka, myślę sobie, że AMD nieźle kombinuje. Gdyby faktycznie wcisnęli w CPU 600-700 procesorów strumieniowych to oznaczałoby to, że szykuje się niezły potworek wydajnościowy. Zwykłe procesory odchodzą w niepamięć przez coraz to nowsze programy skompilowane pod GPU. Do tego dochodzi dostęp do dużej ilości RAMu i nawet profesjonaliści mogą być zadowoleni. Oczywiście pierwsze modele nie będą zbyt wydajne, ale kierunek właściwy.
- Jeszcze co do nazwy (autor: Grave | data: 12/02/10 | godz.: 19:23)
NIE LIANO, a LLANO (podwójne "el" a nie el i). Błąd w tytule newsa i w samym newsie także.
- ...... (autor: Marek1981 | data: 12/02/10 | godz.: 20:11)
1)Zbyszek ma dużo racji w tym co napisał, poczekamy a życie zweryfikuje
2) @Grave...
"Tak więc na 100% CPU w SB będzie szybsze od CPU w Fusion, natomiast PRAWDOPODOBNIE IGP w FUsion będzie lepsze niż IGP Intela (aczkolwiek póki co nic pewnego)"
Nie wiem czy Ty jesteś zaślepiony w kierunku intela czy tylko udajesz..... Ta niby wydajna pseudografika od intela możesz sobie wsadzić.... same błędy lub coś nie działa. Niestety mam z tym badziewiem styczność, już lepiej mieć najgorszy chłam od ati lub nv, przynajmniej stery są w miare.
- SandyB (autor: konkurs | data: 12/02/10 | godz.: 20:13)
A skąd ta pewność, że SandyBrige będzie przełomowy? Może będzie to taką samą porażką jak Radeon 2xxx, Phenom I czy też Pentium 4? Bo wszystkie te produkty były na papierku genialne, a w rzeczywistości zawiodły użytkowników...
- Marek1981 (autor: Grave | data: 12/02/10 | godz.: 20:15)
A u mnie wszystko działa bez błędów na GMA 950 (pomijając mierną wydajność w grach) - patrz jaki szczęśliwy traf.... :)
- hehe (autor: morgi | data: 12/02/10 | godz.: 20:37)
Znowu stery i crapowatosc, a gdzie jest tak zle w koncu Intel produkuje najwiecej gpu na swiecie i biora tego coraz wiecej w przeciwienstwie do kosztownych ale malozyskownych chipsetow innych firemek zwlaszcza tych ktore nawet nie maja wiekszosci udzialow w swoim ogrodku.
- konkurs (autor: Grave | data: 12/02/10 | godz.: 20:56)
CPU dla Intela opracowują dwa równoległe zespoły, z Oregonu (USA) i Hajfy (Izrael).
O ile Nehalema przygotowywał ten sam zespół, co Pentium 4, o tyle Sandy Bridge jest dziełem "słynnego" (za sprawą Conroe) zespołu z Izraela.
Zatem ja o SB jestem spokojny. Ci którzy stworzyli Conroe na pewno znają się na tym co robią bardzo dobrze. Fuszerki raczej nie wypuszczą :)
- @Grave (autor: konkurs | data: 12/02/10 | godz.: 21:02)
O żesz w... a Phenoma robili Ci sami ludzie, co Athlony. To, że kiedyś udało im się stworzyć dobry procek, to nie znaczy, że teraz zrobią znowu coś dobrego. Już jedną wpadkę mieli z młotkiem koloru niebieskiego.
- Grave (autor: Markizy | data: 12/02/10 | godz.: 21:03)
a kto opracowywał Larrabee ??
- DOBRE (autor: Barbarian | data: 12/02/10 | godz.: 21:09)
Ktoś (chyba wiadomo kto) się tutaj dwa razy wyprodukował, ale został olany parabolicznie ciepłym płynem. Tak trzymać!
- Markizy (autor: Grave | data: 12/02/10 | godz.: 21:12)
Nad larabee pracował zespół z tego który pracował nad Nehalemem (czyli Oregon team).
Konkurs ----> o jakiej wpadce konkretnie masz na myśli w wykonaniu teamu z Izraela?
- errata "wydzielony z tego" (autor: Grave | data: 12/02/10 | godz.: 21:13)
oczywiście :)
- @Grave (autor: Saturn64 | data: 12/02/10 | godz.: 21:43)
Genialne pomysły (czyt architektury) nie rodzą się seryjnie i niestety nikt nie ma na nie patentu. Możliwe, że następna nie będzie takim hitem jak wcześniejsza (conroe).
- W sumie ucieszyłbym się gdyby Buldozer był lepszy od SB (autor: Grave | data: 12/02/10 | godz.: 21:52)
bo to zawsze takie budujące jak ten "mniejszy i słabszy" (AMD) wyskoczy nagle z czym co zakasuje silniejszego/bogatszego (Intela).
Tyle że rzeczywistość ostatnich lat pokazała że nie zawsze jest jak w bajce i że $ dają sporą przewagę i w rezultacie umożliwiają stworzenie lepszego CPU.
Wątpię żeby Intel pozwolił wyrwać sobie koronę wydajności. Albo SB musiałby być bardzo nieudany, albo Buldozer rewolucyjny i rewelacyjny zarazem. Nie bardzo w to po porażce K10 wierzę.
Mimo tego, że przed premierą K10 stałem murem za tą architekturą i byłem przekonany, że AMD zmiecie tym conroe. Niestety oczekiwania były jak się okazuje zbyt duże.
- Grave (autor: Markizy | data: 12/02/10 | godz.: 21:59)
AMD możliwe że pogrzebało przy K10 brak 4 dekodera instrukcji, przez co musiał nadrabiać taktami. A że taktami nie wyszło wszyscy wiemy. W każdym razie nadchodzące architektury wydają się być ciekawe, zobaczymy jak z realizacja.
A co do rentgena to zastanawiam się czy AMD nie zasłoniło czegoś na dole w okolicy GPU. Bo jakoś wątpię że tak by marnowali miejsce.
- @grave (post 26) (autor: Takeya | data: 12/02/10 | godz.: 22:03)
odpal dowolna czesc trylogii ufo lub penumbry, a zobaczysz swoja "bezblednosc" grafik intela.
w pierwszym przypadku nie odpalisz zadnej gry, w drugim bedziesz mial przebijajacy sie rozowy kolor z roznych miejsc.
oczywiscie wszystkie 6 gier nie ma problemow ani z radeonem x1950/hd4730, ani geforcem 6800xt/8600gt, bo na tych grafikach rowniez je odpalalem.
- @markizy (autor: trepcia | data: 12/02/10 | godz.: 22:06)
Bo w tych miejscach użyli fotoszopki.
- trepcia (autor: Markizy | data: 12/02/10 | godz.: 22:07)
to chyba oczywiste, tylko co chcieli tu okryć :)
- @Grave (autor: Saturn64 | data: 12/02/10 | godz.: 22:10)
Poczekajmy.. zobaczymy. Na dzień dzisiejszy można tylko spekulować o części ujawnionych faktach dot. przyszłych architektur czy to SandyBridge czy Buldożera. Która koncepcja się okaże lepsza zadecydują testy. Nie wiadomo co zaprezentują i jakie tajemnice trzymają w zanadrzu obie firmy. Myślę, że nawet gdyby AMD udało się wygrać w tym starciu to Intel szybko go przegoni znając jego możliwości techniczne i finansowe. Jednak sama ilość inżynierów opracowujących daną koncepcję i możliwości pieniężne nie są jednoznaczne z wyborem lepszej drogi rozwoju. Wystarczy jeden geniusz i można wygrać walkę (przykładów z historii masz przecież wiele)
- @markizy (autor: trepcia | data: 12/02/10 | godz.: 22:13)
Po premierze się dowiemy.
- @Zbyszek (autor: pawel.xxx | data: 12/02/10 | godz.: 22:16)
"... albo 18 bloków po 40 (=720 SP)."
Ja tam widzę że te dolne struktury są nieco mniejsze od górnych wiec na pewno nie 18 bloków.
Kolejna sprawa to TDP liano. Rdzeń 2.5-25W a jest ich 4. Do tego uncore i GPU. Ile mocy zużyje całe Liano?
- Takeya (autor: Grave | data: 12/02/10 | godz.: 22:16)
Obie wymienione przez Ciebie serie wymagają sprzętowego T&L oraz sprzętowych shaderów zatem z GPU Intela potrzeba co najmniej GMA 4500HD do ich uruchomienia.
Na wcześniejszych wersjach GMA (w tym GMA 950 które w laptopie mam ja) obie gry nie mają szans się uruchomić.
- @UP (autor: Saturn64 | data: 12/02/10 | godz.: 22:19)
Krytykantom AMD powiem..że sam intel także błądził przez 6 lat wciskając ludziom swoją architekturę PIV twierdząc przy tym, że to najlepsza i jedyna droga rozwoju. By później opamiętać się i wrócić do wcześniejszego udanego rozwiązania (PIII) .Jak sobie wspomne Celerona (Northwood) ze 128kb/cache L2 to mi się jeszcze czkawką odbija.
- @ trepcia (autor: Markizy | data: 12/02/10 | godz.: 22:20)
tylko po premierze ten fragment nie będzie już taki ciekawy, bo wydajność układu i wszystkie jego możliwości (teoretyczne też) będziemy znać :)
- Saturn64 (autor: Grave | data: 12/02/10 | godz.: 22:26)
To nie do końca tak jak piszesz. Intel ma 2 równoległe teamy. Jeden cały czas tłukł PIV, a drugi w tym czasie z dużą regularnością rozwijał PIII (Banias, Dothan, Yonah, Merom)
To nie było tak, że Intel nagle się zorientował że PIV jest do d... i trzeba zrobić coś nowego. To "nowe" cały czas dojrzewało pomału będąc coraz szybsze i coraz lepsze z roku na rok.
Po prostu wzięli to co mieli dla mobile przenieśli do desktopów w formie Core2
Ale to że się szykuje pogrom widać było długo przed premierą Core2. Kolejne generacje PentiumM/Core coraz bardziej zbliżały się do wydajności Athlonów 64, a te pozostawały ciągle niezmienione.
Właściwie już przy pierwszym Core u AMD powinna zapalić się czerwona lampka, że zaraz może być źle. Bo choć to chip dla notebooków to przecież w każdej chwili mogą to rzucić dla desktopów.
Tyle że u AMD nic się nie zaświeciło, K8 sobie leżało odłogiem, Intel małymi kroczkami doganiał, aż w końcu przegonił.
Nie trudno przegonić rywala który stoi w miejscu.
Jak pisałem jakiś czas temu już - AMD mogło się obudzić znacznie wcześniej przed premierą Core i coś zrobić za wczasu. A tak obudzili się z ręką w nocniku, bo wydawało im się że intel będzie tłukł coraz wyżej taktowane PIV przez kolejne lata :(
- @Grave (autor: Saturn64 | data: 12/02/10 | godz.: 22:40)
Oczywiście masz po części rację ale musisz wziąść tez pod uwagę wiele innych czynników które w okresie 2006-2010 przerosły zasoby i możliwości finansowe firmy AMD. (kosztowne przejęcie ATI (które także miało trudną sytuację po nieudanym i spóźnionym HD2xxx i trudną konkurencję o utrzymanie się na rynku z NV - praktycznie nawiązali walkę dopiero układem 4xxx czyl 2-3 lata po przejęciu) a także trudną i nie uczciwą konkurencją ze strony intela (blokowaniem rynku zbytu (sieci supermarkety i firmy DELL, HP itd) spowodowało, że mniejsze środki przeznaczano na nowe działania konstruktorskie, a ratowano się restrukturyzacją (cięciem kosztów) i sprzedażą majątku firmy. Dlatego między innymi ten zastuj technologiczny w AMD. Mam nadzieję, że teraz wyjdą na prostą i będą dobrym konkurentem dla Intela a tym samym będziemy mieli niższe ceny w sklepach
- @grave (autor: trepcia | data: 12/02/10 | godz.: 23:17)
"To nie było tak, że Intel nagle się zorientował że PIV jest do d..."
Znaleźć Ci artykuł bodajże w Chipie bądź Komputer Świecie, który był opublikowany za czasów PIV 1.6GHz i mówił o tym, że Intel pracuje nad następcą PIV, który będzie oparty o PIII, bo NetBurst może się okazać ślepą uliczką?
Więc proszę Cię Grave poraz kolejny, nie pieprz głupot tylko dwa razy się zastanów nad tym, co napiszesz.
Intel w pewnym momencie skapł się, że jest w czarnej dupie i w tajemnicy przed światem pracował nad architekturą Core, jednocześnie przekupując wielkie sieci handlowe i producentów komputerów, aby korzystali z ich rozwiązań (czyt. PIV).
Jeśli sięgasz w swoich wypowiedziasz do tego, co było kilka lat temu miej na uwadze to, że ktoś może lepiej to pamiętać od Ciebie.
- trepcia - krótko - bzdura (autor: Grave | data: 13/02/10 | godz.: 00:04)
Jak miał pracować "w tajemnicy" jak kolejne generacje Pentium M były zupełnie "jawnie" wprowadzane na rynek mobilny?!
Nie było żadnego "następcy" szykowanego w tajemnicy tylko stopniowa ewolucja architektury PIII w wykonaniu teamu z Izraela.
Za czasów pierwszych modeli Pentium IV wątpię żeby ktokolwiek w Intelu myślał o porażce było nie było dopiero co zaprezentowanej architektury.
Chcieli ją przecież ciągnąć do 10GHz! (obejrzyj sobie stare roadmapy - tak miało być!)
Jak myślisz, czy takie zapowiedzi by czynili w przekonaniu że Netburst jest porażką czy ślepą uliczką? On się okazał ślepy w połowie drogi, a sam Intel dopiero w praniu się o tym przekonał.
Więc nie było powodu szykować następcy - następca miał przecież tykać z zegarem 10GHz a nigdy się nie pojawił!
Jak Intel mógł wiedzieć że im nie wyjdzie skoro dopiero przy wprowadzaniu nowych procesów technologicznych okazało się że mimo niższych wymiarów technologicznych PIV grzeją się CORAZ BARDZIEJ?
A do notebooków musieli dać coś innego, bo Pentium 4 się kompletnie nie nadawał ze swoim miernym IPC, wysokimi zegarami i równie wysokim poborem prądu.
- @grave (autor: trepcia | data: 13/02/10 | godz.: 00:25)
"Jak myślisz, czy takie zapowiedzi by czynili w przekonaniu że Netburst jest porażką czy ślepą uliczką?"
Chłopie, myśl trochę. A co mógł robić Intel mając NetBursta a Core był jeszcze w powijakach? Ogłosić publicznie: "ludzie, mamy do kitu architekture? Nie kupujcie naszych rozwiązań?" Dobra mina do złej gry, aż takie masz klapki na oczach, że tego nie widzisz?
Roadmapa to tylko papier, napisali na nim wzięte z kosmotu taktowania przyszłego rdzenia Tjanas (czy jak mu tam było), AMD połknęło haczyk i zamiast przygotować coś na "nowe", AMD przygotowywało się na niedoszłe 10GHz. Genialna zagrywka Intela.
"Za czasów pierwszych modeli Pentium IV"
PIV 1.6GHz nie był na pierwszym rdzeniu lecz na drugim. A to zasadnicza różnica, czego nie widzisz, zresztą nic nowego u Ciebie.
"On się okazał ślepy w połowie drogi,"
Przy drugim rdzeniu Intel zdał sobie sprawę z pułapki, jaką był NetBurst.
"Jak Intel mógł wiedzieć że im nie wyjdzie skoro dopiero przy wprowadzaniu nowych procesów technologicznych okazało się że mimo niższych wymiarów technologicznych PIV grzeją się CORAZ BARDZIEJ?"
Taki z Ciebie "znafca" intela a nie masz zielonego pojęcia, czemu tak było. Wskazówka dla Ciebie ciemniaczku: cecha charakterystyczna NetBursta to powodowała.
Dobra, podpowiem Ci jeszcze bardziej bo pewnie nigdy byś nie doszedł czym się NetBurst charakteryzował: potoki przetwarzania, zaawansowana i skomplikowana predykcja rozkazów (im nowszy rdzeń, tym trudniej) i wszystko, co było z tym powiązane.
Potok przetwarzania zaczął się wydłużać, takty rosły, efektów niewspółmierne.
I co ciemniaczku z klapeczkami? Dalej będziesz wciskał ludziom kit? Poczytaj żesz chłopie różnego typu informacje w internecie, popatrz jak to się wszystko rozwijało, co ze sobą pociągało. A nie tylko same ulotki reklamowe i "wielki znafca" od siedmiu boleści. Czytanie nie boli przecież, nie?
Ja pierdaczę... kiedyś dzieci dostawały na komunię zegarki, teraz niestety dają neostradę i mamy przykłady w postaci Pana M i G.
- trepcia (autor: Grave | data: 13/02/10 | godz.: 01:18)
"Chłopie, myśl trochę. A co mógł robić Intel mając NetBursta a Core był jeszcze w powijakach? Ogłosić publicznie: "ludzie, mamy do kitu architekture? Nie kupujcie naszych rozwiązań?" Dobra mina do złej gry, aż takie masz klapki na oczach, że tego nie widzisz?
Roadmapa to tylko papier, napisali na nim wzięte z kosmotu taktowania przyszłego rdzenia Tjanas (czy jak mu tam było), AMD połknęło haczyk i zamiast przygotować coś na "nowe", AMD przygotowywało się na niedoszłe 10GHz. Genialna zagrywka Intela."
Dobra skoro mi zarzucasz pisanie z głowy, a sam niby jesteś lepszy to pokaż mi źródło tych rewelacji co sam wymyśliłeś? (że niby Intel robił dobrą minę do złej gry - do jakiś tajnych dokumentów dotarłeś że to wiesz?).
"Taki z Ciebie "znafca" intela a nie masz zielonego pojęcia, czemu tak było. Wskazówka dla Ciebie ciemniaczku: cecha charakterystyczna NetBursta to powodowała.
Dobra, podpowiem Ci jeszcze bardziej bo pewnie nigdy byś nie doszedł czym się NetBurst charakteryzował: potoki przetwarzania, zaawansowana i skomplikowana predykcja rozkazów (im nowszy rdzeń, tym trudniej) i wszystko, co było z tym powiązane.
Potok przetwarzania zaczął się wydłużać, takty rosły, efektów niewspółmierne."
A jaki z Ciebie? Myślisz że jak po swojej stronie błyśniesz wiedzą z wikipedii i dodasz parę obelg pod moim adresem to będziesz lepszym "fachowcem"?
To co napisałeś o P4 to ogólnie znane fakty, dla Twojej informacji mnie również znane. W tym wypadku podawać ich nie musiałem.
"PIV 1.6GHz nie był na pierwszym rdzeniu lecz na drugim. A to zasadnicza różnica, czego nie widzisz, zresztą nic nowego u Ciebie."
W kontekście przewidywania porażki NB nie ma znaczenia. NW radził sobie bardzo dobrze.
"I co ciemniaczku z klapeczkami? Dalej będziesz wciskał ludziom kit? Poczytaj żesz chłopie różnego typu informacje w internecie, popatrz jak to się wszystko rozwijało, co ze sobą pociągało. A nie tylko same ulotki reklamowe i "wielki znafca" od siedmiu boleści. Czytanie nie boli przecież, nie?
Ja pierdaczę... kiedyś dzieci dostawały na komunię zegarki, teraz niestety dają neostradę i mamy przykłady w postaci Pana M i G."
Do tego odnosiłem się już wyżej. Nie błysnąłeś absolutnie żadną większą wiedzą od mojej natomiast nadrobiłeś zwykłym chamstwem.
I jeszcze jedno... - nie mam Neostrady....
- @grave (autor: trepcia | data: 13/02/10 | godz.: 01:41)
"Dobra skoro mi zarzucasz pisanie z głowy, a sam niby jesteś lepszy to pokaż mi źródło tych rewelacji co sam wymyśliłeś? (że niby Intel robił dobrą minę do złej gry - do jakiś tajnych dokumentów dotarłeś że to wiesz?)."
Każdy test wydajnościowy pokazuje, jak PIV odstawało od AMD. Jeszcze jakieś dowody? Czy będzie z Tobą przeprawka jak z Morgim?
"Myślisz że jak po swojej stronie błyśniesz wiedzą z wikipedii"
Poszukaj tego na wikipedii :-) Ja wiem, co jest na wikipedii a wiem, co napisałem.
"Do tego odnosiłem się już wyżej. Nie błysnąłeś absolutnie żadną większą wiedzą od mojej natomiast nadrobiłeś zwykłym chamstwem."
Wydaje Ci się, że masz wiedzę. Gdzieś, w stosie Twoich zdań znajdzie się coś wartościowego, nie zaburzającego rzeczywistości.
A chamstwem bo chamstem, patrząc na kogoś, kto tak manipuluje faktami żółć się w człowieku przelewa. Ileż można, ileż można? Co Ci to daje, że tak mieszasz? Płacą Ci za to?
"I jeszcze jedno... - nie mam Neostrady...."
A popatrz, a takiś podobny :-)
- @grave (autor: trepcia | data: 13/02/10 | godz.: 01:50)
I jeszcze jedno, technologię NetBurst liznąłem z każdej strony i doskonale wiem, jak na początku XXI wieku wyglądały relacje Intel vs AMD. Nikt mi nie wmówi, że białe jest czarne. A każdego, kto w tej materii będzie manipulował faktami, przekręcał rzeczywistość będę surowo sprowadzał do parteru. Za co? Za ludzką głupotę.
Chcesz to się wypowiadaj jak wyglądała sytuacja AMD i Intela pod koniec XX wieku lub od czasów Core do dnia dzisiejszego. Średnio znam wszystkie wydarzeniam i mam braki, ale czas NetBursta Ci tak łatwo nie przejdzie.
- .:. trepcia i Grave (autor: Aelavin | data: 13/02/10 | godz.: 02:09)
Dajcie sobie na tę noc spokój. Interesuję się tymi zagadnieniami dopiero od kilku lat, więc to co piszecie i tak jest, jak dla mnie, sporym popisem Waszej znajomości tematu.
Moim zdaniem najważniejsze jest to, by te nowe procesory AMD były jak najlepiej dopracowane pod względem energetyki. Widać, że laptopy coraz częściej zastępują "blaszaki", ale tak naprawdę czy jest nam potrzebna pogoń coraz to większej mocy obliczeniowej w urządzeniach które z zamiaru miały być mobilne?
Osobiście jestem zwolennikiem stacjonarek, bowiem potrzebuję odpowiedni sprzęt oraz potrzebuję przestrzeni, której laptopy mi by nie dały (mobilne potrzeby nadrabiam Walkmanem X i telefonem)
- @UP (autor: Saturn64 | data: 13/02/10 | godz.: 08:27)
Moim zdaniem początki architektury P4 były złe ze względu na niskie FSB oraz stary proces technologiczny i po swojej premierze praktycznie równały się wydajnością z PIII na rdzeniu Tualatin. Projektanci jednak widzieli w nowej architekturze potencjał. I każda architektura może być najlepsza dopuki nie ma odpowieniej konkurencji. W tamtych czasach AMD miało problemy z procesami technologicznymi i zawsze było z tyłu za intelem. Mimo nie najgorszej architektury AMD K7 było ciężko coś z nich wycisnąć w OC. Procesory Intela były bardziej podatne na podkręcanie. P4 na rdzeniu Northwood (z FSB 800 i HT) był dobrym procesorem i pozwolił intelowi wyprzedzić AMD. Dopiero wejście na rynek udanego AMD64 nie spowodowało od razu przekreślenie tej architektury w oczach wielu ludzi. Wcześniej nikt nie poddawał w wątpliwość błędną koncepcje rozwoju. AMD mając procesor K8 od 2004 rywalizował z P4 Prescott, Prescott 2M i Cedar Mill a także Smithfield i Presler (2rdzeniowe). Wówczas wszyscy rozpływali się nad nowatorską architekturą AMD i większość wykazywała jej wyższość. Intel przenosząc architektury z jednego procesu do nastepnego nie mógł podbić zegara powyżej 3600 mhz (czyli praktycznie zatrzymał się w miejscu (skoro Northwood z 2003 roku posiadał już zegar 3200mhz). A Cedar Mill z 2006 - maksymalny 3600mhz. Jednak koncepcja AMD także nie okazała się wieczna. Zawsze przychodzi kryska na matyska :) i tak samo było z architekturą K8 (po wprowadzeniu conroe). Do dnia dzisiejszego mamy ciągły pościg AMD za intelem.
- ... (autor: pawel.xxx | data: 13/02/10 | godz.: 10:37)
Myślę że zanim zaczniecie krytykować P4 powinniście zapoznać się z testami.
Prawda jest taka że dopiero athlony X2 zdobyły jakąś przewagę nad P4 i było to w połowie 2005r. Rok przed premierą core 2 duo. Przy czym topowe athlony były dwa razy droższe od p4.
Uogólnienie polegające na stwierdzeniu że architektura P4 była cały czas zła jest błędem.
Czas tej arch. się skończył bo pojawiły się problemy techniczne których nie można było na początku przewidzieć.
- trepcia (autor: Grave | data: 13/02/10 | godz.: 10:37)
"Każdy test wydajnościowy pokazuje, jak PIV odstawało od AMD."
Skoro "KAŻDY" to weźmy pierwszy z brzegu zatem...:>
http://twojepc.pl/artykuly.php?id=pentium4_3_20
"Poszukaj tego na wikipedii :-) Ja wiem, co jest na wikipedii a wiem, co napisałem."
Ty napisałeś to (pod tym napisałem Ci że to wiedza z wikipedii):
"Taki z Ciebie "znafca" intela a nie masz zielonego pojęcia, czemu tak było. Wskazówka dla Ciebie ciemniaczku: cecha charakterystyczna NetBursta to powodowała.
Dobra, podpowiem Ci jeszcze bardziej bo pewnie nigdy byś nie doszedł czym się NetBurst charakteryzował: potoki przetwarzania, zaawansowana i skomplikowana predykcja rozkazów (im nowszy rdzeń, tym trudniej) i wszystko, co było z tym powiązane.
Potok przetwarzania zaczął się wydłużać, takty rosły, efektów niewspółmierne."
A to kawałek z wiki:
"Hyper Pipelined Technology
Intel chose this name for the 20-stage pipeline within the Willamette core. This is a significant increase in the number of stages when compared to the Pentium III, which had only 10 stages in its pipeline. The Prescott core has a 31-stage pipeline. Although a deeper pipeline has some disadvantages (primarily due to increased branch misprediction penalty) the greater number of stages in the pipeline allow the CPU to have higher clock speeds which will typically offset any loss in performance. A smaller instructions per clock (IPC) is an indirect consequence of pipeline depth—a matter of design compromise (a small number of long pipelines has a smaller IPC than a greater number of short pipelines). Another drawback of having more stages in a pipeline is an increase in the number of stages that need to be traced back in the event that the branch predictor makes a mistake, increasing the penalty paid for a mis-prediction. To address this issue, Intel devised the Rapid Execution Engine and has invested a great deal into its branch prediction technology, which Intel claims reduces mis-predictions by 33% over Pentium III.[1]"
Niczego nowego nie odkryłeś. Oprawiłeś wiedzę z wikipedii i pisemek komputerowych w inwektywy pod moim adresem to wszystko napisałeś w napuszonym stylu pełnym wywyższenia się i wydaje Ci się że to uczyniło Cię fachowcem? To jest po prostu śmieszne.
A o Twoim kompletnym braku obiektywizmu świadczy choćby nastawienie do postów morgiego, po którym jedziesz cokolwiek by nie napisał.
Gdybyś odrzucił swoją stronniczość względem AMD i przymknął oko na paskudny styl morgiego (język) to zauważyłbyś że w jego postach obok różnych bzdur jest także SPORO PRAWDY. Tylko że to nie wypada jego poprzeć nawet jak napisze coś z sensem i zupełnie słusznego (choć niewygodnego dla AMD), bo jest na forum persona non grata i jeszcze nie doszukuje się zalet w ofercie AMD, a to też przecież grzech.
W takich ocenach można sprawdzić właśnie OBIEKTYWIZM. Ty mi zarzucasz jego brak, a sam go nie masz. Nie jestem na tym forum od dziś i doskonale wiem że faworyzujesz AMD.
- Grave - to jest już po prostu męczące... (autor: Sandacz | data: 13/02/10 | godz.: 11:16)
przerzuć się na działkę motoryzacyjną - a nuż twe wprawne oko zawczasu wykryje usterki, które np teraz męczą Toyotę czy VW? Może uratujesz tym komuś życie? A ty się ścierasz nad tak naprawdę pierdołami... a poza tym jest takie powiedzenie że ten kto dużo gada...
- @Grave (autor: kosa23 | data: 13/02/10 | godz.: 12:17)
Athlon ma niezłą przewagę nad P4. Jak widać P4 jest taktowanay od 3.0ghz do 3.2ghz(i był grzałką, w sumie tak jak dzisiejsze intele), a athlon zaledwie 2.2 ghz i niczym nie ustępował
- Grave daj sobie spokoj z fanbojami (autor: MacLeod | data: 13/02/10 | godz.: 12:18)
Tutaj jest tylko jeden sluszny "obiektywny" kierunek. Szkoda ze nawet newsman jest stronniczy.
Kolorowe obrazki wyzej pokazuja mniej wiecej tyle co Nvidia o fermi - skany ladnych papierkow. Jak wyjdzie to bedziemy rozmawiac. Na razie jedyne co mozna skomentowac - pobor mocy o ktorym mozna tylko pomarzyc, i paskudny oczojebny czerwonopomaranczowy kolor.... ochyda.
I miejmy nadzieje ze AMD w koncu zrobi cos nowoczesnego, bo na razie dostaje srogie baty od Intela na kazdym procesorowym polu.
- hehe (autor: morgi | data: 13/02/10 | godz.: 12:29)
Przywracaja wspomnienia o P4 aka P68, a nawet nie wspomnieli, ze gdyby bylo to skonczone dzielo, to do konca nastapilaby kasacja P6, a w mobilnych nie bylo miejsca na eksperyment, bo to najwieksze zrodlo dochodow, zaraz po nim sa obecnie serwery a biurka z racji bardzo niskich cen mozna bylo wystawic na testy i nowe sciezki, nie zawsze otwarte czasem z slepa uliczka.
- @morgi (autor: kosa23 | data: 13/02/10 | godz.: 12:30)
Patrz na to i płacz jaka jest kompatybilność AMD. Mam płytę gigabyte nforc 570sli i na dzień dzisiejszy oferuje kompatybilność, ze wszystkimi procesorami AMD oprócz 5-pięciu(to jest: 955, 965 i 3-ech na podstawkę AM2+). Zaznaczę, że ta płyta kosztowała mnie 400 zł. http://www.gigabyte.pl/...ist/ga-m57sli-s4_10.html
- ... (autor: kosa23 | data: 13/02/10 | godz.: 12:33)
Zaznaczę, że ta płyta kosztowała mnie 400 zł trzy lata temu...
- @grave (autor: trepcia | data: 13/02/10 | godz.: 12:33)
Masz rację, słowo "każdy" było na wyrost.
"Oprawiłeś wiedzę z wikipedii i pisemek komputerowych w inwektywy pod moim adresem to wszystko napisałeś w napuszonym stylu pełnym wywyższenia się i wydaje Ci się że to uczyniło Cię fachowcem? To jest po prostu śmieszne."
To dobrze, że umiesz szukać w internecie różnych materiałów :-) Trudno inaczej scharakteryzować jednostkę przetwarzania potokowego w NetBurscie. Jedynie udowadniasz, że to co piszę, jest prawdą, dziękuję Ci. Do wikipedii i pisemek komputerowych dodaj jeszcze wykłady na uczelni, moje notatki oraz książki.
"wydaje Ci się że to uczyniło Cię fachowcem?"
Skadże znowu, są na tym portalu osoby, którym nie dorastam do pięt. Ale nikt nie będzie pociskał kitu czytelnikom.
"A o Twoim kompletnym braku obiektywizmu świadczy choćby nastawienie do postów morgiego"
Uuu... toś pojechał po bandzie po całości. Widocznie 95% osób tutaj udzielających się nie ma za grosz obiektywizmu z powodu nastawienia do postów morgiego.
"obok różnych bzdur jest także SPORO PRAWDY."
Której prawdy, bo świat zna trzy jej odmiany: cała prawda, tylko prawda i gówno prawda.
Co do morgiego nie będę się wypowiadał, po drugie wystarczy zajrzeć do archiwum moich wypowiedzi i przeczytać ile było postów, w których cytowałem wykluczające się wypowiedzi morgiego. Jego zdanie jest zmienne jak chorągiewka na wietrze, jeśli nie wierzysz w słowa, które tu napisałem to zajrzyj do mojego archiwum i sam się przekonaj. Słów napisanych nie da się już edytować :-)
"W takich ocenach można sprawdzić właśnie OBIEKTYWIZM."
Dziwnie słowo "obiektywizm" brzmi w ustach kogoś, kto przed fizyczną premierą jakiego kolwiek układu doskonale wie, jak będzie się sprawował a swoje opinie opiera na roadmapach bądź slajdach.
"Gdybyś odrzucił swoją stronniczość względem AMD"
Jestem tak stronniczy i tak pro-AMD, że aż korzystam z rozwiązań Intela. Brawa za insynuacje i pomówienia na temat mojej osoby. Najwidoczniej masz szklaną kulę, która powiedziała Ci jaki mam config w PC i laptopie oraz co polecam swoim znajomym :-) Niech ta szklana kula przewidzi kolejną falę kryzysu na świecie. Albo nie, niech nie przewiduje bo przecież ona się całkowicie mija z rzeczywistością!
- kosa23 (autor: morgi | data: 13/02/10 | godz.: 12:40)
To jest dowod na wstecznosc lub stanie w miejscu od 2003 ta sama architektura, od przynajmniej 2006 kraza juz ptaki nad tym wydajnosciowym denatem, bo udalo sie tylko podniesc takt, podlozyc wiecej szybszego cachu i skopiowac wiecej rdzeni, a w pojedynke nic wiecej.
- AMD (autor: Galnospoke | data: 13/02/10 | godz.: 12:48)
probuje zrobic to co nVidia z Fermim, tyle ze na znacznie wieksza skale. Interesujace, biorac pod uwage komplikacje projektu i koniecznosc wsparcia programistow - co po swietnym sprzecie jak nie ma oprogramowania?
- lol :) (autor: ziemoone | data: 13/02/10 | godz.: 12:48)
widze że niejaki Grave pisze felieton w komentarzach hehehehe
- @kosa23 (autor: pawel.xxx | data: 13/02/10 | godz.: 12:52)
"Athlon ma niezłą przewagę nad P4. Jak widać P4 jest taktowanay od 3.0ghz do 3.2ghz(i był grzałką, w sumie tak jak dzisiejsze intele), a athlon zaledwie 2.2 ghz i niczym nie ustępował"
Co do grzałek to w arcie piszą to w artykule piszą
"Procesor (P4) oparty jest o jądro D1 i oddaje 83W"
" Procesor (ATHLON) oddaje średnio moc 60,4W, a maksymalnie 76,8W"
Czyli różnica to 7%.
Porównanie taktowań jest bez sensu. Liczy się wydajność a nie taktowanie.
- pawel.xxx (autor: Markizy | data: 13/02/10 | godz.: 13:52)
http://twojepc.pl/...testy_socket_939&strona=3
a później Athlon64 3800+ pogrzebał intela, przynajmniej te bez HT.
A TDP miał 89, czyli o 6W wiecej niż intel.
Tak naprawdę można w kółko obracać który był od którego lepszy. AthlonXP mógł walczyć z pentiumami 4 do 2800Mhz, później dawały znać o sobie braki architektury i mały zegar. W każdym razie co by się nie działo to już historia!
Dobrym pytaniem jest jakie okażą się nowe rozwiązania Intel i AMD w dziecinie połączenia GPU+CPU. Bo na dzień dzisiejszy Intel ma o wiele lepsze CPU, z kolei AMD ma GPU przy którym intel nie ma startu.
- @up (autor: Markizy | data: 13/02/10 | godz.: 14:01)
a przebudowanie nawet starego rdzenia może wiele dać
co ładnie tutaj widać AthlonXP vs Athlon64
http://www.tomshardware.pl/...ml#benchmarki_opengl
- Przebudowa pozorna (autor: morgi | data: 13/02/10 | godz.: 14:26)
glownie to wmontowali inny system bus, ale grzeja kotleta do dzisiaj, czyli rywala P4, a na Core nie ma odpowiedzi do dzisiaj i byc moze bedzie w 2011, po 5 latach wreszcie wygrzebia cos z odchlani pomyslow, chociaz watpie czy bedzie to cos zupelnie innego niz co opracowali za czasow DEC Alpha.
- @pawel.xxx (autor: rainy | data: 13/02/10 | godz.: 15:03)
Ale naprawdę nie wiem dlaczego bronisz Penium 4 - to była średnia architektura (ujmując to delikatnie).
Dla zobrazowania tego, masz tutaj testy Athlona 64 X2 6400+ (3,2 GHz) vs Pentium 4 EE 965 (3,46 GHz - w bazie nie ma wyników dla najszybszego Pentium EE 965 - 3,73 GHz).
http://www.anandtech.com/...p=27&p2=93&c=1
- trepcia (autor: Grave | data: 13/02/10 | godz.: 15:19)
"Uuu... toś pojechał po bandzie po całości. Widocznie 95% osób tutaj udzielających się nie ma za grosz obiektywizmu z powodu nastawienia do postów morgiego."
95% osób go krytykuje odnosząc się głównie do jego osoby, a nie do tego co pisze, niezależnie od tego CO pisze. A pośród wielu bzdur także jest sporo prawdy w jego postach tyle, że niewygodnej dla AMD.
A akurat tutaj zwolenników AMD jest więcej (albo też są bardziej aktywni).
"Dziwnie słowo "obiektywizm" brzmi w ustach kogoś, kto przed fizyczną premierą jakiego kolwiek układu doskonale wie, jak będzie się sprawował a swoje opinie opiera na roadmapach bądź slajdach."
Zawsze przed premierą można co najwyżej przewidywać opierając się na dostępnych materiałach, źródłach, obserwacji rynku, odniesień do istniejących produków etc I to jest normalne.
Sam też na pewno niejednokrotnie wypowiadasz się na temat przyszłych CPU czy GPU i jakieś przemyślenia z tym związane przedstawiasz, które mogą się zgodzić z prawdą ale nie muszą.
Wydajność Phenoma jest ogólnie znana, bez radykalnych zmian w architekturze nie ma szans, żeby wycisnąć z tego wyraźnie wyższą wydajność. Stąd uważam, że CPU w Fusion będzie słabsze od SB.
Bo nie wiem co prawda nic o wydajności CPU w SB, ale zakładam zupełnie logicznie, że będzie CO NAJMNIEJ TAK SZYBKI (albo szybszy) jak Nehalem, a to już wystarczy żeby poradzić sobie z Phenomem.
I oczywiście ja też się nieraz myliłem. Ale jak popatrzysz wstecz to moje dwie największe pomyłki dotyczyły sztandarowych produktów AMD i ATI.
Murem stałem za K10 i byłem przekonany, że zmiecie Core2, i także murem stałem za R600.
W obu przypadkach ATI i AMD zawiodło potwornie.
"Jestem tak stronniczy i tak pro-AMD, że aż korzystam z rozwiązań Intela. Brawa za insynuacje i pomówienia na temat mojej osoby."
To co piszesz nie musi wynikać z posiadanego sprzętu. Możesz posiadać sprzęt Intela, a na forum gloryfikować AMD jadąc po Intelu. W końcu napisać można wszystko....
- @grave (autor: trepcia | data: 13/02/10 | godz.: 16:10)
"A akurat tutaj zwolenników AMD jest więcej (albo też są bardziej aktywni)."
Albo zwolenników "niebieskich" bardziej boli to, że ich ulubieniec również ma potknięcia :-)
Patrz: piszesz o słabszej wydajności Phenoma, część osób odpisze, że i słabszy ale konkurencyjny cenowo w jakimś tam przedziale (już nie wnikajmy w tych ultra radykalistów, co to Phenoma stawiają wyżej niż i7). Pójdzie nagonka na Intela, zaraz obrońcy powstają, że i tak wydajniejszy oraz padną stwierdzenia, że wypowiadające się tutaj osoby w dużej mierze są zwolennikami AMD a nawet admini życzliwie na zielonych patrzą. Ogólnie, TwojePC jest pro-AMD.
Oczywiście te słowa zostaną potraktowane jak grochem o ścianę, Ty panie G oraz Pan M będziecie i tak uważać, że to "zielony" portal. Zresztą tak samo ludzie piszą na IN4, na FrazPC, na PCLabie, na NVision, że wszystkie te portale murem za AMD stoją. Cała Polska za AMD stoi, mamy w tym "interes" społeczny by bronić firmy, która i tak nic nie inwestuje w tym kraju. Tylko garstka osób w tym kraju, na czele z Tobą i Panem M, jesteście wyzwoleni, oświeceni i wydaje Wam się, że dotarliście do źródła wszelakiej prawdy. Oj ciemni i naiwni.
"Sam też na pewno niejednokrotnie wypowiadasz się na temat przyszłych CPU czy GPU"
I owszem. Szczególnie pod kątem zastosowanych nowych technologii. Ze świecą w moich komentarzach szukać domniemywań na temat ich wydajności.
"Bo nie wiem co prawda nic o wydajności CPU w SB"
Brzmi to mniej więcej tak jak stwierdzenie: nigdy nie miałem forda ale i tak wiem, że to zły samochód.
"Murem stałem za K10 i byłem przekonany, że zmiecie Core2, i także murem stałem za R600."
Ty stoisz za czymś murem, zanim to się oficjalnie pokaże a ja czekam na konkrety. Ty się sparzasz, nie ja. Tylko czemu później smęcisz?
"To co piszesz nie musi wynikać z posiadanego sprzętu. Możesz posiadać sprzęt Intela, a na forum gloryfikować AMD jadąc po Intelu."
Albo czytasz co drugie moje zdanie albo coś ucieka Twojej uwadze. Piszesz tak, jakbym nigdy nie krytykował AMD tylko cały czas je wychwalał. Dziwne, jeśli coś jest czarne to czemu mam mówić, że jest białe? Sensu w tym żadnego nie ma, co AMD spieprzyło - każdy wie. Nawet tutaj, w tym temacie odniosłem się źle w stosunku do AMD chwaląc przy tym Intela, czyżbyś nie widział tego? A może maska, którą mi założyłeś, niczym we Ferdydurke Gombrowicza, przesłania Ci prawdziwy obraz moich wypowiedzi?
- @ trepcia (autor: Sandacz | data: 13/02/10 | godz.: 16:33)
Masz u mnie mocnego browara za wytrwałość w prostowaniu osobników którzy swoje tezy z góry stawiają jako nie podlegające dyskusji prawdy objawione.
- @rainy (autor: pawel.xxx | data: 13/02/10 | godz.: 16:45)
ja tylko chcę by oceniać P4 uczciwie.
http://fwd4.me/FYX test z 2003
http://fwd4.me/FYY test z 2004
http://fwd4.me/FYZ test z 2005
Na podstawie wszystkich wyników nie mogę powiedzieć że P4 był zły. Na pewno nie można powiedzieć że konkurencja w tym czasie była zdecydowanie lepsza. Naginanie faktów dotyczących P4 jakie niektórzy stosują bardzo mi się nie podoba.
Porównywanie athlona x2 6400+ z 20.08.07 z P4 z 16.01.06 także jest naginaniem.
Gdyby naginać fakty w drugą stronę to powinno się porównać i7 920 właśnie z athlonem x2 6400+
- Sandacz (autor: Markizy | data: 13/02/10 | godz.: 17:06)
kiedyś to ciekawe pogawędki były z manem M, Sajronem i jeszcze kilku wspaniałych się tu trafiło :D
- pawel.xxx (autor: Markizy | data: 13/02/10 | godz.: 17:10)
myślę że rainy miał bardziej na celu pokazanie najlepszego procesora p4 i athlona x2, które były w tamtym czasie, tylko miały problemy z osiągnięciem tak wysokiej częstotliwości jako domyślnej. Częstotliwość max dla p4 to 3,74, dla athlona X2 to 3,2 a obydwa ze sobą współzawodniczyły, do czasu aż intel zmienił architekturę, a amd pokazało średnio udane pierwsze k10.
- Markizy (autor: Grave | data: 13/02/10 | godz.: 18:14)
W momencie debiutu Conroe najszybszym CPU AMD był Athlon 64 FX-62 2,8GHz. AMD wypuściło swój CPU w maju 2006, dwa miesiące przed premierą Conroe.
Modele 6000+ (3GHz) czy 6400+ BE (3,2GHz) Athlonów pojawiły się dopiero w 2007, więc tym bardziej nie rywalizowały z żadnym z Pentium, ale właśnie z Core2.
- @Grave (autor: Shark20 | data: 13/02/10 | godz.: 18:18)
co nie zmienia faktu że nawet Athlon X2 FX-60 2,6 GHz na S939 był bardziej wydajny od wydanego w marcu 2006 Pentium D 3,73 GHz (Presler)
- Shark20 (autor: Grave | data: 13/02/10 | godz.: 18:26)
Generalnie był, aczkolwiek też wszystko zależało od aplikacji testowej. W części programów Pentium 4/Pentium D był w stanie wyprzedzić Athlona 64/X2, natomiast, co istotne dla sporej grupy użytkowników - przegrywał bardzo wyraźnie w grach z CPU AMD.
- @pawel.xxx @ Grave (autor: rainy | data: 13/02/10 | godz.: 18:47)
Ale ja nie mam najmniejszego zamiaru zaprzeczać, iż najszybsze Windsory (3,2/3 GHz) pojawiły się znacznie później niż Pentium EE 965/955.
Chodziło tylko o pokazanie, iż przy zbliżonym zegarze (260 MHz przewagi CPU Intela) architektura Athlona 64 była wyraźnie wydajniejsza niż Pentium 4.
Btw, pawel.xxx z datą trzeciego artykułu jest coś nie tak: Presler (Pentium EE 965) pojawił się w marcu 2006 (artykuł jest datowany na luty 2005).
- @rainy (autor: pawel.xxx | data: 13/02/10 | godz.: 19:05)
w trzecim arcie wszystko jest w porządku. to pentium 4 !!! presscoty.
http://fwd4.me/FZB
- Grave (autor: morgi | data: 13/02/10 | godz.: 21:06)
Stanie murem za r600 mialo jakies prowieniencje w historii, bo stare ATi kiedys potrafilo wykorzystac slepy zaulek Nvidii i wypracowana architekture pod katem Microsoft DX, a nie pod wlasne widzimisie Nvidii Cg. Nie rozumiem jednego jak mozna bylo obstawac przy k10 i przeciekach odnosnie architektury i jawnych watpliwosci kiedy przy Core 2 bylo juz kawa na lawe ze miazdzy w kazdym aspekcie cokolwiek co amd wydalo nie tylko w tamtym czasie ale i co teraz produkuje.
- Krótki wywód o P4 (autor: Quarrel | data: 14/02/10 | godz.: 00:02)
Wydaje mi się ,że całkowite dyskredytowanie architektury P4 to lekka przesada. Oczywiście Pentium4 nie był szczytem osiągnięć technologicznych inżynierów Intela ,bo to co pokazali wcześniej, projektując Pentium a potem P6 to inna liga. Ale tragedii nie było.
Jak już wspominamy historię to warto sobie przypomnieć jak w tamtym okresie rozwijał się rynek procesorów. Intel w marcu 1994 wprowadził Pentium 100 MHz a już w listopadzie 1995 PentiumPro 200 MHz. Na osiągnięcie 1000 MHz Intel potrzebował 5 lat . Premiera P3 nastąpiła 8 marca 2000r co jak się okazało było o 2 dni za późno. Gdzieś tak od 500MHz Intel i AMD ostro konkurowali starając się przedstawić co raz to szybszy czyli tykający z większą częstotliwością procesor.
W całym tym wyścigu technologicznym Megaherce stały się głównym argumentem marketingowym. Dlatego nie ma za bardzo co się dziwić ,że projektując następce P6 Intel postawił na architekturę ,która będzie w stanie osiągnąć wysokie częstotliwości taktowania. Tak powstał P4 Willamatte ,który w procesie technologiczny 0,18 mikrona ,osiągnął częstotliwość 2GHz ,a wykonany w tym samym procesie technologicznym P3 Coppermine tylko 1 GHz. Tak na marginesie próba wprowadzenia P3 1130 nie skończyła się dla intela zbyt dobrze. W dniu premiery P4 2000MHz najszybszy procesor AMD to Athlon 1400 MHz Thunderbird ,który generalnie był wolniejszym procesorem. Tak więc ostro krytykowana architektura NrtBurst okazała się wydajniejsza od P6 (Co powinno być oczywiste. Swoją drogą jak by tak nie było to by dopiero były jaja.) oraz na tyle wydajna by mogła z powodzeniem konkurować z produktami AMD, mając przy tym wielki bonus marketingowy w postaci wysokich częstotliwości działania.
Mały facelifting pod nazwą Northwood na tyle poprawił sytuację ,że Pentium4 stał się naprawdę dobrym procesorem.Wykonany w procesie 0,13 mikrona osiągnął zegar 3.4 GHz(albo 3.2 GHz nie jestem pewien). Tualatin w tym samym procesie technologicznym skończył się na 1.4 GHz. Northwood okazał się na tyle wydajny ,że AMD do czasu wprowadzenia K8 nie miało za wesoło.
Po wprowadzeniu na rynek rdzenia Gallatin wydawało się ,że architektura NetBurst ma przed sobą całkiem niezłą perspektywę. Pojawiły się zapowiedzi o 10 GHz, kolejnych modyfikacjach architektury, wywiady miały być (to z sexmisji) a tu klops.
Prescott chyba stał się największą niespodzianką dla samego Intela, negatywną niespodzianką oczywiście. Czemu Prescott został grzejnikiem to wiedzą tylko pracownicy Intela.
- 'Czemu Prescott zostal grzejnikiem?' (autor: morgi | data: 14/02/10 | godz.: 10:16)
To chyba z grubsza dawno leza odpowiednie artykuly podparte uniwerkowa dedykcja.
http://www.anandtech.com/...oc.aspx?i=2343&p=7
- @morgi (autor: kosa23 | data: 14/02/10 | godz.: 13:04)
Ad.65 Na to wygląda, że to wystarczało, z palcem w d...e na "pokonywanie" intelowskiego szajsu.
Ciągłe zmienianie podstawek przez intela świadczyło o tym, że mają problemy z wydajnością i wymyśleniem czegoś nowego. Wystarczyło to samo puścić na rożnych podstawkach, a fan boje łykali jak małpa kit i w sumie łykają nadal.
- kosa23 (autor: morgi | data: 14/02/10 | godz.: 13:53)
Jaki problem z wydajnoscia? Na tej samej podstawce oferujac nowa architekture skok nastapil drastyczny, dzieki przeskoczeniu do 4 przebiegowej arch., cos czego amd nie ma do dzisiaj, bo optymalizuje od lat te same 3waye w tych samych widelka efektywnosci. Teraz oferujac nowa architekture Nehalem do SandyBridge wydajnosc rosnie stopniowo, ale chip ulegl powaznej przebudowie uncore i system bus, mimo ze struktura rdzenia niewiele sie zmienila. W desktop i tak lykaja w wiekszosci Pentaki i Core trzyma sie swietnie z cenami, nie ma koniecznosci walki cenowej i potracen na kosztach i marzach, wiec pelna para idzie rozwoj technologii.
- @morgi (autor: kosa23 | data: 14/02/10 | godz.: 14:16)
Te wysoki ceny są tylko i wyłącznie dlatego, że ktoś musi pokryć wysokie koszty marketingu
- aha (autor: kosa23 | data: 14/02/10 | godz.: 14:35)
no i musi kasę zbierać na odszkodowania dla firm, a kto zapłaci? No jasne, że klient. Tak samo mała ilość produktu zawyża cenę.
Od razu widać, że kierujesz się ceną, a to nawet dziecko umie rozróżnić. To jest taka cecha co niektórych ludzi, którzy się nie znają na rzeczy, wiec kierują się ceną, a takim ludzikom można nawet sprzedać gówno w złotym papierku, wystarczy tylko odpowiednia... To taki typ "nowo bogackiego polaczka", który patrzy przez pryzmat ceny im droższe, tym lepie. Tylko, tym może się wyróżnić od innych, a w głowie ma dukane pyry...
- Tylko ze jest roznica (autor: morgi | data: 14/02/10 | godz.: 17:45)
amd sprzedaje w niskich cenach bo w ostatnich 3,5 roku to akt desparacji i braku odpowiednio mocnych 'kart' w grze rynkowej, a Intel nie sprzedaje G, a dobry towar wart swojej ceny, bo gdyby bylo za drogo nie byloby tak szalonego popytu.
- @morgi (autor: Promilus | data: 14/02/10 | godz.: 18:46)
Intel teraz owszem sprzedaje dobry towar, ale od premiery K7 do premiery core 2 to tak nie było.
Willamette - gorący, nie osiagający dużych częstotliwości, zazwyczaj RDR na mobo, droga platforma, niewiele lepsze od Tualatinów. Northwood - prawdę mówiąc najlepszy z rodziny P4 - błyszczał w integerach, Prescott - lipa, ratowała go tylko lepsza płyta, pamięci i ht. Galatin - dupa zbita, cholernie drogi a lały go k8 ze średniej półki.
Możesz czarować że intel przynajmniej starał się dostarczyć topowy procesor nawiązujący walkę z konkurencją (bo wiadomo, że się starał), ale zawsze pozostaje kwestia...ceny - i tutaj intel kazał sobie płacić i to sporo...Bo P4EE były droższe od A64 FX.
- Promilus (autor: morgi | data: 14/02/10 | godz.: 20:04)
Taki krotki rekonesans, Willamette owszem mial wpadke z RDRAM i slabymi modelami Celeron, ktore nie powstrzymaly duronow i tanszych athlonow, ale Northwood bylo juz bardzo dobrze przyjete a zakonczylo sie Prescottem, ktory dopiero w ostatniej fazie zycia P4 nie pracowal chlodno i przez to na tyle wysokim takcie, zeby osiagnac przewage, a wersje klejone byly wcisniete na sile, chociaz przynajmniej wprowadzily podstawke pod nadchodzace Core. Inna kwestia to, ze nadal samym dektopem nie dalo sie odczarowac trendow, a Intel mial silna pozycje mobile i nie odpuscil stacji roboczych.
- @morgi (autor: Promilus | data: 14/02/10 | godz.: 20:49)
Ale Prescott a Northwood to zupełnie inna bajka, dlatego napisałem że moim zdaniem z wszystkich P4 to właśnie Northwood miał największe szanse by być najlepszym. Wystarczyło dać większy cache i szybszą szynę. Potok i REE zostawić w spokoju. Mobilne P4 to dopiero była porażka, stąd wszystkie te baniasy, dothany, yonahy które wywodziły się bezpośrednio z Pentium III wzbogaconego o QPB i SSE2. I co się okazało? Że w wielu zastosowaniach nawet te nieco odpicowane P3 dawało radę wysokotaktowanym P4 - przy niższym zużyciu energii. Tyle, że K7 z P3 rywalizowało i to spokojnie, Athlon XP zamiatał nawet Tualatiny. Ale K8 bazujące na K7 już Core 2 nie pozamiatało. Intel się nauczył na błędach, AMD jechało do tej pory na osiągnięciach Alphy i względnym sukcesie AMD64 w serwerach - ale teraz trzeba konkretnych rozwiązań. Buldożer - coś tam może i ma, ale cudów się nie spodziewam. Najwidoczniej silne promowanie OpenCL ma maskować niedoskonałości ich CPU. W końcu jak program będzie śmigał na GPU to większej różnicy nie będzie między i9 a 4 rdzeniowym athlonem II - bo np. 90% obliczeń będzie na GPU. A skoro nie widać różnicy - to po co płacić majątek? ;)
- Promilus (autor: morgi | data: 15/02/10 | godz.: 13:14)
Po prostu amd nie stac na inne pomysly jak miniaturyzacja rdzenia k7 i powazne pomysly. Problem Prescotta jak i pozniejszych terminowanych P4 byl jak to w linkowanych artykule problemem zbyt duzej komplikacji chipu przy jednoczesnych mocno rosnacych leakach i tutaj trzeba bylo wykonac krok do tylu, a potem 2 do przodu i wykorzystac stara koncepcje P6, ktora zawsze dawala sobie lepiej rade niz pomysly amd i prosze jaka dzisiaj ma przewage.
Co do otwartych standardow to ja nie wierze w takie rozwiazania, nikt nie uwierzy, ze promowanie gpu do wspomagania obliczen przejdzie jako tako bez sponsora lub poteznej marki.
- @morgi (autor: Promilus | data: 15/02/10 | godz.: 15:00)
Czytałem na anandzie porównanie core vs k7 vs p4 vs k8 vs p3 - mylisz się, zasadniczo P3 nie miało najmniejszych szans z K7, a P4 z K8. W Core2 dali 4 dekodery - 3 proste i 1 do rozkazów złożonych, k8 ma 3 dekodery do rozkazów złożonych. Core2 ma mikrofuzje - np. cmp i jne (na co tłumaczony jest if... then) - jako jeden rozkaz a nie 2 - zwiększa to nieco wydajność. Core2 mógł w 1 takcie przerobić 4 simdy, a k8 tylko 3. Ogółem po prostu mądrzejsze podejście do problemu. K8 to taki kloc z siłowni, intel może nieco mniejszy, ale za to sprytniejszy.
"Co do otwartych standardow to ja nie wierze w takie rozwiazania, nikt nie uwierzy, ze promowanie gpu do wspomagania obliczen przejdzie jako tako bez sponsora lub poteznej marki" - przejdzie bo jest sponsor i potężna marka. Jest NV, jest AMD i wreszcie jest ... Apple. To wystarczy.
- @promilus (autor: trepcia | data: 15/02/10 | godz.: 18:19)
"na co tłumaczony jest if... then"
Wiesz, że nigdy nie myślałem, że to są dwa rozkazy w procesorze? Mam jeszcze braki... dzięki za ich uzupełnianie :-)
- @trepcia (autor: Promilus | data: 15/02/10 | godz.: 18:29)
if (a==5)
coś w stylu CMP reg1,reg2
gdzie reg1=a, reg2=5
oczywiście najpierw trzeba te wartości przepisać do rejestrów czyli 2x mov ;)
potem np. skok warunkowy (jne) do ominięcia tego co za IF() i przejścia do tego co za ELSE w momencie NIE spełnienia warunku. W przypadku uC i sprawdzania pinu nie ma sensu robić IF(P0.0==0) tylko IF(!P0.0) i jest git. W pierwszym przypadku jest właśnie porównanie z zerem, w drugim jest coś w stylu btst - jedna prosta, krótka instrukcja jednoargumentowa :]
- @promilus (autor: trepcia | data: 15/02/10 | godz.: 19:36)
Dobre :-)
- @ Promilus (autor: pawel.xxx | data: 16/02/10 | godz.: 21:57)
w x86 cmp może operować ze stałą natychmiastową, wiec będzie cmp ax , 5h, a potem skok warunkowy.
Jesteś pewien że w 8051 sprawdzanie stanów pinów także jest jedną instrukcją. W c'51 nigdy się nie grzebałem, a mimo to trudno mi jakos uwierzyć by intel tak to zrobił .
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|