TwojePC.pl © 2001 - 2024
|
|
Piątek 24 kwietnia 2009 |
|
|
|
12 i 16-rdzeniowe Opterony w planach AMD Autor: Zbyszek | źródło: TechReport | 10:45 |
(44) | Koncern AMD uaktualnił swoje plany w segmencie procesorów i platform dla serwerów oraz stacji roboczych. Już w 2010 roku pojawią się 8 oraz 12-rdzeniowe chipy Magny-Cours. Układy będą produkowane w 45nm procesie technologicznym, zgodne z podstawką Socket G34 i przeznaczone na nową platformę o nazwie Maranello, która będzie współpracować z pamięciami DDR3 i zastąpi obecną platformę serwerową AMD, obsługującą jedynie pamięci DDR2. Rok później platforma Maranello zostanie odświeżona ofertą nowych procesorów, produkowanych w 32nm procesie technologicznym. Będą to układy o nazwie kodowej Interlagos, zawierające 12 i 16 rdzeni.
Wszystkie z nowych procesorów wyposażone będą w kontroler pamięci DDR3 oraz nowe technologie - HTC pozwalającą na dynamiczne zarządzanie zegarem oraz poborem mocy, Probe Filter ułatwiającą zachowanie spójności danych w pamięci podręcznej oraz APML będącą odpowiednikiem intelowskiego vPro.
|
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- Nieźle... (autor: stud3nt | data: 24/04/09 | godz.: 11:21)
Teoretyczna, papierowa wydajność będzie gigantyczna. AMD zawsze dobrze radziło sobie w segmencie procesorów serwerowych.
Ciekawe tylko, kiedy pojawią się procesory 8- i 16- rdzeniowe dla zastosowań domowych i co najważniejsze, kiedy zaczną masowo pisać elastyczne gry i programy - wykrywające i równo obkładające obliczeniami wszystkie rdzenie.
- .:. (autor: Shneider | data: 24/04/09 | godz.: 11:28)
roczny poslizg, ale za to pojawiaja sie w planach 16stki ;-)
- fajne nazwy (autor: globi-wan | data: 24/04/09 | godz.: 11:41)
jak w f1 magny cours i interlagos
- @stud3nt (autor: rainy | data: 24/04/09 | godz.: 11:43)
Podstawowy problem to zmiana nawyków programistów - procesory wielordzeniowe to jeszcze cały czas stosunkowo krótki etap w rozwoju CPU (od wiosny 2005).
8-16 rdzeni w warunkach domowych? Myślę, że poczekamy jeszcze dość długo - większość ludzi nie porzebuje/nie jest w stanie wykorzystać procesorów czterordzeniowych.
Btw, widać, że AMD lubiła okres współpracy z Ferrari - wszystkie nazwy to tory F1.
- rainy (autor: morgi | data: 24/04/09 | godz.: 12:09)
Zmiana nawykow? Od 4 lat znane komercyjne wielordzeniowce, jeszcze dluzej wielowatkowce, tam gdzie trzeba zmiany zaszlo dawno, a kwestie czy i kiedy beda lepiej wspierane quad, heksa, octa zalezy jak ulozy sie podzial rynku. Ktory programista piszac cos na PC przestanie wspierac jednordzeniowce wiedzac, ze jest ich jeszcze tyle na rynku, a oleje ze powiem brzydko quady, ktorych jest miedzy 10 a 20%. Platformy PC same sa czasem ofiara swego przeznaczenia.
- słuszna myśl (autor: AZet | data: 24/04/09 | godz.: 12:38)
komu potrzeba w warunkach domowych tyle rdzeni?
Tym bardziej że własnie nie ma powszechnego oprogramowania korzystającego z tej wielości.
I tu jest sedno : to oprogramowanie daje klucz,a nie same tylko możliwości wykorzystania rdzeni.
- morgi (autor: Promilus | data: 24/04/09 | godz.: 12:42)
Takie DXP czy symulatory IC wolałbym jednak w wielowątkowej formie - przede wszystkim, że cenię swój czas a czekanie aż DXP mi poprowadzi w projekcie ścieżki optymalnie to udręka. Żeby jeszcze to DOBRZE robił ;)
- rainy (autor: MarcinN | data: 24/04/09 | godz.: 13:35)
Przecież Maranello to nie tor, a miasteczko w którym siedzibe ma Ferrari.
- Pisanie na wiele rdzeni jest trudne. (autor: rmarcin | data: 24/04/09 | godz.: 13:40)
To nie jest kwestia nawyków. A tak, żeby program chodził optymalnie na każdej ilości rdzeni to już w ogóle SF.
- @MarcinN (autor: rainy | data: 24/04/09 | godz.: 13:50)
Niezupełnie - w Maranello (lub obok) znajduje się tor testowy Ferrari.
- rmarcin (autor: Dzban | data: 24/04/09 | godz.: 15:22)
Dzięki DX11 czy Open CL będzie to znacznie łatwiejsze
- heh te 16 rdzeni to jest śmiech na sali! t.j. max 400Gflops SP (autor: Sajron | data: 24/04/09 | godz.: 17:42)
LARABEE nadchodzi! POGROM wszystkiego!
AMD się schowa jak mrówka a Nvidia skuli uszy jak kundel.
Już niedługo Intel wypusci procki 8-64 rdzeniowe legendarnego procesora CGPU LARABEE! Każdy z rdzeni będzie miec 512 bit 16 way jednostki wektorowe FPU! Czujecie tę moc?
8rdzeni*3GHz*16SP=768/384Gflops dla SP/DP
16rdzeni*3GHz*16SP=1536/768Gflops dla SP/DP
32rdzenie*3GHz*16SP=3072/1536Gflops dla SP/DP
64rdzenie*3GHz*16SP=6144/3072Gflops dla SP/DP
6 TERAFLOPÓW SP!!!! i nie ma mocnych! konkurencja jest lata świetlne za murzynami!
- Sajron (autor: morgi | data: 24/04/09 | godz.: 17:51)
Bez przesady..nie mylmy gpu z cpu.
- morgi! (autor: Sajron | data: 24/04/09 | godz.: 18:07)
Larabee to układ cpu i gpu w jednym. Może obliczac liczby stałoprzecinkowe jak i zmiennoprzecinkowe(pojedynczej jak i podwójnej precyzji), wpełni zgodny z instrukcjami x86! Normalnie jak procesor.
- @Sajron (autor: Blazakov | data: 24/04/09 | godz.: 18:35)
Tia... Pogrom... Pogrom to będzie jak programistom bedzie się chciało to wykorzystywać. A coś mi się to w najbliższym czasie nie widzi...
- @Sajron (autor: Promilus | data: 24/04/09 | godz.: 18:35)
A czy Larrabee nie ma mieć AA wykonywanego programowo przez te rdzenie? Hmmm, no to spora część tej mocy obliczeniowej pójdzie "w 3 pizdu". Magistrala PCI-e 2.0 16x to 8GB/s, dla 64 rdzeni trzeba będzie skołować naprawdę mocny kontroler pamięci i bardzo szybką pamięć by to wydoliło.
- @promilus (autor: RuMuN | data: 24/04/09 | godz.: 19:14)
Zapomniałeś dodać małą elektrowienkę za domem :P by wydolic na te 64 rdzenie :] gdzie kazdy bedzie miał tdp z 100W :P albo i więcej przy obciążeniu :>
- @morgi, blazakov (autor: trepcia | data: 24/04/09 | godz.: 19:41)
To nie chodzi tylko o chęci czy upodobania programisty co do pisania programów. Pisanie programów wielowątkowych jest naprawdę trudne... może, dla osoby, która na wczesnym etapie swojej przygody z programowaniem pozna wielowątkowość i będzie cały czas w tym środowisku żyła, nie będzie to niczym trudnym. Ale co powiedzieć o programistach uczonych w tzw. starej, jednowątkowej szkole? No, tu już jest "trochę" trudniej...
- idą twoim myśleniem rumun to (autor: kubolx | data: 25/04/09 | godz.: 02:07)
100W x 64 6,4kW ciepła do wydania z powierzchni paru cm kwadratowych także życzę szczęścia w tej dziedzinie. A po za tym to z tego co widzę to intel już to przereklamowuje i robi sieczkę z mózgu więc nie dziwie się ruchą nv.
- ludzie (autor: MarcinN | data: 25/04/09 | godz.: 07:40)
Dlaczego tam tym larrabee się podniecacie?
Przecież AMD też ma taki projekt o nazwie Fusion i zapewne pod względem graficznym będzie wydajniejsze.
- MarcinN (autor: Markizy | data: 25/04/09 | godz.: 08:23)
przede wszystkim amd już ma karty które teoretycznie mają taka sama wydajność co zapowiadane Larrabee, problem jest z wykorzystaniem i odpowiednim wsparciem.
Fusion to raczej nie odpowiednik Larrabee tylko układ posiadający w sobie zintegrowana kartę graficzna z mostka północnego. Ktoś kiedyś przedstawił nazwę tego projektu. Jest od bliższy układom Clarkdale Intela.
Sajron
Chcesz robić za drugiego morgiego na twojepc? Fakt faktem że układ intela zapowiada się nie niesamowicie, ale co tego wyniknie to się wszyscy przekonamy po premierze, teraz można powiedzieć ze to będzie gruszka na wierzbie. A wydajność w porównaniu do dzisiejszych grafik nie jest nadzwyczajna Radeon 4870x2 2400GFlops, a dwa radeon 4890 osiągają wydajność 2720 GFlops, a układ Intela wyjdzie dopiero za rok, to co do tego czasu będzie miała Nvidia i AMD?
Wracając do tematu ciekawe czy pierwsze 8 rdzeniowce będą sklejkami 4+4 czy będą to monolity, bo z tego co pamiętam z zapowiedzi AMD pierwsze 12 to będzie 6+6, i ciekawe jak się ta sytuacja zmieni po przejściu na 32nm :)
- Markizy (autor: morgi | data: 25/04/09 | godz.: 12:54)
amd nie ma karty, ktora moznaby zastosowac do x86, a gdzie namiastka takich zastosowan jakimi chwali sie cienkie CUDA, przeciez gry to tylko jedna, stara sprawa, a gdzie moc w GPGPU.
- morgi (autor: Markizy | data: 25/04/09 | godz.: 15:04)
Nie mówiłem ze wykorzystuje instrukcje x86, i zaznaczyłem ze problem jest z wykorzystaniem (specjalnie trzeba soft pod taka kartę pisać) jak i ze wsparciem bo AMD nie daje za wielkiego wsparcia. Jak i napisałem też że jest to wydajność teoretyczna, która zawsze jest znacznie wyższa od praktycznej. Tak wiec po co twój komentarz ?
- Człowieku to nie jest proc wyłącznie do gier! (autor: Sajron | data: 25/04/09 | godz.: 16:06)
Intel se wsadzi takie 4 LARABEE do płyty serwerowej i będzie miec potwora o mocy 24TERAFLOPY! Opteron nawet mu nie podskoczy.
- @Sajron (autor: Marek1981 | data: 25/04/09 | godz.: 17:17)
ładnie to kiedyś skomentował wysoko postawiony pracownik Intela w sprawie GPU vs CPU.
GPU jest x krotnie wydajniejszy i co z tego jak jest głupi.
- MAREK1981! (autor: Sajron | data: 25/04/09 | godz.: 18:18)
buhahaha tylko że LARABEE to nie jest GPU jak Geforce czy Radeon tylko normalny CPU.
Dokladnie mówiac jest to 64 rdzeniowy Pentium1 z poszerzoną jednostką FPU na 512bit. LARABEE to w pełni programowalny rdzeń Pentium x86 obliczający grafikę!
- mało tego! (autor: Sajron | data: 25/04/09 | godz.: 18:39)
obliczenia wykonywane są kompletnie w software! nie tak jak obecne karty grafiki które obliczają potokowo przez sprzęt.
- @Sajron (autor: winor_mzt | data: 25/04/09 | godz.: 18:47)
Mam pytanko skoro LARABEE ma być oparty na Pentiumach I to skąd wytrzasnąłeś magiczną liczbę 3GHz na rdzeń skoro najszybszy Pentium I miał "zaledwie" 300MHz. Poproszę o jakieś info.
- Markizy (autor: morgi | data: 25/04/09 | godz.: 18:59)
Moj komentarz idzie w sukurs twojemu, w swoim stwierdziles sporo bazujac tylko na spekulacjach, ktorych ja staram sie unikac jak moge. Sila obliczeniowa jest tak potezna u amd, ale na papierze, pytam gdzie ta sila w Folding np.
- o fuck trzymajcie mnie! (autor: Sajron | data: 25/04/09 | godz.: 19:10)
bo był wykonany w technologii 250nm , jakbyś zrobił Pentiuma I w technologii 45nm to byś spokojnie wycisną z niego 2-3GHz.
250->180->130->90->65->45. To jest aż 6 generacji!
- a jaki mikrotyczny (autor: maw136 | data: 26/04/09 | godz.: 01:31)
by był ten malusi rdzeń P1 ale swoją drogą to raczej to będzie coś z gałęzi P6 czyli pentium pro i dalej bo to RISC i łatwiej je robić mniejsze niż CISCe
- @morgi (autor: Promilus | data: 26/04/09 | godz.: 09:13)
Gdzie? Elcomsoft :P
http://elcomsoft.com/ewsa.html
Popatrz wydajność HD4870X2 kontra GTX295!
Jest różnica, prawda? No to przestań klepać że siła obliczeniowa RV770 jest tylko na papierze.
- Promilus (autor: morgi | data: 26/04/09 | godz.: 12:33)
Taaa a popatrz na quad Tesla, skalowalnosc do 295 do 285 ma prawie 2,5 raza, to co ci to mowi o oprogramowaniu, sterownikach i dualikach? Odwrotna sprawa z Folding, akceleracja ati tam kuleje z wydajnoscia, nie wiem czy wreszcie to poprawili.
- @morgi (autor: trepcia | data: 26/04/09 | godz.: 13:07)
Raczej poprawili bo ostatnio trafiłem na jakies zachęcające info, żeby użyć mocy kart graficznych od ATI do Folding@home. Był podany odnośnik do strony, gdzie ściągało się specjalny pakiet do kart graficznych ATI. Co dokładnie tam było to nie wiem, nie instalowałem.
- Sajron (autor: Markizy | data: 26/04/09 | godz.: 13:47)
architektura pentium 4 według inżynierów intela miał osiągać nawet 10GHz, i nigdy takich nie zobaczyliśmy procesorów. Dopóki tego larabee nie przetestują niej lub bardziej nie zależne serwisy to można pisać i legendy o jego wydajności tylko po co ? A jak się tak zakochałeś w intelu, to udzielaj się na ich forum intela, bo tutaj jest to żałosne.
- trepcia (autor: morgi | data: 26/04/09 | godz.: 13:47)
W marcowym Cat. mialo byc, ale nie dzialalo, bo musi byc nowa paczka oprogramowania Folding, ale kiedy to tez niewiem. To jest o tyle zadziwiajace, ze hd seria nie ma wsparcia, a jest od 2 lat na rynku i Folding dostal wsparcie jeszcze wczesniej bo w serii X1000.
- morgi (autor: Markizy | data: 26/04/09 | godz.: 13:50)
a weź sobie w 2x 4870x2 :P i masz więcej niż Tesla.
Zresztą porównywać 4 GPU do 2 GPU to jest chore.
- Markizy (autor: morgi | data: 26/04/09 | godz.: 15:20)
Nie udawaj, ze nie rozumiesz, popatrz na skale, Tesla jest wiecej niz 2x wydajna niz idealna skala 4x 285, a roznica 4870 a x2 to dokladnie 2xwynik pierwszego. Ten wykres to albo jakas fuszera, albo z deczka pi razy drzwi, albo jest to pierwszy soft, ktory skaluje duale tak doskonale liniowo, czego w real niemal nie wystepuje.
- morgi (autor: Markizy | data: 26/04/09 | godz.: 15:50)
nie rozumiesz to ty i to nie po raz pierwszy, tesla przecież jest specjalnie zbudowana do obliczeń i posiada już stosowne optymalizacje, a takie 2 radeony wsunie żadnych specjalnych poza tym że pracują w CF X (czy jak się to nazywało).
- @morgi (autor: trepcia | data: 26/04/09 | godz.: 17:34)
Ten odnośnik był właśnie do strony Folding@home. Ale nie sprawdzałem dokładnie co to jest.
- @morgi (autor: Promilus | data: 26/04/09 | godz.: 18:52)
Jasne jasne, ruscy fałszywe wyniki podali bo? Dostali w łapę od AMD? Nie przesadzaj już dobra? Bo gdyby TESLA nie miała nic ciekawego oprócz 4 GPU to każdy by sobie takie coś mógł poskładać i nie kosztowałoby to tyle kasy. Widać twój obiektywizm - jak tylko ktoś pokaże wyniki w realnych aplikacjach przeczące twoim twierdzeniom to od razu podważasz prawdziwość tych danych. W F@H zaś wyniki NV są lepsze z 2 powodów:
1. soft nie może zapełnić SPU w kartach AMD
2. wysokie taktowanie skalarnych shaderów nvidii daje lepsze rezultaty niż niewykorzystywane jednostki superskalarne AMD.
- @morgi (autor: Promilus | data: 26/04/09 | godz.: 18:54)
I jeszcze jedno - F@H działa na catalystach 9.4 bezproblemowo. Wystarczy skopiować bodajże 2 DLLki, zmienić nazwy z ATI****.dll na AMD****.dll i podmienić w folderze z FAHCORE11.exe
- Promilus (autor: morgi | data: 27/04/09 | godz.: 11:10)
To skoro dziala to walnij wynikiem, zobaczymy jak dziala, bo wczesniej tez dzialala, ale chodzi o wynik w czasie rzeczywistym lepszy niz na poziomie po staremu GF8800.
- Promilus (autor: morgi | data: 27/04/09 | godz.: 11:35)
No faktycznie ruskie opanowali te technologie do perfekcji, wycisneli ostatnie poty z CUDA
'Według producenta oprogramowanie potrafi przyspieszyć proces odzyskiwania haseł od 10 do 15 razy przez system korzystający z układów GeForce serii 8 i 9 w porównaniu do rozwiązań korzystających jedynie z CPU. Wartość ta może się dodatkowo zwiększyć do 100 razy, jeżeli skorzystamy z systemu z dwiema kartami GTX 280 i dodatkowo mnożyć przy zastosowaniu wielu stacji roboczych.'
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|