Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Środa 3 lutego 2010 
    

Procesory Intel Tukwila wreszcie gotowe


Autor: Zbyszek | źródło: TechConnect | 15:56
(36)
Intel poinformował, że w przyszłym miesiącu rozpocznie pierwsze dostawy układów o nazwie kodowej Tukwila - nowych procesorów z serii Itanium, przeznaczonej do stosowania wyłącznie w wysokowydajnych stacjach roboczych i serwerach. Układy mają cztery rdzenie zdolne do jednoczesnej obsługi 8 wątków, 30MB pamięci podręcznej oraz magistralę QPI i dwa zintegrowane, niezależne kontrolery pamięci. Początkowo procesory miały trafić na rynek w 4 kwartale 2008 roku, później ich premierę przesunięto na 3 kwartał 2009 roku a następnie na początek bieżącego roku. Nieoficjalnie powodem opóźnień były problemy z poprawną pracą - układy składają się z ponad 2 miliardów tranzystorów i produkowane są jeszcze w 65nm procesie technologicznym. Powierzchnia wynosi około 715 mm², natomiast wskaźnik TDP w zależności od częstotliwości od 130 do 170W.

Zobacz także:


17.12.2009 | 18:05 | Premiera 12-rdzeniowych procesorów AMD w marcu
27.5.2009 | 13:08 | Nowy Xeon: 8 rdzeni oraz architektura Nehalem dla serwerów
22.5.2009 | 10:16 | Procesory Intel Tukwila dopiero w 2010 roku
27.4.2009 | 10:34 | AMD prezentuje działające dwunastordzeniowe Opterony
4.9.2008 | 17:41 | Czterordzeniowy procesor "made in China"
6.2.2008 | 16:40 | Procesor Intela z dwoma miliardami tranzystorów



 
    
K O M E N T A R Z E
    

  1. no no (autor: Promilus | data: 3/02/10 | godz.: 16:36)
    to pozostaje tylko czekać na testy jak NOWE itanium sobie radzi.

  2. Promilus (autor: Markizy | data: 3/02/10 | godz.: 17:31)
    ale dalej można to traktować jako ciekawostkę, chociaż układ jest wielki.

  3. 65nm? (autor: Simon89 | data: 3/02/10 | godz.: 17:47)
    Sądzę że projektowanie układu zeszło ładnych kilka lat, pewnie zaczęli jak intel jeszcze nie posiadał 45nm, stąd 65nm. Ale on jest olbrzymi...

  4. @Promilus (autor: niewidzialny27 | data: 3/02/10 | godz.: 17:54)
    tylko czym to testowac?? Itamium nie obsluguje 32-bitowego oprogramowania

  5. 715 mm² !!! (autor: Barbarian | data: 3/02/10 | godz.: 18:01)
    Myślałem, że nie jest to możliwe (ze względów ekonomicznych). To jest właśnie pokaz możliwości ekstremalnych, prawda morgi?

  6. @niewidzialny27 (autor: Promilus | data: 3/02/10 | godz.: 18:04)
    No czym? Linpackiem choćby. Open64 używany obecnie szeroko z x86-64 zaczynał jako kompilator dla IA64 (Itanium). Nie mówiłem przecież o benchmarkach typu 3dmark czy superpi :P

  7. @Barbarian (autor: Promilus | data: 3/02/10 | godz.: 18:05)
    Do zastosowań profesjonalnych jest troszkę inaczej niż w przypadku desktopów. Poza tym 30MB cache robi swoje...

  8. @Promilus (autor: Barbarian | data: 3/02/10 | godz.: 18:09)
    A znasz podobny przypadek - w okolicach 700mm2? Nic takiego jeszcze w krzemie nie zrobiono. Rzecz można jednak traktować jako eksperyment.

  9. @niewidzialny27 (autor: fanzboj | data: 3/02/10 | godz.: 18:55)
    Na pewno nie potestujesz pod windowsem ;).
    Tak swoją drogą Itanium jest ciekawym projektem, przechodzącym w stan zombi z powodu AMD. Gdyby nie AMD i ich Athlony64 to 64 bity długo jeszcze nie trafiłyby pod strzechy a Intel wciskałby w superkomputery Itaniumy z niezłą kasę.


  10. @Barbarian (autor: Promilus | data: 3/02/10 | godz.: 19:01)
    Itanium Tukwila 65nm 700mm2
    POWER7 45nm 567mm2

    Inna sprawa, że POWER7 raczej od tukwili będzie wydajniejsze ;)


  11. @Promilus (autor: Barbarian | data: 3/02/10 | godz.: 19:12)
    "Itanium Tukwila 65nm 700mm2" - to chyba właśnie ten z newsa?

  12. @Barbarian (autor: Promilus | data: 3/02/10 | godz.: 19:21)
    Halo :) Przecież nie jestem głupi.
    45nm a 65nm to jest różnica, tak? To teraz POMYŚL jak będzie wyglądał ten itanium w 45nm albo 32 - bo intel w tym już produkuje od jakiegoś czasu. Mniejszy od POWER7 tak?


  13. @Promilus (autor: Barbarian | data: 3/02/10 | godz.: 19:38)
    SPOKOJNIE - było tak:
    B: A znasz podobny przypadek - w okolicach 700mm2?
    P: Itanium Tukwila 65nm 700mm2

    A w newsie jest tak:
    "układy składają się z ponad 2 miliardów tranzystorów i produkowane są jeszcze w 65nm procesie technologicznym",
    skoro nie widzę tutaj tych 45nm, to nadal mówimy o tym samym układzie Tukwila w 65nm,


  14. ... (autor: kubaswielgus | data: 3/02/10 | godz.: 19:57)
    A w czym taki procesor może pokazać rogi, dla kogo taki sprzęt?

  15. Inna piosenka (autor: Barbarian | data: 3/02/10 | godz.: 20:12)
    Proponuję kliknąć w www.sun.com
    To tak z najnowszych zmian w IT.


  16. @Barbarian (autor: Rajq | data: 3/02/10 | godz.: 20:29)
    gdyby to nie bylo mozliwe ze wzgledow ekeonomicznych Intel by tego nei zrobil. Ale te procki kosztuja po kilka tysiecy zielonych wiec to ze jest wielki i drogi w wykonaniu nie znaczy ze nie da sie na nim zarobic. Podejrzewam ze Intel na nim ma wieksza marze niz na zwyklych Xenonach. Takze nei siej paniki.

  17. @fanzboj (autor: niewidzialny27 | data: 3/02/10 | godz.: 20:30)
    a niby czemu nie na windowsie?? napewno nie na xpeku, raczej server 2003-2008:)

    @kubaswielgus - we wszystkim co sluzy do obliczen, i chyba jeszcze bazy danych


  18. @Rajq (autor: Barbarian | data: 3/02/10 | godz.: 20:33)
    Moim zdaniem bardzo się mylisz. Intel traktuje to jako projekt do wdrożenia w 45nm lub 32nm i beta-produkt. Nawet cena w dziesiątkach tysięcy dolarów za układ nie zwróci kosztów projektu i produkcji. Nie bez powodu zwlekał z wypuszczeniem na rynek przez 2 lata.

  19. Cofamy się do epoki kamienia łupanego.. hahaa (autor: kosa23 | data: 3/02/10 | godz.: 20:55)
    65 nm i 130W przy 25% obciążenia to jest dopiero obciach.

    Do tego proca będzie potrzebna chłodnica od stara i zasilacz 2 KW.


  20. hmm... (autor: 123er | data: 3/02/10 | godz.: 21:33)
    co do wielkości i złożoności chipa to Fermi też daje radę 550mm2 w 40nm i 3 miliardy tranzystorów, turbodymoitanium zostało zawstydzone.

  21. ... (autor: kubaswielgus | data: 3/02/10 | godz.: 21:34)
    niewidzialny27 - czyli w bardzo wielu zastosowaniach lepiej poczekać na karty graficzne Nvidi, które mają nieporównywalnie większą moc obliczeniową. Jak dla mnie to ten procesor to porażka i stracona kasa.

  22. .:. (autor: Shneider | data: 3/02/10 | godz.: 22:03)
    kosa23 - 130W przy 25% obciazeniu ?!?!?

    kubaswielgus - procesor jest do trudnych "obliczen", niezwykle zawilych na co wskazuje olbrzymi cache, fermi to taka wieksza grafika, mozna na niej szybko liczyc, ale stosunkowo proste rzeczy.

    Barbarian - z czym intel zwlekal? Itanium to taka studnia bez dna, Intel juz zbyt duzo wlozyl w ten projekt pieniedzy by nagle wszystko zamknac. proces technologiczny tutaj wiekszego znaczenia niema, bo to tylko kwestia zasilania i odprowadzania ciepla. Klienci docelowi Itanium zbytnio na to nie patrza, bo sa zbyt bogaci by zawracac sobie glowe takimi bzdurami.

    niewidzialny27 - czym sie rozni XP od servera? te maszyny lubia sie w Unixach, glownie HP-UX z prostego powodu, HP jest wielka firma i jako ze sie lubi z Itanium to szyja system na miare.


    Itanium 2 9150N 1.6GHz 24MB, kosztuje 3700$ i jest robiony w 90nm i wydziela 100W, a jego rozmiar to 590mm2, wiec jego mlodszy braciszek nie jest wcale taki duzy.

    obawiam sie ze ten news okazal sie zbyt trudny dla niektorych.


  23. @Shneider (autor: Barbarian | data: 3/02/10 | godz.: 22:17)
    "ten news okazal sie zbyt trudny dla niektorych" - nareszcie się przyznałeś.

    "procesor jest do trudnych "obliczen", niezwykle zawilych" - świetne określenie - może podasz przykład, ale taki z wyprowadzeniem złożoności obliczeniowej lub wielowątkowej

    Czy Intel nie przesuwał premiery?

    "to tylko kwestia zasilania i odprowadzania ciepla" - TAAAAK-tylko (właśnie na tym Intel przejechał się w rywalizacji z Opteronami kilka lat temu)

    "Klienci docelowi ... sa zbyt bogaci" - może głupi bardziej?


  24. jednak CPU dalej jest potrzebne (autor: Wujofefer | data: 3/02/10 | godz.: 22:24)
    Grafiki Nvidii nie zastąpią procesora w serwerach. Są świetne do obróbki grafiki, fizyki a do tego Fermi wprowadzi możliwość kompilowania kodu C przez grafikę a nie jak to miało miejsce dotychczas przez procesor. Jednak w serwerach dalej potrzebne są potężne układy CPU i szybko to się nie zmieni ze względu na ich uniwersalność.
    Po za tym to, że intel zdecydował się wydać te układy dopiero teraz jest spowodowane kilkoma ważnymi wydarzeniami.
    Po pierwsze, to słaba kondycja konkurencji a w szczególności AMD, mówcie sobie co chcecie ale kiedyś rynek był podzielony prawie pół na pół (przed C2D) teraz AMD walczy i cieszy się z każdego procenta rynku. Dlatego Intel nie czuje się zagrożony i powoli wprowadza nowe procesory.
    Po drugie, kryzys na świecie. Nikt nie kupiłby pod koniec 2008 i w 2009 tak drogich procesorów do serwerów. W tym roku sytuacja powoli się poprawia.
    Po trzecie, procesory itanium są praktycznie nie do zdarcia. Działają latami, są dopracowane w każdym calu, znacznie bardziej niż procesory dla domowych użytkowników. W serwerach najważniejszą sprawą jest stabilność pracy. Gdzieś czytałem, że pewien serwer na itanium (jakiś stary model) i win2000 od czasu uruchomienia (pod koniec 2000 roku) do połowy 2009 (bo jakoś wtedy czytałem o tym) nie zaliczył ani jednej awarii, czy resetu.
    Po czwarte,Intel nie musi się śpieszyć z nowymi procesorami, są właściwie monopolistami. Wykończenie AMD byłoby dla nich ciosem. Gdyby zajęli jakieś 95-96% rynku poszliby z torbami płacąc horrendalnie wysokie kary za monopol albo i nawet zostaliby zmuszeni do podzielenia się na mniejsze konkurujące ze sobą firmy.


  25. @Wujofefer (autor: Barbarian | data: 3/02/10 | godz.: 22:31)
    "Gdzieś czytałem, że pewien serwer na itanium (jakiś stary model) i win2000 od czasu uruchomienia (pod koniec 2000 roku) do połowy 2009 (bo jakoś wtedy czytałem o tym) nie zaliczył ani jednej awarii, czy resetu."
    - morgi ma u siebie taki własnie przypadek i to działający od momentu założenia Intela w 1968.


  26. @Wujofefer (autor: Promilus | data: 3/02/10 | godz.: 22:50)
    Dobrze gadasz, ale nie do końca dokładnie. Prawdą jest że ogromna większość stosowanych algorytmów czy to w nauce, czy w codziennych aplikacjach po prostu MARNUJE moc obliczeniową GPU. Dlaczego? Ano bo te algorytmy świetnie działają w kilkuset KB pamięci cache dla rdzenia, ale w kilkaset KB na kilkaset 'rdzeni' to nie specjalnie - odwoływania się do pamięci GLOBAL całkiem sporo, wydajność leci na łeb na szyję. Chińczycy dobrze z Tianhe-1 napisali - nie ma sensu pisać programów DLA GPU. GPU jest dobre - ale gdy się go stosuje jako KOPROCESOR - czyt. program wykonuje się na CPU, tam ładnie procek ustawia dane, wysyła do GPU, ten przelicza szybko dane i odsyła wyniki. GPU kontrola kodu jest słaba, możliwości stosowania rekurencji, rozgałęzień programu są dość ograniczone w porównaniu z CPU. Te wszystkie jednostki przewidywania skoków, makro i mikrofuzje i różnorakie dodatkowe elementy w CPU są nie od parady! AMD z Opteronami w zasadzie nie celowało tak wysoko jak intel ze swoim Itanium, ale lepiej na tym niecelowaniu wyszło. Może Tukwila coś zmieni, bo ogółem Itanium 1 to szrot, a 2 to jest to czym miało być 1 ;)

  27. @Promilus (autor: Barbarian | data: 3/02/10 | godz.: 22:55)
    Dodam jeszcze do tego uwagę, że w przypadku zwiększania liczby rdzeni CPU x86 też dość szybko (>8) pojawi się problem utrzymania spójności danych w cache.

  28. Barbarian (autor: Promilus | data: 3/02/10 | godz.: 23:06)
    Tak, ale w CPU masz L1I, L1D (harvardzka), masz L2 no i od jakiegoś czasu masz L3 z wszystkimi zajebiaszczymi technologiami zapewniającymi szybkie przeszukiwanie cache, pobieranie tych danych które potrzeba, pobieraniu danych z pominięciem L3 itp. itd. Rozwiązanie cache jakie ma Fermi jest na poziomie Pentiuma ;) Pierwszego.

  29. @Promilus (autor: Barbarian | data: 3/02/10 | godz.: 23:16)
    Nie przeczę i zgadzam się, ale tylko chcę zaznaczyć, że pojawi się problem i dlatego Intel rozesłał do badań (nad softem) swojego 48-Core "Single-Chip Cloud Computer".

  30. Barbarian (autor: Promilus | data: 3/02/10 | godz.: 23:25)
    Heh, dlatego nawet AMD widzi szansę w MCM :) 12 rdzeni na G34 ale 2 chipy w module. Połączenie przez hyper transport. Źle nie ma.

  31. ... (autor: kubaswielgus | data: 3/02/10 | godz.: 23:27)
    Nadal nie dowiedziałem się chociaż jednego przykładu gdzie nie poradzi sobie karta graficzna. Już od wielu lat czytam, że są pewne rzeczy w których tylko CPU może pomóc, ale to co ostatnio pokazuje Nvidia zupełnie temu zaprzecza. Zaczęło się od kompresji materiału filmowego, renderingu poprawnego fizycznie, animacji fizyki - wszystko co do tej pory obliczał procesor. Teraz czytamy, że GPU będą wykorzystywane do prognozowania pogody, obliczeń naukowych. Wcale się nie zdziwię jak niedługo bankowość będzie oparta na kartach graficznych. wszystko więc wskazuje na to, że wystarczy odpowiedni program i mamy ogromy przyrost mocy w zasięgu ręki. Duże firmy zamiast inwestować setki tyś dolarów w procesory Intela powinny zatrudnić dobrych informatyków do pisania programów pod GPU. Moim zdaniem takie procesory powoli staną się przeżytkiem.

  32. @kubaswielgus (autor: Barbarian | data: 3/02/10 | godz.: 23:41)
    Tylko zadania o bardzo wielu niezależnych wątkach dają się dobrze przetwarzać na GPU. Większość istniejącego softu to bełkot programistyczny w "32 bitach". Dlatego (powtórzę się) Intel rozesłał do badań (nad softem) swojego 48-Core "Single-Chip Cloud Computer".

  33. @Shneider (autor: niewidzialny27 | data: 4/02/10 | godz.: 10:12)
    a pokaz mi XP-eka ktory obsluguje AI-64 Intela :) pokaz mi ITANIUM na ktorym uruchomisz 32-bitowy system :)

    zeczywiscie dla niektorych ten news jest za trudny


  34. @Kubawielgus (autor: Sandacz | data: 4/02/10 | godz.: 10:13)
    "Nadal nie dowiedziałem się chociaż jednego przykładu gdzie nie poradzi sobie karta graficzna." - Kuba, właśnie chciałbym kiedyś zobaczyć partie szachów rozegraną przez maszynę opartą na CPU a maszyną w której logikę realizuje GPU... Ciekawy jestem wyniku (biorąc również pod uwagę czas podejmowania decyzji)?

  35. @niewidzialny27 (autor: Promilus | data: 4/02/10 | godz.: 11:19)
    No XP 64 bit edition to właśnie dla IA64 ;]
    Nie mylić z xp pro x64 :]


  36. hmm, (autor: Sandacz | data: 4/02/10 | godz.: 13:24)
    A swoja drogą implementacja logiki szachów na PGU to może być ciekawe zadanie dla doktorantów wydziałów informatyki.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.