Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 10 kwietnia 2009 
    

IDF w Pekinie: Intel prezentuje wafle z Larrabee


Autor: Zbyszek | źródło: DigiTimes | 23:19
(63)
Podczas konferencji Intel Developer Forum odbywającej się właśnie w Pekinie Intel zaprezentował pierwsze wafle krzemowe z układami o nazwie Larrabee i zapowiedział, że nowy układ trafi na rynek już pod koniec bieżącego lub na początku przyszłego roku. Prezentowane chipy zostały wyprodukowane w 45nm procesie technologicznym i mają powierzchnię około 600 mm² - zbliżoną do powierzchni układów Nvidia GT200 produkowanych w starszej 65nm technologii, co świadczy o ich wysokim skomplikowaniu. Larrabee składa się z kilkudziesięciu mniejszych rdzeni, każdy z nich wyposażony jest we własną pamięć podręczną.

Oprócz kodu x86 typowych procesorów układ obsługiwać ma także między innymi środowisko DirectX i Open GL/CL. Dzięki temu możliwe będzie elastyczne wykorzystanie jego mocy obliczeniowej, zarówno do animacji gier, jak i typowych aplikacji.

Intel zamierza wykorzystać układ do stworzenia własnych kart graficznych, które będą konkurować z produktami firm AMD oraz Nvidia. Pod koniec 2010 roku produkcja Larrabee zostanie przeniesiona do 32nm procesu technologicznego.

Niestety oprócz samej zapowiedzi oraz prezentacji wafla z gotowymi układami, nie podane zostały żadne szczegóły techniczne, w szczególności dotyczące mocy obliczeniowej, częstotliwości pracy czy rodzaju obsługiwanej pamięci.




 
    
K O M E N T A R Z E
    

  1. To niech MOrgi i Azet opowiedzą (autor: kubolx | data: 11/04/09 | godz.: 01:55)
    wkońcu są lobbystamy intela :]. Jak znam intela to jakby to potrafiło coś sensownego to zaraz by o tym trąbili. Ten wniosek o skąplikowaniu ukł. wzioł się z wyliczenia gęstości?

  2. Oj kubolx (autor: AZet | data: 11/04/09 | godz.: 02:31)
    cos ci sie popierniczylo ;))
    Ja jestem przeciwnikiem szmiry i nabijania w butelke , oraz gadania o słoniu na złotym łańcuszku.
    No i oczywiście to od razu wróg AMD i fan Intela.
    A czep się chłopie wozu asenizacyjnego i jedź w stronę zachodzącego słońca ;))


  3. czekaj jeszcze nie wsiadaj.... (autor: AZet | data: 11/04/09 | godz.: 02:32)
    wesołych świat !
    teraz już możesz ;)))


  4. gdyby mina człowieka mogła mówic o wydajności :D (autor: Markizy | data: 11/04/09 | godz.: 09:23)
    A tak naprawdę :)
    zobaczymy co z tego im wyjdzie, i jak się to sprawdzi w praktyce :)


  5. AZet (autor: shadowxxz | data: 11/04/09 | godz.: 09:26)
    Jak już posłałeś kubolxa w podróż to napisz co myślisz co myślisz o tym larrabee, to może być początek burzliwej dyskusji...
    btw ten koleś na zdjęciu wie pewnie dużo o tym projekcie a na optymistę nie wygląda :)


  6. Niech mnie ktoś poprawi ale.. (autor: Omos | data: 11/04/09 | godz.: 10:16)
    czy nie przypadkiem w Polsce pracuje się nad sterownikami do tych przyszłościowych kart?

  7. ... (autor: MariuschM | data: 11/04/09 | godz.: 10:49)
    no to skoro Intel chce się uniezależnić d Nvidii i wyprodukować własne karty graficzne to niech Nvidia zaprotestujeXD i odłączy się od tej firmy i połączy się z AMD/ATI i walczy wspólnie przeciw Intel-owiXD

    fajne jaja by były gdyby tak się stałoXD ale tak czy siak Intel wyprodukuje karty graficzne to będzie to niezła pogarda dla Nvidii


  8. MariuschM (autor: morgi | data: 11/04/09 | godz.: 11:30)
    Intel nie robi tego pod zadne dictum to po prostu kolejny etap rozwoju procesorow, nie bylo parelelnych chipow od Intela, a teraz prosze jest zgodnie z planem idzie karawana do przodu, a Nvidia moze se to swoje C jak CUDA dalej miondlic.

  9. No czego wy oczekujecie ludziska ? (autor: AZet | data: 11/04/09 | godz.: 12:19)
    Ze tak jak AMD zaczne preorowac jakie to dobra wielkie będą i słonie na złotych łańcuszkach?
    A na zdjęciu może być technik a nie raklamiowiec z uśmiechem nr 5.
    Jak chcecie sensacji to jest taka strona "nautilus", jakieś książki o ufo...
    Ale myślę że w poniedziałek jak zmoczycie głowę z tej gorączki to ciśnienie wam wróci do normy.


  10. A może to tylko podpucha? (autor: BarteS | data: 11/04/09 | godz.: 12:41)
    Tak sobie pomyślałem, że może Intel wcale zbyt wiele nie obiecuje sobie od tego ich nowego układu i wcale nie zamierzają dokonywać rewolucji na rynku kart graficznych, a jest to po prostu test nieco innego podejścia do budowy przyszłych procesorów wielordzeniowych. Może za 3-4 lata, zamiast procesorów ala Core i7 lub i5 dostaniemy właśnie taki Larrabee, czyli zamiast bardziej skomplikowanych 16 rdzeni będzie ich np. 80 czy 100 lecz prostszych co zapewni mimo wszystko dużo lepszą wydajność.

  11. @AZet ma świętą racje... (autor: Sajron | data: 11/04/09 | godz.: 13:34)
    Czego wy oczekujecie ufole niewiadomego pochodzenia...? CUDU oczekujecie...? ;)) to idzcie do obozu Nvidii ona tam ma prawdziwe CUDA na patyku... ;))

  12. no cos podobnego Morgi (autor: LOLO64 | data: 11/04/09 | godz.: 14:45)
    a jeszcze niedawno wychwalałes CUDA pod niebiosy. Weż ty sie schowaj.

  13. Oprogramowanie CUDA (autor: AZet | data: 11/04/09 | godz.: 14:49)
    jest dedykowane do okreslonych zastosowań.
    Tak jak zapałki nie sa produkowane jako zabawka dla dzieci.
    Jak ktoś nie wie jak korzystac z łopaty to będzie się nią drapał po głowie.


  14. ... (autor: Saturn64 | data: 11/04/09 | godz.: 15:43)
    Podejrzewam, że Larrabee będzie rewolucyjnym układem ze względu na swoją uniwersalność programistyczną. To co Nvidia zamiarzała zrobić z CUDA (tylko wyszło to w wąskim zakresie bo środowisko programistyczne dopiero się tworzy i nie jest szeroko dostępne) Larrabee może wejść na każde pole działalności, gdyż dla niej środowisko progamistyczne istnieje już od początku lat 90 ubiegłego wieku. Z drugiej strony jeśli jej wydajność będzie nawet taka sama jak najwydajniejszych kart graficznych ATI i NV to podejrzewam,że będzie też od nich sporo droższa. Na ceny poniżej 3000 zł nie ma co nawet liczyć.

  15. ... (autor: Saturn64 | data: 11/04/09 | godz.: 15:46)
    ponieważ gdyby była tanim rozwiązaniem to każdy wolałby kupić zwykłego celerona lub semprona i taką kartę Larrabee a i tak miałby wiekszą wydajność sprzętową niż mając na pokładzie najwydajniejszy Core i7 z najwydajniejszą dziś kartą Nv czy też ATI.

  16. kolejne karty :)) (autor: cp_stef | data: 11/04/09 | godz.: 17:08)
    milo konkurencja zawsze mile widziana

  17. proponuje konkurs (autor: ditomek | data: 11/04/09 | godz.: 17:38)
    co mowi postac na zdjęciu.
    Moja wersja: "Chcesz w morde?"


  18. ditomek (autor: Markizy | data: 11/04/09 | godz.: 17:40)
    a ja myślę że :)
    " I po co wczoraj tyle piłem :?"


  19. ... (autor: Saturn64 | data: 11/04/09 | godz.: 17:55)
    "mam nadzieje, że dziennikarze się nie kapną...? PS. Trzyma wafel nie sprzedanych Pentiumów 4.

  20. dajcie jeszcze troche tych swoich podświadomych (autor: AZet | data: 11/04/09 | godz.: 18:09)
    pragnień ;))
    Dzieciaki.


  21. Postać na zdjęciu to jeden z viceprezesów Intela (autor: Zbyszek.J | data: 11/04/09 | godz.: 18:12)
    Demonstrując wafel jednocześnie prezentował informacje na temat Larrabee.

  22. @Zbyszek (autor: rainy | data: 11/04/09 | godz.: 18:24)
    To jest Pat Gelsinger - były CTO (Chief Technology Officer) Intela a obecnie jeden z jego wiceprezydentów.

    @ditomek

    Moja wersja: nie podoba się? To się jeszcze spodoba - my się już o to postaramy.


  23. @Zbyszek (autor: ditomek | data: 11/04/09 | godz.: 18:29)
    dobre :)

  24. sory (autor: ditomek | data: 11/04/09 | godz.: 19:27)
    mialo byc do rainy'ego

  25. LOLO (autor: morgi | data: 11/04/09 | godz.: 20:26)
    Niby kiedy moze cytat? CUDA zawsze byla dla mnie belkotem, bo Nvidia ma sie tak do programowania jak Intel do budowy statkow kosmicznych.

  26. nie kracz morgi nie kracz (autor: maw136 | data: 11/04/09 | godz.: 20:59)
    ...

  27. tak sobie pogdybam... (autor: hINDUs | data: 11/04/09 | godz.: 22:22)
    że wydajność to będzie miało w miarę ok, ale ... nic nie będzie potrafiło z tego skorzystać i będzie kulało na wszelkich frontach...

  28. A mnie zaciekawiła jedna rzecz (autor: Iras89 | data: 12/04/09 | godz.: 01:43)
    "Prezentowane chipy zostały wyprodukowane w 45nm procesie technologicznym i mają powierzchnię około 600 mm² - zbliżoną do powierzchni układów Nvidia GT200 produkowanych w starszej 65nm technolog"- to wróży drogi układ, bo mało chipów można zrobić z jednego wafla,a co do wydajności chipa i jego elastyczności, to nie spodziewam się, że intel strzeli sobie w stopę i dzięki temu układowi zastąpi CPU w większości zastosowań(X86).

  29. 45nm i 600mm powierzchi (autor: lumidee | data: 12/04/09 | godz.: 15:24)
    Może i ciekawie sie zapowiada, ale przy takiej powierzchni, produkcja będzie droga, więć nie ma co liczyć, że będzie to popularne;D

  30. do przewidzenia bylo.. (autor: puppy | data: 12/04/09 | godz.: 22:12)
    ze GPU stana sie kiedys glownym rozgrywajacym na platformie x86.. w sumie to bezwzglednie liczac juz dawno tak jest, tyle ze dopiero teraz zaczyna sie pojawiac do tego software... z innego punktu widzenia to tylko kolejne rdzenie, mnożenie tego co już było dawno, tylko ciut mniejsze, zawsze ciut mniejsze ale już nigdy nie rewolucyjne

  31. @ditomek,rainy gościu ma wg. mnie taką (autor: kubolx | data: 13/04/09 | godz.: 00:57)
    minę: mamy tu coś zajebistego, przynajmniej tak nam się wydaje; tylko na razie nie wiemy jak to do końca odpalić :].
    Więcej niż dobrej integry to raczej nie zrobią, dobrej znaczy porównywalnej z może hd3200. Z każdą premierą gma obiecywali wydajność i jakość obrazu, a jak to się kończyło... NV faktycznie powinna wejść w sztame z ati i zająć się sterami.
    Zresztą nieważne czy to intel,nv,amd i tak wszyscy mają jedną zajebistą dziórę - muszą się dopasować do os(m$), który i tak w dużym stopniu zmarnuje najlepsze rozwiązania sprzętowe.


  32. to znajdzie zastosowanie (autor: Wyrzym | data: 13/04/09 | godz.: 03:13)
    ale nie do gier, tylko jako kolejne jednostki obliczeniowe do serwerowi, bo ktory developer nagle zacznie pisac gry na nowe cos?

  33. Jeśli ten układ, (autor: Dandysz | data: 13/04/09 | godz.: 12:39)
    według zapewnień Intela zaoferuje wydajność pozwalającą na wyświetlenie w czasie rzeczywistym grafiki FullHD przy pomocy raytracing`u to będzie to niewątpliwie wielki skok jakościowy w dziedzinie rozrywki. Jednak sprzęt to nie wszystko. Musi iść za tym wielka inicjatywa softwarowa ze strony Intela. Niebieski gigant będzie musiał przekonać producentów gier oraz użytkowników do swojego "nowum". Producenci będą musieli nauczyć się wykorzystać w swoich produktach nowe możliwości układu. Potrwać to może dłuższą chwilę.
    W wyniku obserwacji poczynań Intela, AMD, Nvidii, wydaje mi się, że integracja CPU i GPU w jeden układ o wielkiej mocy obliczeniowej, którą użytkownik będzie mógł skierować na dowolne zadanie (gry, rendering, grafikę) jest nieuchronnie - nieunikniona.


  34. a ja uwazam dokładnie na odwrót (autor: ditomek | data: 13/04/09 | godz.: 22:08)
    systemy przyszlosci to zbior osobnych procesorów wymieniających ze sobą dane przez szybkie magistrale.
    Nie mozna w nieskończonośc miniaturyzowac chipow i zwiekszac ich moc obliczeniową. Choć Intel nas cały czas utwierdza w tym ze jest to mozliwe to jednak ich działania ida wlasnie w tym kierunku. Spójrzcie na architekturę i7. poza tym sa pewne prawa fizyczne których przezkoczyc sie nie da


  35. nie do końca... (autor: Simon89 | data: 13/04/09 | godz.: 22:24)
    odkryto tranzystory 3d, Intel odkrył jakiś sposób na oszczędniejsze tranzystory... tylko ciekawe kiedy to wejdzie do produkcji... o ile wejdzie. Co się stało z zapowiadanym procesorem intela o 80-ciu rdzeniach? Może to chodziło o larrabe tylko nadali mu nazwę? Miał kiedyś taki powstać... ale słuch o nim zaginął... najmniejszy stworzony tranzystor ma wielkość jednej cząsteczki, więc miniaturyzacja też jakiś czas będzie zachodziła.

  36. Simon89 | (autor: Markizy | data: 13/04/09 | godz.: 22:50)
    http://pclab.pl/art24856.html ten procesor o ile się orientuje nie był zgodny z x86, a Larrabe jest. Aż dziw bierze że chcą zastosować ten przeżytek architektoniczny w GPU. A jak daleko ludzie zejdą z miniaturyzacja będzie tylko zależeć do odkryć w technice :)

  37. chodzi o bardziej złożone problemy (autor: ditomek | data: 13/04/09 | godz.: 22:59)
    nie czuje sie na sile by serwować wykład ale poczytaj sobie o teorii obliczeń, maszynie Turinga, termodynamice obliczeń, obliczenia odwracalne.
    Po prostu granica zbliża sie do nas wielkimi krokami. Przy częstotliwości 1GHz światło przemierza 30 cm, wiec ...


  38. no tak... też to czytałem kiedyś ale jeszcze odświerzyłem sobie... (autor: Simon89 | data: 13/04/09 | godz.: 23:38)
    ten 80cio rdzeniowy procesor w tamtym czasie był całkowicie nieużyteczny, nie posiadał pamięci nie potrafił wykonywać obliczeń najbardziej potrzebnych... na końcu jest wzmianka, że możliwe że jego zastosowaniem będzie właśnie GPU... sądzę że przebudowali go i zrobią z niego larrabee. Miał on duże opóźnienia (Polaris), składał się z wielu rdzeni, czyli tak jak GPU. Planowana data premiery polarisa... 2009... stworzono kiedyś zespół który miał się zająć GPU... wszystko się zgadza, sądzę że nim jest larrabee.

  39. ditomek (autor: Simon89 | data: 13/04/09 | godz.: 23:58)
    ok... daje za wygraną... to jest dla mnie jakiś kosmos (te teorie, maszyny, obliczenia które napisałeś)... Ty to rozumiesz? ;)... tak jak się głębiej zastanowić... może się okazać że krzem to tylko początek rozwoju techniki...

  40. Simon89 (autor: Markizy | data: 14/04/09 | godz.: 11:01)
    tylko że pod jednym względem te procesory sobie nie odpowiadają, Larrabee ma powstać w oparciu o zmodyfikowany pentium mmx, czyli architektura x86, a Polaris raczej nie jest związany z x86. Patrząc na wydajność (teoretyczna) integry intela GMA X4500HD (z 10 procesorami strumieniowymi) to larrabee musi być czymś całkiem rewolucyjnym, albo trochę intel dane naciąga (mam namyśli wydajność 2 teraflopsow)

  41. Markizy Simon89 (autor: morgi | data: 14/04/09 | godz.: 11:20)
    Nie belkoczcie o czyms(moze wylinkujcie chociaz te rewelacje?), o czym macie tylko zdawkowe pojecie, po premierze bedziecie mogli dalej sobie bajdurzyc, bo bedzie troche wiecej informacji dla prasy i laikow, a co najwazniejsze realne osiagi. Teraz to jest jak w basni za 7 gorami i 7 morzami..

  42. @morgi (autor: Drow | data: 14/04/09 | godz.: 11:52)
    Zanim zaczniesz prosic kogokolwiek o wylinkowanie czegokolwiek, to najpierw zacznij sam:
    gdzie te linki dotyczace krzywej Gaussa, o ktorych ciagle w kolko opowiadasz, co?


  43. Simon89 (autor: ditomek | data: 14/04/09 | godz.: 12:16)
    piąte przez dziesiąte :-) ale jest kilka interesujących tematów, jak widać swiat komputerów to nie tylko PC :)
    IMHO najważniejsze to energia jaka trzeba dostarczyć aby proces liczenia w ogóle mógł się odbyć (nie ważne czy krzem, czy węgiel (mózg))
    Dzisiaj 99% mocy dostarczanej do komputera idzie w kosmos w postaci ciepła. ale nawet mimo sprawności równej 1 nie jest możliwe budowanie komputerów o nieskończonej wydajności. Dzisiaj nie jest to jeszcze problem i spokojnie możemy zastanawiać się co nowego zaserwują nam główni gracze.


  44. morgi (autor: Markizy | data: 14/04/09 | godz.: 12:29)
    architektura larrabee http://pclab.pl/art33400.html
    wydajność intgry intela http://www.benchmark.pl/zestawienie_gpu.html odszukujesz sobie GMA X4500HD

    Polaris był wrzucony wcześniej. A teraz twoja krzywa gaussa :D


  45. Jak myślicie... (autor: Dandysz | data: 14/04/09 | godz.: 12:37)
    ...jeśli Intel wypromuje "coś" nowego, co położy graficznie na łopatki systemy rozwijane przez ATI i Nvidię, to jak zareagują te dwie firmy?
    Jestem też strasznie ciekawy jak od strony programowej będzie wyglądać obsłużenie Larrabee w grach. Czy może to będzie własny system renderingu DirectX`a, czy też będą dwa tryby renderowania
    - dla kart ATI, NV (directX)
    - dla Larrabee np. Intel RayFlow ;-))


  46. Link Markiz`ego powyżej... (autor: Dandysz | data: 14/04/09 | godz.: 12:56)
    dał mi odpowiedź co do kompatybilności z różnymi API. Fajna sprawa - instalujemy odpowiedni sterownik i... mamy obsługę DirectX`a 10, 10.1, 11... ATI i NV też powinny takie maszynki produkować.

  47. Dandysz (autor: Markizy | data: 14/04/09 | godz.: 13:48)
    tylko jest jeden drobny problem z ta obsługa, bo co jak cos nowe efekty coraz to dłuższe wykonywanie, a wydajność karty stoi w miejscu (co prawda są jeszcze optymalizacje, ale cudów nie zdziała się też tu). Tak że sumaru takie karty też trzeba będzie wymieniać, bo jak inaczej zapewnić płynność w generowaniu obrazu ?

    Zobaczymy co z tego wszystkiego wyjdzie w dniu premiery, i jakie będą zapowiedzi ATI i Nvidi przez najbliższy rok od czasu premiery larrabee. Projekt może ten skończyć żywot jak akceleratory fizyki (PhysX) :)


  48. Intel (autor: Nohrabia | data: 14/04/09 | godz.: 15:38)
    może tworzyć rozwiązania graficzne, ale ciężko wejść na rynek procków x86 z racji tego, że to twór intela ;)
    A szkoda, bo gdyby tak Nvidia czy AMd odpowiedziały CPU...

    A tak w temacie: ciekawe co im z tego wyjdzie :)


  49. Markizy (autor: morgi | data: 14/04/09 | godz.: 15:46)
    Niestety tam nie ma nic konkretnego to tylko opis ogolnikow, tam nie ma grama o konkretnej budowie, to jakby o Nvidii napisal, ze ma SPU, TMU i ROP i jest o iles tam wydajniejsze od standardow, dobre ale dla laika na poczatek.
    Skoro sie domagasz
    http://upload.wikimedia.org/...viation_diagram.svg
    Instrukcja dla ciebie, pierwszy przedzial to udzial Intela, drugi udzial przesciowy na bazie arch. Intela, trzeci to inny sprzet na licencji Intela, a calosc to sprzet na licencjach Intela.


  50. @morgi (autor: trepcia | data: 14/04/09 | godz.: 18:21)
    Ogólny rozkład normalny każdy głupi potrafi wkleić i nikomu tutaj nim nie zaimponowałeś ani nie dałeś odpowiedzi na dręczące pytania. Chcemy konkretną krzywą Gaussa do omawianego przez Ciebie problemu sprzedaży. Chcemy widzieć, gdzie aktualnie znajduje się sprzedaż i gdzie po pewnym czasie się znajdzie według krzywej.
    Taki wykres to jedyny dowód na to, że nie masz czym poprzeć swoich wypowiedzi i niczym tonący chwycisz się wszystkiego.


  51. ... (autor: Simon89 | data: 14/04/09 | godz.: 19:31)
    odpowiedzi Ati i nVidii na larrabee... te "karty graficzne" nie będą kierowane do tych samych odbiorców. Larrabee ma powierzchnię 600mm^2 i to w 45nm. Przy takiej powierzchni i skomplikowaniu to nie może być tanie. (AMD wycisnęło z 256mm^2 1.2 teraflopa i to w 55nm, przejście na 40nm i seria hd5XXX też pokaże pazurki) Zanim wyjdzie to coś to wyjdą też nowe karty nVidii i Ati. Patrząc na skok mocy obliczeniowej kolejnych kart to larrabee będzie tylko konkurencją, a może zostanie w tyle.

  52. ... (autor: trepcia | data: 14/04/09 | godz.: 21:08)
    I tak ten Pan na zdjęciu ma brzydki krawat ;-)

  53. trepcia (autor: morgi | data: 14/04/09 | godz.: 22:03)
    Dalem ci instrukcje, to znaczy, ze wszystko zostalo spelnione krzywa jest wlasciwa i odpowiada, udzial staly, przejsciowy i staly konkurencji i wariacja wynikow. Krzywa jak krzywa o to wam chodzilo, tylko chcieliscie opis i tak oczywistosci. Biezaco jest 80 kilka procent do 18 przejsciowego i 2 reszta ogona.

  54. Simon89 (autor: morgi | data: 14/04/09 | godz.: 22:05)
    Gdzie te TFLOPs wycisnelo ati, bo poza papierem nikt nie mierzyl, gdzie zbudowali na tym jakikolwiek serwer do GPGPU, a tak amd obiecalo "chmure" serwerowa do robienia nowej jakosci kina hollywoodzkiego.

  55. morgi (autor: Simon89 | data: 14/04/09 | godz.: 23:44)
    nie ma serwerów tak jak na tesli nVidii bo nie było to wspierane odpowiednim oprogramowaniem ze strony Ati... zresztą nie wiem czy teraz coś zrobili z tym.

  56. morgi (autor: Markizy | data: 15/04/09 | godz.: 07:40)
    czyli wykres dany przez ciebie nic nie obrazuje, wiec dalej czekamy na właściwy :P I z sensownym opisem, bo to może przedstawiać wszystko i nic :)

  57. @morgi (autor: trepcia | data: 15/04/09 | godz.: 08:35)
    Nie czaruj, to co od Ciebie otrzymaliśmy to jedynie zwykły, ogólny wykres. Nic ponad to. Niczym nie zabłysnąłeś.

  58. trepcia (autor: morgi | data: 15/04/09 | godz.: 11:35)
    To co konkretnie chcecie, bo nie moge wydedukowac krzywa chcieliscie macie, bo to nie o to chodzilo? To o co chodzilo?

  59. @morgi (autor: Marek1981 | data: 15/04/09 | godz.: 14:12)
    A gdzie jest część na licencji (patentach ) firm trzecich?? Wbrew bredniom które przedstawiłeś np procesory mają rozwiązania z AMD (wszystkie 64bit)

  60. @morgi (autor: trepcia | data: 15/04/09 | godz.: 16:15)
    Kłania się czytanie ze zrozumieniem. Chcieliśmy krzywą Gaussa przedstawiającą faktyczny stan sprzedaży o którą się tak opierałeś. Chcemy widzieć, gdzie aktualnie znajduje się sprzedaż firmy, którą poruszyłeś odnośnie krzywej Gaussa a gdzie ta sprzedaż znajdzie się po pewnym czasie. A Ty nam wkleiłeś wykresik, który każdy, dosłownie KAŻDY potrafi znaleźć na wikipedii. Na tym opierasz swoje dowody? Czy to są jedynie spekulacje i domysły, z którymi tak bardzo walczysz i sam z siebie robisz hipokrytę? Robisz pośmiewisko ze wszystkich tutaj czy sam z siebie?
    A to, że nie potrafisz czegoś wydedukować to jest Twój problem z rozumieniem czytanego tekstu, tego o co inni proszą/rządają i tego, co sam piszesz.


  61. Marek (autor: morgi | data: 15/04/09 | godz.: 20:30)
    Co znaczy 64bit? Moze tobie chodzilo, o X86-64bit.
    trepcia no to jest, krzywa obrazuje ile w rekach Intela jest i moze bedzie albo bylo, chyba ze wolny rynek padnie.


  62. @morgi (autor: trepcia | data: 15/04/09 | godz.: 20:46)
    To ile wynosi odchylenie standardowe? A wartość oczekiwana przypada na jakąś wielkość sprzedaży? Krzywa Gaussa bez tych danych jest tylko kreską narysowaną na papierze z napisanymi wartościami procentowymi, które nic nie mówią.

  63. trepcia (autor: morgi | data: 16/04/09 | godz.: 12:59)
    Ciagle czegos chcesz, jaki stan sprzedazy to jest podawany przez isupply dane byly za 2008, a Intel publikowal swoje dane odnosnie dostaw za tamten rok dokladnie, w mediach byl spot
    http://images.anandtech.com/...ral/intelsupply.jpg
    Krzywa mozesz sobie zestawic do czegokolwiek, tu masz serwerowa
    http://images.anandtech.com/iblog/IBM4s2s.jpg


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.