TwojePC.pl © 2001 - 2024
|
|
Piątek 8 maja 2009 |
|
|
|
Duża strata finansowa Nvidii w pierwszym kwartale 2009 Autor: Zbyszek | źródło: TechConnect | 22:15 |
(192) | Nvidia opublikowała dziś dokładne wyniki finansowe odnotowane w pierwszym kwartale 2009 roku. Z przedstawionych danych wynika, że firma kolejny raz z rzędu poniosła znaczną stratę finansową - ta szacowana jest na 201 milionów dolarów (netto), podczas gdy strata netto we wcześniejszym, 4 kwartale 2008 roku wyniosła 147 milionów USD. W poprawie sytuacji nie pomogły nawet stosunkowo wysokie przychody, które wyniosły 664 miliony dolarów - o 38% więcej niż w ostatnim kwartale 2008 roku, kiedy to na konta firmy wpłynęło zaledwie 481 milionów dolarów. Oznacza to, że w 1 kwartale 2009 roku 38% wzrostowi przychodów towarzyszył 37% wzrost odnotowanych strat. Taki bilans jest zaskakujący nawet dla ścisłego kierownictwa firmy Nvidia, które zapowiada już podjęcie stanowczych działań, zmierzających do poprawy sytuacji.
Firma najprawdopodobniej dokona przeglądu swojej oferty, usuwając z niej pozycje najmniej dochodowe. Nvidia chce także zaistnieć na nowych rynkach, które mogą okazać się lukratywne.
Korporacja spodziewa się, że jej przychody w trwającym właśnie 2 kwartale 2009 roku wyniosą około 697 milionów dolarów. |
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- .... (autor: Markizy | data: 8/05/09 | godz.: 22:59)
to będą mieli do skreślenia sporo produktów, bo niektóre się niepotrzebnie dublują, i aż dziwi to że nvidia odzyskała cześć udziałów na rynku kart graficznych od AMD.
Miejmy nadzieje że wyciągnie z tego lekcje i następne karty nie będą tak często przemianowywane, i wprowadza konstrukcje które powieją choć trochę nowością, bo szkoda było by żeby AMD się rozpastwiło samo na rynku GPU.
Bo gdzie dwóch się bije tam klient często skorzysta :)
- to raczej nie ma zastosowania (autor: AZet | data: 8/05/09 | godz.: 23:19)
gdy chodzi o bitwę 2 monopolistów.
- morgi i tak zaraz napisze ze to nieprawda (autor: Rand | data: 8/05/09 | godz.: 23:20)
a potem sie pochlasta :-)
- Nvidia (autor: rainy | data: 8/05/09 | godz.: 23:49)
To prawda, że przychody wzrosły w porównaniu z IV kwartałem 2008 ale należy dodać, iż spadły bardzo znacząco względem analogicznego kwartału roku ubiegłego (1,15 mld dolarów).
- Duża strata finansowa Nvidii w pierwszym kwartale 2009 (autor: adamakonto | data: 9/05/09 | godz.: 00:15)
Nie dziwie sie po serii odgrzewanych mielonych (osobiscie nie przepadam). Ludzie najwyrazniej przejrzeli na oczy bo kogo nie pytam ze znajomych to albo juz wybral karte ATI albo ma taki zamiar. Niestety nVidia padla ofiara przekonania ze na opinii mozna jechac w nieskonczonosc a to nieprawda. Ale jeszcze wszystko przed nimi.
- a teraz przyznac się kto ma karte Nvidii? (autor: Sajron | data: 9/05/09 | godz.: 00:37)
to go wyśmiejemy. :D kotletom mówimy NIE!
- @sajron (autor: trepcia | data: 9/05/09 | godz.: 00:41)
Sam mam kartę ATI ale nie będę się naśmiewał z NVidii bo nie ma takiego powodu. Jeśli chodzi o kotlety... trochę z nimi przesadzili ale GF8800GT był udany i to bardzo.
- ..up.. (autor: Marek1981 | data: 9/05/09 | godz.: 00:46)
Nvidia płaci straszna cene za złożoność chipu.
"Oznacza to, że w 1 kwartale 2009 roku 38% wzrostowi przychodów towarzyszył 37% wzrost odnotowanych strat" - mnie to nie dziwi. Sprzedają np 260 praktycznie bez marży a tu jeszcze trzeba wydać na naprawy gwarancyjne, koszt opracowania nowych technologii (40nm, dx11) w tym momencie nie mają jak się zwrócić .
- to było wiadome (autor: LOLO64 | data: 9/05/09 | godz.: 01:36)
Przecież to było wiadome do czego doprowadzi odgrzewanie ze starych i robienie kanapek z nowych chipów. Niech teraz płaczą łapserdaki.
- ... (autor: corman | data: 9/05/09 | godz.: 02:12)
ja mam kartę nvidii 8800gs, ale to wyłącznie dlatego że robią dobre stery pod linuksa
- AZet (autor: Markizy | data: 9/05/09 | godz.: 08:26)
przy dużych różnicach w udziałach na rynku ma to zastosowanie :) bo mniejszy będzie chciał wydrzeć coś większemu :)
- Rand (autor: morgi | data: 9/05/09 | godz.: 08:45)
Ja sie ciesze, bo gdzie 2 slabych sie bije i obrywa, tam Intel skorzysta. Nvidia jedzie po kosztach i skutek odnosi, bo udzialy rosna. CUDAcznosc jednak zostaje tam gdzie jej miejsce w sferze marketingu.
Marek
Placi i tak mniejsza niz amd, wiec zobaczymy jak tak dalej im pojdzie, marze sa kiepawe strasznie w kryzysie to pada, ale zeby ponizej 30%, to dramat, nawet amd ma ciut wiecej te 35% co jest i tak ponizej poziomu przyzwoitosci 40%.
- @morgi (autor: MarcinN | data: 9/05/09 | godz.: 08:56)
No tak, Intel skorzysta swoimi mega wydajnymi zintegrowanymi układami.
- MarcinN (autor: morgi | data: 9/05/09 | godz.: 09:01)
Nie ma to jak doswiadczenie, jak widac nawet w kryzysie mozna wprowadzic zlota zyle, taki Atom, ktory poprawi sytuacje, a Nvidia i amd jak zwykle z reka w nocniku i placa kosztami. Dodatkowo jak fabryka zawiedzie i tez musi ciac koszta, ograniczac inwestycje to problemy i rozne opoznienia gwarantowane, a o przyszlych produktach przyjdzie czas podebatowac.
- .:. (autor: xernos | data: 9/05/09 | godz.: 09:11)
Intel i jego GMA - szczerze jedyne co Intel mógłby zrobić aby dorobić się lepszego IGP to wykupić nVidie - jedyne to dało by mu możliwość tworzenia wydajnych układów wbudowanych w chipset.
Co do strat to były do przewidzenia - cięgle prądożerne karty wykonane w starym procesie technologicznym, grzejące się. Dodatkowo nVidii zaszkodziły Laptopy w których układy dedykowane tego producenta się przepalały bo ktoś chciał zaoszczędzić na systemie chłodzenia i jakości materiału . Potem ludzie zaczęli omijać szerokim łukiem te jednostki (wyjątek gracze i kotlet 9600 GT).
Nvidia po tym jak bardziej się rozpowszechni w ofertach sklepów 4770 będzie biedna 9600 GT jest za słabe, a 9800 GTX za drogie w porównaniu z nowym dzieckiem AMD -pzdr.
- a ja sie pytam... (autor: Ceki | data: 9/05/09 | godz.: 09:34)
...ciekawe kto za to poleci...
...kto jest temu winien, chyba nie AMD :) , na pewno zgonią na kryzys :)
- "a teraz przyznac się kto ma karte Nvidii?" (autor: maciek1707 | data: 9/05/09 | godz.: 09:40)
ja mam w lapku gf9650m gt (kupiłem w grudniu) i nie narzekam, ale w stacjonarnym mam hd4850 i też nie narzekam a nawet się cieszę że zdążyłem kupić jak jeszcze ceny były bardzo atrakcyjne
- a ja na intela narzekam (autor: Marek1981 | data: 9/05/09 | godz.: 09:51)
na jego grefy i stery, mam integre w lapku firmowym 4500 i mnie strasznie męczy.
Nawet fifa05 przycina przy x768 na średnich detalach.
- A oto moje zdanie w tej całej dyskusji: (autor: Gladzio | data: 9/05/09 | godz.: 11:02)
Guanabanakumgwatperysomasalak.
Dziękuję.
- @morgi (autor: trepcia | data: 9/05/09 | godz.: 11:17)
Ważniejszy jest Intel od klienta, prawda ;-) Nie ma to jak zdrowe podejście do tematu...
- @mogri (autor: Takeya | data: 9/05/09 | godz.: 12:09)
intel zacznie produkowac wydajne grafiki dopiero, jak wykupi nvidie...
- @Marek1981 (autor: Takeya | data: 9/05/09 | godz.: 12:13)
ja mam w lapku x3100 i rwie mi sie pierwszy gothic, pierwszy serious sam na medium, a nawet pierwszy unreal i half life momentami zabkuje. i miej czlowieku wiare w intela...
- morgi (autor: Zbyszek.J | data: 9/05/09 | godz.: 12:17)
"Nvidia jedzie po kosztach i skutek odnosi, bo udzialy rosna"
Pozwolę sobie przypomnieć wszystkim, że pod newsami o obniżce cen GeForce GTX 260 i o tym że są one sprzedawane poniżej kosztów produkcji, ostro zaprzeczałeś temu co teraz mówisz.
Sugerowałeś nawet absurdalnie, że to AMD sprzedaje po kosztach a nie Nvidia.
Wygląda na to że nie masz stałego zdania, a swoje wypowiedzi dynamicznie dostosowujesz do panującej sytuacji...
- @Zbyszek (autor: rainy | data: 9/05/09 | godz.: 12:28)
Tu nie masz racji: morgi powtarza to jak mantrę - Intel jest fenomenalny! :)
- Modlitwa Morgiego (autor: Gladzio | data: 9/05/09 | godz.: 12:52)
Dobry Intelu, a nasz panie
Daj pół litra wódki w kranie!
- @ morgi (autor: LOLO64 | data: 9/05/09 | godz.: 13:19)
Morgi, a wiesz, ze teraz swojego GMA950 można trochę podkręcić? Spróbuj, zawsze 1.2fps to nie 1.
- @morgi (autor: MariuschM | data: 9/05/09 | godz.: 13:34)
morgi nie ciesz się tak bo larrabee jeszcze nie wyszedł i nie wiadomo jaki będzie on dobry
może okazać się że będzie dobry ale wydajnościowo nie będzie lepszy od najlepszej karty graficznej to już można powiedzieć w prost
a może być to też kolejny fail Intela tak jak poprzedni układ który miał integrowane GPU
puki co nie ma się co cieszyć tylko czekać aż larrabee wyjdzie a wtedy można na ten temat gadać
to jest temat o stracie finansowej z strony Nvidii więc też na ten temat gadać a nie robić z niego offtopa
- Haaaa... (autor: Galnospoke | data: 9/05/09 | godz.: 14:36)
A jak niedawno pisalem po informacjach o doskonalych wrecz wynikach nVidii, ze cos mi tutaj wyglada na kreatywna ksiegowosc to chyba nikt nie wierzyl. To bylo oczywiste, ze tak sie "zabawa" skonczy.
- "doskonalych wrecz wynikach nVidii" (autor: Galnospoke | data: 9/05/09 | godz.: 14:39)
Uzupelnie: doskonalych jak na straty i kryzys. Pamietam jeszcze naglowki "nVidia dobrze sobie radzi", "straty nie sa wieksze od zakladanych" itd. A tu bum! Tak to jest jak sie przerzuca koszty.
- Zbyszek (autor: morgi | data: 9/05/09 | godz.: 15:26)
Znowu pudlo, nie ma dowodu na to ze Nvidia sprzedaje ponizej kosztow, bo ma nadal dodatnia marze ze sprzedazy wszystkich produktow, a to co mi imputujesz to nainterpretacja, wyrywek, bo "jedzie po kosztach" zalezy od kontekstu. Dopisac moge tyle, ze marza zjechala w dol ponizej oczekiwan przez tzw. odpisy z instrumentarium 65nm, a to czysty koszt bez przychodu.
- MariuschM (autor: morgi | data: 9/05/09 | godz.: 15:29)
Jak to nie ma kruszeja konkurenci, Intel ciagle na plusie, rosna udzialy i aktualna sytuacja tylko nastraja pozytywnie, a co przyszlosc przyniesie to nikogo teraz nie interesuje chyba tylko wrozki.
- @morgi (autor: rainy | data: 9/05/09 | godz.: 15:59)
Twój ukochany Intel też nieco skruszeje gdy oberwie od KE karę w wysokości 1 mld euro.
Btw, ostatnio jednak trochę rynku stracili - przynajmniej w desktopach.
- morgi (autor: Markizy | data: 9/05/09 | godz.: 16:11)
ty przyznałeś się kiedyś do błędu ? bo widzę ze nie , chcesz zawsze stawiać na swoim a często brak ci argumentów.
Tak samo chcieliśmy od ciebie krzywa Gaussa dla sprzedaży intela i wykpiłeś się jakimś rysunkiem i powiedziałeś ze dla intela jest 80%, ostatnie wyniki zaprzeczają temu co niby mówi twoja krzywa Gaussa bo AMD zyskało 3% w ciągu jednego kwartału, a obecny zapowiada się jeszcze lepiej, ze względu na duża liczbę nowych procesorów.
A teraz twierdzisz że intel przebije Nvidie i ATI w kartach graficznych. Może nastąpi to jak larrabee bezie dobry, ale to i też z 2-3 lata od jej wprowadzenia i konkurencja musiała by spać, a tak nie jest i nie będzie. Myślę ze panowie z Nvidi pamiętają jakim sposobem 3dfx upadł i nie będą chcieli popełnić tego samego błędu, chociaż ostatnio zbliżali się do tego samego błędu ostro. A jak obecnie dużo pogłosek wskazuje że w GT300 zastosują inna architekturę niż w obecnych GT200. Ale czy dobrze trafią to się dopiero okaże. Tylko że ta nowa architekturę zobaczymy dopiero za około 3 kwartały.
- @Gladzio (autor: Takkyu | data: 9/05/09 | godz.: 16:55)
komentarz nr 19 - ten owoc nazywa się kumkwat.
- @Markizy (autor: Marek1981 | data: 9/05/09 | godz.: 17:34)
3 kwartały to dużo czasu, z tym że AMD nie śpi i wyda nowości dużo wcześniej na które Nvidia będzie musiała odpowiedzieć, a nie jak z dx10.1.
Dodajmy tanie w produkcji 4770 i rynek diametralnie może się zmienić.
Co do larrabee to raczej zonk.
Gdyby Intel miał takiego asa w rękawie nie czekałby 2 lata, kolejny nieudany experyment.
- Intel (autor: AZet | data: 9/05/09 | godz.: 17:56)
jakoś nigdy nie pchał się w bitwy GPU.
I słusznie, lepiej robić to co wychodzi niż tak jak AMD łapać sroki za ogony i sprzedawac fabryczki.
I znowu widze tu jakąś krzywą...czy to Gaussa? ;))
No ja nie wiem czy w ilosci to Intel nie bije reszty.
Ilu % jest giercomaniaków w stosunku do reszty ?
Proste pytanie i prosta odpowiedź.
- @ Duża strata. (autor: głupek morgi | data: 9/05/09 | godz.: 18:53)
Pewnie dlatego, że tacy tam marketingowcy pracują - jakby ich zwolnili, to byłby zysk :D
A wpadki, to miał i intel i amd i nVidia i ATi.
Każdy zaliczył.
- "larrabee to raczej zonk" (autor: Sajron | data: 9/05/09 | godz.: 19:11)
Inżynierem jestes że takie pierdoły gadasz?
heh Larrabee to nie jest takie hup siup jak ci się wydaje. Projekt jest cały czas udoskonalany. Intel czeka bo ma zamiar zaimplementowac instrukcje AVX256 bit do niego. A wtedy to będzie pogrom z jasnego nieba. Procesor ten będzie działac w architekrzurze MIMD a to oznacza że wątki są dzielone dynamicznie na poziomie kompilatora a nie przez hardware jak w dzisiejszych akceleratorach. Nvidia już sra w gacie.
- Sajron (autor: Markizy | data: 9/05/09 | godz.: 20:00)
A ty jesteś jakimś inżynierem ? przecież obecnie na temat wydajności larrabee można pisać fikcje naukową :P
- Ja mam może głupie pytanie - dlaczego czepiacie (autor: Mcmumin | data: 9/05/09 | godz.: 20:00)
się integry Intela? Office wam przycina? Eclipse klatkuje? A może na stronkach TPC jest za mało FPSów??? Do takich celów zostały stworzone te karty graficzne i doskonale spełniają swoje zadanie.
- @Mcmumin (autor: Galnospoke | data: 9/05/09 | godz.: 20:05)
Daj spokoj, one sa niajnizsze jakosci z mozliwych. Seria 4 ratuje Intela ale wszystko przed stym to katastrofa. Porownaj jakosc wyswietlanego obrazu na Intelach, a na normalnej grafice - przezyjesz wstrzas. Nadto Intele czesto maja probemy z overlayem - wiele programow po prostu nie chce na nich dzialac. Te "karty" to raczej kilka sciezek w chipsecie i tyle. Cos w rodzaju Fiata 126p - jezdzi ale lepiej nie uzywac.
- @Zbyszek.J (autor: trepcia | data: 9/05/09 | godz.: 20:06)
Widzę, że nie tylko ja pilnie śledzę wypowiedzi Morgiego. Chodź do mnie na grilla to Ci vodki poleję za zdrowe podejście do rzeczywistości :-)
@morgi
Ehh... człowieku, człowieku. Tyle razy przytaczałem Ci kontrastujące ze sobą Twoje wypowiedzi i nawet wtedy nie potrafiłeś nic zrozumieć. Albo mnie ignorowałeś albo pisałeć coś do mnie, co było totalnie nie związane z moją wypowiedzią do Ciebie adresowaną. Albo jesteś niekonsekwentny w swoich poglądach albo normalnie brak Ci męskich jaj, żeby przyznać się, że czasem Twoje poglądy są błędne. Nikt by Cię za to nie zmieszał z błotem a nawet znaleźli by się ludzie, którzy by Ci vodkę polali.
Wracając do tematu. W dalszym ciągu zastanawia mnie, czemu priorytetem dla NVidii jest opracowanie extra wydajnego i skomplikowanego układu a dopiero późniejdze jego ograniczanie i ucinanie aby wejść do mniej wydajnych segmentów rynku.
- Oj, oj (autor: Galnospoke | data: 9/05/09 | godz.: 20:06)
Ile literowek.
- @Mcmumin (autor: rainy | data: 9/05/09 | godz.: 20:11)
Sęk w tym, że integry od ATI/Nvidii są lepsze/wydajniejsze ale ponieważ większość ludzi o tym nie wie lub po prostu ich to nie interesuje to Intel w ten sposób ma tak duży udział na tym rynku.
- Markizy! (autor: Sajron | data: 9/05/09 | godz.: 20:21)
Jestem informatykiem jakbyś nie wiedział i się interesuje tymi sprawami. Co do wydajności to wszystko zależy od tego jaką ilośc rdzeni i czestotliwośc procesora zastosują. Przy 48 rdzeniach pracujących z zegarem 2.5GHz układ osiąga 3840GFlops dla operacji zmiennoprzecinkowych z pojedyńczą precyzją.
- rainy (autor: morgi | data: 9/05/09 | godz.: 20:35)
Stracili czy nie to jedna sondazownia, liczy dostawy, a inna IDC twierdzi, ze w EMEA zyskuje, trzeba czekac na trendowe dane.
Ludzi nie interesuje co jest lepsze, owszem czesci nie a czesci tak, nawet z tego forum mozna zebrac kilku, ktorzy swiadomie wzieli GMA, bo to produkt adekwatny do potrzeb.
AZet
Do giercownikow lepiej pasuje zasada Pareto.
trepcia
Prostowac cos co jest jasne i klarowne? Ja mam stanowisko jasne, nigdy nie odnosze ad personam, wg mnie czym rzucasz w przeciwnika potem sam tym obrywasz albo tym sie stajesz.
- ..up.. (autor: Marek1981 | data: 9/05/09 | godz.: 20:50)
@Sajron - ale pojechałeś, no nie ma co:)
na twoim miejscu bym się teraz wstydził:)
Dla twojej świadomości Informatyk to takie pojęcie ogólne jak lekarz:)
Co do twojej wypowiedzi to przemyśl dokładnie co napisałeś bo widze że tylko lubisz czytać broszury..............
@morgi- co do tej świadomości to lekka przesada, nikt znający się na temacie nie weźmie integry intela, chyba że dostanie takiego lapka i niech się męczy.
@Mcmumin - o ile mnie pamięc nie myli z miesiąc temu pewien pan z Intela mówił że w starsze gry można na integrach spokojnie pograć, powiem szczerze że integra ATI sprzed 4lat jest wydajniejsza i generuje lepszy obraz.
- .... (autor: Marek1981 | data: 9/05/09 | godz.: 21:06)
@rainy- myślę że wine ponoszą producenci sprzętu:) przejdź się po jakiś sklepach (dla idiotów) i poszukaj jakiegoś lapka z integrą inną niż Intel.
@trepcia - opracowanie najmocniejszego, flagowego modelu to prestiż. W czym ostatnio królowała i to przynosiło skutki. Ach te słupki w 3DMarku 01,03,05,06 :P
- Marek1981! (autor: Sajron | data: 9/05/09 | godz.: 21:40)
co ty możesz o mnie wiedziec? powiedz dokładnie co mam przemyslec bo widze że ci argumentów już brak.
- nie (autor: scoobydoo19911 | data: 9/05/09 | godz.: 22:01)
nie znam się na tych technicznych terminach sajron ale z tą super wydjnością to bym się nie rozpędzał bo wydajności w rezultacie i tak decydują steroniki jak te będą do kitu to ta karta może mieć nawet pierdyliard gflops a i tak będzie chodziła jak by chciała a nie mogła a co do architektury mimd to gt 300 będzie mieć ją przed intelem
- rainy (autor: mandred | data: 9/05/09 | godz.: 22:08)
jest też inna możliwość, a mianowicie kilka miesięcy temu jak gadałem z kumplem użyłem sformułowania w którym użyłem wyrażenia karta graficzna, mało nie padłem jak się mnie zapytał co to takiego i do czego służy. Właśnie tacy jak on (ma 24 lata) kupują integry intela nawet nie wiedząc że je kupują.
- przecież od lat schemat jest ten sam : (autor: AZet | data: 9/05/09 | godz.: 22:20)
chcesz grać ? Masz do wyboru dwie stajnie.
Chcesz pracowac ? Możesz wybrac stajnie Intela albo inną.
Jakiż wielki problem?
Przeceiż drodzy koledzy tylko dziany gość albo idiota będzie kupował laptopa do gier, w związku z tym co nam pozostaje z alternatyw wydajnosciowych?
A wracjąc do kwestii zasadniczej: żadne novum że Nvidia wtopiła, każdy w tym kryzysie wtopi.
- @morgi (autor: trepcia | data: 9/05/09 | godz.: 22:46)
Tak, tak morgi, tak sobie to tłumacz i tak sobie teraz pisz. Człowieku, wiele razy zmieniałeś swoje zdanie i swego czasu kilka razy dałem Ci o tym znać wklejając Twoje przeciwstawne sobie wypowiedzi. Nie mydl tutaj oczy, że trzymasz się swego stanowiska bo widać, że nie tylko ja się na Tobie nieraz przejechałem.
- @sajron (autor: Marek1981 | data: 9/05/09 | godz.: 23:07)
czasami zalatujesz samymi broszurami, przypomnij co mówiono chociażby o cellu:)
wszystko można spaprać przez oprogramowanie.
- Echhh... Ale po co potrzebny Wam lepszy obraz (autor: Mcmumin | data: 9/05/09 | godz.: 23:13)
w Office/Open Office/Excelu czy w przeglądarkach internetowych (szczególnie, że w biurach najczęściej zestawiony jest z bardzo tanim, badziewnym monitorem LCD na beznadziejnych matrycach TN lub w notebooku za ok 3000PLN gdzie matryca i tak jest również do d...)??? Panowie, przecież to ma działać i nic więcej. Nikt z Was nie oczekuje chyba powalającej jakości dźwięku od zintegrowanej karty muzycznej i mikropierdziawek w laptopie, ich podstawowym zadaniem jest co najwyżej odegranie zestawu plików wav z Windowsa. Chcesz więcej? Kup kartę graficzną/wybierz laptopa w innej konfiguracji. Overlay??? Jakie typowe programy w biurach (oprócz Aero) z tego korzystają??? Kompletnie do mnie nie trafiają takie narzekania. Kupujesz kosiarkę do trawy i jesteś zdziwiony, że nie radzi sobie ze zbiorem kukurydzy?
- @AZet (autor: Marek1981 | data: 9/05/09 | godz.: 23:22)
Coś mi się wydaje że nie zrozumiałeś.
W stare gry typu fifa05 w pociągu można pograć nawet na lapku z ATI Xpress 200 na max det a na intelu to się tnie.
Porównaj kiedy wyszła integra od Ati i wtedy biadol.
- @Mcmumin (autor: rainy | data: 9/05/09 | godz.: 23:27)
Wybacz ale to trochę demagogiczne argumenty: IGP od ATI/NVidii również działają ale oferują znacząco wyższy komfort pracy (obraz/wydajnośc/pobór mocy).
Czy dlatego, że masz zintegrowaną kartę graficzną/dźwiekową musi być ona/one kiepskiej jakości?
No chyba, że badziewie od Intela jest wartością samą w sobie.
- @rainy - Twoje argumenty to również demagogia :) (autor: Mcmumin | data: 10/05/09 | godz.: 00:19)
Poza tym napisałem również - "Chcesz więcej? Kup kartę graficzną/wybierz laptopa w innej konfiguracji.". Przecież jesteś świadomy ułomności IGP od Intela, przy zakupie wybierasz inne rozwiązanie i krótka piłka. Chcesz płynnie pograć? Na nV 295GTX wszystko zapierdziela jak szalone! Chcesz komfortowo pograć na laptopie? Proszę bardzo: http://www.bluemobility.pl/...m-1024mb-p-3040.html
Osobiście w laptopie mam IGP Intela (3100) podłączoną do Lenovo ThinkVision L220X kablem - o zgrozo!!! - VGA. Spełnia wszystkie moje oczekiwania - Eclipse i różne przeglądarki internetowe działają jak burza. Zmienią się moje wymagania, kupię inne rozwiązanie, ot i cała filozofia.
- Marek1981! (autor: Sajron | data: 10/05/09 | godz.: 00:30)
Ale cell to jedyne 200Gflops SP w dodatku nie jest procesorem x86 . Powiedz dokładnie co takiego widzisz co ma uniemożliwic sukces procesorowi Larrabee ,oprogramowanie?
jak narazie to Intel jest niezastąpiony jesli chodzi o wydajnosc kompilatorów pod swoje procki. Ja bym o to się nie martwił.
- @Mcmumin (autor: rainy | data: 10/05/09 | godz.: 00:48)
Po pierwsze była mowa o porównywaniu IGP.
Po drugie (co było już wspomniane) większość ludzi nie jest świadoma (brak wiedzy/lenistwo) ułomności tychże układów i zapewne zakłada ich porządną jakość.
Rozumiem, że jako posiadacz laptopa z GMA 3100 bronisz swojego wyboru ale jeżeli załozyć, że tak myśli większość, to Intel tym bardziej nie będzie się starał.
ATI i NVidia pokazują, że jest możliwe IGP o porządnej jakości.
Nie wiem dlaczego od takiego potentata jak Intel nie oczekiwać tego samego (jeżeli nie więcej).
- @rainy - ok, porozmawiajmy o rynku IGP i... (autor: Mcmumin | data: 10/05/09 | godz.: 02:35)
Realnym świecie, a nie krainie szczęścia, zdrowia i pomyślności gdzieś za 7 firewallami...
Pewnie, że można zrobić porządne IGP, pytanie brzmi po co? Tu masz przykładowe dane za q2 2008: http://www.i4u.com/article19455.html
Po co wywalać kasę na developing, przestawianie linii produkcyjnych, marketing, PR jeśli dotychczasowe rozwiązania idą jak świeże bułki??? Po co kombinować jeśli rynek odbiorców korporacyjnych jest zadowolony z obecnych rozwiązań? To nie użytkownicy końcowi ale raczej dział księgowy/marketingu producenta decyduje o potrzebie wprowadzenia innowacji. Dam Ci jeszcze przykład z mojej branży - krew mnie zalewa na myśl o dostosowaniu stron www/aplikacji internetowych do IE6. 8 lat na rynku IT? Już dawno powinna zdechnąć, ale smutne fakty są takie, że - wg wewnętrznych danych (rynek odbiorców korporacyjnych) - 75% użytkowników naszych produktów korzysta z przeglądarek od MS i - co gorsza - aż 65% z tej liczby to użytkownicy korzystający z IE6. Cóż więc począć, siedzę z zawijam w te sreberka...
- Sajron (autor: Markizy | data: 10/05/09 | godz.: 09:04)
1. skąd wiesz ze larrabee będzie pracować z częstotliwością 2,5GHz ? sądząc po wymiarach chipa jakie kiedyś krążyły po twoje PC, jest to nie możliwe chyba ze będziesz chłodzić to azotem. (bo nawet zmniejszenie rdzeni w wymiarze tutaj nie pomoże, bo częstotliwość zrobi swoje(
2. Wydajności którą podajesz wcale nie jest oszałamiająca, obecnie da się bez większych problemów uzyskać taką na współczesnych układach GPU, a nie mówiąc o tym co będzie za pół rok (po premierze ATI i Nvidi).
3. Tak Cell nie jest prockiem x86, bo jest procesorem wektorowym a to inna bajka, porównaj sobie wydajności core2 duo do niego, a odpowiedź nasunie się sama.
4. I to że jesteś informatykiem z zainteresowaniem sprzętem nie czyni ciebie znawcą tematyki PC ;)
Ja za takiego się nie uważam i często wyrażam swoje poglądy na ten temat (chyba że coś jest pewnego, albo na rynku od pewnego czasu), bo jak jakiś układ jest w czasie projektowania to można pisać o tym bajki, a nawet legendy ;P
Więc po co się unosisz tak? Dużo osób z TPC porostu lubi w kompach grzebać i wymieniają się swoimi poglądami, a co o larrabee nic nie wiadomo konkretnego :)
- trepcia (autor: morgi | data: 10/05/09 | godz.: 10:53)
Jasne, daj jakies linki do tych sprzecznych wypowiedzi, bo taka mowa trawa nigdy sie nie konczy. Zdanie mam twarde, ale jak wszystko zmienia sie w zaleznosci od okolicznosci, to fundamentalnie twierdze i twierdzilem od poczatku zawsze to samo a nigdy nie sprzecznie w tym samym kontekscie.
Mcmumin
Fanowie amd nie zrozumieja, bo w glowie maja ukladanki, ze cos wydajniejsze to lepsze, a ze lepsze i w realu nie schodzi to wszystko wina Intela, bo tak przegina, ze swiat bierze ten jego chlam. Mozna krytykowac wydajnosc IGP, ale jak widac, to nie jest wyznacznik co do decyzji co wiekszosc kupuje, bez osadzenia co mysli sie na temat tej wiekszosci, bo w koncu mamy demokracje czyli rzady wiekszosciowe.
- morgi (autor: Markizy | data: 10/05/09 | godz.: 11:09)
tak jak mówisz, wszystkiemu sa winni fani AMD, może najwyższy czas się obudzi i zastanowić co za głupoty piszesz ?!
- @morgi (autor: trepcia | data: 10/05/09 | godz.: 11:17)
Chcesz, żebym zaczął przekopywać całe archiwum aby Ci wkońcu udowodnić, że Twoje zdanie jest zmienne jak chorągiewka na wietrze? To nie moja wina, że masz dziury w pamięci i nie wiesz co piszesz. I co gorsze, to nie jest jedynie moje zdanie i nie tylko ja tak sądze. Nawet w tym temacie jedna osoba to samo Ci powiedziała. Wcześniej, w innych tematach, również takie głosy się podnosiły.
- @Mcmumin (autor: Galnospoke | data: 10/05/09 | godz.: 11:19)
rainy bardzo dokladnie wyjasnil Ci, a Ty i tak upierasz sie przy swoim. Za podobna cene dostajesz o kilka klas lepsza karte ATi lub nVidii. Jest jednak pewien problem - trzeba wiedziec co kupowac. Ludzie sie nie znaja i kupuja zintegrowane Intele, a pozniej sie dziwia: czemu ten film jest taki wyblaky, czemu te kolory sa takie dziwne? Co do overlay - on sie przydaje, np. jak masz podglad kamer swojego domu, jak podlaczasz projektor i wiele innych. Intel = chinska tandeta.
- @Sajron (autor: MariuschM | data: 10/05/09 | godz.: 11:23)
ja też jestem informatykiem i co ty na to?? jeśli powiesz że jesteś informatykiem to nic nei znaczy...
jesteś inżynierem który bez większych problemów zrobi układ graficzny że tak się mądrzysz??
larrabee to przyszłość której nie znamy, wiemy tylko tyle ze jest to bardzo skomplikowany układ a dzięki samej ten informacji możemy powiedzieć że intel ma bardzo dużo problemów przez niego
kolejne co można wywnioskować to koszt produkcji bo im bardziej coś jest skomplikowane tym więcej kosztuje
sajron nie wybiegaj w przyszłość której nie znasz... żadnych testów jeszcze nie było bo układ nawet w wersji prototypowej nie istnieje i wszystko co gadasz to bajki i nic więcej
po za tym pomyśl o tym że Nvidia i ATI się rozwija i mają bardzo dobre pomysły więc na pewno dorównają larrabee który ma być rewolucją dzisiejszych czasów ale nie tych co będą
- @Morgi (autor: rainy | data: 10/05/09 | godz.: 11:48)
To interesujące, czyli w IGP jakość/wydajność nieistotna, grunt, żeby Intel sprzedawał to badziewie w duzych ilościach.
W takim razie jakie znaczenie ma fakt, iż procesory AMD zegar w zegar są mniej wydajne?
Nie widzisz tu żadnej sprzeczności?
@Mcmumin
Sorry, ale to co prezentujesz (w kwestii IGP) to postawa minimalistyczna z równaniem w dół.
Masz świadomość, że układy Intela są marne ale twierdzisz, że i tak są wystarczające.
Niestety, Microsoft prezentuje podobną filozofię co Intel (zdaje się, że jest to cecha wielkich korporacji) i dlatego za karę musisz się męczyć z IE 6.
Obawiam się, że nie możesz zastosować metody o której przeczytałem: autor strony postanowił edukować użytkowników i strona pod IE 6 wyglądała tak jak ta przeglądarka interpretowała - czyli fatalnie.
Pod spodem były linki do alternatywnych przeglądarek oraz nowszych wersji IE z komentarzem: chcesz zobaczyć tę stronę tak jak wygląda, zainstaluj jedną z nich.
- @Galnospoke - Ty również patrzysz na świat przez (autor: Mcmumin | data: 10/05/09 | godz.: 12:14)
różowe okulary. Trzeba wiedzieć co kupować, ludzie się nie znają - jasne, ale to nie mój problem. Podobny schemat obowiązuje np. przy całym rynku AGD lub też przy opłacalności czynienia zakupów w sieciach takich jak MM. Jakie płyną z tego wnioski Twoim zdaniem? Wracając do tematu - zapewne 90% układów IGP Intela trafia na rynek korporacyjny, gdzie użytkownik nie ma prawa zainstalować żadnych kodeków, często nie ma prawa uruchomić pliku typu exe nie należącego do whitelisty, a projektor podłącza się w nasłonecznionych salach konferencyjnych w celu prezentacji paru wykresów/słupków/prezentacji w PP. W takich zadaniach IGP Intela doskonale spełnia swoją rolę - wyświetla czytelny tekst na ekranie :)
Raz jeszcze powtórzę - oczekujesz czegoś więcej? Wolny wybór, masz cały wachlarz alternatywnych rozwiązań na rynku.
- O i wyjęłeś mi to z mych ust różowych ;) (autor: AZet | data: 10/05/09 | godz.: 12:58)
Wniosek jest jeden : giercomaniaki patrza na świat tylko z własnej pozycji i potrzeb i budują fantasmogoryczny obraz rzeczywistości.
Dla przykładu : jak coś nie gwiżdże wiatrakiem i nei popyla względnei smiało w ramkach na neiwypasionej grze to jest to (sory) GÓWNO.
I tyle, koniec tematu.
A to że to (sory) gówno jest produkowane w większej ilosci niż bożkowata ulubiona karta to : bzdury, spisek , brednie i inne zmowy cyklistycznych Masonów. ;)
- @Azet (autor: rainy | data: 10/05/09 | godz.: 13:33)
O czym ty za przeproszeniem pierniczysz: nikt tutaj nie mówił o grach.
IGP Intela są po prostu kiepskie a w szeroko rozumianych multimediach tragicznie słabe.
I nie potrzeba tutaj żadnego spisku: wystarczą zwykle metody Intela - vide sprawy jakie mają w UE, USA i Japonii o naruszenie zasad uczciwej konkurencji/praktyki monopolistyczne.
- rainy (autor: morgi | data: 10/05/09 | godz.: 13:35)
Haha jaka sprzecznosc, igp przez pryzmat wydajnosci mierzone nigdy nie bedzie w takim stopniu jak prawdziwa karta graf. po prostu potrzeby rynku zaspokaja GMA, a ze mozna osiagnac lepsza wydajnosc tylko dla gier w integrze najwyrazniej jest to ludziom obojetne. CPU natomiast to podnoszenie wydajnosci calego komputera i kazdy punkt w tescie, kazda sekunda to konkretny grosz do grosza, przy logice chcesz pograc omijaj integry jest ciagle aktualne, bo przeciez nie da sie pograc w cokolwiek, jesli nazwac graniem ustawiajac wszystko na low i niska lub srednia rozdzielczosc.
- @morgi (autor: rainy | data: 10/05/09 | godz.: 13:48)
Radziłbym ci zapoznać się z serią artykułów na Anandtechu porównującą IGP całej trójki - układy Intela wypadały najgorzej w kazdym elemencie/zastosowaniu.
Gdyby twoja uwaga o CPU miałaby sens to większość ludzi kupowałaby Nehalema ale jak sam wiesz nie sprzedaje się on dobrze.
- Ludzie, ale wy pierniczycie (autor: Gladzio | data: 10/05/09 | godz.: 14:51)
McMumin ma absolutną rację.
1. W firmach są informatycy. Na pewno wiedzą, co biorą i na co dany sprzęt wystarczy. GMA wystarcza w większości firm, tak jak napisał McMumin (komentarz nr 69)
2. Jest taka stara rzymska maksyma: "Nieznajomość prawa szkodzi". Tutaj, nieznajomość sytuacji na rynku komputerów też szkodzi człowiekowi, który chce sobie kupić komputer. Jeżeli jest leniwy, to albo się zapyta informatyka, albo idzie w ciemno do MM i kupuje badziewie. Jeśli chce wybrać mądrze, to wystarczy poszperać trochę w internecie (google nie gryzie!) i z pewnością wybierze odpowiedni sprzęt.
Takie mówienie, że ATI i nVidia robią lepsze integry - fakt, robią. I co z tego? Jeżeli ktoś o tym nie wie, to mu nie wpychajcie na siłę tych kart. Wybierze w ciemno i trafi pewnie na Intela, albo zapyta się jakiegoś informatyka.
- @Gladzio (autor: MariuschM | data: 10/05/09 | godz.: 15:12)
no nie powiedział bym że zapytanie informatyka to dobry pomysł... trafił by na takiego fanboya intela jak sajron to by na pewno dostał rade by intela kupić...
- No i tu jest problem (autor: Gladzio | data: 10/05/09 | godz.: 15:17)
Bo Sajron jest jednocześnie fanboyem Intela i ATI :D
- @Gladzio (autor: MariuschM | data: 10/05/09 | godz.: 15:27)
no tak ale bardziej jest fanboyem intela bo uważa już że larrabee będzie najlepszą kartą graficzną chociaż jeszcze nie istnieje a informacje jaki będzie ten procek to tylko pogłoski z podwórka i nic więcej
- no to (autor: scoobydoo19911 | data: 10/05/09 | godz.: 15:28)
nieźle pojechaliśmy po bandzie z tym tematem newsa
- wszyscy napierniczyli (autor: AZet | data: 10/05/09 | godz.: 15:42)
78 wypowiedzi ;))
Swoją droga jakby było o czym ;))
I tradycyjny zjazd na konflikt Intel vs AMD vs Nvidia ;)
@rainy tu nie chodzi o gry tylko o punkt widzenia z zawężonego miejsca patrzenia.
Są dwa osobne rynki : gry i praca codzienna.
Nie jeden wspólny gdzie coś jest fajne i wypasione a reszta to syf i po co to produkują.
- @AZet (autor: Marek1981 | data: 10/05/09 | godz.: 19:06)
masz małe pojęcie więc twoje wypowiedzi są mało konstruktywne.
Widzę że jest tu kilku informatyków (ja też:P)
Jak pisałem mam lapka firmowego z integrą Intela i nawet na głupim VNC potrafi robić problemy. A to niby ma zastosowanie dla profesjonalistów i niby za tą cene (5k) powinien lepiej chodzić. Więc to był ostatni który kupiliśmy....
- @Mcmumin (autor: Galnospoke | data: 10/05/09 | godz.: 19:10)
Jezeli uwazasz, ze Intel wyswietla czytelny tekst na ekranie (np. Word, z wygladzaniem czcionek) to proponuje zalozyc okulary - pisze bez ironii czy zlosliwosci. Dla mnie roznica miedzy integra ATi, a Intela jest na tyle kolosalna, iz nie da sie jej po prostu nie zauwazyc. Tyle ode mnie w temacie.
- @Galnospoke - osh faken, powiedz mi stary czego (autor: Mcmumin | data: 10/05/09 | godz.: 20:15)
Ty tutaj nie widzisz:
http://www.grzes.czasem.robi.to/temp/pulpit.jpg
Osobiście nie mam najmniejszych problemów z rozczytaniem tekstu... Jeśli Ty masz proponuję wizytę u okulisty.
- Markizy! (autor: Sajron | data: 10/05/09 | godz.: 20:16)
1.Bo tak Intel mówił że Larrabe będzie taktowane z zegarem z przedziału 1.7-2.5GHz.
Na czestotliwosc układu wpływają dwa czynniki
-technologia wykonania
-ilosc faz z których składa się potok wykonawczy
Z tego co wiadomo Larabee będzie produkowany w 45nm tech. a jego potok będzie sie składac z 5-10 faz więc nie trudno wyliczyc jego max czestotliwosc.
2. Wydajnosc 3.84Tflopa to dla ciebie nie jest oszałamiające? Sorry ale dzisiejszy najszybszy układ a jest nim rv790 ma zaledwie 1.36Tflopa.
3.Larrabbe też jest procesorem wektorowym. Każdy z rdzeni zmodyfikowanego Pentiuma P54C posiada 512bit wektorowe FPU obslugujące instrukcje AVX256. Jest to superskalarne 16drożne FPU potrafiące dzięki technologi SMT 4way obsłużyc równolegle 4 wątki na takt zegara. FPU to potrafi przyjąc 4 instrukcje typu VLIW do obliczec pojedynczej precyzji dzieki 16 jednostkom FMADD32 bit. Każda z instrukcji typu VLIW jest właśnie złożona z operacji wektorowych.
4. Ta jasne stary mrugasz oczkiem jakbys uważał sie za niewiem jakiego GURU a z drugiej strony głupoty gadasz i kompletnie nic nie kumasz w tej tematyce. lol
Specyfikacja Larrabbe już dawno temu została twardo ustalona. Dokładnie mówiac dobre kilka lat temu na etapie wstępnego projektowania. Niewiadomą pozostaje jedynie ilosc rdzeni oraz częstotliwosc układu. Ale to i tez wiadomo jaka mniej więcej będzie.
- MariuschM! (autor: Sajron | data: 10/05/09 | godz.: 20:34)
Jestem Inżynierem bo się uczyłem jak projektowac CPU na studiach :P i wiem o procesorach więcej niż wy razem wzięci tu na forum. Czasami jak czytam wasze wypowiedzi to mam taki ubaw że to szok.
Larrabbe układem bardzo skomplikowanym? buhahaha ten procek to nic innego jak wielordzeniowy pentium 1 z małymi modyfikacjami. Nic co by Intel nie mógł sobie poradzic.
- @Sajron (autor: MariuschM | data: 10/05/09 | godz.: 20:53)
wreszcie powiedziałeś od rzeczy a nie jestem informatykiem... i ch** z tym że nim jesteś każdy nim może być, sztukę jest być inżynierem
co do tego że jest to skomplikowany układ to sam Intel się do tego przyznał... widocznie nie czytasz wiadomości intela na temat Larrabbe
no chyba że masz takie zaślepki na oczach jak konie że widzą tylko to co im się podoba a nie to co jest wokół
nigdy nie piszę zmyślonych rzeczy po to też to że jest to skomplikowany układ to prawda i nie kłóć się bo będziesz mnie wtedy zmuszał by szukać a po ostatnich testach mam szukania w niecie już po uszy...
- i jeszcze coś (autor: MariuschM | data: 10/05/09 | godz.: 21:04)
podaj mi w jaki sposób wyliczyłeś to że larrabee bedzie miał 3,84Tflopa
- @Sajron (autor: rainy | data: 10/05/09 | godz.: 21:15)
Nieważne, że jesteś inżynierem w przypadku Larabee jest cały czas sporo znaków zapytania - np. jak to "cudo" będzie się programować.
Moim skromnym zdaniem, Larabee zostanie wypuszczony w 32nm i to po dopracowaniu tego procesu (gdzieś około połowy przyszłego roku).
Nawiasem mówiąc jak wyliczyłeś jego moc obliczeniową skoro nie znasz zegara ani liczby rdzeni?
Btw, jak wynika z tabelki w tym newsie, 5870 X2 ma mieć 4,56 Gflopa (pomyliłeś jednostki): http://twojepc.pl/news18840.html
,
- @Sajron (autor: Promilus | data: 10/05/09 | godz.: 21:28)
Wiedzy to trochę posiadasz, ale to że względem ilości faz potoku wykonawczego i technologii produkcji można określić taktowanie - to bajeczki dla małych dzieci. Samo dopracowanie procesu produkcyjnego i optymalizacja zasilania układu będą głównym ograniczeniem :P
DSP z Texasa ma więcej ciekawych rozwiązań niż wniesie Larrabee - o prockach sygnałowych widocznie Cię dużo nie uczyli bo zachwycałbyś się innymi rzeczami niż AVX. No, ale skoro jesteś taki pewny swego... Nehalem 4 rdzenie po 3.2GHz z SSE4.2 i HT pobiera przy pełnym obciążeniu >100W, ile będzie pobierać 1 rdzeń w 45nm z kilkukrotnie większą liczbą ALU i jeszcze lepszym HT? A ile rdzeni ma mieć Larrabee? Bo tak mnie wychodzi, że przy intelowskich możliwościach na dzień dzisiejszy będzie to mierzone w kW. Tak, że albo nie będzie tak różowo (jeśli chodzi o budowę i wydajność), albo i tak lepszym wyborem będzie Quad CF z HD4890 ;)
- @rainy (autor: Promilus | data: 10/05/09 | godz.: 21:30)
"Btw, jak wynika z tabelki w tym newsie, 5870 X2 ma mieć 4,56 Gflopa (pomyliłeś jednostki)"
flopa to można mieć do wgrania biosu. Jednostka to FLOPS z odpowiednim przedrostkiem. A Sam RV770 przy 750MHz ma 1.2 ale nie GFLOPS a TFLOPS, coś ponad 100GFLOPS ma choćby HD2600Pro czy GF8600GT.
- @MariuschM (autor: Marek1981 | data: 10/05/09 | godz.: 21:38)
nie sztuka być inżynierem mając tylko tytuł inżyniera. Co więcej inżynierem można być w wielu dziedzinach. Tak samo jak jak na informatyka składa się wiele podkategorii często wykluczające się. Często programiści nie mają zielonego pojęcia o sprzęcie. Tak samo Ci z helpdesku nie mają pojęcia o programowaniu na zaawansowanym poziomie.
- @Promilus (autor: rainy | data: 10/05/09 | godz.: 21:40)
Ok, mea culpa to ja pomyliłem jednostki.
Btw, mówiło się o 16 (32/48) do nawet 64 rdzeni więc 32nm tym bardziej są potrzebne bo w innym wypadku pobór mocy rzeczywiście może być potworny.
- Sajron (autor: Markizy | data: 10/05/09 | godz.: 21:48)
dalej nie jest to oszałamiająca wydajność :)
wystarczy 2x1788 GFlops z GF295 o ile już masz od dobrych paru miesięcy, nie mówiąc o możliwości połaczenia trzech takich kart :P
A twoje opowieści dalej nie przekonują, nie zawsze pierwsze specyfikacje odpowiadają tym finalnym :P
- @Marek1981 (autor: MariuschM | data: 10/05/09 | godz.: 22:02)
masz rację
informatyka dzieli się na wiele różnych kategorii które nie zawsze mają coś wspólnego np. grafika 3d i programowanie układów
studia inżynierskie może nie są aż takim cudem w Polsce bo wiadomo u nas to każdy może stać się inżynierem... ale takie studia zagraniczne to już nie lada wyzwanie
tylko nadal zastanawia mnie to czemu polscy inżynierzy informatyczni są aż tak bardzo poszukiwani za granicą:/
propo co do Tflops to HD4870x2 ma 2,4Tflops czyli to co sajan podałeś to na serio nic wielkiego bo 2 takie karty spokojnie przewyższą wydajność larrabee
dodatkowo nie znamy jeszcze ceny larrabee a może sie jeszcze okazać że lepiej będzie kupić 2 takie HD niż układ od Intela
- Czy ktoś z Was (autor: Takkyu | data: 10/05/09 | godz.: 22:43)
domyślił się, że Sajron nie pisał o wydajności "peak" dla obliczeń stałoprzecinkowych może?
Ile te Wasze Radeony/GFy w nich mają?
- nadal (autor: scoobydoo19911 | data: 10/05/09 | godz.: 22:43)
uważam że to coś od intela może być nawet zminiaturyzowanym 386 i miećź pierdyliard gflops a bez dobrych sterowników to i tak będzie kupa(podobnie było z 7950gx2 miał być hit a był shit bo nie miał dorych sterowników) Sajronie.
Markizy może jestem w błedzie ale z gtx295 raczej nie zrobisz tri sli skoro dwie dają quad sli a ta technologia na więcej nie pozwala tak przynajmniej pozwalają sterowniki
- MariuschM! (autor: Sajron | data: 10/05/09 | godz.: 22:47)
Intel ma zamiar wsadzic takie 4 karty do jednego kompa. A wtedy to będzie 4X4Tflops=16Tflops na jednego kompa!
Czujecie tę moc? Ludziki czy czujecie? bo z rozumieniem to ja widze że kiepsko u was jest.
rainy!
jak to "cudo" będzie się programować.
NORMALNIE! heh
gry będzie się pisac tak jak teraz czyli pod DirectX/OpenGL a aplikacje typu GPGPU
językiem C++.
idę stąd bo wy kompletnie nie znacie się, nie mój poziom.
narka luzerzy!
- rozumiem (autor: scoobydoo19911 | data: 10/05/09 | godz.: 22:51)
że ta karta od intela potencjalnie będzie super mocna ale co to da bez sterowników i wsparcia , optymalizacji ze strony producentów softu
- @Sajron (autor: MariuschM | data: 10/05/09 | godz.: 22:54)
nom lepiej idź... prosiłem cię o wzór którym to obliczyłeś a ty nadal swoje...
no to skoro chcą włożyć 4 takie do jednego kompa to aż dziwne bo z tego co widziałem na planach z larrabee to będzie on posiadał tylko jeden procesor graficzny a nie 4
chyba że zrobią 4 sockety w jednym kompie a to już będzie kompletny żal...
tak w ogóle to co tak naraz zmieniłeś zdanie
najpierw gadasz że będzie to miało 3,82Tflops a teraz wyjeżdżasz z 16 bo pokazano ci ze 2 Hd4870x2 mają trochę więcej niż te 3,82...
wiesz co piszesz jakbyś był dzieckiem w wieku 15lat... sorki ale dla mnie nie jesteś informatykiem i nie zasłużyłeś na ten tytuł...
- zaczynam (autor: scoobydoo19911 | data: 10/05/09 | godz.: 22:58)
Sajrona rozumieć przecież on pisze o wydjności w obliczeniach zmienno przecinkowych a jeżeli się dobrze orientuje to obecne karty mają wydajność mierzoną przy obliczeniach stało przecinkowych
- @scoobydoo19911 (autor: MariuschM | data: 10/05/09 | godz.: 23:00)
a ty dalej z tymi sterownikami....
chłopie posłuchaj
Intel połączył się z Nvidią
Nvidia posiada super programistów układowych i Intel to wykorzysta do swoich celów
jeśli ci to nie wystarczy to spróbuję ci dalej udowadniać że sterowniki do tego nie odgrywają w tym żadnej roli bo mają je już zapewnione
- @MariuschM (autor: rainy | data: 10/05/09 | godz.: 23:01)
Sądząc po jezyku ostatniej wypowiedzi to może rzeczywiście mamy do czynienia z nastolatkiem - pewnie z niego taki inżynier jak ze mnie Chińczyk.
- MariuschM! (autor: Sajron | data: 10/05/09 | godz.: 23:09)
nie ważne czy zasłużyłem czy nie, ważne że mam ten tytuł i to się liczy! ty wiesz co się liczy? szacunek dzieci ulicy!
- @Sajron (autor: rainy | data: 10/05/09 | godz.: 23:17)
To możesz nam zapewne powiedzieć jaką uczelnie skończyłeś, na jakim kierunku i tym podobne "drobiazgi".
- @Sajron (autor: MariuschM | data: 10/05/09 | godz.: 23:18)
dobrze powiedziałeś szacunek DZIECI ulicy!!!
może na ulicy jesteś inżynierem ale nie w rzeczywistości
po za tym co raz to bardziej się pogrążasz... samym tym zdaniem "szacunek dzieci ulicy!" można stwierdzić że jesteś nastolatkiem
osoby które są dojrzałe intelektualnie (a powinieneś taką osobą być skoro jesteś inżynierem) nie używają takich sformułowań które właśnie użyłeś
tak na przyszłość... dla informatyka nie liczy się szacunek ludzi z sąsiedztwa
informatyk szczyci się tym że inni informatycy mają do niego szacunek bo potrafią ocenić i wiedzą jak bardzo na niego zapracowałeś sobie
- MariuschM (autor: scoobydoo19911 | data: 10/05/09 | godz.: 23:19)
powiedz mi niby kiedy intel miał fuzje z nvdią
- @rainy (autor: MariuschM | data: 10/05/09 | godz.: 23:22)
nie musi nam tego powiedzieć... to jest nieistotne
może powiedzieć ze skończył studia na uniwersytecie Jagielońskim w Krakowie a to i tak nic nie znaczy a jak wiadomo uważa się ten uniwersytet za najlepszy w Polsce co dla mnie jest czymś śmiesznym
ważne jest to co nam teraz pokazuje a jak narazie nie zachwyca swoimi wypowiedziami
- @scoobydoo19911 (autor: MariuschM | data: 10/05/09 | godz.: 23:27)
nie było żadnej fuzji
nie jestem do końca obeznany w ich sprawach ale często słychać o współpracy intela z Nvidia
- nie (autor: scoobydoo19911 | data: 10/05/09 | godz.: 23:30)
wydaje mi się żeby tak dobrze współpracowali skoro co chwile obie korporacje pozywają się do sądu
- a co (autor: scoobydoo19911 | data: 10/05/09 | godz.: 23:32)
do uczelni to informatyka najlepsza jest w poznaniu i w warszawie
- .:. (autor: Shneider | data: 10/05/09 | godz.: 23:35)
Sajron - jestes moim wielbicielem, pobiles pana borg18.
Czy moge zostac Twoim uczniem? Nauczysz mnie czegos o procesorach, aby moja wiedza przekraczala wiedze wszystkich tutaj zgromadzonych.
ommm ommmm ommm omm o wielki Sajronie ommm ommmm ommm....
- @scoobydoo19911 (autor: MariuschM | data: 10/05/09 | godz.: 23:36)
pozywają się co chwilę do sądu bo jedna korporacja chce ograniczyć udział w rynku na swoją korzyść
a co do uniwersytetów to wszystkie 3 są uznawane za najlepsze w Polsce choć o tym z Poznania mało słychać ale swoje osiągi maja ale tylko w elektronice i mechanice
- między (autor: scoobydoo19911 | data: 10/05/09 | godz.: 23:38)
narodowe konkursy informatyczne najczęściej z polskich eki wygrywają ekipy z poznania , raz z uam raz politechniki i raz połączone
- @MariuschM (autor: Marek1981 | data: 10/05/09 | godz.: 23:40)
służę odpowiedzią odnośnie poszukiwania polskich specjalistów.
W Polsce uczy się bardzo dużo zbędnych, niepotrzebnych rzeczy ale dają one możliwość szybkiego przekierowania umysłu na nowe dziedziny. A co jeszcze:
- jesteśmy tańsi
- mamy cholerne kompleksy względem innych narodowości - jak ktoś twierdzi inaczej jest chyba idiotą
- jesteśmy pracowici i posłuszni
- na starcie jesteśmy bojaźliwi, upodleni - patrząc na tych co wybieramy w wyborach to sami jesteśmy sobie winni
- nie obciążamy kosztami ich państwa - studia są strasznie drogie.
- jesteśmy bardzo innowacyjni i kierujemy się instynktem tzn ciągle kombinujemy.
Na studiach dorabiałem sobie jako technik i widziałem jak wielkie cwaniaczki płaszczyły się przed obcokrajowcami bo mu rzucił 20$ :( A laski .... pożal się Boże.
Teraz pracuje w miarę dużej firmie i widziałem nieuzasadnione awanse Angoli czy Niemców a wyleciał tylko jeden bo wtopił projekt za 2kk. A Polaków widziałem jak wyrzucali za wzięcie głupiego radia. Sorry gdzie tu logika.
Reasumując jesteśmy tani, inteligentni, bojaźliwi, pracowici i naiwni.
Polak względem Polaka ma czystą wrodzoną zawiść. Więc jak pracujesz za granicą to tylko nie z innymi Polakami.
- Ludzie (autor: Nohrabia | data: 11/05/09 | godz.: 00:00)
pobijcie się gdzieś indziej.
Pan Sajron jest i może "ężynierem" ale zachowuje się jak szczyl, reszta nie lepsza, zamiast polemizować na temat, bluzgacie na siebie jak małe dzieci (a supermen jest lepszy od batmana!)
Zachowujcie się jak dorośli.... albo jak dzieci.
Jednak nie bądźcie dziećmi udającymi dorosłych bo to zawsze zabawnie wychodzi :)
- @temat (autor: Promilus | data: 11/05/09 | godz.: 06:46)
-scoobydoo - obliczenia stałoliczbowe podaje się w MIPSach a nie FLOPSach (sama nazwa wskazuje floating operations per second)
-Sajron - z tego co się orientuję nigdzie w Polsce nie uczą budować uP, a jedynie uczą ich architektur - pod kątem programowania i optymalizacji. Zamiast się tak podniecać technologiami prezentowanymi jak narazie na slajdach to wziąłbyś dziewczynę do parku czy na dyskotekę i się odstresował.
Powiedz mi zatem dlaczego intel nie zastosował CPU na IA64 wzbogaconego o VPU (vector processing unit) ? Bo ten byłby wydajniejszy, zużywałby mniej prądu...no ale nie można by go użyć jako 'procesorów' w systemie prawda? To teraz...PCI-E 2.0 16x - przepustowość rzędu 8GB/s w jedną stronę. Jak chcesz obliczeniami nakarmić 16-48 rdzeni przez taką magistralę? Pewnie, można napchać danych do pamięci na karcie i dalej niech już karta sama sobie radzi - niemniej automatycznie powoduje to konieczność zastosowania olbrzymiej pamięci - i do tego szybkiej. Wreszcie dochodzimy do punktu kulminacyjnego - intel ma blade pojęcie jak zrobić wydajne ROP i TMU, a te właśnie elementy będą nadal w strukturze chipu - tego intel swoimi obliczeniami nie przeskoczy bo filtrowanie i teksturowanie by moc obliczeniową larrabee w mgnieniu oka zjadło.
No i dochodzimy do sedna sprawy - obecny high end jednoukładowy to okolice 1200zł, larrabee intela będzie co najmniej kilka razy droższe. Sam intel stwierdził, że ta karta będzie do zastosowań profesjonalnych i tu pies pogrzebany - nie jest konkurencją dla Radeonów i GeForce a Quadro, Tesli i FireStream
- A propo (autor: kretos | data: 11/05/09 | godz.: 09:30)
newsa:
z tych 210 mln 140 zostało wydanych na zabawy związane z opcjami i akcjami - nie są to straty wynikające z produkcji. I udział nV w rynku desktopów zwiększył się z 63 do 69%. Gdyby nV nie miala rezerw finansowych to nie decydowalaby sie na wydanie 140mln baksow na takie cele.
http://www.nvidia.com/object/io_1241728875943.html
- Promilus (autor: Dzban | data: 11/05/09 | godz.: 10:21)
Ropy mają być obsługiwane softwarowo przez procesory x86 na larrabe więc będzie wolniej niż przez specjalizowane układy
- McMumin (autor: Dabrow | data: 11/05/09 | godz.: 10:53)
viva la Zune (-;
- /bump (autor: Remek | data: 11/05/09 | godz.: 11:01)
...
- @Dzban (autor: Promilus | data: 11/05/09 | godz.: 12:31)
To tego akurat wcale nie rozumiem - w końcu AA bazuje na próbkach sąsiednich pikseli, prawda? W takim razie FSAA8x w trybie software w rozdzielczości 1920x1200 zabije ten układ prędzej niż cokolwiek innego!
- Promilus! (autor: Sajron | data: 11/05/09 | godz.: 22:13)
Co ty gadasz? Larrabbe jest przede wszystkim konkurentem dla Radeonów i Geforców bo jakby nie był to by nie bawili się w dodawanie specjalizowanych jednostek do układu. Larrabee ma przecież dedykowane jednostki TMU które potrafią 40x szybciej wykonac kompresje/dekompresje czy filtrowanie niż przy użyciu zwykłych jednostek ALU. A to że układ potrafi obliczac też kod x86 to potraktuj to jako extra bonusik do zastosowań specjalnych :P
To że układ nie ma ROPów to nic wielkiego.
Z wydajnoscią przeszło 4TFlopy to można spokojnie ropy zasymulowac a i wydajności pozostanie jeszcze sporo nawet na zasymulowanie twójego mózgu in real time!.
buhahaha
- Promilus! (autor: Sajron | data: 11/05/09 | godz.: 22:59)
"Powiedz mi zatem dlaczego intel nie zastosował CPU na IA64 wzbogaconego o VPU (vector processing unit) ?"
o LOL ty wogóle wiesz co to jest VPU i do jakiego typu aplikacji jest szczególnie przydatne? Silnik wektorowy jest jedynie przydatny do aplikacji typu VISUAL jak np. gry czy przetwarzanie wideo które wykorzystują równoległe przetwarzanie na istrukcjach wektorowych.
Do zastosowań serwerowych do jakich był projektowany Itanium to by nie miało najmniejszego sensu. Aplikacje serwerowe są pisane kodem seryjnym a większosc operacji jest typu scalar.
- Sarjon (autor: Dzban | data: 11/05/09 | godz.: 23:07)
teraz pytanie z innej beczki. To po co intel wprowadzi rozszerzenia wektorowe do procesorów 32nm?
- jeszcze o larrabe (autor: Dzban | data: 11/05/09 | godz.: 23:09)
to że nie TMU będą stałe oznacza że marzenie o przeprogramowaniu układu na nowszy DX nie będą realne bo TMU też będą musiały być zmienione i jedna z zalet larrabe odpada.
- Dzban! (autor: Sajron | data: 11/05/09 | godz.: 23:42)
po to żeby aplikacje typu visual mogły byc łatwiej programowalne. instrukcje AVX mogą byc wykonywane zarówno na klasycznym silniku FPU np. 128bit MULL+ADD jak i na VPU 512bit 16wide. Wszystko zależy od szerokosci instrukcji.
TMU zmieniane? a po co? buhaha
- @Sajron (autor: Promilus | data: 11/05/09 | godz.: 23:58)
No to popisałeś się wiedzą...te super dedykowane TMU o wielokrotnie większej wydajności....nie są wydajniejsze od TMU ATI czy NV. Po prostu TMU samo w sobie ma na stałe zakodowane sprzętowo takie funkcje, których emulacja na ALU byłaby zbyt zasobożerna. Teraz FSAA - 1920x1200 po przekątnej jedna krawędź - sqrt(1920^2+1200^2)*8 próbek - tylu pixelom trzeba nadać odpowiedni kolor, pomnóż to jeszcze przez rozsądną ilość fps i wiedz że w prawdziwej scenie krawędzi jest znacznie więcej. Oto i nagle cała wydajność Larrabee legła w gruzach (a gdzie usuwanie powierzchni niewidocznych i parę innych rzeczy, które tradycyjnie są wykonywane sprzętowo). VPU to nic innego jak procesor wektorowy - ten jest i był stosowany w wielu superkomputerach (kłania się HPC) czyli aplikacje wideo to bynajmniej nie jedyna dziedzina w której się sprawdza.
Do cieniowania i transformacji geometrii x86 się nie nadaje i VPU niewiele w tej dziedzinie jest w stanie zmienić. Jeśli chodzi o symulacje sieci neuronowych drogi Watsonie to akurat dzięki akceleracji CUDA na GTX280 czas symulacji kilkunasto milionowej sieci (uboższej niż szczura) to z kilku miesięcy skraca się do kilku tygodni - zatem realtime symulację mojego mózgu wsadź między bajki przez kolejne 20 lat. A może więcej.
Zaś że to ostatnie zdanie lekko mnie podkur*** to teraz napiszę - w przypadku twojej sieci neuronowej to i HD4670 wystarczyłby w zupełności a i tak do F@H jeszcze sporo by zostało. Dobra - rozumiem że SSN i logika rozmyta nie wszędzie jest brana na poważnie, u ciebie najwyraźniej z przymrużeniem oka wykładowca temat potraktował skoro takie herezje piszesz. Oczywiście zaślepił cię intel że nie pamiętasz takich procesorów jakby nie było serwerowych czy stricte obliczeniowych jak ALPHA czy SPARC (obsługujący w niektórych modelach do 16 wątków na rdzeń :P). Najszybszy komputer świata Roadrunner na Opteronach zarządzających kodem dla Cella (jakby nie było wyposażonego w 8 wektorowych jednostek).
@Dzban - a co byś chciał w TMU zmieniać - od kilkunastu lat ten element się nie zmienił, jak nakładał tekstury i filtrował tak nakłada i filtruje - funkcje sprzętowe działają cały czas tak samo. Rozwój DX obecnie to w zasadzie tylko i wyłącznie rozwój jednostek cieniujących (zwiększanie możliwości, wydłużanie programu, większa elastyczność) - teraz od kilku lat pojawia się 'nowość' czyli dodatkowy element w GPU jakim jest Tesselator.
- Brawa (autor: AmigaPPC | data: 12/05/09 | godz.: 02:18)
dla tego Pana :)
Bardzo logiczne i spójne "wyprostowanie" @Sajrona i nie tylko :)
- @promilus (autor: Marek1981 | data: 12/05/09 | godz.: 07:12)
THX za to że udowodniłeś mu moje stwierdzenie:)
post47 "Co do twojej wypowiedzi to przemyśl dokładnie co napisałeś bo widze że tylko lubisz czytać broszury.............."
- Jest już zdjecie LARRABBEE!!! O BOZE!!!! dziękuje że mi zsylasz w tym momencie. (autor: Sajron | data: 12/05/09 | godz.: 18:21)
http://www.pcgameshardware.de/...Grafikkarte/News/
hehe macie debile i się podniecajcie :P
i kto tu rządzi promilus :P hehe
Z tego co widac układ ma dokładnie 32rdzenie. 32*2.5GHz*16*2flops= 2560GFlops!!!
- Sajron (autor: Markizy | data: 12/05/09 | godz.: 18:42)
Ja nie moge :P
Jak intel ma emulować na tym działanie grafiki to wydajność ta w GF możesz śmiało podzielić przez 5 albo i więcej, bo emulacja często odbywa się ze stratami. I dopiero wtedy uzyskasz układ którego wydajność będzie odpowiadać wydajności układów ATI i Nvidi. A jako przykład to zastanów się dlaczego do uruchomienia gierkę z PS2 na PC potrzeba mocnych kompów w stosunku do procka w PS2.
- Sajron (autor: Markizy | data: 12/05/09 | godz.: 18:51)
a gdzie zdjęcia karty? bo zdjęcia wafla z układami larrabee już były, wiec szału nie ma :P
I dlaczego dalej twardo sie trzymasz ze częstotliwość układu to 2,5GHz jak nigdzie nie podali tej informacji ? podali informacje o 1Ghz.
To co ty odstawiasz to wróżenie z fusów i na dodatek wszystkich obrażasz!
- o i jeszcze jedno (autor: Sajron | data: 12/05/09 | godz.: 18:58)
Na podstawie słabej wydajności IGP wywnioskowałeś że Intel robi słabe TMU. lol
Nie ośmieszaj się bo akurat TMU w IGP to Intel ma dobre w dodatku w Larrabbe może byc jeszcze lepsze.
Odnośnie ROPów to Intel ma specjalny algorytm do procesu rasteryzacji czy MSAA żeby nie zatkac wydajności jednostek Pentium. :P Na slajdach udokumentowali że proces resteryzacji to mniej niż 10% ogólnego czasu jaki układ potrzebuje do renderwoania danej gry. Tak więc do symulacji ROPow wystarczą z 2 układy Pentium. :P
- @Sajron (autor: MariuschM | data: 12/05/09 | godz.: 19:08)
a kiedy podasz nam wzór na obliczanie ile dany układ ma flopsów?? bo strzelać to ja też mogęXD i powiem wam że najsłabsza karta którą ATI teraz wyda będzie miała 10Tflops XDXD
i teraz będę się o to z każdym kłócił choć nie mam żadnych dowodów i wzorów na to że tyle będzie miał....
ja p.... uzasadnij niekiedy te liczby które podajesz
a tak przy okazji te rdzenie to sam policzyłeś bo nie chciało mi sie czytać a nigdzie żadnej ilości rdzeni w liczbach nie pisało
- @Sajron (autor: Promilus | data: 12/05/09 | godz.: 19:12)
I co z tego wynika? No bo jak narazie nie widziałem tej mega wydajności w działaniu w przeciwieństwie do HD4890 czy GTX285.
10 rdzeni Larrabee taktowanych 1GHz ma w teorii wystarczyć do 60FPS w HL2:EP2 w 1600x1200 4xAA - fajnie, szkoda że HD4850 robi w podobnej rozdzielczości (1680x1050) znacznie więcej FPS ;) W bardziej wymagających tytułach Larrabee jeszcze mniej błyszczy. Prawdą jest że architektura jest dość nietypowa i całkiem imponująca, ale z istniejącymi konstrukcjami do grania nie może się mierzyć. Jak intel ma doświadczenie z x86 co zaowocowało właśnie takim wyborem rdzeni do Larrabee, tak AMD(ATI) i NV mają doświadczenie z GPU. I wiedzą co robią. Larrabee może być przydatne w stacjach graficznych czy do HPC gdzie pewnie wyprze teslę ale do gier się nie nada.
- Sajron (autor: Markizy | data: 12/05/09 | godz.: 19:13)
broszury Nvidi odnośnie GF FX były piękne, i co to ten układ miał robić, wszyscy wiemy co wyszło, kolejna wpadka to ATI R600 jaka to miał mieć wydajność wyszło kiepsko, AMD i K10 jaki to zysk wydajności nie wyszło. Intel i pierwsze pentium 4 jaki to przełom miał być, i wyszła tragedia.
Co do pracy układu to ma wąchać się od 1,7 do 2,5 GHZ, a wydajność od 1,7 GFlopsa do 2,5 Gflops, przy 16 rdzeniach, przynajmniej tak wnioskuje z artykułu
http://pclab.pl/art33400.html
I pamiętaj że układ w 45nm jest sporo większy od GT200 w 65nm, wiec ciężko to widzę.
Ciekawe jak chcesz symulować te ropy przy użyciu Pentiumów, i skąd masz wyliczenia ze takie 2 powinny zastąpić ile ropów 2,3,4 a może 5 ?
Jak na dzień dzisiejszy układ larrabee to jest fikcja nauka, dopóki nie będzie prototypu działającego, pokazanego na żywo to i lewych przecieków na temat jego wydajności to można bajki pisać.
- @Sajron (autor: Promilus | data: 12/05/09 | godz.: 19:19)
Nie pisałem, że intel ma słabe TMU, tylko że nie ma lepszego niż ma AMD czy nvidia - a to różnica. Nadinterpretacja z twojej strony.
Algorytm algorytmem, a jak to będzie wyglądać w praktyce to inna sprawa - w końcu chyba CFAA/CSAA mają swoje wady w różnych grach, tu coś błyska, tam coś świeci...Weź zapuść Quake z shaderami gdzie CPU liczy shadery - zapcha ci nawet i7 (tak, takie konwersje są, poszukaj na sourceforge) a gdzie tam antialiasing programowy...
@MariuschM - 1 ALU 2FLOPS/Hz, w jednym rdzeniu jest 16ALU. Teoretyczna wydajność jak najbardziej słusznie przedstawiona przez Sajrona...u AMD: 800SPU (ALU) po 2FLOPS/Hz
RV770XT: 750MHz*2FLOPS/Hz*800=....1.2TFLOPS
- @Promilus (autor: MariuschM | data: 12/05/09 | godz.: 19:45)
tylko ja to chciałem usłyszeć od Sajrona gdyż on jest inżynierem i tym się interesuje więc chciałem zobaczyć jego wiedzę...
ale jedna rzecz mi nie pasuje... jeśli 1 ALU to 2Flops/Hz a w jednym rdzeniu jest 16 ALU to wychodzi że w jednym rdzeniu będzie 32Flops/Hz a ma być 32 rdzenie czyli 1024Flops/Hz
inaczej mówiąc Larrabee będzie miał 1Tflops
więc gdzie są te 16Tflops które Sajron obiecywał??
wiem że pewnie coś pominąłem no ale człowiek uczy się na błędach więc poprawcie mnie:P
- Promilus! (autor: Sajron | data: 12/05/09 | godz.: 19:49)
Nie widziałeś cacka w działaniu bo jeszcze premiery nie było. Co ty myślisz że odrazu mają wszystkie karty na stól odkryc? Larrabee ma by konkurentem dla RV870 oraz GT300 wiec porównywanie go do dzisiejszych akceleratorów mija się z celem.
Układ będzie miał nie 10 a 32 rdzenie w dodatku zegar w okolicach 1.7GHz-2.5GHz.
Tak więc pomnóż te 60 klatek razy 8 to będziesz miec 480 klatek :P
Pozatym obecny Larrabee to tylko pokaz próbny. Intel już w przyszłym roku przechodzi na wymiar 32nm a wtedy to jak nic wypusci z 64 rdzenie. 64*3GHz*16*2= 6144GFlops!!!. Układ taki by generował z 1152 klatki w HL2 przy założeniu liniowej skalowalnosci. Wtedy to taki HD4850 wypada blado.
- @Sajron (autor: Promilus | data: 12/05/09 | godz.: 20:02)
'w dodatku zegar w okolicach 1.7GHz-2.5GHz.'
To tylko twoje i paru fudzillopodobnych typów domysły.
'Układ taki by generował z 1152 klatki w HL2 przy założeniu liniowej skalowalnosci. Wtedy to taki HD4850 wypada blado' szkoda że symulacje pokazują nasycenie (utratę liniowego wzrostu wydajności) powyżej 32 rdzeni. Teraz powiedz mi ile to będzie tranzystorów ten Larrabee a ja ci powiem gdzie go sobie możesz włożyć (RV790 <1mld tranzystorów przy 1.36TFLOPS FP32)
- Promilus! (autor: Sajron | data: 12/05/09 | godz.: 20:22)
10 rdzeni Larrabee ma powierzchnie 140mm2. czyli 32 rdzenie mają 448mm2 w 65nm. Jako że układ ma by produkowany w 45nm to powierzchnia jego będzie mniejsza o 30-50% w zależności od stopnia miniaturyzacji więc 224-314mm2 to nie tak dużo. :P Przy dobrych wiatrach układ może miec mniejszą powierzchnie od rv770 który ma 280mm2.
- Sajron (autor: Markizy | data: 12/05/09 | godz.: 20:30)
gdzie intel podał dane odnośnie ile jeden z jego procesorów będzie miał powierzchni ? Ja słyszałem o powierzchni 6xxm^2. Druga sprawa w larrabee będą ropy takie jakie widzimy w układach ati, nvidi i intela. A trzecia rzecz częstotliwości pracy układu są obecnie przewidywane, ale jakie będzie ten układ mógł osiągnąć to się też okaże, przy petnium 4 zapowiadali że osiągną 10Ghz, i nic z tego im nie wyszło.
I widzę że co porównanie wydajności ty sukcesywnie podnosisz częstotliwość pracy larrabee układy który tylko inżynierowie intela widzieli na oczy.
Pochwal się tym swoim źródłem bo aż jestem ciekawy, czy to jest jakiś konkretny serwis.
- mam (autor: scoobydoo19911 | data: 12/05/09 | godz.: 20:30)
pomysl może wrócimy do tematu newsa a Larrabee pkłócimy się jak będzie news bezpośrednio o nim, bo inaczej ta rozmowa nie ma zbyt dużego sensu
- scoobydoo19911 (autor: Markizy | data: 12/05/09 | godz.: 20:40)
można by było, ale inna alternatywa jest, po prostu wyłączmy kompy i wyjdźmy na zewnętrza :D
Albo ekstremalny przypadek spalmy AMD z Nvidia albo samego Intela i problemy się skończą :D
- @Markizy (autor: scoobydoo19911 | data: 12/05/09 | godz.: 20:47)
z tym wyłączeniem kompów to najlepsza opcja, trzeba się przecież dotlenić i spotkać się każdy ze swoją ekipą i trochę sobie pobanglać po mieście
- ale (autor: scoobydoo19911 | data: 12/05/09 | godz.: 20:49)
to nie dzisiaj (przynajmniej dla mnie po praktykach jestem wymęczony)
- Markizy! (autor: Sajron | data: 12/05/09 | godz.: 21:00)
Szacuje powierzchnie tego 32rdzeniowca w okolicach 300mm2. Zegar 2GHz to bez problemu zrobi skoro nędzna Nvidia może puszczac swoje proste SP w okolice 1.8GHz to dlaczego Pentium z lepszym potokiem i lepszą technologią 45nm by nie mógł osiągnąc 2-2.5GHz?. TDP układu to 3.2x C2D 65TDP czyli 208TDP w 65nm co da jakieś 100-150TDP w 45nm. Plus kilka watów GDDR5.
- @Sajron (autor: rainy | data: 12/05/09 | godz.: 21:10)
Drogi, "inżynierze", przestań wypisywać te bajeczki - czterordzeniowy i7 920 taktowany zegarem 2,66 GHz ma TDP na poziomie 130 W - jest co prawda bardziej skomplikowany jeśli chodzi o architekturę.
- @Sajron (autor: Promilus | data: 12/05/09 | godz.: 21:10)
Szacuj dalej...i7 jest w 45nm, zobacz z ilu tranzystorów jest zbudowane. Porównaj z ilością tranzystorów Larrabee a następnie szacuj TDP, ok?
- @Promilus (autor: rainy | data: 12/05/09 | godz.: 21:14)
Larrabee ma mieć podobno 1,65-1,75 mld tranzystorów czyli 2,5 raza więcej niż Nehalem ale dla Sajrona to nie problem - nie będzie się przejmował drobiazgami.
- naszą (autor: scoobydoo19911 | data: 12/05/09 | godz.: 21:24)
"debatę" można porównać do powiedzenia "ja ci mów a ty zdrów"
- Larrabe ma od 5 do14 faz. (autor: Sajron | data: 12/05/09 | godz.: 21:30)
Poza tym Intel ma o wiele lepszą szybkosc przełączania tranzystora w swoim procesie 45nm w porównaniu z 55 TSMC co rzutuje na częstotlowosc układu.
Intel 45nm:
1360 µA/µm nFET drive current
1070 µA/µm pFET drive current
TSMC 28nm:
1360 µA/µm NMOS transistor
960 µA/µm PMOS transistor
TSMC nawet z procesem 28nm ma problemy z dogonieniem Intela 45nm.
- Promilus! (autor: Sajron | data: 12/05/09 | godz.: 21:45)
lol to żeś wyskoczył z tym porównaniem.
i7 to inna bajka ,nie ten świat kolego więc puknij się w czoło :P
10 rdzeni larrabe ma 65TDP czyli cały układ napewno nie będzie miec więcej niż 200TDP a ilosc tranzystorów to mnie nie interesuje bo to nie od ilości tranzystorów zależy TDP układu.
- @Sajron (autor: Promilus | data: 12/05/09 | godz.: 21:55)
Rozumiem, że wg twojej pokrętnej teorii tranzystory budujące ALU w Larrabee będą w 45nm technologii wyglądać i zużywać zupełnie inne ilości energii niż 45nm tranzystory budujące ALU (i cache) w i7? Sorry ale to ty weź sobie tacę i puknij się w glacę, a potem weź koło i puknij się w czoło.
- Promilus! (autor: Sajron | data: 12/05/09 | godz.: 22:10)
ale gdzie ty masz podaną liczbę tranzystorów Larrabee? najpierw podaj mi jej dokładną ilośc a potem się pluj co do TDP układu. :P
- @Sajron (autor: Promilus | data: 12/05/09 | godz.: 22:15)
To ty podałeś TDP na poziomie 140W, a ja się pytam skąd gdy jeszcze niewiele wiadomo... Natomiast wiadomo, że układ będzie zbudowany z większej ilości tranzystorów niż i7 - a to już rzuca trochę światła na TDP.
"losc tranzystorów to mnie nie interesuje bo to nie od ilości tranzystorów zależy TDP układu"
No nie, a troszkę wcześniej pisałeś jakie to tranzystory intela nie są zajebiaszcze bo w 45nm pobierają mniej prądu niż TSMC 28nm ;) To weź się zastanów nieco!
- @Promilus (autor: rainy | data: 12/05/09 | godz.: 22:16)
Już wiesz dlaczego Sajron dostał bana na PCLab.
@Sajron - liczba tranzystorów nie ma znaczenia dla TDP - to naprawdę interesująca teoria.
Btw, słyszałeś o procesorze Intela o nazwie Tukwila?
2mld tranzystorów, cztery rdzenie, zegar 2 GHz, TDP 170 W (65nm) - mocno opóźniony jesli chodzi o wprowadzenie na rynek - najwyraźniej kłopoty natury technicznej.
http://arstechnica.com/...llion-transistor-cpu.ars
- @Sajron (autor: rainy | data: 12/05/09 | godz.: 22:20)
Liczba tranzystórów Larrabee - widziałem trzy wartości: 1,65/1,70/1,75 mld - 2 razy z hakiem więcej niż Nehalem.
Można założyć TDP na poziomie 250-300 W (45nm).
- Promilus! (autor: Sajron | data: 12/05/09 | godz.: 22:23)
Z powietrza wziołęm te TDP wiesz. Qrna sam Intel powiedział że 10 rdzeni to nie więcej TDP niż 65, więc gratulacje dla ciebie jeśli masz czelnosc podważania słów samego Intela.
No powiedz mi dokładnie z ilu tranzystorów składa się te 32rdzeniiowe Larrabee? bo może się okaza że układ będzie miec niewiele więcej od Nehalema. wiec te moje szacowane 160-200TDP jest jak najbardziej na miejscu a nawet na wyrost.
- @Sajron (autor: rainy | data: 12/05/09 | godz.: 22:27)
Jeszcze jedno: powierzchnia Larrabee ma wynosić (szacunkowo) około 600 mm2 (45nm).
Dla porównania GT200 ma 576 mm2 (65nm) i około 400 mm2 (55nm).
Weź to sobie pod rozwagę.
- @Sajron (autor: Promilus | data: 12/05/09 | godz.: 22:27)
Pewnie, bezczelny jestem. Ale intel na SIGGRAPH nie miał nawet działającego egzemplarza w jakiejkolwiek technologii i posługiwał się symulacjami układu z superkomputerów (z uwzględnieniem opóźnień i paru innych rzeczy).
Oczywiście, jeśli założyć, że 10 rdzeni @1GHz to 65W to 32 rdzenie @2,5GHz to? Hmmm :P
- rainy! (autor: Sajron | data: 12/05/09 | godz.: 22:39)
wtedy w 2007 roku co pokazywali te 600mm2 to było w tech 65nm a Intel teraz ma 45nm więc podziel sobie to przez 2 i masz 300mm2. :P
Promilus!
Jasne 1GHz , w takim razie C2D też był taktowany 1GHz co przy takim zegarze dało by z 20TDP. :P
- @Sajron (autor: Promilus | data: 12/05/09 | godz.: 22:44)
Athlon64 underclocked czyli skręcony do 1GHz przy napięciu 0.9V pobierał z 8W - a świstak na to - niemożliwe!
Sorry miśku - manipulować to możesz kimś innym, ale ja za bardzo w temacie siedzę by ze mnie błazna robić :P
- Promilus! (autor: Sajron | data: 12/05/09 | godz.: 22:50)
8W? to tym lepiej. 2.5GHz*8W*3.2rdzeni=77TDP na układ.
nie masz szans ze mną ja tu rządze!
za bardzo kumaty jestem , jak narazie nie udało ci się wykazac że głupoty gadam:P
- @Sajron (autor: Promilus | data: 12/05/09 | godz.: 23:18)
Osoby postronne czytając komentarz 160, 162 i 163 zapewne będą uważały ZUPEŁNIE inaczej.
- .:. (autor: Shneider | data: 12/05/09 | godz.: 23:28)
Sajron - mozesz zakladac nowe konto, to juz sie wypalilo.
Wszyscy sa w bledzie tylko nie ty ;-)
- Shneider! (autor: Sajron | data: 13/05/09 | godz.: 00:25)
masz jakieś problemy z interpretacją slajdów intela?
proszę bardzo:http://www.twine.com/...arabee-architechture-paper
- @Sajron (autor: AmigaPPC | data: 13/05/09 | godz.: 00:42)
zacznij "ężynierze" odróżniać slajdy od rzeczywistości.
Mnie rera co Intel mówi, ponad 20 lat przepracowałem w tym interesie i pieprzenie jakoby TDP podane (czytaj wymarzone) przez Intela było zgodne z prawdą jest wierutnym kłamstwem*.
*Z wyjątkiem CPU Atom - lecz tutaj chipset daje ognia :)
- A wracając do tematu newsa (autor: AmigaPPC | data: 13/05/09 | godz.: 00:47)
nVidia płaci za niedocenianie przeciwnika,kotlety - lekceważenie klientów, braki technologiczne, "chore" zarządzanie i oszustwa, których się dopuszcza na każdym kupującym ich grzałki (vide TV-OUT).
- .:. (autor: Shneider | data: 13/05/09 | godz.: 01:49)
Sajron - a czy ja pisze o intelu czy dowolnie wybranej firmie? Zachowujesz sie gorzej jak bachor. Doskonale sie zaprezentowales na TPC i doskonale rozumiem za do dostales bana na labie. powodzenia w przyszlosci z takim nastawieniem :D
- Shneider! (autor: Sajron | data: 13/05/09 | godz.: 03:49)
Ale udowodnij mi że jestem w błędzie, dobra?
Jak narazie to nie masz żadnych podstaw do oskarżania mnie a mimo to robisz to.
Zachowuje się tak bo chce podtrzymac swoją rację. Co ty myślisz że ja swojego zdania nie mam?
- @Sajron (autor: Promilus | data: 13/05/09 | godz.: 07:27)
No to zaczniemy od końca
#163 - co ty liczysz? Kto ci powiedział że Larrabee będzie mieć TDP 3.2x większe niż C2D? W dokumentacji którą zaprezentowałeś o tym nie ma ani słowa. Znowu magiczne liczby z twojego mózgu wyskoczyły i tyle.
Dobra dalej:
#132 - no patrz, tak przejrzałem ten white paper i wiesz co? Sam intel ładnie zaprezentował że rasteryzacja sięga do 40% czasu przygotowania całej klatki, alpha blending zajmuje do 20% - a to tylko 2 rzeczy którymi normalnie zajmuje się ROP.
Twoje 10% jest zatem wyssane z palca. Udowodniłem że jesteś w błędzie, kilkukrotnie, a to że TY tego nie zauważyłeś to akurat mnie mało interesuje.
- .:. (autor: Shneider | data: 13/05/09 | godz.: 09:52)
Sajron - tutaj nie chodzi o to kto ma racje a kto nie.
Wchodze w komentarze i widze poziom ponizej onetu.
Nie podales zadnych konkretow, spierasz sie o kolor wlosow istoty pozaziemskiej ktorej nikt na oczy nie widzial.
Skoncz, bo sie niedobrze robi. Zblaznilesz sie wystarczajaca podczas klotni o wyksztalcenie i "szacowana" wydajnosc. Wybacz ale tego to nawet intel nie wie.
Chyba ze Twoj zawod to wrozka...
- @ wszyscy (autor: MariuschM | data: 13/05/09 | godz.: 12:44)
powiedzmy ze nikt nie ma racji i będzie tak najlepiej
Sajron nie ma racji bo aktualnie nie ma żadnych podstaw przedstawiających larrabee
inni tak samo nie mają racji bo też nic nie wiedzą jakie będzie larrabee
zobaczymy co przyszłość przyniesie ale możemy się spodziewać że larrabee w momencie gdy wyjdzie nie będzie najlepszą kartą która będzie istniała ponieważ ATI jeszcze w tym roku wyda serię HD5*** i znając ich można spokojnie powiedzieć że do wydania larrabee powstaną jeszcze lepsze karty graficzne niż te które są planowane na ten rok
i koniec z kłótnia chyba że chcecie dobić 200 postówXD
- przy okazji (autor: MariuschM | data: 13/05/09 | godz.: 18:48)
chciałem podać że egiełda przy artykule na temat GT300 podała wielkość larrabee a oto link:
http://www.egielda.com.pl/?str=news&id=4333
- Promilus! (autor: Sajron | data: 13/05/09 | godz.: 19:31)
prosze cię nie rozwalaj mnie! :D
co do poboru mocy to przeczytaj sobie sekcje nr3 tab1 to zobaczysz że 10 rdzeni larrabee pobiera taka samą ilosc prądu jak i powierzchni co C2D. stąd moje 3.2x bo masz 32rdzenie.
ty lepiej nie przglądaj tego papieru tylko go przeczytaj , co z tego że w grze FEAR rasteryzacja zajmuje 30% skoro obróbka piksel szader jest o połowe mniejsza niż w innych grach. na to samo wyjdzie bo wolne jednostki bedzie mozna przeznaczyc do obrobki rasteryzacji. wszystko jest dynamicznie przydzielane według potrzeb wiec naucz sie czytac grafów ze zrozumieniem. :P
MariuschM!
prosze cie nie podsuwaj mi tych bredni!
ten wafel co intel demonstrowal 2lata temu to byl w 65nm a teraz mają 45nm wiec powierzachnia larrabee bedzie o jakies 40% mniejsza niż te 600mm2. stawiam na ~
350mm2.
- @Sajron (autor: MariuschM | data: 13/05/09 | godz.: 19:36)
czytaj z zrozumieniem!!!
tam dokładnie napisali że 600mm2 w procesie 45nm!!!
więc chociaż proces się zmienił to powierzchnia została ta sama
gdyby pisało że 65nm ma 600mm2 to ok ale podali że 45nm
po za tym jak chcesz podawać jaka bedzie powierzchnia to według proporcji będzie ona wynosiła 415mm2 a nie 350mm2 jak to teraz podałeś a wcześniej 300...
- @Sajron (autor: Promilus | data: 13/05/09 | godz.: 19:58)
Taa. No to 65W *2,5*(1+vcore diff)^2*3.2 - pasuje? ;) Dobrze dobrze, niech będzie realny pobór mocy (dla C2D jakieś 30W), to i tak daje wartości ponad 240W. I jak? Znów coś ci nie będzie pasować? Ah, co do drugiej części twojego komentarza, czyli jak będziemy mieli skomplikowaną scenę z skomplikowanym modelem cieniowania to może mocy braknąć dla pseudoROP? Nie? Zatem braknie do shaderów...jedno z dwóch. Shadery AMD/NV nie robią nic innego jak modelują oświetlenie i ewentualnie liczą fizykę, AI czy trasformacje geometrii, a o wydajność ROP się martwić nie muszą. Intelowi dochodzi optymalizacja danych przez HAL (driver) by zapełnić VPU, obsługa Z-buffera, usuwania powierzchni niewidocznych, AA, i w końcu rasteryzacja (a pewnie coś jeszcze przeoczyłem) - zatem ta super wypaśna moc obliczeniowa i tak w znacznej mierze będzie tracona. No, ale ty jesteś niereformowalny!
- MariuschM! (autor: Sajron | data: 13/05/09 | godz.: 21:56)
te zdjęcie co koleś trzyma wafel to jest z 2007 roku kiedy zrobili próbny test tego chipa w 65nm. niusmani zrobili z tego przekręt i wstawili stare zdjęcie i proces 45nm. Nie ma takie opcji żeby układ wogóle się nie zmniejszył po przejsciu na niższy proces 45nm!
65*65=4225
45*45=2025
2025/4225=48%
48%*600mm2=288mm2 idealna skalowalnosc
60%*600mm2=360mm2 zakładana skalowalnosc w rzeczywistosci
Promilus!
skoncz już se jaja robic bo to sie zaczyna nudne robic. dlaczego mieli by porównywac nie te same zegary larrabee i core2? preciez to by nie miało sensu i by nic nie mówiło. core2d jest taktowany od 2 GHz wzwyz wiec nie mam pojecia skad wzioles te 1GHz.
mocy nie zabraknie bo albo gra ma duzo obliczen piksel szader albo rasteryzacji. nie ma takich sytuacji ze tego i tego jest duzo, wszystko jest zbalansowane.
pozatym w przypadku rasteryzacji na larrabee to nie jest ona blokowana tak jak na ukladzie Nvidii kiedy to moze sie okazac ze 32ropy to za mało .Emulacja ropów jest bardziej elastyczna i efektowna gdyz uklad larrabee moze przydzielac znacznie wiekszą moc do obrobki rasteryzacji w zaleznosci od zapotrzebowania.
- @Sajron (autor: Promilus | data: 13/05/09 | godz.: 22:10)
A stąd że wszędzie tam wyłącznie dla prostoty obliczeń przyjęto 10 rdzeni i 1GHz (bo na pierwszy rzut oka widać ile jest 10x16 w przeciwieństwie do np. 24x16 czy 32x16 :P).
Rasteryzacja - chyba nie wiesz co to za proces nawet - inaczej byś takich bzdur nie pisał jak "albo gra ma duzo obliczen piksel szader albo rasteryzacji."
"pozatym w przypadku rasteryzacji na larrabee to nie jest ona blokowana tak jak na ukladzie Nvidii kiedy to moze sie okazac ze 32ropy to za mało " - pewnie, w jednej grze może Larrabee śmigać z wydajnością 36ROPów, w innej z wydajnością 6ROPów - a wtedy to niestety kupa straszna ;) Emulacja elastyczna jest, ale efektywna bynajmniej :)
- @Sajron (autor: MariuschM | data: 13/05/09 | godz.: 22:15)
dziwnie to obloczasz
lepiej zrobić proste proporcje jak w podstawówce i teoretycznie wyjdzie prawidłowy wynik
600mm2-65nm
x-45
x=(600*45)/65
i wynik wychodzi 415mm2
z tego co wiem to technologię nie określa się jako wielkość kwadratową przez to też twoje obliczenia nie są prawidłowe
- no nie moge! (autor: Sajron | data: 13/05/09 | godz.: 22:23)
to jeżeli liczysz 1GHz to core2d z takim zegarem by miał z 20W a nawet mniej i na to samo wychodzi. po co dajesz takie głupie przykłady, myslisz że sie na to nabiorę?
a manipulowac to se mnie mozesz bo ja już spadam :P
to ty nie wiesz jak scena gry jest renderowana. zobacz sobie na wykres z FEAR który ma o połowe mniej do obliczen pixel szader. nie zastanawiało cię dlaczego tak jest? :p
ta jasne w jednej grze larrabee może śmigac z wydajnoscią 64ROPy a w drugiej z 128ROPow a Nvidia stoi zablokowana z 32 i ekcelerator się dusi.:P
- @Sajron (autor: Promilus | data: 13/05/09 | godz.: 22:30)
"ta jasne w jednej grze larrabee może śmigac z wydajnoscią 64ROPy a w drugiej z 128ROPow a Nvidia stoi zablokowana z 32 i ekcelerator się dusi.:P"
A może w drugą stronę, Larrabee z wydajnością 16 lub 24ROP a nvidia zawsze 32 ;)
FEAR to stara giera, tak jak i HL2 - pomyśl jak będzie z crysisem ;) larrabee braknie wszystkiego...no może oprócz 512 bitowej magistrali ;)
- Promilus (autor: Sajron | data: 13/05/09 | godz.: 22:41)
tyle ile ropow bedzie potrzebne tyle larrabee zrobi a nvidia się zesra jak gra bedzie wymagac więcej niż 32. u nvidii to jak szadery szybko przeliczą swoją robote to ropy bedą spowalniac układ. szadery bedą idlowac :P
- @Sajron (autor: Promilus | data: 13/05/09 | godz.: 22:43)
No patrz, ty się zatrudnij w NV w takim razie, będą takich mundrali potrzebować. NV od kilkunastu lat działa na tym rynku i chyba potrafiła sobie wypracować optymalne stosunki TMU:ROP:SP ;) No ale ty oczywiście wiesz lepiej :P
- Promilus! (autor: Sajron | data: 13/05/09 | godz.: 22:56)
Optymalne stosunki TMU:ROP:SP to może i Nvidia ma ale nie do każdej gry :P. każda gra wymaga innej mocy przerobowej poszeczgólnch jednostek tak wiec architektura Nvidii z ich stałymi jednostkami ROP jest mało elastyczna. nawet sama Nvidia sie do tego przyznała i zamerza zrezygnowac w pzryszlosci z dedykowanych elementow na rzecz w pelni programowalnej architektury takiej jak ma intel :P
- Sajron (autor: Markizy | data: 14/05/09 | godz.: 06:39)
skończ opowiadać już bajki o larrabee, i o tym jakie ono cudowne będzie. Bo nikt tej karty na oczy nie widział, ani nie widział egzemplarza co pracuje.
A co do slajdów, intel zapowiadał że p4 będzie osiągał 10GHz, i co z tego wyszło ?
- @Sajron (autor: Promilus | data: 14/05/09 | godz.: 07:13)
Taaaa. A intel zastosował fixed units czyli jednostki sprzętowe TMU bo chciał być elastyczny? ;) Wiesz czemu RSX nv przedstawiła jako posiadający moc obliczeniową 2TFLOPS, mimo iż shadery miały nieco ponad 200GFLOPS? Bo praktycznie cała reszta mocy to ekwiwalent nakładów obliczeniowych jakie musiałby wykonać CPU by zrobić to co robią sprzętowe jednostki - czy TMU, czy ROP. A RSX bazuje na 7 generacji GF, to pomyśl jak wielką moc trzeba by było by emulować TMU i ROP w GTX280 ;) i 10x48 rdzeni larrabee by mogło mieć z tym problemy. A NV jeśli się wypowiadała to nie w sensie by ROP zastąpić przez programowe rozwiązanie na SP, a ROP o konfigurowalnej architekturze...tak jak ATI TruForm ze sztywnymi algorytmami zastąpiło elastycznym bo programowalnym tesselatorem w R600. Nadal jest sprzętowa tesselacja, ale tesselator jako jednostka jest konfigurowalny. No ale mieszać to ty potrafisz :P
A wierz sobie w intela, powieś kalendarz z logo na ścianie i wal czołem 2x dziennie - twoja sprawa. Ale musisz wiedzieć to że tak jak oprócz chrześcijan, muzułmanów i żydów są też ateiści, tak oprócz fanów intela gładko łykających każde słówko, każdy slajd intela są realiści co nie uwierzą póki nie zobaczą. Intel w dziedzinie rozwiązań graficznych nigdy nie miał się czym pochwalić, a uważasz że przebojem zdobędzie rynek - jesteś niepoprawnym optymistą.
- Markizy! (autor: Sajron | data: 14/05/09 | godz.: 17:15)
p4 osiąga przeszło 8 GHz po OC więc ich zapowiedzi odnośnie 10GHz nie sa aż takie na wyrost. :P
Promilus!
Operacje na texturach mogą też byc wykonywane na rdzeniach tak więc intel jest elastyczny a nvidia sztywana i wogóle jakaś taka :P Do symulacji Ropów nie potrzeba teraflopów, kilkaset gigaflopsów to max wiec twoje dywagacje są wyssane z palca. :P
Programowalne ROPy u Nvidii? taaa już to widze, predzej je zastąpią przez SP niż coś takiego zrobią.
Intel nie był mocny w dziedzinie grafik bo takiego zamiaru niemiał aby wchodzic na ten rynek dlatego klepał po najmniejszej lini oporu integrowce. Do czasu! :D
- @Sajron (autor: Promilus | data: 14/05/09 | godz.: 17:42)
Do czasu, i niby teraz nie mając żadnych konkretnych inżynierów z doświadczeniem którzy zabłysnęli w historii akceleratorami graficznymi chce podbić rynek GPU...taaa, to tak jakby Fiat chciał samoloty zacząć budować i pobić wiodące firmy.
Śnij dalej
- Promilus! (autor: Sajron | data: 14/05/09 | godz.: 17:54)
taa a ty wiesz jakich oni tam mają inżynierów. jakbyś nie wiedział projektem larrabee zajmuje się wogóle inna ekipa niż ta od IGP. podobno nawet speców z 3Dlabs zaciągneli :P
- @Sajron (autor: Promilus | data: 14/05/09 | godz.: 19:13)
Wow, 3DLabs Wildcat..było z 8 jak nie 10 lat temu. Dziękuję za uwagę!
- Promilus! (autor: Sajron | data: 14/05/09 | godz.: 19:17)
czym większe doświadczenie mają spece tym lepiej :P
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|