TwojePC.pl © 2001 - 2024
|
|
Czwartek 11 sierpnia 2022 |
|
|
|
Intel stracił do tej pory 3,5 mld USD na opracowaniu kart graficznych Autor: Zbyszek | źródło: JPR | 20:34 |
(8) | Firma analityczna John Peddie Research zdecydowała się podsumować dotychczasowy biznes Intela związany z kartami graficznymi. Dział AXG (Accelerated Computing Systems and Graphics) Intela, zajmujący się opracowywaniem, produkcją i sprzedażą kart graficznych dla konsumentów oraz do zastosowań profesjonalnych / serwerowych został powołany w 2017 roku. Intel publikuje wyniki finansowe działu AXG począwszy od 1. kwartału 2021 roku, czyli okresu kiedy rozpoczął sprzedaż pierwszych kart graficznych, jakimi były DG1, będące faktycznie IGP wyjętym z procesorów Ice Lake (laptopowe Core 10. generacji) i zaopatrzonym we własne pamięci GDDR. W czasie tym, czyli w okresie ostatnich 6. kwartałów dział AXG Intela odnotował stratę w łącznej wysokości 2,1 mld USD.
Według John Peddie Research do tego należy doliczyć 1,4 mld USD wydane na prace projektowe i wynagrodzenia inżynierów w latach 2017-2020, a łączna strata Intela na opracowywaniu własnych GPU wynosi do tej pory 3,5 mld USD. Analitycy John Peddie Research wskazują też, że obecnie trudno stwierdzić, kiedy ta inwestycja może się Intelowi zwrócić. Według ich prognoz na pewno nie nastąpi do końca 2023 roku, a i po tym czasie wydaje się to na ten moment wątpliwe.
Zdaniem analityków JPR wszystko zależy od 2. generacji kart ARC (nazwa kodowa Battlemage) - tylko jeśli będzie to udana linia produktów, ma ona szansę na uczynienie działu AXG dochodowym i wyrównywanie dotychczasowych strat związanych z działalnością w sektorze GPU. Natomiast jeśli karty ARC 2. generacji nie będą niczym ciekawym, a do tego zadebiutują na rynku z dużym opóźnieniem (jak ARC 1. generacji) to John Peddie Research zaleca Intelowi zamknięcie działu Accelerated Computing Systems and Graphics, zakończenie dalszego generowania strat, i ew. sprzedaż działu lub opracowanych przez niego rozwiązań. |
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- Hmm (autor: kombajn4 | data: 12/08/22 | godz.: 09:30)
" i ew. sprzedaż działu lub opracowanych przez niego rozwiązań." noo jakby się znalazła jakaś ogarnięta firma to może może.
Swoistym kuriozum jest to że wydali karty ze sterownikami w fazie pre-alpha - bo inaczej się tego nazwać nie da. Podczas gdy od ilu? 20 lat? największy udział w rynku kart graficznych ma właśnie Intel za sprawą układów zintegrowanych... Ja rozumiem że nikt tam nigdy nie traktował optymalizacji w grach priorytetowo no ale wydawałoby się że w takiej sytuacji powinni mieć zespół ludzi potrafiących sprawnie napisać sterowniki tak żeby chociaż przyciski panelu sterownika działały. No bo takich drobiazgów jak to żeby dało się to zainstalować i odinstalować to już nawet nie wymagam. Tymczasem Intel odwalił chałturę jakby byli firmą która w życiu nie miała do czynienia z żadnymi układami graficznymi i programistów do pisania sterowników brali z ulicy.
- to jest raczej oczywiste że przy opracowywaniu nowych technologii. (autor: Qjanusz | data: 12/08/22 | godz.: 13:31)
są mniejsze lub większe straty.
Intel idzie bardzo szeroko, bo oprócz IGP, wdraża różnej wydajności karty graficzne do zabawy, do profesjonalnej pracy i do serwerów. Oprócz klasycznego 3D, mamy tam też autorski RT i wsparcie dla uczenia maszynowego. To dużo jak na debiut. Tego nie da się od tak w krzemie wygrzebać i napisać soft do obsługi.
Mam nadzieję że w Intelu nikt nie wpadnie na pomysł ubicia projektu, bo najgorsze mają już za sobą. Poza tym nie zapominajmy że Koduri jest wiceprezesem i jakiekolwiek zamknięcie projektu będzie bardzo mało prawdopodobne.
Najgorsze co się może w scenariuszu GPU ziścić, to potwierdzenie błędu w krzemie ARC i brak obejścia problemów w sterach DX1 i poniżej.
- @Qjanusz (autor: rookie | data: 12/08/22 | godz.: 14:03)
W takim razie pytanie zasadnicze: po co idą szeroko? Nie lepiej wydać karty na poziomie 1660 bez RT i ML i nie opracowywanie odpowiednika DLSS ale zaimplementowanie zgodności z FSR1.0? Przecież RT budzi zachwyt przez krótką chwilę, potem zaczyna ludzi denerwować. Jest wiele postów na forach, że ludzie bulą za RTXa a potem wyłączają RT w grze bo wszystko im świeci jakby znajdowali się w gabinecie luster...
- @03 (autor: kombajn4 | data: 12/08/22 | godz.: 15:14)
No dokładnie odpaliłem popatrzyłem i stwierdziłem że po pierwsze klasyczne efekty mi się bardziej podobają a po drugie bardzo nie podoba mi się dramatyczny spadek wydajności. Żaden cud a stosunek ceny do efektu kompletnie absurdalny.
- każdemu wedle potrzeb (autor: Qjanusz | data: 12/08/22 | godz.: 15:55)
mi RT się podoba i na spółkę z DLSS generalnie robi u mnie robotę
@rookie - co do Twojego pytania, to pewnie bezpieczniejsza opcja byłaby taka o której piszesz. Tylko że wiesz... piszemy o firmie mającej bardzo duże mniemanie o sobie, która to w dodatku została połechtana przez siwego bajeranta. Z jednej strony niebezpieczna mieszanka, a z drugiej umówmy się, Intela stać na takie eksperymenty.
- ... (autor: pwil2 | data: 12/08/22 | godz.: 16:21)
Od dawna mówię, że to był projekt po to, by dać im kilka lat czasu na opracowanie 10nm i nowej architektury, bez wyprzedaży akcji na giełdach. W końcu te akcje posiadać musi w portfelu cały zarząd.
- 2>> (autor: Mario1978 | data: 15/08/22 | godz.: 10:38)
Przeczytaj swój wpis i popatrz na 4-5 lat do tyłu. Intel miał dużo czasu bo zrobić coś dobrze a tak rynek serwerów dopiero zacznie im się wymykać. Oni robią teraz wszystko tak średnio. Niby jest bardzo wydajnie ale i też duży apetyt na kWh. Jeżeli obniżymy wydajność do energooszczędność jest dużo większa ale oni mają teraz problem, że Epyc Genoa dopiero ma mieć premierę a nadchodzący SR od Intela nawet na tle Epyc Milan się ma nie wyróżniać. Pisać, że Intela stać na to mając do dyspozycji sytuację finansową firmy oraz ich zadłużenie pokazuje jak ludzie wszystkiego nie chcą widzieć. Oni mieli tak dużo czasu by zmienić się na lepsze i tego nie wykorzystali. Mogli już w 2019 ogarniać wykorzystanie litografii od TSMC by ich projekty na 2023 rok były bardziej dopracowane pod litografię produkcji od wyżej wymienionej firmy. Ale być może już za rok albo dwa będzie można przetestować SOC do Smartfonów produkowane w fabrykach Intela i skonfrontować z konkurencją by zobaczyć jak jest na prawdę z tymi procesami produkcji u Intela.
- @up (autor: Qjanusz | data: 17/08/22 | godz.: 13:36)
tylko to "wcześniej zrobić dobrze", związane byłoby z konkretnymi inwestycjami. Wcześniej to za sterami siedzieli najpierw jurny Krzanich, a o nim księgowy. Dwie największe zakały Intela, dbające o wyłącznie o wynik finansowy (maksymalne cięcie kosztów). Brak wcześniejszych inwestycji to jest zmora, z którą teraz walczy Gelsinger. Dlatego proces produkcyjny odstaje od TSMC, dlatego dzisiejszy wynik finansowy jest taki jaki jest i dlatego zwiększenie wydajności CPU związane jest z wprowadzaniem coraz wyższych limitów TDP.
Natomiast Koduri dostał swój budżet i skrzętnie z niego korzysta. Obiecał szerokie GPU, więc jego stworzenie siłą rzeczy musi trwać i kosztować.
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|