Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Czwartek 9 listopada 2017 
    

Raja Koduri został głównym architektem i wiceprezesem Intela


Autor: Zbyszek | źródło: Intel | 07:37
(40)
Intel oficjalnie poinformował o zawarciu umowy o pracę z Raja Koduri – byłym pracownikiem AMD i szefem Radeon Technologies Group (działu AMD zajmującego się architekturami GPU i kartami graficznym). Informacja jest o tyle zaskakująca, że Raja Koduri ogłosił odejście z AMD dopiero wczoraj. W firmie Intel został mianowany głównym architektem oraz szefem nowo utworzonego działu Core and Visual Computing Group. Został też od razu jednym z wiceprezesów firmy. W informacji podkreślono, że jego głównym zadaniem w Intelu będzie poszerzenie dominującej pozycji firmy na rynku poprzez przygotowanie samodzielnych kart graficznych.

Oprócz tego jego zadaniem będzie rozwój technik sztucznych inteligencji i uczenia maszynowego.

W informacji Intel podkreśla bardzo duże doświadczenie i wiedzę Raja Koduri, nabytą w trakcie ponad 25 letniej pracy w ATI, AMD i Apple. Intel podkreśla jego bardzo dużą innowacyjność, nazywając Raja Koduri jednym z największych wizjonerów w branży. Koduri cytowany przez Intela wyraża natomiast duże zadowolone z dołączenia do lidera rynku i ekscytację nadchodzącymi obowiązkami.

Koduri pracę w firmie Intel rozpocznie na początku grudnia. Tempo przejścia z AMD do Intela jest bardzo zaskakujące - zwykle w takich przypadkach mamy do czynienia z wieloletnim zakazem pracy u bezpośredniej konkurencji.

Warto też dodać, że gdy Raja Koduri otrzymał pod koniec września dłuższy trzymiesięczny urlop w AMD, jako powód podawał zmęczenie i chęć odpoczynku, dodając, że wróci do dalszej pracy w grudniu. Natomiast wczoraj poinformował, że po 40 dniach swojego urlopu rozmyślił się i do pracy w AMD już nie wróci.

 


    
K O M E N T A R Z E
    

  1. ... zrobił miejsce młodszym wizjonerom... (autor: SebaSTS | data: 9/11/17 | godz.: 07:55)
    ... uważam, że taki inżynier i wizjoner w jednym to oksymoron...

  2. ehmm (autor: kombajn4 | data: 9/11/17 | godz.: 08:32)
    "zwykle w takich przypadkach mamy do czynienia z wieloletnim zakazem pracy u bezpośredniej konkurencji." On pracował w Radeon Technologies Group dla której to firmy (bo to jest oddzielna firma) Intel nie jest bezpośrednią konkurencją. Ale co tam, semantyka.
    Swoją drogą już wiadomo czym się Raja Koduri zajmował przez ostatnie 40 dni - negocjował umowę z Intelem. Wiceprezesem takiej firmy się nie zostaje ot tak.


  3. dziwnie jakoś... (autor: Qjanusz | data: 9/11/17 | godz.: 09:26)
    firma która utopiła grubą gotówkę i poniosła porażkę konstruując samodzielną grafikę Larrabee, zatrudnia wizjonera na stanowisko wiceprezesa, którego Lisa Su odesłała na urlop po tym, jak utopił dwie generacje kart graficznych w AMD.

    To że Koduri nie będzie pracował w AMD, to było jasne. Ale dwie dość zaskakujące wieści o tym, że Intel będzie produkował MCM z Vegą na pokładzie, a za chwilę że były pracownik AMD zostanie szefem nowo utworzonego działu Intela...
    Myślę że te 40 dni nie były spokojne :-)


  4. Bravo Intel, swietny ruch, deklasacja rywala, wystrzal z grybej rury (autor: Sony Vaio Surprise | data: 9/11/17 | godz.: 10:09)
    Teraz u Intela bedzie mogl rozwinac skrzydla i wprowadzac innowacyjne produkty. Intel ma kase by promowac wizjonerskie, innowacyjne produkty. W amd pewnie musial walczyc z dzialem ksiegowosci.

  5. Brawo AMD (autor: d3k | data: 9/11/17 | godz.: 10:23)
    Teraz Intel zbankrutuje do 2025 wydajac produkty spoznione o dwa lata wzgledem konkurencji.
    Za to AMD w koncu bedzie moglo rozwinac skrzydla i dogonic Nvidie wydajac produkty wydajne tu i teraz, a nie zyskujace na wydajnosci dopiero wtedy kiedy konkurencja przestaje wydawac sterowniki na swoje stare produkty xD


  6. @kombajn4 (autor: Deathraw | data: 9/11/17 | godz.: 11:22)
    Semantyka semantyką, ale intel też trzepie gpu, więc musieli się dogadać.

    Ogólnie szkoda, że Raja Koduri podczas swojego ostatniego kontraktu z AMD nic nie wniósł do GPU, przynajmniej nic użytecznego na obecną chwilę. Tak jak przewidywałem- 1070ti zamiotła V56 i częściowo zamiata V64 zarówno dostępnością, ceną, perf/wat i wydajnością. Nie wiem o czym to świadczy, że tak łatwo z jednych rąk do drugich przeszedł, ale to może być kolejna poszlaka w kierunku teorii spiskowych odnośnie podtrzymywania AMD przez intela ew tego że się dogadali i sztucznie teraz napędzają rynek.


  7. W ciągu tygodnia (autor: ligand17 | data: 9/11/17 | godz.: 11:37)
    1) Intel prezentuje układy ze swoim CPU i GPU od AMD
    2) Raja Koduri odpowiedzialny za rozwój GPU w AMD odchodzi z AMD
    3) Raja Koduri przechodzi do Intela.
    Przypadek? Nie sądzę?


  8. Jeśli ktoś się nie spodziewał Intela (autor: CharlieBrown | data: 9/11/17 | godz.: 11:53)
    z garfiką AMD, to mało wie o życiu. Nie spodziewałem się jednak takiego obrotu spraw, ale to było zaplanowane. Nvidia nie jest amerykańską korporacją.

  9. :D :D :D :D (autor: pawel1207 | data: 9/11/17 | godz.: 12:03)
    w koncu robi sie wesolo :D ..


  10. @News (autor: Dather | data: 9/11/17 | godz.: 13:07)
    I tym sposobem intel dokonał sabotażu na samego siebie <nioch, nioch, nioch>

  11. Za parę lat przekonamy się ile jest wart Koduri (autor: Iras89 | data: 9/11/17 | godz.: 14:10)
    Raja od premiery Fury X pokazuję, że nie jest w stanie stworzyć topowego GPU, który mógłby poważnie zagrozić Nvidii. Mówiąc prawdę w oczy zieloni robią co mogą, by nie podnosić wydajności swoich kart graficznych do takiego poziomu, że AMd nie byłoby w stanie ich dogonić- RX 480 pobiera tyle prądu, co o połowę szybszy GTX 1070, a RX 580 tyle, co prawie 2x szybszy GTX 1080.

    Moim zdaniem gdyby Nvidia nie śrubowała współczynnika perf/watt spokojnie mogłaby dopakować 20-30% więcej jednostek cieniujących i TMU, nie pobierając przy tym więcej prądu niż AMD w poszczególnych segmentach. Tylko po co się wysilać, jak można podwyższać wydajność małymi krokami jak Intel, długo eksploatując drogocenny proces produkcyjny.

    Trzeba mieć nadzieję, że Intel ze swoimi ogromnymi środkami na R&D będzie solidnym graczem na rynku GPU, by konkurencja rozwijała się w najlepsze, a AMD życzyć, by nie podzieliło losów Via- kto wie, może to co oglądamy w tej chwili to początek przejmowania RTG w ręce Intela.


  12. A może Koduri od dłuższego czasu (autor: OBoloG | data: 9/11/17 | godz.: 14:39)
    współpracował z intelem to się chyba nazywa szpiegostwo przemysłowe i teraz za zasługi dostał posadę u swojego prawdziwego pracodawcy oficjalnie.


  13. @11. (autor: pwil2 | data: 9/11/17 | godz.: 14:39)
    Wystarczy... obniżyć zegar GPU o 20% zmniejszając wymagane napięcie o 20% i pobór prądu o ok. połowę. Karta straci kilkanaście % potencjalnej mocy obliczeniowej, ale pchając $$$ w kieszeń deweloperom można to nadrobić optymalizacją. Można też te $$ dać za dezoptymalizację pod karty konkurencji. nVidia tak postępuje i efekty widać.

  14. Ad. 11 (autor: Iras89 | data: 9/11/17 | godz.: 14:45)
    Teoretycznie gdyby Intel przejąłby Radeon Technologies Group mógłby niemal zawładnąć rynkiem mobile GPU- zawrzeć potajemną umowę z AMD o stosowaniu w większości laptopów z GPU Radeon, marginalizując ilość wydawanych laptopów z Nvidią na pokładzie- GPU Nvidia tylko w drogich, topowych laptopach.

    Co do desktopochych GPU możliwe, że z kooperacji Intela z AMD zostanie wytworzony nowy standard komunikacji między CPU, a GPU, faworyzujący Radeony. mogłoby to usprawnić efektywniejszą wydajność GPU- szczególnie ważne w operacjach GPGPU. Zapowiadają się ciekawe lata dla rynku komputerowego.


  15. Hmmm (autor: Shamoth | data: 9/11/17 | godz.: 14:47)
    Czyżby potwierdzały się moje przypuszczenia co do roli AMD na rynku... Intel jak na konkurenta dość ściśle współpracuje z AMD. Wymiana licencji i patentów CPU i niedawne użyczenie GPU a teraz przejmowanie krytycznych pracowników bez obwarowań. Podejrzewam że Intel od lat po cichu współpracuje i utrzymuje AMD przy życiu żeby urzędy antymonopolowe nie dobrały mu się do 4 liter za cpu. Biorąc pod uwagę potencjał Intela możemy się spodziewać że za 4 lata pozamiata rynek GPU. AMD zaprzestanie rozwoju GPU bo będzie to robiła nV i Intel będzie kryty przed urzędami antymonopolowymi bo będzie miał nadal konkurencję na GPU i CPU...

  16. @15. (autor: pwil2 | data: 9/11/17 | godz.: 14:57)
    Nie, AMD to co najwyżej wróg-wroga. Gdyby było inaczej, AMD nie psuło by z zaskoczenia rynku dla i3/i5/i7 i zmuszając Intela do pilnego łatania oferty i cięcia cen. AMD mogło wprowadzić same Ryzeny z 1xCCX i konkurować z i3/i5 trochę niższą ceną nie ścinając marży Intela na droższych układach.

  17. c.d. (autor: pwil2 | data: 9/11/17 | godz.: 15:01)
    Intel z AMD mogą zabrać rynek dla niższej półki kart graficznych nVidii. Po co komu kupować będzie GTX1060, gdy taką wydajność zaoferuje zintegrowane pod czapką GPU. nVidii zostanie rynek GTX1070 i powyżej.

  18. @16. (autor: Shamoth | data: 9/11/17 | godz.: 15:09)
    Podejrzewam że i ta sytuacja mogła być ustalona dla utrzymania pozorów. Zauważ że AMD od dawna robi rzeczy na wyrost. Wprowadzają technologie, które nie przyjmują się mimo że rewolucyjne albo są chłonięte przez rynek bo łatwe do zaimplementowania. Zupełnie jak by robili dla kogoś research co rynek łyknie a czego nie. Tudzież rozwijają technologie, które wejdą na rynek lub powrócą odświeżone za kilka lat jak np. teselacja ATI.

  19. c.d. (autor: Shamoth | data: 9/11/17 | godz.: 15:11)
    Możliwe że cała trójka ostro wymienia karty pod stołem i tną rynek między siebie jak stara mafia udziały we Włoszech...

  20. Zasada nieformalna jest (autor: pandy | data: 9/11/17 | godz.: 18:02)
    Ze firmy nie podkradaja sobie pracownikow - nie wiem jak bardzo zdesperowany jest Intel ze zdecydowal sie zlamac te zasade (chyba ze dogadano sie z AMD i wyplacono za niego odszkodowanie - np takim moze byc transakcja AMD Intel).
    Oczywiscie zadne wbudowane GPU nie bedzie moglo konkurowac z oddzielna karta graficzna bo problemem bedzie ograniczone pasmo dostepne dla GPU i CPU dzielacych sie ta sama magistrala i ta sama pamiecia. Oczywiscie o ile nie zintegruje sie pamieci na tej samej strukturze co GPU lub nie wydzieli sie oddzielnej magistrali dla GPU (HBM).


  21. @Shamoth (autor: Deathraw | data: 9/11/17 | godz.: 20:05)
    Przychylam się ku twojej teorii obserwując od x lat rynek i patrząc na to co się wyrabia od kiedy AMD zakopało Phenoma.

    @pwil2
    Wiem że to brzmi krzepiąco-Goliat chipzilla w popłochu nie wie co robić, a Dawid AMD go boleśnie kąsa bestię zmuszając do defensywy. Prawda jest jednak taka, że intel nawet nie wytoczył swojego najcięższego działa, które już wcześniej pokazał, a i tak wydajnościowo zazwyczaj jest górą. Wypuścili by 8700k z EDRAM i na najtańszych ramach, w najgorszym dla niego teście by Ryzenowi dorównywał, a w grach by go miażdżył jeszcze bardziej niż ma to teraz miejsce i to posiadając 4 wątki mniej. Dodam, że 8700k zaczyna być dostępny i to taniej niż 1800x.

    @Pandy
    Przepustowość ram i magistrali to jedno, ale dochodzi problem TDP, które przy tandemie ryzen 7+1060 wynosi ponad 200W i na powietrzu to jest zadanie dla topowych chłodzeń.


  22. @Deathrow (autor: pandy | data: 10/11/17 | godz.: 00:47)
    200W jest moze problemem ale nie takie rzeczy sie rozwiazuje...
    Klient zaplaci... jeszcze 10 lat temu takie maszyny wymagalayby kW.


  23. @21. (autor: pwil2 | data: 10/11/17 | godz.: 05:24)
    Ryzen 1800+ to procesor "dla chcących wydać więcej". Nie ma co brać do porównań cenowych skoro niższe modele to ten sam odblokowany krzem. Projektowanie 8700K trwałoby dłużej, a wydajnościowo Broadwell to praktycznie Skylake=KabyLake=KabyLake. A jakby to marketingowo wyglądało wystawiać przeciw 8 mocnym rdzeniom 4 mocne rdzenie. A zanim wyszło KabyLake, wypuścili w pośpiechu i z wtopami niedopracowane s2066. Widać było, że ktoś im granat do szamba wrzucił ;-)

  24. c.d. (autor: pwil2 | data: 10/11/17 | godz.: 05:26)
    Ryzen jest zaje..ście sprawny energetycznie. Na tyle, że opłaci się kopać na procesorze i na 8c Ryzenie mam zysk taki jak na GTX1060. Ryzen już częściowo mi się spłacił.

  25. c.d. (autor: pwil2 | data: 10/11/17 | godz.: 05:28)
    W przypadku Ryzena z LUTem nie ma przynajmniej problemu z odprowadzaniem ciepła, ani z degradującą się pastą (mogłem się przekonać mając 4790K wymagające z czasem lepszego chłodzenia).

  26. @Pandy (autor: Deathraw | data: 10/11/17 | godz.: 09:38)
    *Deathraw ;)
    Nie chodzi mi o pobór prądu, tylko o sensowną konstrukcję chłodzenia referencyjnego. Albo AIO, albo jakaś krowa, jak np Mugen Max czytaj łamacz płyt głównych;). Może przy 7nm będzie to już bardziej przyjazne?

    @pwil2
    Dlatego, że Ryzen jest zajebiście sprawny jak to określiłeś zestawiłem go tutaj z równie sprawnym 1060. Oczywiście 8700k pobiera nieco mniej prądu, ale porównujemy 8/16 i 6/12.

    Rozważania Broadwellowe prowadziłem dla sytuacji, gdzie zrobiliby doklejkę jak do Skylake.

    W moim 4690k właśnie kończy się gwarancja, więc będę myślał, żeby go skalpować, bo póki co nie ma sensu zmiany CPU, a zawsze jest szansa na lepsze oc po zbiciu temperatur, bo przy 4.5 i 1.22V Mugen Max nie ma z nim lekkiego zadania i przy sensownym hałasie jest ok. 75 stopni. Zastanawiam się czy pchać się w CLP czy Gelid GC EXTREME wystarczy, bo mam go pod dostatkiem, a od jutra zaczynam urlop, wiec chętnie się pobawię ;).


  27. Shamoth (autor: pawel1207 | data: 10/11/17 | godz.: 11:14)
    pewnie ze tak tak przecierz od lat tak jest Amd to nie jest konkurencja tylko cichy wspolpracownik .. a to ze koduri opuszcza amd to chyba wszyscy sie ciesza wraz z inzynierami ktorzy tam pracuja :D 0 umiejetnosci a na stanowisko wypchaly go ukladziki i lizanie dupy i pozbywanie sie karzdego kto mogl mu zagrozic :D ..


  28. a co jeśli (autor: mgo | data: 10/11/17 | godz.: 11:41)
    AMD szykuje się do sprzedaży działu graficznego Intelowi?

  29. Podejrzewam, że intel (autor: raczek70 | data: 10/11/17 | godz.: 11:42)
    przewiezie się na zatrudnieniu tego "wizjonera"...
    AMD to jednak taki listek figowy dla intela, chroniący go przed urzędem antymonopolowym.
    Normalnie, to po takim przejściu posypałyby się pozwy, procesy itd - armie prawników obie firmy spuściłyby ze smyczy.
    A tu wszyscy zadowoleni ;).


  30. @mgo (autor: rainy | data: 10/11/17 | godz.: 13:23)
    To byłoby samobójstwo - przypominam o konsolach, APU oraz układach wbudowanych, a wszystkie one potrzebują GPU.
    Możliwym natomiast jest joint-venture z Intelem, gdzie AMD miałoby 51 (ewentualnie 50) procent udziałów, zaś Intel 49 (50).


  31. ... @26 ja tam się nie cyrkolę... (autor: SebaSTS | data: 10/11/17 | godz.: 17:53)
    ... oba Intele i trzy AMD oskalpowałem nożem do tapet, z tego trzy jeszcze były na gwarancji... Trenowałem na starych athlonach :-)

  32. @SebaSTS (autor: Deathraw | data: 10/11/17 | godz.: 20:27)
    A używałeś CLP?GELID GC da radę pod czapkę? Kleiłeś potem ihs , czy wyczyściłeś wszystko i na to wrzucałeś delid die guard?

  33. wyjaśniło się (autor: mgo | data: 11/11/17 | godz.: 15:48)
    http://www.tomshardware.com/...u-koduri,35895.html
    Intelowi chodzi o układy GPU do superkomputerów i AI, żeby zabrać kawałek tortu nvidii.


  34. ...@Deathraw... (autor: SebaSTS | data: 11/11/17 | godz.: 15:49)
    ...GELID GC kiepsko się nakłada trzeba ją podgrzać przed zastosowaniem. Ja zastosowałem MX2. Wyczyściłem stary sylikon, dokleiłem IHS wkładając proca w starą płytę główną. Biały sylikon uniwersalny, docisk - ciężarek 6kg :-)

  35. @Deathraw (autor: pandy | data: 12/11/17 | godz.: 12:55)
    Sorry - walnalem sie - tak to jest jak sie pisze a nie robi copy & paste - co do chlodzenia - chodzilo mi raczej o to ze w urzadzeniach konsumenckich to nie jest jakas potezna moc ktorej nie rozwiazaly firmy w sposob tani i dosc efektywny (chocby PS3 czy nowe konsole i usuwanie podobnej mocy) - tu napewno cos sie pojawi i zadne z istniejacych rozwiazan nie bedzie sie nadawac do ponownego uzycia ze wzgledu na nowy ksztalt tego wynalazku.

    @SebaSTS z 34 - mam nadzieje ze ten silikon byl bezkwasowy... (normalny utwardza sie z wydzielaniem kwasu octowego ktory powoduje korozje wszystkiego co w poblizu).


  36. ... no nie był tani i był w malutkiej tubce jak klej... (autor: SebaSTS | data: 12/11/17 | godz.: 13:15)
    ... nie waliło octem :-)

  37. A ten "wizjoner" coś sam wymyślił, albo opracował? (autor: TeXXaS | data: 12/11/17 | godz.: 17:43)
    Nie wiem na 100%, bo nigdy nie pracowałem nad kartami graficznymi, ale wydaje mi się, że tam sporo ludzi nad tym siedzi, opracowuje. A jak ktoś jest na świeczniku to raczej sam nie robi.

  38. @Deathraw (autor: pwil2 | data: 13/11/17 | godz.: 18:03)
    Na 6c+EDRAM Intel nie miał czasu. Zanim uzysk byłby sensowny to już każdy by się przesiadł na 8c od AMD.

  39. c.d. (autor: pwil2 | data: 13/11/17 | godz.: 18:04)
    Przy takim budżecie aż dziwne, że Intel nie miał asa w rękawie...

  40. @pwil2 (autor: Deathraw | data: 13/11/17 | godz.: 20:30)
    Otóż to. To wszystko wydaje się być grubymi nićmi szyte, więc coraz bardziej nie wierzę w niezależność sukcesu Ryzena i realny popłoch w intelu. To wszystko wygląda tak, jakby miało sprawiać pozory, a tu nagle ni z tego ni z owego Koduri przechodzi po urlopie do intela, bo dogadali się pod stołem, a Vega ląduje w MCM. Strał w stopę AMD w segmencie mobilnym?

    Czas wdrożenia, czasem, ale myślę że intel sam sobie się dziwi jaki wzrost ipc dzięki edram zyskał i postanowili to zachować na inne czasy. 8700k w mojej ocenie wystarczył jako odpowiedź- idealnie wpasowuje się cenowo między 1700 a 1800. W paru zstosowaniach i z jednym i z drugim ma problem, ale ogólnie jest to lepszy procek jakbym miał brać pod uwagę wszechstronne zastosowania domowe, co jeszcze parę miesięcy temu nie było tak oczywiste. Kto się wahał i chce pograć weźnie intela i dzięki dodatkowym 4 wątkom nie musi się martwić że proc szybko się zestarzeje.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.