Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Czwartek 2 grudnia 2010 
    

Ugoda pomiędzy Intelem a Nvidia możliwa dzięki AMD?


Autor: Wedelek | źródło: Electronista | 08:04
(74)
Zapewne większość z was doskonale pamięta burzę, jaką wywołała decyzja Intela o niewydaniu koncesji na produkcję chipsetów do procesorów z rodziny Core iX dla Nvidia i falę komiksów, jaką to spowodowało. Spór pomiędzy obiema spółkami był tak głęboki, że wydawało się, iż nic nie będzie w stanie go zakończyć, tym bardziej że żadna ze stron nie chciała pójść na ugodę. Ten stan rzeczy, jak donosi Electronista radykalnie się zmienił, a obie firmy rozpoczęły ponoć debatę na temat ponownego zawiązania partnerstwa na polu chipsetów.

Wydaje się, że paradoksalnie do przymusowej ugody obie firmy zmusił nie kto inny jak ich największy konkurent, czyli AMD. W przeciwieństwie do Intela oraz Nvidia producent z Sunnyvale jest w stanie dostarczyć kompleksową platformę o wysokiej wydajności, składającą się z chipsetu, CPU oraz GPU. Co gorsza z takiego rozwiązania mogłoby skorzystać Apple, które wydaje się być nieusatysfakcjonowane wydajnością układów graficznych montowanych w procesorach z rodziny Sandy Bridge. Jak podkreślają analitycy zagrożenie jest jak najbardziej realne, a dla konkurentów AMD strata Apple byłaby poważnym ciosem, po którym ucierpiałyby zarówno finanse jak i wizerunek obu gigantów.

 
    
K O M E N T A R Z E
    

  1. co za inelem (autor: Kris1st | data: 2/12/10 | godz.: 08:36)
    ale to śmieszne jest

  2. chipsety AMD są dobre (autor: hideox | data: 2/12/10 | godz.: 08:51)
    nvidii nie bardzo, sprawiają problemy

  3. Ten artykuł... (autor: waluss | data: 2/12/10 | godz.: 09:12)
    Czuję że będzie bił rekordy komentarzy. Intel, Nvidia, AMD - mega połączenie dla słowotoków na temat tego, która firma co ma lepsze, kiedy co wyda i jest wizjonerem...

    Co nie zmienia faktu, że ten kawałek jabłka należy się AMD.


  4. Sojusz dwóch dinozaurów (autor: rookie | data: 2/12/10 | godz.: 09:18)
    Jak mówi przysłowie: tonący brzytwy się chwyta. Intel ma świadomość, iż Bulldozer rozprawi się szybko z jego niekonkurencyjną cenowo ofertą, nvidia z kolei poległa na fermim i jedynie gtx460 jest jak kroplówka podtrzymująca topniejące udziały rynkowe. Inna sprawa, że chipsety nvidii do mobo (bez integry)były całkiem ok.

  5. hehe (autor: morgi | data: 2/12/10 | godz.: 10:08)
    Jak dojdzie do ugody i zostana podane warunki to beda pakty, a nie brednie i popluczyny spekulacyjne.

  6. Nvidia już nie produkuje chipsetów (autor: pomidor | data: 2/12/10 | godz.: 10:08)
    więc jej nie interesuje pozwolenie na magistralę. Pozostaje wypłata pieniędzy za utratę rynku chipsetów, lub licencja na x86. Ale to nie wystarczy na budowanie CPU, bo jeszcze musi dostać licencję od AMD na x64.

  7. :-) (autor: cyferluu | data: 2/12/10 | godz.: 10:11)
    a ja widze to tak że zintegrowane geforce sie zaczna pojawiac na płytach głównych w połączeniu z intelem będą alternatywa dla buldożera. bo nv nie ma CPU a intel bardzo mierne GPU a AMD to i to. wiec żeby amd nie pozostało bezkonkurencyjne zaczna sie pojawiać zestawy Intel + integra NV :D

  8. news z palca marnego analityka wyssany (autor: Qjanusz | data: 2/12/10 | godz.: 10:40)
    mógłby być napisany pół roku temu, jak i za pół roku.
    nVidia już dawno położyła laskę na chipsetach, które zresztą i tak były marnej jakości.

    Intelowi co prawda przydałaby się mocne i prawdziwe GPU, ale w takiej formie, jaka ma AMD.

    Karty GeForce dobrze działają z prockami Intela bez żadnej ugody i spekulacji. W netbokach natomiast nVidia w sądzie wywalczyła sobie obecność w platformie Intela PCIe, dzięki czemu będzie miała i swój udział.

    Ogólnie news - jedno wielkie gdybanie, albo pobożne życzenia.


  9. @Qjanusz (autor: rookie | data: 2/12/10 | godz.: 11:03)
    Nvidia nadal produkuje chipsety, nawet całkiem nowoczesne. Co masz np. do takiego nforce 980a? http://www.skapiec.pl/.../_0_0_39621_0_0_0_0_0_0_0
    nVidia na pewno lepiej przygotuje chipset mobo niż kartę grafiki.


  10. hmm (autor: Diamond Viper | data: 2/12/10 | godz.: 11:03)
    no i bardzo dobrze - widać, że AMD nie przespało i wzięło się ostro do roboty, w planach świetne układy, najzwyczajniej w świecie boją się konkurencji i chcą działać razem - mimo przeszkód, waśni, wszak wpływy najważniejsze..

  11. @rookie (autor: Qjanusz | data: 2/12/10 | godz.: 11:25)
    PRODUKOWAŁA

    na szczęście już tego nie robi. nForce standardowo, w porównaniu z chipsetami AMD były dużo bardzie prądożerne:
    http://www.chip.pl/...12/01/msi1.png/image_preview

    zintegrowana grafika mniej wydajna od AMD
    http://www.chip.pl/...12/01/msi2.png/image_preview

    ostatnie nForce bazowały bardziej na legendzie bardziej udanych serii, niż na rzeczywistych osiągach.

    Sens pakowania nForca pod podstawkę AMD miał jeszcze wtedy, kiedy nVidia produkowała wydajniejsze grafiki (mozna było łączyć w SLI).

    Teraz, kiedy to AMD trzepie najwydajniejsze grafiki, sens SLI pod AM3 nie ma najmniejszego sensu.


  12. najwydajniejsze (autor: DTOsman | data: 2/12/10 | godz.: 11:28)
    karty graficzne tworzy Nvidia.

  13. największe (autor: Qjanusz | data: 2/12/10 | godz.: 11:32)
    bzdury na twojepc.pl tworzy DTOsman

  14. Qjanusz (autor: Grave | data: 2/12/10 | godz.: 11:38)
    "sens SLI pod AM3 nie ma najmniejszego sensu" - hm.... tak zapytam z ciekawości jak sens może nie mieć sensu?? :-D

  15. Gdyby do sandy bridge (autor: shadowxxz | data: 2/12/10 | godz.: 11:42)
    zamiast zbuka dawali jakiegoś podwojonego ion-a to byłby może najlepszy procek ostatnich lat

  16. @DTOsman (autor: AmigaPPC | data: 2/12/10 | godz.: 11:43)
    zapomniałeś dodać jednoukładowe.

  17. @Grave (autor: Qjanusz | data: 2/12/10 | godz.: 11:47)
    zapytaj samego siebie :D

    to jest dokładnie to, co sens Twoich peanów pisanych pod adresem zbuczka intelowego, kiedy wiesz że nie ma sensu ich pisać, bo za każdym razem (linki, tłumaczenia, wyjaśnianie różnic) kiedy udowodnić Ci ze nie masz racji, zamykasz się w sobie i nic nie odpisujesz, poza sporadycznym obrażaniem innych.

    Tak więc sens Twojego pisania, absolutnie jest tego sensu pozbawiony :-)


  18. shadowxxz (autor: morgi | data: 2/12/10 | godz.: 11:56)
    Taaa, ale co to znaczy, jak przyniesie spodziewane zyski oby rekordowe to pal licho kto udaje greka i mowi najlepsze. Na platforme Intela wypada miec licencje do grafik luznych i o takie kwestie tocza sie tez rozmowy, jak i kontynuacje IONdra lub cos wiecej.

  19. @shadowxxz - jest to bardzo prawdopodobne (autor: Qjanusz | data: 2/12/10 | godz.: 11:57)
    @DTOsman @AmigaPPC - "jednoukładowe" to tak. Zgadzam się.

  20. hehehehe (autor: Lolo64_EX1_rev2.1 | data: 2/12/10 | godz.: 12:00)
    Jak zawsze AMD musi ratowac dupsko Intelowi.

  21. Komentarze na tpc (autor: przemas84 | data: 2/12/10 | godz.: 12:06)
    zaczynają bardziej przypominać onetowe sprzeczki na temat miny aktorki z newsa.

    Trochę szkoda bo kiedyś komentarzy było mniej ale większość wnosiła coś rzeczowego i czytałem je jak uzupełnienie newsa.

    Chociaż przyznam, że dość zabawnie czyta się co niektóre riposty :P

    Odnośnie newsa to przyznam, że ciężko nazwać to newsem a co do tematu to wojna miedzy gigantami bardzo mi się podoba bo jak widać wszyscy sa maksymalnie zmobilizowani do działania i w efekcie mamy szybko poprawiane układy i przyzwoite ceny bo na pewno nie można powiedzieć że którykolwiek z producentów rozdaje prezenty.


  22. Qjanusz (autor: Grave | data: 2/12/10 | godz.: 12:49)
    Sens nie może być pozbawiony sensu, geniuszu polonistyczny....

    COŚ może mieć sens, albo go nie mieć, ale tym czymś nie może być sam "sens"....

    A odnośnie "zbuczka" to cóż... niezależnie od wewnętrznej architektury chipa najnowsza wersja tego zbuczka wyprzedza z ogromną przewagą 890GX AMD, a także w części testów - dedykowanego Radeona HD 5450.

    A jak ta wydajność jest osiągana to już kwestia drugorzędna.

    Więc jeżeli dla Ciebie IGP które potrafi poradzić sobie nawet z kartą dedykowaną segmentu "entry" jest "interfacem do wyświetlania grafiki 2D" to Ty masz coś z głową a nie ja, wybacz.... :>


  23. @Grave (autor: AmigaPPC | data: 2/12/10 | godz.: 13:05)
    w jakich testach? nie ma żadnego wiarygodnego testu bo nie ma jeszcze dostępnego produktu.

    Więc przestań na siłę przekonywać resztę świata o "wielkości" Intela bo to swiadczy tylko o Twoim ograniczeniu.


  24. AmigaPPC (autor: Grave | data: 2/12/10 | godz.: 13:21)
    Test jest jak najbardziej wiarygodny, a to że Ty nie wierzysz w jego wyniki to już Twój problem.

  25. Intel, nvidia i AMD (autor: Conan Barbarian | data: 2/12/10 | godz.: 13:23)
    Ponieważ news jest o wszystkim i niczym, więc można się wytaplać kto jak chce. Chętnie popatrzę na pląsającego Dabrow'ka, pupilka MacLeod'a, nawiedzonego DTOsmana'a i innych. Ciebie morgi uwielbiam, więc nie dołączę to tej elity. Bawcie się dobrze i najlepiej na niebiesko w zielone paski.

  26. Gdyby test wykonał jakiś serwis-krzak (autor: Grave | data: 2/12/10 | godz.: 13:25)
    albo jakiś "twór" powstały tylko po to aby zaprezentować wyniki wyssane z palca (jak np. za czasów Radeona HD 2900XT "serwis" level505.com) to można by podważać wiarygodność.

    Ale w tym wypadku tak nie jest. Ale widocznie Tobie bardzo przeszkadza że Intel wypadł tam dobrze, że musisz sobie odbić personalnymi zaczepkami, bo wyniki trudno Ci podważyć.

    Bo widzisz... anand miał ten procesor w rękach, a Ty nie miałeś - więc może z łaski swojej uznaj rację tych którzy sprawdzili coś w praktyce zamiast opierać się na swoich teoriach.


  27. Żeby nie było (autor: Grave | data: 2/12/10 | godz.: 13:30)
    to już jest nie pierwszy test przedpremierowy (podobnie przed premierą anandtech testował np. Nehalema) więc nie jest to żadna nowość i fakt, że CPU jeszcze nie ma w sprzedaży w żadnym wypadku nie podważa rzetelności testu przedpremierowego, bo sample SB są gotowe od dawna i powinieneś o tym wiedzieć zamiast tworzyć jakieś bzdury że produktu nie ma.

    Podważanie testu tylko dlatego, że wyniki Ci się nie podobają świadczy owszem o ograniczeniu, ale TWOIM. (@AmigaPPC).


  28. @Grave (autor: Promilus | data: 2/12/10 | godz.: 13:39)
    Nie ma testów GPU z Sandy Bridge... a dokładniej, nie ma RZETELNYCH testów. Jak dobrze się wczytasz to zauważysz, że spośród testów które tam na SB wykonał anand oni sami NIE SĄ pewni które to iGP było, czy 6EU czy 12EU bo tego im intel po prostu NIE PODAŁ, a w poprawce napisali, że najprawdopodobniej chodziło o szybszą wersję.

  29. @Up (autor: AmigaPPC | data: 2/12/10 | godz.: 13:42)
    właśnie o to chodzi, ale taki wszystkowiedzący i przemądrzały naiwniak jak @Grave i tak powie, że Intel ma najszybsze IGP.

    Jak będą testy (rzetelne) to będziemy dywagować, na razie gadasz @Grave tylko żeby zaistnieć bo na pewno niezbyt logicznie.


  30. @Grave (autor: Qjanusz | data: 2/12/10 | godz.: 14:01)
    "...to Ty masz coś z głową a nie ja, wybacz"

    wybaczam :-)

    i nic nie pisałem o Twojej głowie, aczkolwiek ciśnie się, jak łapówki Intela dla producentów i sklepikarzy ;-)

    ps. dobrze że chociaż tych szejderów w inteliku zbastowałes. Znaczy się rokujesz Grave :D


  31. inżynierowie Intela (autor: DTOsman | data: 2/12/10 | godz.: 14:59)
    to wizjonerzy i doświadczeni taktycy. Wydajność IGP w SB będzie wystarczająca by zadać nokautujący cios firemce. Resztę mocy zachowają na przyszłość, nie ma sensu zdradzać wszystkich swoich możliwości, kiedy nie jest to konieczne.

  32. @Grave (autor: emuX | data: 2/12/10 | godz.: 15:01)
    nie masz co się wysilać aby pisać z trolami AMD, dla nich testy są nierzetelne jeśli nie wygrywa AMD.

    Np. GTX580 jest najszybsza kartą graficzną na rynku:
    http://nvision.pl/...010/162/1289307651ranking.png
    a oni powiedzą że nie jest... i taka rozmowa z trolami.


  33. AmigaPPC (autor: Grave | data: 2/12/10 | godz.: 15:08)
    A co ma do rzeczy jaką wersję testowali skoro to był gotowy Sample?? Niech będzie że dostali wersję szybszą i będą także wolniejsze od niej, co to zmienia w kontekście testów tej szybszej? NIC.

    Przetestowali kontrkretny model w którym siedzi konkretny IGP który wg testów ma określoną wydajność. W tym momencie ile w środku ma EU NIE MA ZNACZENIA!!! Wydajność jest jaka jest w tym modelu.

    Może mieć 1 EU, a może mieć i 1000 - bez różnicy, ważne jaki jest efekt końcowy w postaci fps. A tu jak widać jest dobrze.


  34. @DTOsman (autor: Qjanusz | data: 2/12/10 | godz.: 15:09)
    "Osoby mające nadzieję na połączenie rdzeni Nehalem z wydajnymi zintegrowanymi układami grafiki musiały obejść się smakiem. To co w tej kwestii oferował i nadal oferuje Intel pozostawia wiele do życzenia. "

    "Analitycy rynku twierdzą, że Steve'a Jobsa mogą nie zadowolić układy graficzne nadchodzących procesorów Sandy Bridge i możliwość zbudowania następnej generacji MacBooka Air na komponentach dostarczonych przez AMD jest całkiem realna"

    http://pclab.pl/news44065.html

    zły cały świat :D

    @Piotruś, bez Ciebie byłoby smutno.
    Co Ty byś bidny pisał przez ostatni miesiąc, gdyby nie ten wyświechtany link :-)


  35. @Grave (autor: AmigaPPC | data: 2/12/10 | godz.: 15:14)
    Szkoda z Tobą dyskutować.
    Z fanatykami nie ma o czym.
    EOT.


  36. Qjanusz (autor: Grave | data: 2/12/10 | godz.: 15:15)
    Skoro Apple nie zadowalają te IGP Intela to wyjaśnij dlaczego UŻYWA TYCH IGP?!! (mocniejsze modele MacBooków PRO mają IGP Intela przełączany automatycznie z dedykowanym GPU Nvidii w zależności od potrzeb)?

  37. AmigaPPC (autor: Grave | data: 2/12/10 | godz.: 15:17)
    Sam jesteś fanatykiem, bo tylko do takich fakty nie przemawiają. A fakty podałem, jak się nie podobają to Twój problem.

  38. @EmuX (autor: AmigaPPC | data: 2/12/10 | godz.: 15:20)
    [ http://www.techpowerup.com/...orce_GTX_580/27.html ]

    I co łyso Ci trollu nVidii.

    A to żeby Cię zapyziały oszuście i mitomanie pogrążyć.

    [ http://www.techpowerup.com/...orce_GTX_580/28.html ]

    Nawet podkręcony GTX580 (najwydajniejsza jednoukładowa karta graficzna) może naskoczyć HD5970 - najwydajniejszej karcie graficznej na świecie.


  39. @Grave (autor: AmigaPPC | data: 2/12/10 | godz.: 15:21)
    fakty fantasto to będą jak będzie SB w sprzedaży, na razie kłamczuszku to są tylko domniemania.

  40. chyba jedyne rozwiązanie to ban (autor: emuX | data: 2/12/10 | godz.: 15:34)
    dla "AmigaPPC".

  41. @Up (autor: AmigaPPC | data: 2/12/10 | godz.: 15:47)
    prawda zabolała?

    Ban za używanie Twoich określeń - skończ być prymitywny, zacznij myśleć.


  42. @AmigaPPC (autor: Qjanusz | data: 2/12/10 | godz.: 16:12)
    daj spokój. Szkoda nerw. Kolesie żyją w swoim świecie.

  43. @Grave (autor: Mariosti | data: 2/12/10 | godz.: 16:18)
    Powiedz mi dlaczego nowe, odświeżone Macbook'i Air korzystają dalej z Core2Duo i dlaczego nie istnieje obecnie w ofercie jakikolwiek notebook Apple'a korzystający tylko z igp intela ;]

  44. @Mariosti (autor: trepcia | data: 2/12/10 | godz.: 16:28)
    Bo zbuczki graficzne zaszkodziłyby wizerunkowi króla marketingu.

  45. ... (autor: pawel.xxx | data: 2/12/10 | godz.: 16:29)
    hmm. parę dni temu przy okazji testów zacate pisałem że najlepiej byłoby gdyby nv dogadała sie z intelem w sprawie chipsetów dla atoma.
    Jestem zdania że jest to jedyny segment gdzie chipset IGP ma sens. Atomy pineview wewnętrznie nadal korzystają z FSB więc można skorzystać z posiadanych doświadczeń ograniczając w ten sposób koszty.
    W przypadku procesorów sandy bridge chipset IGP nie ma specjalnie sensu. Wstępne wyniki wskazują na aż nadto wystarczającą wydajność gpu SB. A zintegrowany kontroler pamięci i pci-e jako ewentualny interfejs sprawiają że budowa takiego chipsetu byłaby kłopotliwa, a uzyskane rozwiązanie mało konkurencyjne w stosunku do konfiguracji korzystających z switchable grsphics i optimusa.


  46. @pawel.xxx (autor: Marek1981 | data: 2/12/10 | godz.: 16:54)
    Wydajność to tylko połowa sukcesu. Liczą się też sterowniki a tutaj Intel ma je na żenującym poziomie.
    Po co mi taka wydajność jak w większości tytułów sobie nie pogram.


  47. Mariosti (autor: morgi | data: 2/12/10 | godz.: 17:10)
    A co oni by nie chcieli, tylko i az wsparcie dla openszitu, a nie dx.

  48. Apple potrzebuje tego: (autor: Qjanusz | data: 2/12/10 | godz.: 17:23)
    "Procesory graficzne, których moc obliczeniowa sięga bilionów operacji na sekundę, potrafią dziś znacznie więcej niż tylko rysowanie grafiki. OpenCL w systemie Snow Leopard to technologia, która umożliwia programistom wykorzystanie mocy obliczeniowej, jaką aktualnie oferują procesory graficzne, do celów niezwiązanych z wyświetlaniem grafiki."
    http://www.apple.com/pl/macosx/technology/

    zbuczek z racji swojej ułomności nie potrafi tego dać, bo nie jest prawdziwym układem GPU, tylko PROSTYM INTERFEJSEM DO DRUKOWANIE GRAFIKI 2D na ekranie monitora, z softwarową emulacją efektów 3D.

    Dlatego Apple nigdy nie weźmie na poważnie zbuka, jako podstawy do swojego sprzętu.

    Problemy z 3D w intelokowym zbuczku biorą się z tego, że stery muszą przekodować każdą instrukcję DX na działanie EU, który z kolei liczenie rzuca na rdzenie x86 + optymalizacja praktycznie pod każdy tytuł, ze SMARKAMI na czele.

    Dlatego też intelik nie pcha zbuka w otoczenie DX11. Za wysokie progi.


  49. cdn... (autor: Qjanusz | data: 2/12/10 | godz.: 17:26)
    i już wracając do meritum, dlatego właśnie Intel w OSxie ma szansę tylko w otoczeniu z nieVidią.
    Stąd takie spekulacje jak ten news, stąd również w labie Apple od dawna testowany jest Fusion.


  50. ... (autor: Dregor | data: 2/12/10 | godz.: 18:21)
    Proponuje spojrzeć się na ten test http://www.pcworld.fr/...atif-performances/508697/ Z niego wynika średnio że GTX580 i HD5970 są sobie równe. Wszystko zależy od danych miejsc testowych.

  51. @Dregor (autor: emuX | data: 2/12/10 | godz.: 19:30)
    nie są sobie równe bo AMD oszukuje nieświadomych klientów wyświetlając gorsza grafikę w grach: http://twojepc.pl/news22748.html

    i to nie pierwszy raz w historii: http://pclab.pl/news10079.html


  52. emuX (autor: Aamitoza | data: 2/12/10 | godz.: 20:22)
    To nie AMD, a Nvidia wydała magiczne sterowniki dla GTX4xx które podniosły wydajność o ponad 10%.

  53. AmigaPPC (autor: Grave | data: 2/12/10 | godz.: 21:04)
    Domniemania to są jak się nie widziało produktu na oczy. TY nie widziałeś. Anand - wręcz przeciwnie. Nie zrobił testu na podstawie fantazji i domysłów tylko REALNEGO PRODUKTU.

    Ale oczywiście dla Ciebie ten produkt nie istnieje - Twoja sprawa. Testy przedpremierowe są już nie tak nową praktyką i jakoś nikt nie pisze pierdół że opisują nieistniejący produkt, bo sample przedprodukcyjny to jak najbardziej REALNY PRODUKT.

    Tylko Tobie (+ fanatykom AMD) jakoś nie pasuje.

    Ciekawe czy test Fusion na labie też uważasz za nierzetelny i opisujący nieistniejący produkt....

    Poza tym skoro nie wierzysz ludziom którzy opisują to co mieli w rękach to nawet jak dany produkt pojawi się na rynku nie masz pewności że dany test nie jest "kupiony" - mogą być kupieni wszyscy recenzenci na świecie, we wszystkich serwisach - who knows - zależy jak daleko sięga Twoja chora obsesja....

    W takim wypadku jedynym pewnikiem jest kupienie lub wypożyczenie produktu samodzielnie, ale może Ty sobie możesz na taki luksus pozwolić - ja nie. I nie mam przeświadczenia że wszyscy recnzenci są oszustami i piszą z głowy a nie na podstawie realnych wyników.

    Btw. jestem przekonany że gdyby Intel wypadł beznadziejne w tym teście na anandzie uznałbyś test za rzetelny... Nie mam racji?


  54. emuX (autor: Markizy | data: 2/12/10 | godz.: 21:11)
    newsa z PClaba genialnego znalazłeś "17 maja 2004"
    to nie ta epoka.

    A o ripoście tego najnowszego zapomniał http://www.benchmark.pl/...rzuty_NVIDII-31981.html ?

    I co ciekawe żaden serwis nie stwierdził w ostatnim czasie różnic miedzy Nvidia a AMD :P


  55. @Grave (autor: Marek1981 | data: 2/12/10 | godz.: 22:21)
    Mylisz się i to bardzo.
    1) testy z pclaba nie są rzetelne!!!nie wiadomo jak będzie wyglądał finalny produkt
    2) testy nowego intela na anantechu też są małą niewiadomą, nie wiadomo co mieli do końca i czy to był finalny produkt??

    "nie mam przeświadczenia że wszyscy recnzenci są oszustami i piszą z głowy a nie na podstawie realnych wyników."
    Kolejny przejaw niewiedzy, można pokazać co się chce i tak ciemna masa to kupi..... Należy porównać kilka do kilkanaście różnych testów i wtedy popatrzyć na metodologie testów, platformę testową oraz wyniki poszczególnych produktów. Np tutaj są testy na podstawie benchmarków które mają się nijak do rzeczywistości.


  56. @Grave (autor: Qjanusz | data: 2/12/10 | godz.: 22:55)
    DAJ JUŻ SPOKÓJ

    zbuk to zbuk. Nawet najszybszy emulator nie będzie tym samym co oryginał. Intel sprzedaje podróbki GPU.


  57. Qjanusz (autor: Grave | data: 2/12/10 | godz.: 23:19)
    No właśnie ten emulator wyprzedził o kilkadziesiąt % "prawdziwe" IGP AMD - najszybsze dostępne w momencie testu, więc ta emulacja nie jest taka znowu do końca zła skoro potrafi odstawić daleko z tyłu "oryginał"....

    A że ma i swoje wady - cóż - nie ma rzeczy bez wad :-D


  58. Jak tak dalej Intel będzie się rozpędzał (autor: Grave | data: 2/12/10 | godz.: 23:25)
    czyli będzie dawał IGP 2x wydajniejsze z generacji na generację to za jakieś 10 lat będzie można pograć na IGP Intela w Crysisa na full detalach :-DDDD

  59. @Up (autor: AmigaPPC | data: 2/12/10 | godz.: 23:48)
    tak, a @Morgi i przydupasy zaczną pisać prawdę :-D

    Testy Fusion też uważam za nierzetelne - dla Twojej wiadomości, co zresztą napisałem "będzie produkt, będziemy oceniali".


  60. @Up (autor: AmigaPPC | data: 2/12/10 | godz.: 23:52)
    "Btw. jestem przekonany że gdyby Intel wypadł beznadziejne w tym teście na anandzie uznałbyś test za rzetelny... Nie mam racji?" - Nie masz racji to, że używam (aktualnie) AMD nie znaczy, że jestem jakimś oszołomem typu ... wiadomo, za ścianą stoi komp na Intelu, obok 2 laptopy też na Intelu i to też nic nie znaczy.
    I tak najlepiej pracuje mi się na PowerPC - to również nic nie znaczy.


  61. ... (autor: buceek | data: 3/12/10 | godz.: 00:24)
    Chyba jednak trochę za późno na takie posunięcie... zanim cokolwiek podpiszą, zanim wdrożą produkcje, zanim osiągną racjonalny poziom tejże produkcji minie kilka miesięcy, do tego czasu wyjdzie APU AMD, buldożer. Analitycy obu firm już dawno by wychwycili tą sytuacje także news wydaje się być wyssany z palca...

  62. AmigaPPC (autor: Grave | data: 3/12/10 | godz.: 00:49)
    No i słusznie. Ja jako użytkownik laptopa AMD na dzień dzisiejszy mówię zdecydowane NIE w kwestii CPU, a GPU chętnie - ale tylko do pary z CPU Intela.

    Natomiast gdybym miał wybierać NETbooka to wiele wskazuje na to, że APU AMD akurat tutaj ma szansę być trochę lepszą propozycją od Atoma połączonego z ION-em 2 (głównie lepszą z uwagi na mniejszy pobór prądu, ale i wydajność trochę lepsza, chociaż szału nie ma, przynajmniej wg testu na labie).

    Ogólnie jestem zdania żeby od każdej z firm brać TO CO ROBIĄ NAJLEPIEJ. A więc GPU od AMD (ATI) lub NVIDII, natomiast CPU - od Intela (za wyjątkiem atoma).

    Ale oczywiście jak wybiorę Intela w pełnym przekonaniu że po prostu wybieram LEPSZY (niż te od AMD) procesor od razu jestem szufladkowany jako "fanatyk" który "daje się dymać" etc. To jest jakieś chore, bo można jakiejś firmy nie lubić, ale uznawać osoby które wybierają produkty konkurencji za "debili" tylko dlatego że uważają (notabene na podstawie testów a nie "widzimisie") konkurencyjny produkt ZA PO PROSTU LEPSZY to jest jakieś przegięcie (ukłony w stronę Qjanusza.....)

    Ośmiel się wybrać CPU Intela to od razu Ci Qjanusz napiszę że dajesz się dymać, bo Intel zmienia podstawki. CO MNIE TO K** OBCHODZI ŻE ZMIENIA JAK WYMIENIAM CAŁY KOMPUTER I TAK I TAK?? NIC. Ale dla Qjanusza to widomy znak że daje się dymać....

    I to jest właśnie fanatyzm, nie wybieranie tego co jest obiektywnie lepsze (w testach), ale forsowanie teorii że to co jest lepsze.... i tak jest gorsze... bo jest od Intela.

    etc etc


  63. @morgi (autor: popierdulka1234 | data: 3/12/10 | godz.: 03:31)
    ty też to czynisz
    http://biznes.onet.pl/...562,4014049,1,prasa-detal


  64. @Grave (autor: rookie | data: 3/12/10 | godz.: 09:07)
    Zapomniałeś jednak, że zbuczek graficzny intela miał być samodzielnym chipem do kart graficznych - projekt Latabee zakokńczył się kompletną klapą i aby nie stracić całej kasy wyłożonej w projekt zakończony bezsprzeczną porażką, intel wrzucił to ''coś'' do procków - podwyższając tym samym ich, i tak już za wysoką, cenę. I nie chodzi tu o brak doświadczenia. Intel produkuje integre GPU na chipsety mobo od ponad 15 lat. I przez ten czas nie zdobył jakiegokolwiek doświadczenia w zakresie budowy wydajnych kart graficznych. Świadczy to o IGNORANCJI i IMPOTENCJI twórczej inżynierów niebieskich.

  65. @rookie (autor: Qjanusz | data: 3/12/10 | godz.: 09:13)
    Intel ma bardzo kiepskie doświadczenia. To co ma, to tylko rozwijanie tego, co zakupił wcześniej.

    Firemka sama z siebie nic nie potrafi wykrzesić.
    A jeżeli próbuje, to wychodzi taki Larrabee Fail.


  66. @Qjanusz #48 (autor: pawel.xxx | data: 3/12/10 | godz.: 10:48)
    Co do samej idei wykorzystania gpggpu w to jest ona słuszna i nie pozbawiona podstaw. Przy zamkniętej architekturze produktów apple można przypuszczać że przynajmniej cześć problemów zarządzania konfiguracją nie będzie występować.
    Jest jednak i druga strona medalu.
    Mnóstwo algorytmów trzeba by napisać od nowa by korzystać z gpgpu. Czy apple ma wystarczające środki by tę ideę wcielić w życie?
    Gdyby to się udało to apple zyskało by znaczną przewagę rynkową. Szanse na to są jednak znikome. Większość oprogramowania nie jest własnością apple i jest dostępna dla innych systemów operacyjnych. Tak wiec gdy tylko producent takiego oprogramowania wypuści wersje korzystającą z gpgpu to będzie ona także dostępna dla innych os-ów, niwecząc szanse apple na dominację.

    W pozostałej części postu dotyczącej igp intela pieprzysz głupoty jak to masz w zwyczaju :)
    Zabawne jest to ze nie kto inny a Ty kilka dni temu w wątku dotyczącym Sandy Bridge cytował intela:

    "Each EU can dual issue picking instructions from multiple threads. The internal ISA maps one-to-one with most DirectX 10 API instructions resulting in a very CISC-like architecture"

    "SNB graphics is the anti-Larrabee. While Larrabee focused on extensive use of fully programmable hardware (with the exception of the texture hardware), SNB graphics (internally referred to as Gen 6 graphics) makes extensive use of fixed function hardware. The design mentality was anything that could be described by a fixed function should be implemented in fixed function hardware."

    patrzycie a nie widzicie. Czytacie a nie rozumiecie chciało by się powiedzieć :)


  67. @rookie #64 (autor: pawel.xxx | data: 3/12/10 | godz.: 11:07)
    Larrabe miał być czymś znacznie więcej niż tylko samodzielnym chipem graficznym. Miał być hybrydą karty graficznej clustera obliczeniowego x86.
    W #66 jest cytat ze stanowiska intela który przytoczył Qjanusz i przeczy on tem co piszesz "SNB graphics is the anti-Larrabee. ..."


  68. @pawel.xxx (autor: Qjanusz | data: 3/12/10 | godz.: 11:21)
    zgadza się. Pod GPGPU algorytmy trzeba pisać od początku. Ja osobiście jestem jednak dobrej myśli. GPGPU już weszło do serwerów, powstaje coraz więcej softu, AMD rzucił ochłap dla Lunixa pod APU, wspomaga idee gpgpu o mobilnym OSie, a Apple to już to ma w produkcji. To nie jest tak że Apple to dopiero planuje.
    Zresztą nVidia również w zastosowaniach profesjonalnych odwala kawał dobrej roboty, propagując ideę gpgpu jak tylko może.

    Co do moich cytatów, to nie rozumiem jego wywołania do bieżącego kontekstu. EU nie zapewnia wsparcia do OpenCL. Larrabe to Larrabe, a zbuczek (SNB Gen 6) to pic na wodę. To zupełnie inna technologia i inne podejście do tematu generowania grafiki.


  69. @Qjanusz (autor: pawel.xxx | data: 3/12/10 | godz.: 12:22)
    No właśnie widzę że nie rozumiesz. w #48 piszesz
    "... z softwarową emulacją efektów 3D."
    "... każdą instrukcję DX na działanie EU, który z kolei liczenie rzuca na rdzenie x86 "

    Podczas gdy cytat który przytoczyłeś wyjaśnia że EU są specyficznymi procesorami CISC o liście instrukcji która większości funkcjom DirectX 10
    przyporządkowuje instrukcje EU .
    Cała funkcja DX jest realizowana za pomocą jednej instrukcji tego specyficznego procesora jakim jest EU.
    Jest to podejście całkowicie odmienne od tego w larrabee gdzie funkcje DX były realizowane przez wywoływanie podprogramów realizowanych na całkowicie uniwersalnych jednostkach przetwarzających larrabee. W GPU sandy bridge instrukcje EU będące odpowiednikami funkcji DX są na stałe zaimplementowane w krzemie ( fixed hardware)
    Widać że w każdym z przypadków podejście intela prezentuje przeciwne i skrajne przypadki rozwiązania problemu.
    GPU takich producentów jak nv czy amd prezentują rozwiązanie pośrednie. Funkcje DX są realizowane na
    "uniwersalnych" jednostkach przetwarzających przez wywoływanie odpowiednich podprogramów. Jednak te jednostki nie są całkowicie uniwersalne. Ich "uniwersalność" jest ograniczona, nie są kompletne w sensie Turinga. To dlatego GPU AMD i Nvidii są kompatybilne tylko z konkretną wersją DX, podczas gdy całkowicie uniwersalne jednostki larrabee mogły implementować dowolne API.


  70. AMD Fusion II pojawi się w konsoli nowej generacji! (autor: zeek | data: 3/12/10 | godz.: 16:55)
    http://pclab.pl/news44088.html

  71. @up (autor: rookie | data: 3/12/10 | godz.: 17:00)
    Z testów widać ,że wydajność układu Fusion 1 jest bardzo dobra. Ani intel, ani nvidia nie mają takiej platformy (intel gpu, nvidia cpu).
    Fusion 2 będzie miał pewnie dużo z bulldozera i będzie wymiatał równo.


  72. @Up (autor: AmigaPPC | data: 3/12/10 | godz.: 20:48)
    z jakich testów?

    NIE MA ŻADNYCH RZETELNYCH TESTÓW ANI FUSION, ANI SB.


  73. @pawel.xxx (autor: Promilus | data: 4/12/10 | godz.: 11:21)
    Masz ogółem rację, jednak na MacOS jest teraz pewnie z 50% więcej softu korzystającego z OpenCL niż na inne platformy programowe (z czego Windows ma chyba nawet mniej softu niż Linux). Ale MacOS nigdy nie miał bardzo bogatej biblioteki oprogramowania, a jedynie cechował się genialnymi programami do konkretnych zastosowań. Z OpenCL w makówkach nie będzie inaczej - zostanie użyty wszędzie gdzie ma sens... i tam będzie wykorzystywany intensywnie. Może też dlatego Intel wydał pierwsze SDK dla Wolfdale wzwyż.

  74. moim zdaniem (autor: scoobydoo19911 | data: 4/12/10 | godz.: 23:10)
    intel po cichu szukuje się do fuzji(nie wykupienia) z nv

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.