Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Wtorek 5 października 2010 
    

Nvidia nie boi się hybrydy ani w wykonaniu Intela ani AMD


Autor: Wedelek | źródło: Fudzilla | 18:46
(29)
Integracja w jednym układzie zarówno GPU jak i CPU to przyszłość, która stanie się faktem już w przyszłym roku za sprawą produktów Intela i AMD. W związku z tym część analityków wieści naturalną "śmierć" IGP do 2015 roku, a co poniektórzy twierdzą że nastąpi to jeszcze szybciej, bo w 2012. Obaw tych nie podziela Nvidia, która jak wiadomo na takim obrocie sprawy straciłaby najwięcej spośród producentów układów zintegrowanych. Co więcej przedstawiciele korporacji z Santa Clara twierdzą, że nowe rozwiązania nie zmienią praktycznie niczego. Ujesh Desai z Nvidia powiedział że jeżeli któryś z konkurentów zwiększy wydajność swoich rozwiązań zintegrowanych, to jego firma zrobi to samo, a jeśli nic się nie zmieni, to "zieloni" zmuszą do podobnego kroku Intela i AMD.

Według przedstawiciela firmy z Santa Clara najsłabsze układy dedykowane wzorem swych wydajniejszych "braci" będą nadal świetnie się sprzedawać z uwagi na wyższą renomę (Są postrzegane jako wydajniejsze od IGP). Prawdziwość tej tezy zweryfikuje przyszłość, ale pewne jest że najmniej zamożni użytkownicy końcowi tylko na tym zyskają. Już teraz wiadomo że część odpowiedzialna za wyświetlanie grafiki w debiutujących niebawem procesorach z rodziny Sandy Bridge dorównają wydajnością Radeonom HD5450, a przeznaczony dla platform ultra-mobilnych APU Ontario będzie się mógł poszczycić mocą porównywalną do mobilnych Radeonów HD 5600.

 


    
K O M E N T A R Z E
    

  1. Coś trzeba (autor: AmigaPPC | data: 5/10/10 | godz.: 19:07)
    mówić żeby o firmie było głośno.
    nVidia nie ma czym powalczyć z hybrydami, tutaj Intel i AMD mają łatwiej bo mają kompletne platformy.
    nVidia ma GPU i to nie najciekawsze.


  2. nie jest źle - czego mieli by się bać ? (autor: mоrgi | data: 5/10/10 | godz.: 19:10)
    intelka ze swoimi zbukami ???

    Jeśli nie będą tworzyć takich tworów jak chociażby ostatnia "oferma", to nie będzie źle...


  3. @AmigaPPC (autor: Wujofefer | data: 5/10/10 | godz.: 19:38)
    Wg. ich wykresów następca oFERMI ma być przynajmniej 2x szybszy. Jak nie będzie tak wcinać prądu i działać jako grzejnik to możemy być spokojni o Nvidie.
    Jedyne co mnie martwi to plotki o wydawaniu własnych kart graficznych przez Nvidie. Jak zrezygnują z firm partnerskich i sami będą wytwarzać grafiki to historia może się powtórzyć i skończą jak 3Dfx (którego sami wykupili).
    Właśnie współpraca z firmami trzecimi i ich niereferencyjnymi projektami zapewniła przetrwanie na ówcześnie niestabilnym rynku grafik dedykowanych.


  4. @AmigaPPC (autor: emu. | data: 5/10/10 | godz.: 20:14)
    @mоrgi
    @Wujofefer

    zbuk oferma? powinny polecieć bany za robienie śmietnika z komentarzy.


  5. @emu (autor: batorki | data: 5/10/10 | godz.: 20:34)
    a co takiego poza swoją prywatną opinią o powyższych "ekstra " produktach powiedzieli żeby bana dostać

    nie przklinali nie ubliżali konkretnej osobie/bom tylko wyrazili bolesną prawdę którą również popieram o produkcie

    tobie również wolno przezywać nasze achy i ochy nie robiąc ze słownictwa wobec innych piszących tu osób rynsztoka

    dodatkowo wszyscy wiedzą jak fantastyczną wydajność mają produkty grafikopodobne przy odtwarzaniu filmów z YouTube'a, oraz już wszyscy zdążyli poznać opinie jego wysokości, o jego sztandarowym produkcie

    więc wg mnie nie potrzeba się awanturować o rzeczy powszechnie znane a bolesne dla jednej ze stron.

    poczekaj kiedyś i ty bedziesz miał szanse nam nabluzgać takimi epitetami tylko narazie jeszcze cierpliwie musisz poczekać, ciut jeszcze ..... jeszcze chwilunie......jeszcze momencik


  6. @batorki (autor: draconewt | data: 5/10/10 | godz.: 20:56)
    emu. z tego portalu wszystko bierze niestety do siebie. Myśli że znosi jaja "zbuki" i jako ptak nielot jest "ofermą".

    PS
    Z góry przepraszam wszystkie inne emu które mogłyby poczuć się urażone.


  7. Wujofefer (autor: damw | data: 5/10/10 | godz.: 21:03)
    bullshit. nastepca ofermy ma byc szybszy 2x.......... ale w obliczeniach dp/W a nie ogolnie 2x szybszy. rownie dobrze moze to oznaczac taka sama wydajnosc jak teraz, nizszy proces (a wiec lepszy stosunek mocy/W) i identyczna wydajnosc + usprawnienia dp

  8. nVidia miała szanse aby zacząć tworzyć własną platformę. (autor: xernos | data: 5/10/10 | godz.: 21:03)
    Ale intel nie pozwolił na przejęcie/zakup licencji x86 wraz z VIA (ich procki nie były jakoś nadzwyczaj wydajne ale w połączeniu z CUDA by to coś dało). A tak czeka ich ciężki orzech do zgryzienia -pzdr.

  9. Czas NV się kończy (autor: Marek1981 | data: 5/10/10 | godz.: 21:36)
    Smutne ale mam nadzieje, że wykupi ich ktoś inny niż intel... Chyba iż arabowie się zainteresują:)

  10. @9/Marek1981 (autor: franc# | data: 5/10/10 | godz.: 22:33)
    No to masz taska na niedziele: idź do kościoła i módl się żeby tak nie było... Ja nie lubie monopoli.
    A tak serio: nie przesadzajcie z tym bankructwem. ATI też kaszaniło przez jakiś czas, a teraz ma dobrą passę. Przyjdzie pora na NV, spoko.


  11. I tego sobie (autor: AmigaPPC | data: 5/10/10 | godz.: 22:56)
    i Wam życzę :)
    Bo słaba nVidia nie jest dla nas dobrym rozwiązaniem.


  12. AmigaPPC (autor: Teriusz | data: 5/10/10 | godz.: 23:21)
    Tylko, że ta słabość Nvidii się pogłębia coraz bardziej. Walą nam jakieś marketingowe kocopoły, sami spartoli OFermi i się do tego przyznają. Widać że sobie nie radzą na rynku domowych GPU to szukają kasy w serwerach. Tablety z tegra niby są, ale jakoś nie można ich kupić. Do tego odwracają się od swoich partnerów wypuszczając karty pod własnym szyldem. To Nvidia sama sobie robi krzywdę i dopóki się nie zmieni to ich głupie postępowanie to ja nie chce takiej Nvidii.

  13. Jeszcze jedno (autor: Teriusz | data: 5/10/10 | godz.: 23:30)
    Monopol nie jest taki znowu zły. Może i kupisz jedną drogą kartę, ale wystarczy Ci ona na bardzo długo, bo będzie jedynym standardem. Zastoje także są dobre, bo wtedy programiści będą mogli lepiej zoptymalizować swoje oprogramowanie lub gry pod jeden konkretny hardware. Zobacz jak wygląda sprawa między 5 letnim xboxem360 a obecnymi super maszynkami PC. Łatwiej jest robić gry pod jedną konfikurację Xa niż pod wiele specyfikacji pieców. Także jeden standard to nic złego.

  14. @Teriusz (autor: rainy | data: 5/10/10 | godz.: 23:39)
    Ale właśnie to modułowa budowa peceta (desktop) to jego ogromna zaleta - masz możliwość wymiany praktycznie dowolnego "klocka".

    Owszem dla programistów piszących na konsole, mnogość konfiguracji PC jest prawdziwym bólem głowy ale nie można mieć wszystkiego.

    Co do monopolu, to jest on praktycznie zawsze szkodliwy, a szczególnie w dłuższej perspektywie czasowej.


  15. @franc (autor: Marek1981 | data: 6/10/10 | godz.: 07:08)
    Zanim kogoś skrytykujesz pomyśl zanim zrobisz z siebie debila!!!
    ATI po problemach zostało wykupione przez AMD!!!
    Co do czasu dla NV to pętla się zaciska, kasy zaczyna brakować. Jedynym ratunkiem jest wypuszczenie nowszej generacji kart o poprawionej wydajności i niskim poborze elektrycznym.

    Ja też nie cierpię monopolu więc im źle nie życzę..... ale widzę kolejne wpadki i dziwne zachowania tej firmy, robiącej sobie wszędzie wrogów.


  16. nikt nie wie co będzie (autor: insomnia | data: 6/10/10 | godz.: 07:51)
    CPU i GPU w jednym układzie może zdobyć rynek co najmniej w 50% bo na pewno tylu użytkowników zaspokoi potrzeby w 100%, natomiast dla entuzjastów (w tym graczy) dalej będą klepane oddzielne akceleratory. Ponadto nie wielkim problemem jest dla inżynierów z NVIDI rozbudować GPU o CPU co by spowodowało większą konkurencję, bo intel i amd czują się jak monopoliści.

  17. @Teriusz (autor: stud3nt | data: 6/10/10 | godz.: 08:20)
    Niestety, ale nie masz racji.

    Pamiętam czasy dominacji nVidii, było to w końcowym okresie GeForce 256 i za czasów GeForce 2. Ceny kart z górnej półki wysokie (1300-1800zł), karta ze średniej półki (500-800zł) pozwalała na grę w max detalach przez może rok, nie dłużej (poczytaj stare testy na TPC).

    Tymczasem mam kolegę, który w pierwszej połowie 2008 roku składał z używek kompa za 1500zł (C2D, 2GB RAM, 8800GT) i do dzisiaj ma z tego bardzo wydajny sprzęt dający sobie radę ze wszystkim. Wiem, że spora w tym zasługa konsol, ale nie tylko. Metro 2033 zarzynające najlepsze karty graficzne chodzi zupełnie płynnie - ponieważ te najlepsze karty zarzynane są wyśrubowanymi rozdzielczościami i antyaliasingiem, a nie detalami, jak było kiedyś.


  18. stud3nt (autor: Teriusz | data: 6/10/10 | godz.: 09:55)
    Ja nie mówię o dominacji tylko o monopolu, bo to są 2 różne sprawy.
    Pamiętam czasy atari800xl i amigi500. To były wspaniałe czasy. 1 konfiguracja na dłuższy czas.
    Z piecami obecnie jest jak z dystrybucjami linuksa. Co z tego, że jest tak wiele możliwości i każdy może dostosować pod siebie jak nie ma 1 porządnego distra i jest od cholery standardów, bo każdy ma swóje rozwiązania.
    Wyobrażacie sobie 10 producentów GPU, a każdy z nich by miał swoje własne CUDA, swoją architekturę. Jedni by robili sterowniki tylko pod dx, a inni tylko pod opengl. Co z tego, że konkurowali by ze sobą i my jako konsumenci mielibyśmy taniej jak wszystko poszło by rozdrobnienie. Podobnie jest dzisiaj z komórkami. Każda firma ma swoje rozwiązania i nadal nie można się doczekać wspólnych standardów np. ładowarek pod mini usb, bo wszyscy robią po swojemu :/


  19. ... (autor: Teriusz | data: 6/10/10 | godz.: 09:56)
    Sorry za błędy, ale jeszcze się dobrze nie obudziłem. :P

  20. Oczywiście, że się boją (autor: krzysiek_mil | data: 6/10/10 | godz.: 10:26)
    a ja chciałbym, żeby mieli własne CPU, bo byłaby szersza oferta na rynku.

  21. nVidia nie boi się APU i Intelowej wersji Fusion :-) (autor: Qjanusz | data: 6/10/10 | godz.: 11:46)
    istne CUDA płyną z ust przedstawicieli korporacji z Santa Clara.

    Nie widząc istotnego dla działalności ich firmy problemu, godzą się na jego pogłębianie.
    Oby zadufania w sobie skośnookich frajerów nie odczuł każdy klient dowolnej grafiki, którą będzie chciał nabyć na np 2 latka.


  22. a moim subiektywnym zdaniem :D (autor: cyferluu | data: 6/10/10 | godz.: 13:32)
    fusion i Sb będą dominowały w komputerach dla osób nie grających w gry na co dzień lecz czasami do nich zaglądających, tak więc popyt na karty graficzne ze średniej i wysokiej półki nadal będzie. zarówno NVIDIA jak i AMD nadal będą sprzedawać swoje karty. kwestia ustawienia cen kart NVIDII tak, aby były atrakcyjne dla GRACZY.

  23. @cyferluu (autor: Qjanusz | data: 6/10/10 | godz.: 13:45)
    masz rację, ale pamiętaj że APU odetnie dostęp do dość lukratywnego rynku grafik niskiej wydajności.

    A w tych bardziej wydajnych nVidia nie może szarżować z ceną, bo kasa zebrana za żniwa kotletowe kurczy się nieuchronnie, nowych źródeł przychodu firma ciągle szuka i znaleźć nie może, a koszty produkcji Radka są mniejsze niż produkcji GeForca. Dodać do tego kosztowny TWIMBDT-jakos tam...

    Średnio to widać.
    Ci co tego nie widza, niech poczytają sobie kondycji finansowej nVidii.


  24. @Qjanusz (autor: Marek1981 | data: 6/10/10 | godz.: 13:52)
    Jak teraz Nowe APU będą atakowały średnio-niski segment. Każdy wie iż co jakiś czas będzie to tylko niski segment a średni i wyższy będzie dochodowy.
    Pytanie czy NV przetrzyma bez średnio niższego i niższego segmentu???? Tam jest najwięcej kasy ( tu króluje Intel z swoim syfem)

    Pytanie kto wesprze/przejmie tonącego???


  25. @Marek1981 (autor: Qjanusz | data: 6/10/10 | godz.: 14:11)
    może Oracle ich przejmie i wpakuje do swoich gratów Teslę.

    Zawsze to jakiś ratunek...


  26. @Marek1981 (autor: Rajq | data: 6/10/10 | godz.: 14:17)
    jaki srednio niski? Toz to po wysjciu bedzie totalny lowend a nie sredni. Z kazdym rokiem wydajnosc najnizszego segmentu wzrasta. Jesli AMD teraz wydaje tylko fusion dla najmniejszych urzadzen to nV i tak nie zabierze to dochodu bo jej tam po prostu nie ma. Liano jak pisza przesuneli na III kw 2011 r to tak znajac zycie wyjdzie moze w IV. Kolejna rzecz to samo PROJEKTOWANIE chipow. Z gpu sprawa jest prosta. Wychodzi jeden chip na jego bazie robi sie caly segment. W skrajnych przypadkach wydawanie jest mozliwe co 8-12 mc. Teraz wychodzi Fusion projektowany od kilku lat. Juz w momencie wyjscia jest lowendem i jak ma nadazyc ze kartami zewnetrznymi? polaczenia cpu i gpu nei da sie wydawac tak szybko jak gpu zewnetrzne. I jesli nV "ucieknie do przodu" z wydajnoscia to nawet w lowendzie fusion i sandy/Ivy jej nie dogonia. Samo AMD jakos nie chwali sie tym ze bedzie kasowac low end w kartaxh dyskretnych bo zdaje sobie sprawe ze one jeszcze beda potrzebne.

  27. W tej sytuacji (autor: neuron | data: 6/10/10 | godz.: 18:15)
    najlepiej teraz wypada i przyszłosciowo AMD :) Ma najlepsze gpu :P

  28. @Rajq (autor: Mariosti | data: 6/10/10 | godz.: 18:36)
    nV spośród sprzedawanych gpu ponad 60% przychodów ma właśnie z low-end'u więc oświecam cię - nvidia jest definitywnie obecna na najniższej półce cenowej.

    APU zniszczy low-end dedykowanych kart graficznych bo za darmo z procesorem będzie w komputerze w zupełności wystarczające gpu, a nawet całkiem niezłę jak wspomniane z Liano, które obecnie zaliczałoby się do aż średniej niższej półki.

    Karty dedykowane w low'endzie do tej pory potrafiły się w nie zmieniać nawet przez kilka lat jeśli chodzi o wydajność i faktyczną konstrukcję (i u ati i nvidii), bo nie o nią chodzi w tym segmencie. Wydajność ma znaczenie dopiero dla kart średniej półki które oferują najlepszy stosunek ceny do wydajności, producenci gpu zarabiają na nich w przeliczeniu na sztukę najwięcej, i sprzedaje ich się wielokrotnie więcej niż gpu high-endowych.


  29. nie boi sie ale juz na innych polach zaczyna uprawiac (autor: josefek | data: 10/10/10 | godz.: 08:37)
    rozwiazania hybrydowe pozwola zwiekszyc frekvekcje , doprowadza do wzrostu do wydajnosci grafiki przy tym samym ukladzie conajmiej o 30 %, pozwola zmiejszyc koszty MB( chipset prosciejszy) ale tak pozatym na nowym chipsecie Hudson AMD nie widac konvertora VGA, moze go do APU przeniesiono....

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.