Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Poniedziałek 25 sierpnia 2008 
    

NVidia CUDA w wersji 2.0


Autor: Giray | 10:09
(31)
Nvidia pochwaliła się nową wersją swojego pakietu dla developerów CUDA 2.0. Ten pakiet programowy ma zdaniem Nvidii urzeczywistnić opracowanie technologii, która będzie w stanie wykorzystać wszystkie możliwości układów graficznych tego producenta. Rezultatem tego będzie też częściowe przejecie zadań obliczeniowych od procesora centralnego. Najnowsza wersja CUDA działa na platformach Windowsa a także Mac OS X. Nvidia pracuje też nad umożliwieniem współpracy CUDA z pakietem Adobe Photoshop.

 

    
K O M E N T A R Z E
    

  1. Powoli powoli (autor: Marucins | data: 25/08/08 | godz.: 11:14)
    Na papierze ładnie to wygląda a w praktyce. Ciekawi mnie czy developerzy rzeczywiście zaczną z tego korzystać?

  2. hihi (autor: pit808 | data: 25/08/08 | godz.: 11:14)
    " .... cuda, cuda ogłaszają ....." ;)

  3. az dziwne ze ATI w to nie wchodzi (autor: AZet | data: 25/08/08 | godz.: 12:32)
    a dziwne w ogole ze producenci ukladow graficznych nie chca pomagac w wykorzystaniu mocy gpu...to tak jakby budowac elektrownie atomowa dla zasilania sezonowego wesolego miasteczka.
    GPU w swoich mozliwosciach wielokrotnie przewyzsza CPU.


  4. @AZet (autor: Marek1981 | data: 25/08/08 | godz.: 12:48)
    tyle że GPU jest wyspecjalizowane i dużo głupsze w pozostałych dziedzinach od CPU.
    Tak dla przykładu profesor polonistyki będzie dużo głupszy od ucznia ze skończonym LO. ponieważ:
    -nie zna już matematyki na poziomie LO
    -nie zna już fizyki na poziomie LO
    -nie zna już historii (niekoniecznie) na poziomie LO
    itd. jedynie w wąskim przedziale jest orłem .


  5. Marek1981 (autor: AZet | data: 25/08/08 | godz.: 13:59)
    z tego co piszesz i jak piszesz wydaje sie ze jestes duzo glupszy od GPU.
    Krotko mowiac : pieprzysz takie farmazony ze az przykro czytac, i jezeli zdales mature to pytanie czy przypadkiem czy za ges.


  6. Azet ale o co Ci chodzi ?? (autor: pit808 | data: 25/08/08 | godz.: 14:26)
    Przecież Marek1981 ma trochę racji. Nikt nie wie jak te GPU działają na obliczeniach dedykowanych dla CPU. Mieszasz kolesia z błotem i nie wiadomo dlaczego.

    Wydaje mi się że nawet nVIDIA ma pewne obawy co do swojej CUDAcznej wizji.

    Fajnie by było jak by GPU odciążało CPU ale o tym się już gada z 15 lat, a efekty są żadne. Trzeba patrzyć się na ten pionierski projekt z uwagą ale nie można się ani zachwycać ani mieszać z błotem tego projektu z góry.

    Po za tym trochę kultury chłopcze.


  7. @AZet (autor: Marek1981 | data: 25/08/08 | godz.: 14:27)
    nie będę się ustosunkował do twoich oskarżeń bo nie warto:) Jak nie potrafisz zrozumieć:)
    Zresztą była swego czasu wypowiedz na temat CUDA jakieś wysoko postawionej osoby z obozu Intela, który potwierdził , że GPU jest dużo bardziej wydajny , ale za to jest głupi.


  8. porownywanie (autor: AZet | data: 25/08/08 | godz.: 16:38)
    technologii do zachowan i stosunkow miedzyludzkich na bazie posiadanej wiedzy jest kompletnym IDIOTYZMEM.
    Co ma kurna piernik do wiatraka?
    Jak ktos ma wyksztalcenie ponadpodstawowe to powinien ten idiotyzm dostrzec.
    Gdzie wyscie sie ludzie uczyli? W Trąbkach Wielkich?


  9. @AZet (autor: Marek1981 | data: 25/08/08 | godz.: 17:05)
    uczenie się do pewnego progu (u nas szkoła średnia ) rozwija człowieka ogólnie, potem jest specjalizacja.
    Człowieku ja jestem po studiach matematycznych i widzę jakie mam już braki z np historii i chemii , a dopiero kończyłem LO 8 lat temu.


  10. AZet (autor: infinity | data: 25/08/08 | godz.: 17:09)
    ...kultury troche chlopcze, jak masz pisac takie bzdety i zasmiecac tylko, (bo sam wypisujesz porownania do el.atomowych i wesolych miasteczek-wiec nie czepiaj sie innych) , tu sie pisze komentarze do tematu, a nie komentarze do kogos wypowiedzi i obraza pozatym, jak chcesz to idz na pudelka tam cie napewno wysluchaja...

  11. idiota tym się różni od przeciętnego człowieka (autor: digiter | data: 25/08/08 | godz.: 17:14)
    że ten pierwszy nie potrafi zrozumieć sensu porównania- po prostu jest na to za głupi. Oskarżanie innych o głupotę w tym przypadku porównałbym do powiedzenia "nz złodzieju czapka gore", ale niektórzy tego porównania też nie zrozumieją.

  12. Dajcie spokoj z tymi pyskowkami (autor: Mario2k | data: 25/08/08 | godz.: 18:31)
    w te Cuda 2.0 uwierze jak cos konkretnego zobacze , a tak kolejna czesc wciskania Kitu do glowy maloletnich blondynow .

    Kilka ,kilka lat przyjdzie poczekac az ta cala technologia Cuda bedzie wykozystywana .

    NVidia non stop cos obiecuje ,jak im akcje spadly do minimum to nawet gruszki na wierzbie moga obiecac

    normalny Brainwash nam zapodaja


  13. Nie wiem czy ktos z was zwrocil uwage na: (autor: Kosiarz | data: 25/08/08 | godz.: 18:54)
    "Nvidia pracuje też nad umożliwieniem współpracy CUDA z pakietem Adobe Photoshop."

    To brzmi bardzo rozsadnie i przyszlosciowo wg mnie, sprobujcie sobie toolsem Liquify (albo jakos tak) cos robic na szczotach wiekszych niz 300 - nawet Highendowe proce potrafi przyciac.


  14. żart? (autor: Remedy | data: 25/08/08 | godz.: 20:25)
    Powiedzcie, czy Wy naprawdę żartujecie z tym wykorzystaniem/działaniem CUDA, czy poważnie mówicie? APLIKACJE WYKORZYSTUJĄCE CUDA BYŁY PREZENTOWANE JUŻ BODAJ W ZESZŁYM ROKU!!!!!!111111jedenaście

    Może wielkimi literami do Was dotrze. Co to w ogóle za debilna gadka typu"łeee, czy się przyjmie, czy to rzeczywiście działa, łeee gry tego nie obsługują, łeee jestem jęczącą pizdą".

    Każdy kto ma chociaż trochę oleju we łbie dawno już przeczytał i rozumie czym jest CUDA. Co tu jest do nie działania?

    Czy będzie szeroko wykorzystywane? Pytajcie "developer'ów", którzy mając potężne narzędzie gapią się jak szpak w dupę czekając nie wiadomo na co.

    Nvidia pokazała już kilka zastosowań, czas teraz na programistów.


  15. @remedy (autor: xmac | data: 25/08/08 | godz.: 23:18)
    tia, juz widze stada programistow piszacych soft, ktory bedzie dzialac w co ktoryms pc
    imho rozwiazanie moze i dobre, ale niszowe


  16. @xmac (autor: Remedy | data: 26/08/08 | godz.: 00:11)
    Niszowym mogą je uczynić jednynie programiści. Co to znaczy w co którymś kompie? Czy dla przykładu stacje telewizyjne miały czekać z wprowadzeniem kanałów HD aż "odpowiednia ilość ludzi" kupi telewizory HD? Tylko co wówczas miałoby mnie przekonać do zakupu telewizora HD, gdyby nie było ani jednego programu HD?

    Tak samo tutaj. Jeżeli ktoś napisze dajmy na to encoder do filmów, który wyrobi się w czasie kilka(naście) razy krótszym to znajdzie się spore grono ludzi, którzy specjalnie dla tych możliwości kupią nową kartę graficzną. Tak w zasadzie to nie trzeba nowej. To działa już od serii 8xxx.
    Sam chętnie chciałbym zobaczyć wsparcie CUDA w Photoshopie czy np. 3ds max.
    Zdaje się, że jednak zobaczymy to już w wersji CS4 ;)


  17. Remedy (autor: Dzban | data: 26/08/08 | godz.: 08:08)
    Nie podniecaj się tak. Pokaż jakiś program co teraz z tego korzysta. Nie ma i długo nie będzie. Wspomaganie photoszopa będzie i w kartach ATI.

  18. Zobaczcie Folding@home (autor: Luther | data: 26/08/08 | godz.: 08:41)
    Choć niby działa w tle, to na CPU czuć lekkie spowolnienie (E6850). Puszczony na GPU jest przezroczysty, nie mówiąc już o tym, że wielokrotnie bardziej wydajny.

  19. @Dzban (autor: Luther | data: 26/08/08 | godz.: 08:51)
    Są już bety konwerterów wideo: badaboom i TMPGEnc 4.0 XPress. PhysiX też działa dzięki CUDA. Folding, o którym napisałem powyżej. Ale ty oczywiście dumny ze swojej ignorancji twierdzisz, że "nie ma i długo nie będzie". Pocieszne. ;)

  20. Luther (autor: Remedy | data: 26/08/08 | godz.: 10:13)
    Uprzedziłeś mnie. ;) Programy już są i tylko od programistów zależy kiedy pojawią się kolejne. No chyba, że to (jak co nietkórym się wydaje) Nvidia powinna zacząć pisać dla nas programy.

  21. Marek 1981 (autor: Dabrow | data: 26/08/08 | godz.: 10:21)
    to ja Ci współczuję jak po 8 latach masz już braki z podstaw którymi karmią w liceum... (-; I tyle.

  22. Kosiarz (autor: Dabrow | data: 26/08/08 | godz.: 10:23)
    dokłądnie o tym sobie pomyślałem - jeśli w końcu GPU by zaczeło odciążać proca w takich zastosowaniach to by było coś fajnego, do tego np. przejęcie obliczeń raytracingu w pakietach renderujących itp .... Ale to pewnie jeszcze trochę (-;

  23. hehe... (autor: xmac | data: 26/08/08 | godz.: 13:45)
    ale dekodowanie video, fotoszopy... to rozwiazania niszowe
    dodatkowo wykorzystuja podzespoly tylko jednego producenta, wiec tez sa skazane na waska specjalizacje
    cuda to beda, jak takie cos bedzie dzialac na kazdym gpu ;_)


  24. xmac (autor: Dabrow | data: 26/08/08 | godz.: 14:38)
    to będą jaja pańskie a nie cuda (-;

  25. CUDA w kazdym domu (autor: morgi | data: 26/08/08 | godz.: 17:38)
    w kazdej grze Physyka pomoze "by zylo sie lzej" i lepiej, ale te rachunki w ZE to juz lipa, a nie rzeczywistosc.

  26. OBY TO NIE BYŁY CUDA TUSKA (autor: browar | data: 26/08/08 | godz.: 19:27)
    OBY ...

  27. w ogole te cuda to takie chodzenie rakiem... (autor: xmac | data: 26/08/08 | godz.: 19:46)
    bo niby to dla graczy, ale dziala kosztem ograniczenia fps, czego zawsze graczom brakuje
    imho sens obliczen fizyki bylby gdyby wlasnie procesor sie tym zajmowal, bo teraz procesory wielordzeniowe sobie odpoczywaja, a gpu sie poci


  28. xmac (autor: Remedy | data: 26/08/08 | godz.: 22:40)
    CUDA NIE JEST dla graczy. To nie ma NIC wspólnego z grami.

  29. @remedy (autor: xmac | data: 26/08/08 | godz.: 23:19)
    no tak, nvidia wykupila ageie zeby jej technologie zastosowac do kodowania video ;_P
    imho cuda to jak koprocesory w starych kompterach - dawalo kopa w okreslonych zastosowaniach, ale nie bylo powszechne. skonczylo sie tym, ze i tak procesory wystarczajaco dobrze sobie radzily
    owszem ta cudowna/cudaczna technologia to nie tylko gry, ale jak na poczatku sprzedac ja komus, jesli nie bedzie mial na czym jej wykorzystac/przetestowac, bo jedynie bedac graczem bedzie mial odpowiednia karte graficzna (no ewentualnie jakis 3d studiowiec o ile na fire/quadro to zadziala ;_))
    moze cuda 4.0 nabierze ksztaltow, bo na razie to taki wytwor dr-a frankensteina ;_)


  30. koprocesor caly czas jest (autor: Artur79 | data: 28/08/08 | godz.: 12:50)
    xmac - koprocesor nie umarł i wcale nie był zadko wykorzystywany, wszystkie nowsze gry z niego korzystały i wcale procki sobie dobrze bez niego nie radziły ( sprobój dostac starsza płyte i wyłacz koprocesot to zaobaczysz jak komp zwoli ) pozatym to samo mozna by powiedziec o cache zewnetrznym .. tez byl osobno i tez nie umarl tylko podzielił losy koprocesora .. został wchłoniety do struktóry procesora .... a jak wiesz juz sa próby połączneia GPU z CPU .. wiec kto wie ... moze te cale CUDA juz za "chwile" beda standardowo w CPU .... to ze cos nie jest juz na plycie naocznie to nie znaczy ze juz go nie ma ... wiekszosc jest integrowana z innymi elemeantami.

  31. DirectX11 będzie miał coś na kształt CUDA (autor: gummis | data: 29/08/08 | godz.: 09:13)
    CUDA to nie rozwiązanie sprzętowe. Moim zdaniem coś takiego jak CUDA zostanie ustandaryzowane. Microsoft chwalił się, że w DirectX wprowadzi rozwiązania do GPGPU( General Purpose GPU ). Są już przecież karty np. firmy TESLA, które wyglądają jak zwykłe karty graficzne, tylko nie mają wyjścia na monitor. A napisać programik na kartę przy pomocy CUDA jest na prawdę łatwo. Tu jest przykład dla Pythona:(http://documen.tician.de/pycuda/) Ogromnie szkoda, że AMD nic takiego nie ma, choć sami piszą np. AVIVO.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.