Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Wtorek 11 maja 2010 
    

Cicha premiera nowych układów Tesla


Autor: Wedelek | źródło: BSN, Nordic Hardware | 13:07
(64)
Nvidia poszerzyła swoją rodzinę kart Tesla o dwa nowe produkty bazujące na GPU Fermi oznaczone jako Tesla C2050 i Tesla C2070. Nowość od zielonych składa się z 448 procesorów strumieniowych (Cuda Cores) wspomaganych przez 3GB pamięci GDDR5 od Samsunga z technologią korekcji błędów ECC komunikujących się za pomocą 384-bitowego interfejsu w przypadku modelu C2050 i 6GB w C2070. W porównaniu do serii przeznaczonej dla użytkowników domowych PCB Tesli zostało przebudowane w celu osiągnięcia wyższej wydajności w obliczeniach GPGPU i dodania kilku niezbędnych w środowisku korporacyjnym funkcji. Procesory strumieniowe (CUDA CORE) w nowym układzie pracuje z częstotliwością 1150 MHz, pamięci charakteryzują się taktowaniem 1500 MHz a TDP wynosi 247W.

Karta jest wydajniejsza od poprzednich produktów zielonych i może się pochwalić wydajnością 1.03 Tflop w przypadku pojedynczej precyzji i 515 Gflop jeśli mówimy o obliczeniach związanych z podwójną precyzją. Produkt zapewnia także wsparcie dla CUDA C/C++/Fortran, OpenCL, DirectCompute Toolkits i NVIDIA Parallel Nsight™ dla Microsoft Visual Studio. Niestety pomimo zalet karta nie spełnia obietnic jakie partnerzy korporacyjni mogli usłyszeć w 2009 roku od Nvidia. Winna jest temu skomplikowana architektura samego Fermi, który nie spełnia wymogów termicznych i producent jest zmuszony poczekać na lepsze dopracowanie obecnego procesu produkcji lub zmniejszenie jego wymiaru by móc wprowadzić mocniejsze karty. Wystarczy przypomnieć sobie, że rok temu Nvidia we wstępnej specyfikacji wspominała o 512 procesorach strumieniowych taktowanych zegarem 1500 MHz współpracujących z pamięcią RAM tykających z częstotliwością 2500 MHz i wskaźnikiem poboru mocy nie przekraczającym 175 W. Niestety cięcia odbiły się na finalnym produkcie, który oferuje jedynie 68% planowanej wydajności przy jednoczesnym zwiększeniu poboru prądu o 41%. Sytuacja ta sprawia, że nowa Tesla raczej nie będzie mieć łatwego „życia”, a przynajmniej do czasu wyeliminowania problemów „wieku dziecięcego”.

Orientacyjne (sugerowane) ceny netto wynoszą obecnie 9′500,00 PLN za Tesla C2050 Board 3GB ECC GDDR5 oraz 14′900,00 PLN w przypadku Tesla C2070 Board 6GB ECC GDDR5. Pierwsza konfiguracja zapewnia wydajność do 0.52 TFlop (Double Precision), natomiast druga do 0.63 TFlop.


 
    
K O M E N T A R Z E
    

  1. łoooooch (autor: Qjanusz | data: 11/05/10 | godz.: 14:07)
    15 Kpln za gniota - bosko
    Bosko zwłaszcza w zestawieniu z "oferuje jedynie 68% planowanej wydajności przy jednoczesnym zwiększeniu poboru prądu o 41%."

    Karta dla profesjonalistów a nie go grania. Okazuje się że ani do tego, ani do tego.

    "Karta jest wydajniejsza od poprzednich produktów zielonych i może się pochwalić wydajnością 1.03 Tflop"

    ATI Mobility Radeon HD 5870 - 1.12 TFLOPS.
    http://www.notebookcheck.net/...-5870.23073.0.html

    :-)
    Śmiech gromki i pustynia


  2. ... (autor: kubaswielgus | data: 11/05/10 | godz.: 14:34)
    To co podaje Nvidia i ATI to wyniki dla wybranej aplikacji. Ciężko porównać ich moce obliczeniowe bo OpenCL jest mocno olewany przez Nvidię. Żadnego śmiechu nie ma tylko dałeś się nabrać na marketing.

  3. @kubaswielgus (autor: Qjanusz | data: 11/05/10 | godz.: 15:06)
    jakiej aplikacji? O czym Ty piszesz???

    Jest to teoretyczny peak w obliczeniach. Masz wzór na tę wartość, bez udziału żadnych aplikacji!

    clock * l.jednostek * 2 (sygnał ddr)

    i dla HD5870mobile:
    700MHz*800 (shaders) *2 = 1.12 TeraFLOPs
    dla Fermi C2070 masz:
    1150Mhz * 448 (CUDA) * 2 = 1.03 TeraFLOPs

    Mój śmiech wywołało nie tylko to porównanie, a Ty dałeś się nabrać na swoją wiedzę.


  4. ... (autor: kubaswielgus | data: 11/05/10 | godz.: 15:16)
    Nie wiedziałem, ale w takim razie co ta wartość ma oznaczać skoro testy pokazują zupełnie co innego?

  5. @kubaswielgus (autor: Promilus | data: 11/05/10 | godz.: 15:38)
    A co ma oznaczać...tyle samo co np. 220-300km/h w przypadku samochodów ;)

  6. ... (autor: kubaswielgus | data: 11/05/10 | godz.: 16:02)
    Nadal nie jasno tłumaczycie. Flops - jednostka wydajności komputerów - to w takim razie Radeon Mobile jest szybszy od Tesli? (a świstak zawija w sreberka)
    Skoro Qjanusz podał wzór na wydajność to po co używa się specjalnych programów do obliczania wydajności superkomputerów?


  7. @Wedelek (autor: Simon89 | data: 11/05/10 | godz.: 16:14)
    Troszkę wprowadzasz w błąd nieświadomych ludzi... GPU w tej Tesli nie może pracować z prędkością 1150MHz. Sądzę że to jest wartość taktowania "rdzeni CUDA". Samo GPU pracuje z połową prędkości tych rdzeni czyli 575MHz.

    Nie wyobrażam sobie Fermi z takim taktowaniem. Na jednym z polskich portali testowano tą kartę (tylko w wersji desktopowej) i nie zdołali podnieść napięcia na układzie nawet o 0.1V... bo się przegrzewała :)


  8. @ kubaswielgus (autor: xernos | data: 11/05/10 | godz.: 16:18)
    To ze zieloni dali w łapę komu trzeba, a tak na poważnie to jest porównanie teoretyczne ale pozakazuje ułomność rozwiązania nVidii, które już nie jest wstanie sprostać konkurencji -pzdr.

  9. hiehie (autor: morgi | data: 11/05/10 | godz.: 16:21)
    Te wartosci flops przynajmniej realne, a nie bajkowe, wyciagaja podobnie w zwyklych testach opencl, a radeonki...podobnie czyli lipa na papierkach.

  10. ... (autor: kubaswielgus | data: 11/05/10 | godz.: 16:36)
    Widzę, że znowu wmieszałem się w jakąś idiotyczną dyskusję...
    Qjanusz wytłumaczył skąd się biorą te liczby podawane przez producentów, ale prawdę mówiąc to ten wzór można sobie zastosować do pomiaru wydajności kalkulatora. Przydałby się jakiś test pod OpenCL na obliczenia zmiennoprzecinkowe.


  11. tu pokazuje ile co ma terafolpów (autor: kosa23 | data: 11/05/10 | godz.: 17:00)
    http://www.benchmark.pl/zestawienie_gpu.html

  12. @kubaswielgus (autor: Promilus | data: 11/05/10 | godz.: 17:10)
    tylko wydajność zależy od zastosowanego algorytmu. Po co ci test pokazujący dodawanie a+b=c w pętli jak tego typu obliczenia to zazwyczaj niewielka część wszystkich, bardziej przydatne jest a*b+c choćby... ale i tak wszystko sprowadza się do kilku rzeczy:
    1 - jak programista napisze
    2 - jak dany algorytm da się rozbić na równolegle wykonywane fragmenty
    3 - jak dany GPU sobie z tymi fragmentami poradzi.
    Nie ma uniwersalnego testu pokazującego układ x jest bezwzględnie szybszy od y w każdym zastosowaniu, nawet linpack...


  13. @ Simon89 (autor: Wedelek | data: 11/05/10 | godz.: 19:00)
    Oczywiście chodziło o procesory strumieniowe, już poprawiłem bo faktycznie było nieprecyzyjnie napisane. Notabene określenie procesory CUDA to nazwa własna Nvidii, która opisuje ni mniej ni więcej a SP. O ile jeszcze w Tesli jest to do przyjęcia, o tyle w Geforce już nie bardzo. Zwykły chwyt marketnigowy.

  14. Nie ma zalamki ati wprowadzilo dopiero (autor: morgi | data: 11/05/10 | godz.: 19:58)
    pierwsza generacje pod gpgpu, wczesniejsze mozna w tym temacie wrzucic do kosza, ale i najnowsze radeonki sa w lesie, opencl przy CUDAcznosci rowniez, a to zle motywuje na przyszlosc.
    http://img20.imageshack.us/img20/1716/fftl.png


  15. @up (autor: tompo75 | data: 11/05/10 | godz.: 20:18)
    Ty każdy temat musisz sprowadzic do NV vs ATI?
    Może na onecie w temacie pogody też wmieszasz tą dyskusję?
    I to tyle, bo jedyne co słuszne w Twoim przypadku i co robię to ignor odnośnie "treści" Twoich wypowiedzi.


  16. tompo75 (autor: sz4rlej | data: 11/05/10 | godz.: 20:54)
    morgi sieje wiatr, a twojepc zbiera burzę ;) to się nazywa trollowanie i flame. Po ludzku rzecz ujmując podżega do kłótni :) Zaraz zobaczę tu 50 komentarzy ubliżających morgiemu i mówiących o wyższości NV nad ATI i odwrotnie.

  17. ... (autor: Teriusz | data: 11/05/10 | godz.: 20:57)
    Co wy gadacie? To nie wina Nvidii i zaprojektowania Fermi, a producentów układów chłodzących, które nie są dostosowane do dzisiejszych realiów projektowania układów GPU ;P ;P ;P

  18. @Tompo75 (autor: AmigaPPC | data: 11/05/10 | godz.: 21:04)
    czyli naruszenie regulaminu forum, a nikt z Adminów nie kasuje postów @M tak jak moich (nie naruszających regulaminu w żadnym punkcie).

  19. taaa (autor: morgi | data: 11/05/10 | godz.: 21:13)
    Czyste fakty i link w koncu o to chodzi Nvidia vs. reszta swiata, a ja spokojnie zapodaje argumenty, sa jakies inne, podobne odmienne, czy dalej off?

  20. ... (autor: Wujofefer | data: 11/05/10 | godz.: 21:17)
    A ja i tak kupie to co będzie w danym momencie prezentowało najlepszy stosunek ceny do wydajności przy odpowiednio ustalonym wcześniej budżecie.

  21. @Wujofefer (autor: Teriusz | data: 11/05/10 | godz.: 21:33)
    Coś w stosunku wydajność/cena jest, ale niestety tak do końca nie można się nim sugerować. Np. w przypadku CPU im tańszy układ tym ma lepszy współczynnik czyli takie celerony wypadały w nim lepiej. Już lepiej się kierować współczynnikiem wydajność/wat.

  22. ...... (autor: Marek1981 | data: 11/05/10 | godz.: 21:43)
    Tak odchodząc troszkę od tematu to są już sklepy w których 480 jest na wystawie:) To przy małej ilości wydanych egzemplarzy świadczy o braku zainteresowania tą grafiką.

    Co do samej tesli to poczekamy i się okaże co potrafi. Jak na razie samo fermi zawodzi, może tu coś pokażą??

    Co do porównywania działania cypersów w profesjonalnych programach to jak się chce programista przerobić kod to czasami wychodzi nawet 4x szybciej niż na kartach NV.

    No cóż za słabą pozycję w rynku pro z pewnością ma wine samo AMD, nie płacąc haraczy i nie dając takiego zaplecza jak NV


  23. @morgi (autor: Promilus | data: 11/05/10 | godz.: 21:47)
    Tak, tak...a teraz pokaż level one MD :) Nie pokażesz? Ale dlaczego? Bo AMD ma 232GFLOPS w tym wypadku a tesla 1060 tylko 150? A Może level one SCAN test? Cypress 127 items/s a tesla 69. Reduction - 5.62 items/ns cypress vs 3.1 items/ns tesla. Tak tak, właśnie Cię zniszczyłem ;)

  24. @Terius (autor: Marek1981 | data: 11/05/10 | godz.: 21:51)
    "Coś w stosunku wydajność/cena jest, ale niestety tak do końca nie można się nim sugerować. Np. w przypadku CPU im tańszy układ tym ma lepszy współczynnik czyli takie celerony wypadały w nim lepiej"
    http://www.chip.pl/ranking/podzespoly-pc/procesory
    Nie zgodzę się z tym. Mylisz się i to bardzo... cena celeronów i cd są już porównywalne a wydajność cd jest dużo lepsza. tak samo z obozu AMD semptron 140pln a x2 od 200pln a w wydajności jest już przepaść.


  25. A ja dorzuce test (autor: Markizy | data: 11/05/10 | godz.: 21:54)
    GTX480 vs 5870
    http://img534.imageshack.us/...73/gpcdoubleops.png

    http://img688.imageshack.us/...8/9135/69533881.png

    tylko w specjalnych funkcjach GTX bije na głowę radka, w pozostałych jest odwrotnie.
    Tylko ktoś obeznany z tematem wypowiedział by się ile takich funkcji specjalnych się wykonuje na ogol w programach.


  26. @up (autor: Markizy | data: 11/05/10 | godz.: 21:55)
    w funkcjach specjalnych radeony nie startują :/

  27. @Marek1981 (autor: Teriusz | data: 11/05/10 | godz.: 22:21)
    Chip to policzył przez wydajność^2/cena. Na in4 ten sam współczynnik wyliczają innym wzorem [wydajność/(cena/wydajność)]*wydajność.

    Teraz przelicz to tak jak normalny człowiek np. z tej tabeli z chipa Power/cena i powiedz mi co ci wychodzi?


  28. @kubaswielgus (autor: Qjanusz | data: 11/05/10 | godz.: 22:30)
    to co podałem to wzór na moc samego układu GPU

    Na wydajność całej karty dokłada się wydajność podsystemu pamięci, sterów, algorytmów wykorzystujących moc GPU, oraz sztuczki i kruczki (jak np Metro2033 i Fermi)

    Na sam algorytm obliczania tej wielkości można się obrażać, ale używa jej AMD, nVidia, Programy typu GPU-Z, czy nawet Intel nie chciał się ośmieszać swoim Larrabee, bo wyliczył że AMD już na prawie 5 TeraFLOPs w Hemlocku - a dokłądnie 4,64 TeraFLOPs.

    Tu praktyczne zastosowanie czystej mocy peaku GPU, który w dodatku został napisany pod nVidię (żeby było śmieszniej):
    http://www.brightsideofnews.com/...rformance_6.jpg

    Przy okazji test ten pokazuje w jak głębokiej dupie jest Intel w poszukiwaniu mocy w swoich kiepskich i drogich i7


  29. ... (autor: Wujofefer | data: 11/05/10 | godz.: 22:42)
    Nie sądzę żeby ktoś trzymał na wystawie grafę za 2000 zł. Mój znajomy mając sklep komputerowo-elektroniczny trzyma na wystawie 3 atrapy blackberry (normalnie za każdego z nich od 1500 w górę) i same pudełka po prockach intela. Sprzęt nie może marnować się na wystawach, jego cena z czasem spada a to oznacza straty dla sprzedawcy.

  30. ...... (autor: Wujofefer | data: 11/05/10 | godz.: 22:45)
    Aha i przy mojej wypowiedzi wyżej co do wydajności do ceny pisałem tam też o ustalonym budżecie, chodziło mi o to ile jestem skłonny wydać gotówki i co w tej cenie będzie miało najlepszy stosunek ceny do wydajności.

  31. ... (autor: Teriusz | data: 11/05/10 | godz.: 22:47)
    Wszystko robija się o sposób wyliczenia wydajności danego układu. Według mnie najlepszym wyznacznikiem wydajności jest czas w jakim dany układ przeprowadzi obliczenia. Im bardziej skomplikowane tym lepiej. Dlatego wkurzają mnie wszelkiego rodzaju syntetyczne benchmarki, które podają wyniki w jakiś tam punktach ustalonych przez samych siebie lub wyliczanie za pomocą Mhz*ilość shaderów itp.

  32. @Teriusz (autor: Qjanusz | data: 11/05/10 | godz.: 22:57)
    "wyliczanie za pomocą Mhz*ilość shaderów itp" - akurat ten algorytm jest miarodajny bo używają go wszystkie firmy IT- chyba jasno napisałem wcześniej.

    Co do syntetyków, to się zgodzę - to z kolei bardzo wielkie pole do manipulacji głupim ludem poprzez przekręty w starach (ostatnio Intel i Vintage), oraz pisanie algorytmu pod konkretną architekturę.


  33. @Qjanusz (autor: Teriusz | data: 11/05/10 | godz.: 23:06)
    Tylko zegar i ilość shaderów to nie wszystko. Przytnij GPU wąską szyną np. 64bity i wtedy ten przelicznik daje d...

  34. @Teriusz (autor: Qjanusz | data: 11/05/10 | godz.: 23:12)
    wchodząc w szynę, wychodzisz poza wydajność GPU a zaczynasz mówić o wydajności całej karty.

    Przeczytaj proszę jeszcze raz co napisałem w #28


  35. @Teriusz (autor: Promilus | data: 11/05/10 | godz.: 23:23)
    Nie bardzo...możesz mi wierzyć albo nie, ale w F@H tak zasadniczo nie ma większej różnicy między DDR2 8600GT a wersją DDR3 tak jak nie ma większej różnicy miedzy 256 a 512MB wersją.

  36. @Qjanusz (autor: Teriusz | data: 11/05/10 | godz.: 23:28)
    Jak to wychodzę poza wydajność GPU? O sorry, ale kontroler pamięci jest w GPU. Gdybym mówił o taktowaniu pamięci lub ich rodzaju to tak, ale kontroler jest nieodłączną częścią GPU.

    Co do wydajności to równie dobrze można okroić układ o ilość ROP lub TMU. Może to też nie GPU?


  37. @Promilus (autor: Teriusz | data: 11/05/10 | godz.: 23:32)
    Nie wyjeżdżaj tu panie z pamięciami, bo o nich wcześniej nie mówiłem. Jeszcze raz powiem. Kontroler pamięci a pamięć to mimo zależności i współpracy to są to dwie różne rzeczy.

  38. @Promilus (autor: Qjanusz | data: 11/05/10 | godz.: 23:36)
    dokładnie.

    Jeżeli grafika przewala spore ilości tekstur przez pamięć, to podsystem graficzny ma spore znaczenie.

    A jeżeli wymiana danych jest symboliczna, to wychodzi na wierzch czysta moc GPU (jak w linku z łamaniem haseł)


  39. @Teriusz (autor: Qjanusz | data: 11/05/10 | godz.: 23:47)
    Na podsystem pamięci składają się szerokość szyny, takty i rodzaj zastosowanej pamięci. Są to elementy które składają się na parametr przepustowości podsystemu pamięci "Bandwidth" wyrażanego w GB/s

    Odpal sobie GPU-Z, pobaw się częstotliwością GPU, Mem i odczytaj co Ci podaje program i jakie suwaczki na co wpływają.


  40. @Teriusz (autor: Promilus | data: 12/05/10 | godz.: 00:00)
    "Tylko zegar i ilość shaderów to nie wszystko. Przytnij GPU wąską szyną np. 64bity i wtedy ten przelicznik daje d..."
    A to co miało znaczyć? Zmieni się szczytowa wydajność jak się zmniejszy szyna? Nie - bo to po prostu częstotliwość*ilość instrukcji w 1 cyklu*wartość (ile ops/flops), tak się liczy i7, cell, tak się liczy xenon, tak się liczy xenos, tak się liczy każdą kartę od pojawienia się DX9 ;) I wierz mi NIGDZIE w tych obliczeniach nie uwzględnia się ograniczeń pamięci czy układu przewidywania rozgałęzień, czy dekodera rozkazów...to czysta największa teoretycznie możliwa wydajność jednostek arytmetycznych. Masz z tym problem? Komunikacja z pamięcią na karcie to i tak (jak w przypadku naszych szybkich CPU) co najmniej setka cykli - zupełnie nieefektywne, komunikacja z pamięcią główną jeszcze bardziej, po to jest cache, ale cache nie jest częścią kontrolera pamięci. Z wysokiej przepustowości pamięci (a więc i kontrolera bo pamięci nikt nie będzie dawał lepszych niż jest w stanie kontroler wykorzystać ^^) skorzystają tylko specyficzne problemy, cała reszta na przepustowość znów aż tak wrażliwa nie jest - więc może nie ma sensu bardzo na to uwagę zwracać?


  41. ... (autor: Teriusz | data: 12/05/10 | godz.: 00:32)
    Wydajność to bardzo ogólne pojęcie. Trochę się zagalopowałem, gdyż zacząłem także myśleć o wydajności w grach, gdzie chodzi także o tekstury i gdzie ważną rolę spełnia ROP, TMU i kontroler pamięci. Tutaj natomiast liczy się bardziej sama moc w obliczeniach arytmetycznych, gdyż mówimy o GPGPU i Tesli, czyli mowa głównie o shaderach. Sorry, wybiegłem myślami za daleko.

  42. @Qjanusz (autor: Teriusz | data: 12/05/10 | godz.: 00:41)
    Po twoich słowach z postu #38 dotarło do mnie, że niepotrzebnie moje myśli oscylują wokół jednostek potrzebnych do grafiki i tekstur.

  43. @Terius (autor: Marek1981 | data: 12/05/10 | godz.: 07:19)
    Nie będę tego obliczał ponieważ nie ma sensu. Te testy tam umieszczone są na bardzo niskim poziomie. Kiedyś robiłem testy z założeniem do biura i wyszła dość znaczna przewaga x2 nad celeronem. Teraz opłacalność x2 jest jeszcze większa a ceny bardzo zbliżone.

  44. @Marek1981 (autor: Teriusz | data: 12/05/10 | godz.: 09:02)
    Nie wycofuj się teraz rakiem. Jak przeliczysz to zobaczysz, że mam rację. Ja to szybko przeliczyłem sobie w excelu. To nic trudnego i długo nie zajmie ci to czasu.

  45. @Marek1981 (autor: Teriusz | data: 12/05/10 | godz.: 09:18)
    http://img130.imageshack.us/img130/3668/cpuk.png

  46. Promilus (autor: morgi | data: 12/05/10 | godz.: 09:58)
    Celowo wrzucilem ci porownanie ile w MD i SGEMM wyciaga CUDAcznosc, a ile opencl i teraz sobie porownaj i przyznaj, ze opencl to niedorobka ;).

  47. @morgi (autor: Promilus | data: 12/05/10 | godz.: 10:45)
    OpenCL to nie interfejs do GPU, to interfejs do heterogenicznego środowiska i jest zasadniczo bezkonkurencyjny. CUDA to tylko GPU, tak samo CAL, a gdzie CPU z różnymi architekturami i różną ilością rdzeni? No właśnie - w dupie. Poza tym to co wkleiłeś to było OpenCL FFT i efektem jaki chciałeś osiągnąć było zdyskredytowanie AMD - tylko się przejechałeś, bo i w NV 8600GT okazał się lepszy od 8800GTS - a to jest jedna wielka bzdura. W rysowaniu 2D OpenCL okazuje się Juniper zasadniczo najlepszy - nie dziwi cię to? Środowisko jest w wersji 1.0, gdy cuda to obecnie 1.4 jeśli chodzi o shadery (cuda compute capabilities) i bodajże 3.0 jeśli chodzi o SDK. CAL to też 1.4.xx czyli dosyć wczesne wersje a i dużo bardziej rozwijany to nie będzie. AMD CAL/OpenCL > NV CUDA/OpenCL - jasne jest że AMD traci więcej wydajności w Opencl - ale te koszt - to koszt możliwości uruchomienia softu na obu platformach sprzętowych, budowanie mostów a nie murów.

  48. @Teriusz (autor: Marek1981 | data: 12/05/10 | godz.: 11:37)
    Coś mi się wydaje iż poleciałeś za daleko

    Opłacalność
    Wskaźnik opłacalności policzyliśmy dzieląc współczynnik wydajności przez cenę i przesuwając przecinek o jedno miejsce w prawo.
    http://www.in4.pl/...id=630&rectr_str_numer=22


  49. @47 (autor: tompo75 | data: 12/05/10 | godz.: 12:32)
    Szczególnie, że mądrzy twórcy gier nie wydadzą kupę kasy, nie spędzą set godzin nad czymś, co będzie mogła oglądać tylko część graczy, a reszta będzie kręcić nosem.
    z rynkowego i biznesowego punktu widzenia dla twórców gier, lepszym rozwiązaniem bo korzystniejszym finansowo jest wspieranie OpenCL, a nie czegoś co np uruchomi się tylko na np Matrox'ach.


  50. Marek1981 - i przestańmy się wyzywać do małp (@) ;P (autor: Teriusz | data: 12/05/10 | godz.: 13:05)
    Mówiliśmy o procesorach, więc przelicznik z in4 wziąłem z tej recki: http://www.in4.pl/...id=462&rectr_str_numer=14
    Ale jak pamiętam z matematyki [wydajność/(cena/wydajność)]*wydajność to to samo co wydajność^3/cena. Co jest jeszcze większym sztucznym faworyzowaniem wydajniejszych układów.


  51. @ #25 i 26 (autor: Promilus | data: 12/05/10 | godz.: 13:11)
    Startują startują... z SDK 2.0.1, HD4670 stock Special Function floating point 1.08GIPS, Native Special Function 18.5GIPS, INT32 - Add 165GIOPS, Mul 46, MAD 88, Bitwise 148. SHA-1 138 milionów pętli na sekundę. Reszta testów u mnie nie odpala (error #-4 albo -54). Na SDK 2.1 nie działają SFU ( .Trans)

  52. Tu jest (autor: shadowxxz | data: 12/05/10 | godz.: 15:48)
    pokaz mocy nvidii w poprzedniej generacji :)
    Łamanie haseł poprzez RAR GPU Password Recovery v0.5
    Wyniki:
    Plain numbers (for RAR passwords with length == 4) are:
    ~168 passwords per second on single core of Q6600 @ 2.4Ghz (crark's result)
    ~325 passwords per second on 8600 GT
    ~3350 passwords per second on ATI HD4850
    ~2075 passwords per second on GTX260/192SP

    Jak widać teoria przekłada się na praktykę...


  53. @upp (autor: MacLeod | data: 12/05/10 | godz.: 16:02)
    wlasnie odpalilem na 4850 w pracy:
    CURPWD: efbr DONE: 16.13% ETA: 1m 49s AVRSPD: 3514.0 CURSPD: 3365.7 @ 4

    Bardzo fajny programik i skuteczny, dzieki za link :)


  54. @up (autor: tompo75 | data: 12/05/10 | godz.: 16:08)
    jaki programik?

  55. Promilus (autor: morgi | data: 12/05/10 | godz.: 16:22)
    I dlatego, ze do wszystkiego to troche do niczego, bo kiepsko zoptymalizowany nie tylko pod Nvidie, ale co tam wazne ze bencharki robia, a na CUDAcznosci Nvidia chce tworzyc software i kaske mielic, czyli pomysl glebszy, bo biznesowy.

  56. @Rolnik co ma morgi (autor: tompo75 | data: 12/05/10 | godz.: 16:39)
    "do niczego" bo NV źle wypada, to oczywiste.
    "czyli pomysl glebszy, bo biznesowy."
    chyba najpłytszy pomysł, pt. mielimy kase.
    tylko że twórcy gier na to nie pójdą żeby tylko 50% (czysto statystycznie) mogło coś wykorzystać nad czym się narobili i zaimplementowali.
    Głębszy pomysł to unifikacja i standaryzacja.


  57. @gora (autor: MacLeod | data: 12/05/10 | godz.: 16:54)
    http://www.golubev.com/rargpu.htm

  58. @morgi (autor: Promilus | data: 12/05/10 | godz.: 17:28)
    Tak, tak...i co jeszcze powiesz ciekawego? Przecież x86 też jest właśnie procesorem do wszystkiego ;)
    "a na CUDAcznosci Nvidia chce tworzyc software i kaske mielic" - a kto z tego będzie mieć kasę - tylko nv więc nie pitol, że każdy producent softu tak się na CUDA napala. Raz - pisanie tylko pod cuda ogranicza liczbę kupujących do posiadaczy kart tej firmy, dwa - ogranicza narzędzia do tych udostępnionych przez w/w ;)


  59. integra od AMD okazuje się być niedocenionym (autor: Qjanusz | data: 12/05/10 | godz.: 18:08)
    pierdzidełkiem do gier:
    http://www.benchmark.pl/...deona_HD_4200-2914.html

    w życiu bym nie pomyślał.


  60. Qjanusz (autor: Markizy | data: 12/05/10 | godz.: 18:29)
    nvidia też dobre integry miała, ale obecnie to gatunek wymierający.

  61. @up (autor: Qjanusz | data: 12/05/10 | godz.: 20:22)
    swego czasu Intel też miał dobrą grafikę. I Matox. S3 również gościł na dywanach.
    Kiedyś to panie konną jeździli ;-)


  62. Promilus (autor: morgi | data: 12/05/10 | godz.: 21:24)
    To ja ci powiem gpu to slepy zaulek do wyswietlania grafiki wcale nie taki mus, jako akcelerator wcale nie jest taki niezbedny jak cpu, a teraz powolutku wpadna pod skorupe proca i zostana skonsumowane jako ich skladowa do wspomagania fpu.

  63. Qjanusz (autor: Markizy | data: 12/05/10 | godz.: 21:27)
    A panowie jakimiś pałami machali :)

    No jak by nie patrzysz zintegrowany 9400 i 9300 były całkiem dobre (obecnie tylko w ION) i mogą konkurować z obecnymi, ale nvidi odechciało się chipsetów dla CPU i niema nowszych układów. A to co obecnie to już nie ten wiek.


  64. @morgi (autor: Promilus | data: 12/05/10 | godz.: 21:58)
    unlikely ;) To co znajdziesz pod czapą procesora to będzie to co obecnie widać jako IGP. Owszem - będzie to w stanie coś tam akcelerować, ale...do intensywnej grafiki i intensywnych obliczeń i tak zewnętrzne GPU będą potrzebne, a nie sądzę by ktoś zrobił chipa składającego się wyłącznie z samych 'cuda cores' bez rop, bez tmu i innego grafikowego badziewia.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.