Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 28 maja 2010 
    

PhysX odblokowany?


Autor: Wedelek | źródło: Tech Power Up | 19:49
(72)
W 2008 roku technologia PhysX opracowana przez firmę Ageia ruszyła pod skrzydłami Nvidia do natarcia. Niestety wraz ze wzrostem popularności tej technologii "zieloni" postanowili że może to być świetna karta przetargowa zwiększająca sprzedaż kart graficznych z serii GeForce i nie powinna działać na kartach graficznych konkurencji. Właśnie w ten sposób rozpoczęło się blokowanie w nowych wersjach sterowników fizycznych (od wersji 186) działania karty jeżeli w komputerze znajdowała się karta produkcji AMD.

Oczywiście szybko znalazły się osoby które próbowały obejść to zabezpieczenie. Jeden z crackerów regularnie pisał "łatki" do nowych wersji sterowników od Nvidia które pozwalały na bezproblemowe wykorzystywanie Radeona do renderingu oraz GeForce'a do liczenia fizyki właśnie. Ten "kabaret" niespodziewanie zakończył się wraz z sterownikami o numerze 257.15 oznaczonych jako wersja Beta, w których PhysX nie został w żaden sposób zmanipulowany w celu "odczuwania" nienawiści do koloru czerwonego. Niestety nie wiadomo co skłoniło Nvidię do takiego kroku i czy aby czasem nie jest to przysłowiowa "wpadka", tym bardziej iż zapis w FAQ stojący za wprowadzonymi ograniczeniami nie uległ zmianie.

 


    
K O M E N T A R Z E
    

  1. ee tam (autor: sz4rlej | data: 28/05/10 | godz.: 20:40)
    to przecież beta, a wy już sensację węszycie. Poczekajmy na wersję pełną. Wtedy będzie można dywagować co się stało, że odblokowali, jesli odblokują :P

  2. ... (autor: arhibald | data: 28/05/10 | godz.: 21:52)
    chwyt marketingowy, sprzedaż wzrośnie potem wejdzie whql i znów sprzedaż spadnie xD

  3. ... (autor: MariuschM | data: 28/05/10 | godz.: 23:23)
    no no dzieje sięXD najpierw facet od PhysX i CUDA przeszedł do AMD a teraz jeszcze odblokowany PhysX:D może być ciekawieXD

    a tak na marginesie to fajny obrazek:) z neta czy sam zmajstrowałeś?? jeśli można prosić o link lub zapytanie do googla to był bym wdzięczny


  4. Nic z tego. (autor: stud3nt | data: 28/05/10 | godz.: 23:42)
    Niestety, ale takiego wała. nVidia już oficjalnie ogłosiła, że to błąd w sterownikach, a nie celowe działanie. W ostatecznej wersji tego nie będzie.

    Na szczęście, crackerzy nie idą na urlop.


  5. @MariushM (autor: Wedelek | data: 28/05/10 | godz.: 23:59)
    Obrazek skleiłem z dwóch wcześniej przygotowanych. Jednym z nich było logo wycięte szybką maską a drugim właśnie trawiasta łąka pochodząca z jakiejś akcji ekologicznej. Obrazek znajdziesz tutaj: http://yfrog.com/2tloveourearthcloseheart1j.

    Niewykluczone ze jeśli poszukasz w internecie po nazwie to trafisz do oryginału. Pozdrawiam.

    PS: Cieszę sie że Ci się podoba:P


  6. PS... (autor: Wedelek | data: 29/05/10 | godz.: 00:01)
    link połączył mi się z kropką.

    http://yfrog.com/2tloveourearthcloseheart1j


  7. Lubię Nvidię ale (autor: doktornvidia | data: 29/05/10 | godz.: 03:14)
    Najlepiej by było gdyby obie firmy w jakimś tam zakresie współpracowały ze sobą a nvidia była zawsze dusigroszem po zawyżonej cenie ,mimo że naprawde lubię to firmę bo mój stary 8800 gts512 jakoś telepie i nie sprawia mi problemów to dla wszystkich było by dobrze gdyby nvidia nie robiła własnych standardów tylko wspólne z ATI i jedna i druga firma wyszła by na tym dobrze

  8. psiks (autor: morgi | data: 29/05/10 | godz.: 10:44)
    jednak ma ogromne znaczenie jesli robi sie taki zamet i nie dziwie sie 'blokowaniu' ze strony Nvidii, bo w pelni mozna skorzystac tylko na ich sprzecie, a konkurencja niech zostanie w pokrzywach.

  9. @morgi (autor: stud3nt | data: 29/05/10 | godz.: 12:57)
    Nie zgodzę się - oni nie blokują wykorzystywania psiksa na kartach konkurencji (co by było dobre i prawidłowe pod każdym względem), tylko na swoich własnych! A to już szczyt wredności i głupoty. Każdy powinien mieć pełną dowolność wyboru i użytkowania.

  10. @up (autor: tompo75 | data: 29/05/10 | godz.: 14:46)
    Dlatego mimo że GForcy lubie to NV jako firma jest dla mnie padaczką i tego typu zagrania, czy atrapy, mnie wcale nie dziwią i upewniają w przekonaniu co do polityki tej firmy.
    Po drugie to łatki są cały czas że [fizix] jest na ATI
    Po trzecie - nie trać czasu i życia na dyskusje z trollami ;p


  11. ... (autor: coolart | data: 29/05/10 | godz.: 16:25)
    to się zaczyna robić jak Intel vs AMD. te firmy w ogóle nie rozumieją działania biznesu jak zablokują jedno to i zablokują drogie wiec nici z interesu. jak nie dasz paszy kurze to nie zniesie jajka, a ty nie będziesz miał co zjeść na śniadanie, nie dasz krowie trawy to nie wydobędziesz z niej mleka, wszystko krąży w kole. Jak jedna karta blokuje druga to klient zrezygnuje z jednej (i tu lud szczęścia czy wybierze ta czy inna, czy zzyka pierwsza firma czy druga) badz wybierze całkiem inna.

  12. @morgi (autor: Aamitoza | data: 29/05/10 | godz.: 17:06)
    "bo w pelni mozna skorzystac tylko na ich sprzecie"

    Tak? Przepraszam - posiadając geforce'a i radeona nie mogę, mimo posiadania sprzętu nvidia. Ciekawe co na to nieświadomi klienci którzy dokupili sobie GF aby korzystać z fizyxa. - w końcu na pudełku nie jest napisane, że nie działa im to nie zadziała.


  13. ... (autor: Aamitoza | data: 29/05/10 | godz.: 17:07)
    *nie jest napisane, że im to nie zadziała.

  14. Niedługo fizyx będzie blokowany w kompach, które (autor: Qjanusz | data: 29/05/10 | godz.: 18:48)
    mają niebieskie i czerwone obudowy.

    Oczywiście wszystko to w ramach troski o klienta, który ma wiedzieć że kompy działają najlepiej w obudowach czarnych i przede wszystkim zielonych.

    nVidia dba o ludzkość i chce tępić wszelką głupotę na świecie. Ceo nVidii powiedział w końcu kto jest głupcem i dlaczego.

    oj za bogato było nVidii.


  15. @up (autor: tompo75 | data: 29/05/10 | godz.: 19:38)
    Dokładnie, tą wypowiedź że tylko głupcy nie mają/będą mieć Physx'a dorzuciłem do koszyka rzeczy, które pogrążają tą firmę jeśli chodzi o marketing i podejście do klienta.
    Kiedyś jeszcze chociaż dobre karty robili, a teraz nawet i to nie, bo cała seria F jak na razie jest do kosza.


  16. stud3nt (autor: morgi | data: 29/05/10 | godz.: 20:19)
    Masz pelna dowolnosc, nikt niczego nie ogranicza, bierzesz ten albo inny produkt z takim znaczkiem, a nie kombinujesz. To, ze na ati nie ma nic procz problematycznego renderowania 3d to juz tajemnica powszechnie znana, a Nvidia tylko dba o swoj wizerunek i produkty, ich prawo.
    Aamitoza
    Tak, tak a ja wole, zeby miec kompa z procami Intela i amd w kooperacji i zobaczyc kto faktycznie rzadzi, a nie moge nakombinowac sie jak je polaczyc w combo. To jest oczywiste, biore a albo b, a nie kombinuje, no chyba ze jestem fan i chce czegos co nie ma moja firemka.


  17. do wszystkich (autor: zeek | data: 29/05/10 | godz.: 20:36)
    nie dotykać gówna bo śmierdzi

  18. @ALL (autor: AmigaPPC | data: 29/05/10 | godz.: 20:53)
    tak nawet najlepsi się poznali na firemce [ http://nvision.pl/...row--News-16708-ndetails.html ]

  19. A nalepszy tekst to (autor: morgi | data: 29/05/10 | godz.: 22:25)
    'Za 18 miesięcy amd może nawet zrównać się wydajnością z kartami NVIDIA'
    Oczywiscie mozna sie przymilac jednemu a brzydzic drugim kiedy szuka sie dziury w calym, a ma swoje wlasne, ale w tej chwili profesjonalisci wlasnie unikaja ati za brak wsparcie i totalne niedopracowanie.


  20. morgi (autor: Aamitoza | data: 29/05/10 | godz.: 23:13)
    Do fizyxa i tak trzeba 2 kart, bo jedna się dławi w wielu przypadkach. Więc dlaczego musi to być nvidia skoro w wielu przedziałach cenowych radeony są po prostu szybsze? Szczególnie w okolicach 1000zł.

    Twój przykład jest idiotyczny niestety... s tego powodu, że można posiadać jednocześnie 2 karty w komputerze, a 2 procesorów pod inne sockety nie.

    W zasadzie ludzie oszukani (inaczej tego nazwać nie można) przez nvidia powinni ich pozwać za takie blokady w sterownikach. Nikt na pudełku nie napisał, że physX jest zablokowany w przypadku wykrycia radeona.


  21. @morgi (autor: Promilus | data: 29/05/10 | godz.: 23:14)
    Z logiką i wiedzą u ciebie widzę równie cienko. Tajemnica powszechnie znana to jak czarne słońce ;) GPU PhysX to program odpalony w środowisku CUDA, zatem karta nvidii absolutnie NIE musi renderować obrazu do gry, wystarczy że jej jednostki obliczeniowe poprzez CUDA będą liczyły fizykę. Tylko tyle i aż tyle. Chociaż ty i tak nie zrozumiesz, ale całe szczęście są też inni użytkownicy tego portalu ^^

  22. Dowody (autor: AmigaPPC | data: 29/05/10 | godz.: 23:16)
    nie brednie.

  23. @Up (autor: AmigaPPC | data: 29/05/10 | godz.: 23:20)
    było do @M.

  24. @morgi (autor: akpert | data: 29/05/10 | godz.: 23:29)
    Jeśli NVidia dalej będzie nam serwować niewypały w stylu "Fermii" to te 18 miesiący skróci się do kolejnej generacji kart.

  25. A może by wreszcie przejść na otwarte standardy... (autor: MBR[PL] | data: 30/05/10 | godz.: 11:09)
    Bo na razie te wojenki podjazdowe nVidia/ATI (CUDA, Stream, PhysX, wsparcie dla Havoc w sterownikach itp) trochę przypominają mi kłótnie warzyw, które za chwilę skończą w zupie. Przyjdzie MS ze swoim DX11 (z DirectCompute) i wyru...
    To jest naprawdę ostatnia chwila na przyjęcie otwartego standardu (do tego wieloplatformowego) jakim jest OpenCL. Potem będzie już za późno i wszystkich "pogodzi" MS pacyfikując ich swoim jednoplatformowym, tylko pod Win7 zamkniętym "standardem" i będzie tak samo jak OpenGL, OpenAL i teraz z OpenCL. Otwarte,darmowe, standardy, lepsze niż propozycje MS (działają nie tylko na WinNT 6.x albo odwrotnie jak z akceleracja DirectSound), a i tak praktycznie prawie wszyscy piszą pod dyktando frameworków MS, który wykorzystuje je do promowania i wpierania w brzch swoich kolejnych OSów (maszynek do robienia pieniędzy jak Win7 - z Vistą nie za bardzo się udało - przeliczyli się) po prostu nie pisząc kolejnych DirectX pod starsze wersje Windows. NA dziś windows XP to już ostatnie podrygi - tylko na stary sprzęt i programy mające problemy ze zgodnością z NT 6.x, do nowych komputerów domowych gry/multimedia od NT 6.x nie ma ucieczki i wyboru - nowy sprzęt celowo nie jest wspierany przez frameworki pod NT 5.x - a to nie działa akceleracja DirectVideo HD (słynne Birds Flyby potrafi na samym odtwarzaniu w sofcie przytkać i CPU 4-rdzeniowy), od DX 10.x czy DX11 programowo nie ma mowy i nowe, potężne GPU z tessalacją po prostu się marnują itp.


  26. ehhh morgi morgi, jak zwykle głupstwa opowiadasz (autor: lolo_64xxx | data: 30/05/10 | godz.: 11:50)
    NVIDIA sama sobie szkodzi. Kto chce Physxa, ten kupi kartę NVIDII niezależnie czy ma obecnie Radeona czy GeForce'a. Jak zablokują fizykę w sterownikach to myślisz, że ludzie porzucą Radeony dla ich widzimisię? Nie porzucą, a NVIDII niepotrzebnie spadnie sprzedaż. Pracują tam tłumoki, którym zalezy tak bardzo na pieniądzach i odrobieniu strat, że nie patrzą już na nic. NVIDIA do piachu !!!

  27. Promilus (autor: morgi | data: 30/05/10 | godz.: 13:13)
    Taa i logika oczywiscie dziala, wszystko co ma znaczek Nvidii musi oczywiscie i bedzie dzialac prawidlowo tylko na jej sprzecie i sofcie, chyba jasniej nie da sie tego przemielic jeszcze raz. opencl niby zblizone do CUDAcznosci, niby Havok tez, niby te otwarte biedne bzdety od amd tez, ale nie beda chodzily technologie ze znaczkiem Nvidii na tych wynalazkach tak jak powinny. Kiedy w opencl zobaczymy psiks, to bedzie kuriozum i tyle, jak kazdy otwarty standard to lipa, bez moznego sponsora, albo wlasciciela takie standardy to puste frazesy i pokaz ich mozliwosci konczy sie smiechem i chichotem. Openszit przy Microsoft DX nie ma co porownywac, tak samo jak przy sprzetowym wsparciu innych technologii.

  28. akpert (autor: morgi | data: 30/05/10 | godz.: 13:18)
    W 18 miesiecy to mozna zbudowac kolejne mity o superwydajnosci ati i mozna odczekac kolejna serii w nadzieji na zmiane tej lipnej architektury. Za 18 miesiecy maja nadzieje na swieze danie, a nie rozlicznego kotleta, a wowczas moze wreszcie moc ati spotka sie w papierach z rzeczywistoscia.

  29. @up (autor: arco2006 | data: 30/05/10 | godz.: 13:25)
    jak by to zmienić ( ati) na nv to bardziej by pasowało.
    "moc ... spotka sie w papierach z rzeczywistoscia." - to bardziej pasuje do NV. Fermi super, ale ledwo klepie wydajnościowo HD5000, a miało to być takie super szybkie i chłodne. A wyszedł bubel.


  30. @morgi (autor: akpert | data: 30/05/10 | godz.: 14:41)
    Nam już spotkała się rzeczywista pseudo moc Fermi z tym co było w papierach. Każdy prawdę widzi tylko nie Ty debilku.

  31. morgi (autor: lolo_64xxx | data: 30/05/10 | godz.: 15:17)
    Larrabee, Fermi, CUDA, Physx, ION2, Optimus... wszytsko jeden ch*j

  32. @lolo (autor: akpert | data: 30/05/10 | godz.: 15:56)
    Dobrze, że mi przypomniałeś, bo zapomniałem, o tym pięknym, cudownym i super wydajnym szkicu papierowym, jakim był Larrabee. Obiecanki cacanki, a głupiemu (czyt. morgiemu) radość.
    Intel musiał jakoś zaksięgować swoje lewe pieniądze więc powołał do życia fikcyjny projekt Larrabee.


  33. akpert (autor: morgi | data: 30/05/10 | godz.: 16:41)
    Akurat, w Fermi nie ma fikcyjnej mocy obliczeniowej, wydajnosc teoretyczna jest tylko nieznacznie wieksza od praktycznej, patrz teraz na denne hd5k, ze 2x wiecej flopsow a daje ciala, czyli moc na papierkach.

  34. @morgi (autor: Promilus | data: 30/05/10 | godz.: 16:43)
    Dowody...bo już w testach które wcześniej prezentowałeś udało mi się twoje zakłamanie udowodnić.

  35. @morgi (autor: akpert | data: 30/05/10 | godz.: 17:38)
    Ty to lepiej dokładniej papierki przejrzyj bo jesteś tak udany jak ten portal. Co, nie pamiętasz już jak to cudownie Fermi się prezentował na papierkach jeszcze w tamtym roku? Debili z nas czy z siebie teraz robisz?
    Flopsy hd5k najlepiej widać w szyfrowaniu danych.


  36. @All (autor: tompo75 | data: 30/05/10 | godz.: 19:25)
    chce wam się jeszcze "dyskusje" z trollami prowadzić?
    dajcie spokój, szkoda życia i czasu na błędnych "rycerzy".


  37. Promilus (autor: lolo_64xxx | data: 30/05/10 | godz.: 20:43)
    Morgi nic Cin nie udowodni. On jest bajkopisarzem. Wymyśla historyjki na poczekaniu wyssane z palca. Taki nasz vortalowy błazen, z którego można się pośmiać. Dla mnie to jest wrak człowieka.

  38. Promilus (autor: morgi | data: 30/05/10 | godz.: 21:31)
    Przypomnij sobie linki do benchmarkow pod opencl - shoc i gpc, a potem przysosob sobie o ile lipniejsze jest to opencl w stosunku do CUDAcznosci. Na ati nie ma jak inaczej co zmierzyc, bo u nich nie ma nic procz opencl pod paczka stream.
    http://arxiv.org/abs/1005.2581


  39. morgi (autor: Markizy | data: 30/05/10 | godz.: 22:59)
    z tego wszystkiego wynika tylko że openCL należy dopracować. co nie dziwi skoro na rynku jest z 9 vs 2 lata CUDA.

  40. @morgi (autor: Promilus | data: 31/05/10 | godz.: 05:05)
    Tak, pamiętam te testy i pamiętam, że pokazałeś jeden z FFT a ja pokazałem pozostałe gdzie AMD ładnie lało nv ;) Ale tego morgulek nie pamięta bo to niezgodne z jego zakłamaną wizją świata :P
    A OpenCL bazujące w dużej mierze na podobnych założeniach co CUDA nie jest dużo lipniejsze niż CUDA choćbyś nie wiem jak tupał nóżką :P Lipny to może mieć nv i amd kompilator ^^ I nawet bardziej pewne jest to, że bardziej lipny ma AMD czyli wyniki są ok. A w stream sdk CAL nadal jest, a na sourceforge jest brook+, jak ktoś chce może używać, są listy rozkazów do hd3k ,4k i 5k również. W końcu z tego, a nie OpenCL korzysta igrargpu, ighashgpu czy ewsa gdzie pięknie radeonki leją wszystko od nv i ich cuda niewidy.


  41. Promilus (autor: morgi | data: 31/05/10 | godz.: 09:33)
    Lalo ledwo i to nie Fermi, a stare gt200, a teraz gdzie ta magia 2tflop+? W papierach.
    http://img63.imageshack.us/...59/gpcfloatops21.png


  42. @morgi (autor: Promilus | data: 31/05/10 | godz.: 09:52)
    A czy wiesz jaka jest różnica wydajności GT200 a Fermi w obliczeniach pojedynczej precyzji? Nie wiesz...to weź najpierw się dowiedz a potem pierdol. Ok?

  43. Ati (autor: Sony Vaio | data: 31/05/10 | godz.: 10:15)
    Też by blokowało, jakby mieli co blokować, a tak tylko sfrustrowani fanboje, że nie mogą physix na ati odpalać.

  44. ta pewnie (autor: Markizy | data: 31/05/10 | godz.: 10:18)
    5870 http://img688.imageshack.us/...8/9135/69533881.png
    5850 http://img688.imageshack.us/...8/9135/69533881.png
    GTX480 http://img688.imageshack.us/...8/9135/69533881.png


  45. @up (autor: Markizy | data: 31/05/10 | godz.: 10:20)
    brak 5850 w zestawieniu :/

  46. @up (autor: Markizy | data: 31/05/10 | godz.: 10:21)
    cholera
    GTX480 http://img534.imageshack.us/...73/gpcdoubleops.png


  47. morgi (autor: Aamitoza | data: 31/05/10 | godz.: 10:25)
    http://img85.imageshack.us/img85/8268/device22.jpg

    http://img199.imageshack.us/...9/6183/totalset.jpg

    Zaznaczę, że w przypadku GTX295 działał 1GPU - co nie zmienia faktu, że 5870 jest 70% szybszy od GT200.

    Do tego można zaznaczyć, że 5770 robi prawie taki wynik jak jeden GPU z GTX295.

    http://imglink.ru/...a649d32b242fb0b4b3eb486ac.png
    a tak prezentuje się GTX480 - jak widać słabiej od 5870.


  48. @Aamitoza (autor: Promilus | data: 31/05/10 | godz.: 11:09)
    Zapomniałeś dopisać dlaczego tak się prezentuje. A to tylko ze względu na emulację tych funkcji bo dziwnym trafem sterownik był nieaktualny :P
    http://en.inpai.com.cn/...?id=7670&pageid=7112
    Masz nowsze. Dodam od siebie, że na hd4670 sdk2.0 i 2.01 działały pewne SFU z niezłą wydajnością w benchmarku, a w przypadku sdk 2.1 działały ale w trybie emulacji dając dużo gorsze rezultaty. W DP Fermi jest dużo wydajniejsze od GT200 i troszkę od Cypressa. W SP tak różowo dla nv nie ma.


  49. Promilus (autor: morgi | data: 31/05/10 | godz.: 14:49)
    Jaka byc moze, jak nie prawie 2x, ukryty mul to lipa, czasem dostepny tylko co 8 cykl, kiedy normalnie mad w Fermi jest co 2 cykle. Do hpc liczy sie tylko dp, a tam w mad Fermi loi niemilosiernie radeonki, roznica 2 generacji.

  50. @morgi (autor: Promilus | data: 31/05/10 | godz.: 14:53)
    Wyniki czarno na białym, a w sumie żółtym bo to .CN ;) I co? Zatkało kakao jak zwykle, nic mądrego do dodania. Super architektura nastawiona na GPGPU kontra zwykły GPU od AMD i to 30% mniejszy :P Tak, tak, popisała się nvidia...

  51. Promilus (autor: morgi | data: 31/05/10 | godz.: 16:39)
    Taaa, wyniki czarno na bialym, a ja szukam tego 2x tyle co na papierze se amd naskrobalo. Fermi z gpgpu to kilka lat przewagi i kolejny atut, czyli no.2 hpc w akcji Fermi.
    http://www.top500.org/lists/2010/06/press-release


  52. Do uzupelnienia (autor: morgi | data: 31/05/10 | godz.: 16:53)
    chinski superkomp. na 4870x2
    'The 5120 AMD RV770 GPUs [2560 ATI Radeon HD 4870 X2 2GB cards]. Together, 6144 Intel CPUs and 2560 AMD GPUs reach a theoretical speed of 1.206 PFLOPS.'
    'The Nebulae system which uses 4,640 Tesla chips, consumes about 2.55 megawatts compared to about 7 MW for Jaguar.'

    Dla przypomnienia wg papierkow amd 4870 gpu to 1,2Tflopa, czyli mniej wiecej tyle ile identyfikuje sie Fermi-Tesla. To w teorii magia liczb spada okrutnie na bruk, bo u ati to niestety fikcja.


  53. @morgi (autor: Promilus | data: 31/05/10 | godz.: 18:47)
    Fikcyjna to jest substancja szara w twoim mózgu ;)

  54. hehe (autor: morgi | data: 31/05/10 | godz.: 19:20)
    Jednak takie sa fakty:
    http://www.top500.org/list/2010/06/100
    Rmax, Rpeak serwera na bazie Fermi opad szczeki, a karcioszki na bazie ati sa daleko z tylu. W papierach mozna wszystko w realu obalone mity leza w gruzach, Fermi zaczyna trudna sciezke, ale jako jedyne z gpu sie nadaje do tego.


  55. morgi (autor: Aamitoza | data: 31/05/10 | godz.: 19:26)
    Te wyniki nie uwzględniają radeonów z prostej przyczyny - Linpack nie jest obsługiwany przez GPU od AMD ;]

    poza tym zauważ, że Nebulae posiada 120000 rdzeni, a tianhe-1 tylko 70000.


  56. @Aamitoza (autor: Promilus | data: 31/05/10 | godz.: 19:47)
    Zasadniczo...to Fermi też nie daje nic do tego rezultatu. Linpack na GPU się nie wlicza do wyników, tak było w Tianhe i wątpie by w nebuli było inaczej.

  57. promilius (autor: Aamitoza | data: 31/05/10 | godz.: 20:03)
    wiem, dlatego to napisałem. A różnica w wydajności wynika z tego, że nebulae ma prawie 2x więcej rdzeni ;]

  58. @morgi (autor: Promilus | data: 31/05/10 | godz.: 20:27)
    Tak tak, fałszuj dalej wyniki hipokryto:
    120640 cores 1271.00 Rmax 2984.30 Rpeak
    71680 cores 563.10 Rmax 1206.19 Rpeak
    Tianhe-1 na starych 55nm chipach AMD daje 46% max wydajności w linpacku, a Nebulae na nowiutkich 40nm nvidii daje 42,5% - widać jak świetne są karty fermi ^^ I jak w pełni wykorzystywana jest ich moc. Teraz taka zagwozdka dla ciebie lamko, skoro RV770 w Tianhe-1 są taktowane obniżoną częstotliwością (525MHz vs 750 jeśli dobrze pamiętam), a RV870 jest od zwykłego RV770 2.26x szybsze to jaki wynik miałby Tianhe-1 z karcioszkami HD5970? Tak, tak, misiu pysiu ;) Taki że Fermi to się może chować ^^


  59. Promilus (autor: morgi | data: 31/05/10 | godz.: 21:29)
    Nie rozumiesz, tam jest full 5120 ukladow rv770, a Fermi jest 4640 w modelu slabszym 2050 i tak wg papierkow amd to powinno byc porownywalne, a nie jest. Papierki amd podaja fikcyjne moce, tam tyle ich nie ma, tam jest niemoc, policz sobie nawet jakbys chcial przypasowac to nic nie bedzie, bo zwyczajnie radeonki kiepsko spotykaja rzeczywistosc w temacie flops. Prawdopodobnie nowa architektura ktora kiedys od nich nadejdzie bedzie miec juz poprawke. Jesli masz potwierdzenie swoich wyliczen to zapodaj, bo ja daje czyste fakty, a te miazdza amd jak zwykle.

  60. Aamitoza (autor: morgi | data: 31/05/10 | godz.: 21:37)
    Moze inaczej, radeonki dualiki nie obsluguja niektorych elementow linpack, traktowane wiec sa jako single, ale wowczas to tradycyjna gigantyczna wtopa ze strony konstrukcji gpu i tak nie pierwsza. Jesli wymienia na single 5870 oczywiscie troche im wzrosnie, ale czy wyprzedza przynajmniej 2x Fermi watpie, czyli w papierach amd 2x to koncert zyczen, nie mowiac o raczkujacej opencl i praktycznie niebycie stream.

  61. @morgi (autor: Promilus | data: 31/05/10 | godz.: 21:55)
    Wg jakich papierków miszczuniu? To są wyniki DP jak mniemam, na co wskazuje:
    Intel EM64T Xeon X56xx (Westmere-EP) 2660 MHz (10.64 GFlops). Teraz jeśli weźmiemy RV770 z 240GFLOPS DP @750MHz i przeskalujemy do używanej w tianhe częstotliwości to mamy z 1GPU poniżej 200GFLOPS DP. Gdy w przypadku Tesli 2xxx jest to powyżej 300GFLOPS. Ale wystarczy podmienić RV770 na Cypressa i również mamy świetne rezultaty. Tak, morgusiu, licz dalej, może kiedyś w końcu ci coś wyjdzie.


  62. hehe (autor: morgi | data: 31/05/10 | godz.: 22:13)
    Kombinuj dalej i jestes w domku to jest dp i tutaj zwyczajnie Fermi jest szybsze od tego starego dualika, bo rv770 mialo wg papierkow amd do 240 a Fermi 515 czyli jest nieco szybsze od tego starego dualika, ale wowczas powinno nadrobic liczebnoscia gpu, to wynik nie powinien oscylowac wokol 44% z tego co uwinie na Fermi. Nie ma co sie czarowac, bo wyniki byly robione na '1600' spu, czyli lipa.

  63. @morgi (autor: akpert | data: 31/05/10 | godz.: 22:23)
    "Jesli masz potwierdzenie swoich wyliczen to zapodaj, bo ja daje czyste fakty" tiaa... fakty z palca wyssane.

  64. morgi (autor: Aamitoza | data: 31/05/10 | godz.: 22:59)
    Cypress ma w DP minimalnie mniejszą wydajność od fermiego. wg papierku w przypadku RV770 masz 240GFLOPS, zegar jest mniejszy, więc przypada około 200GFLOPS na GPU.

    Rmax jest to w zasadzie wydajność samych CPU. Rpeak, po wliczeniu GPU.

    Nebulae ma 12710 TFLOPS Rmax i 29840 TFLOPS Rpeak. Przy czym posiada 120000rdzeni. W tym 4640 Tesli.

    Tianhe1 ma o połowę mniejsza wartość Rmax i 2/5 Rpeak. całość 70000rdzeni w tym 5120 RV770.

    Gdyby w tianhe-1 użyć tyle samo Xeonów co w nebulae Rpeak w tianke przekroczyło by połowę wartości Rpeak nebulei.

    Czyli innymi słowy 5120 RV770 dysponowało by połowę mniejszą mocą od 4640 Tesli.

    teraz analizując fakty, że cypress jest ponad 2x wydajniejszy od rv770 dochodzimy do tego, że między fermim a cypressem różnic w wydajności nie ma.


  65. @Aamitoza (autor: Promilus | data: 31/05/10 | godz.: 23:18)
    ... W DP, w SP są i to dosyć spore...na korzyść Cypressa.

  66. @Promilus (autor: Aamitoza | data: 31/05/10 | godz.: 23:31)
    Cały czas pisałem o DP - w końcu wydajność superkomputerów mierzona jest w DP.

  67. @Aamitoza (autor: Promilus | data: 1/06/10 | godz.: 09:06)
    Owszem, ale nie wszystkie obliczenia są DP. W przypadku CPU jest zazwyczaj tak (dzięki SIMD)
    SP=2*DP. Pomyśl, mamy rejestr 128bit czyli mieszczą się 4x32 albo 2x64 - procek w jednym cyklu przemieli 4 dane 32 bitowe albo 2 64 bitowe. W przypadku Fermi jest troszkę inaczej, tzn też 2x, ale z innego powodu. Natomiast w przypadku AMD jest to już sporo więcej bo do 5x - widać różnicę? :> No to się pytam, gdzie ten fermi kontra cypress :P


  68. Aamitoza (autor: morgi | data: 1/06/10 | godz.: 09:23)
    Zle tlumaczysz, Rmax to wartosc samych cepow, bo linpacka nie puscisz na gpu, a Rpeak se policz, tam wychodzi kosmos bo to wlasnie Fermi w akcji.

  69. Promilus (autor: morgi | data: 1/06/10 | godz.: 09:46)
    Gdzie te 2,7Tflopa vs. 1,35 od Fermi, gdzie te 4,63 na dualiku, przeciez to powinno miazdzyc w benchach, a tu nic sie nie dzieje.
    W top500 wyzej jest znacznie Fermi, ale to moze sie zmienic, bo Intel poteznie atakuje i terra 100 jeszcze nie w zestawieniu, a gdzie reszta mlotow, sporo sie zmieni.


  70. @morgi (autor: Promilus | data: 1/06/10 | godz.: 11:31)
    Masz gpcbenchmarkocl i zobacz a nie pierdol bez ładu i składu.
    "W top500 wyzej jest znacznie Fermi"
    W top500 wyżej jest komputer składający się z większej ilości CPU i do tego 6 rdzeniowych.
    "Rpeak se policz, tam wychodzi kosmos bo to wlasnie Fermi w akcji."
    Tak, tak...525MHz HD4870X2 to 336GFLOPS DP przy liczbie kart 2560. C2050 jest 4640 po 515GFLOPS DP. To zaraz policzymy jak to się kreuje wydajność. 2560*336=860TFLOPS. 4640*515GFLOPS = 2389TFLOPS. Teraz zastępujemy 2560 HD4870X2 za pomocą HD5970 i mamy 2560*928=2376TFLOPS. To gdzie ta twoja super wydajność Fermi? 2 generacje przed AMD? Hmm?


  71. Promilus (autor: morgi | data: 1/06/10 | godz.: 15:46)
    Nawet ratujac ati, broniac ze to niskie takty itp. a Fermi ma wyzsze itd. to jak im wyszlo tak niskie teoretyczne Rpeak:
    'Cores:55 680 6C-Xeon 5650 2,66 GHz + 64 960 Nvidia Tesla C2050 (1,15 GHz)
    Cores:20 480 Xeon E5540/5350 +51.200 ATI Radeon 4870X2'
    I teraz te 64 960 Fermi robi 1,7Pflop, a 51200 od ati robi niecale 700. Kiepawe te radeonki, a w papierkach ati taka potega.


  72. @morgi (autor: Promilus | data: 1/06/10 | godz.: 15:57)
    Zaiste podniecają cię numerki :) To sprawdź jak wygląda wydajność z GT200 (30 Cores!!) hehe, różowo? Nie. Tak to jest jak się porównuje produkt z 2008r z takim z 2010. Tylko hipokryta tak potrafi ^^

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.