Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 17 grudnia 2010 
    

MSI Radeon HD 6850 Cyclone z zegarami 860/4400 MHz


Autor: Zbyszek | źródło: TechPowerUp | 17:27
(92)
Firma MSI wprowadza na rynek karty Radeon HD 6850 w wersji Cyclone Power Edition stworzonej do podkręcania. Karty mają 1GB pamięci GDDR5 z 256-bitową magistralą oraz zmodyfikowaną płytkę drukowaną z komponentami o podwyższonej jakości i systemem zasilania 6+1+1. Ich serce stanowi układ Barts z 960 procesorami strumieniowymi. Standardowe zegary taktujące wynoszą 860 MHz dla układu graficznego i 4400 MHz dla pamięic, jednak według producenta można je bezproblemowo zwiększyć do 1000/4800 MHz po podniesieniu napięcia zasilającego układ graficzny do wartości 1,2V. Do kart dołączone jest oprogramowanie MSI Afterburner umożliwiające swobodną regulację zegarów oraz napięć. Cena nie została podana, jednak z pewnością nie będzie niska.


 


    
K O M E N T A R Z E
    

  1. Fajne zegary (autor: Arlic | data: 17/12/10 | godz.: 19:10)
    podoba mi się ta karta :)

  2. no... (autor: cyferluu | data: 17/12/10 | godz.: 19:54)
    już nazwa msi sprawia wrażenie solidnej konstrukcji... ta jest tez bardzo ładna...w porównaniu do konkurencji.

    to jak porównać silnik toyoty avensis z 2009 z silnikiem mustanga z 1970 :D wyglądem rzecz jasna :D


  3. Szkoda ze za dobtre chlodzenie dali... (autor: Jarek84 | data: 17/12/10 | godz.: 20:29)
    Odbieraja AMD klientów w gastroonomii :D

    http://www.youtube.com/watch?v=y2OKoEIbGr4


  4. Karta MOCARZ! (autor: Gigant | data: 17/12/10 | godz.: 20:43)
    GTX460 leży i kwiczy.

  5. @Jarek84 (autor: AMD_Master | data: 17/12/10 | godz.: 20:53)
    WOW!!!

  6. niesamowite (autor: cyferluu | data: 17/12/10 | godz.: 21:43)
    radeony tego nie potrafią są jeszcze bardziej nieopłacalne niż były nieopłacane XD jednak struś miał racje...

  7. @3. (autor: cyferluu | data: 17/12/10 | godz.: 21:45)
    chociaż jak odpowiednio się zmoduje chłodzenie można spróbować zrobić blender z tego MSI :D

  8. errata (autor: Jarek84 | data: 17/12/10 | godz.: 22:55)
    swoja drogą kucharz Nv jakiś taki 'typowy'...

  9. a to dla EMUX'a (autor: cyferluu | data: 17/12/10 | godz.: 23:05)
    przebity 1GHz na powietrzu... i to własnie ta karta

    http://forums.hardwarezone.com.sg/...php?t=3029918

    ale on na pewno już to czytał i teraz stronka ta blokowana przez jego firewalla jest XD


  10. @cyferluu (autor: emuX | data: 18/12/10 | godz.: 08:49)
    podkręcony, ale przy jakim napięciu i jak bardzo to zwiększy pobór?

    lepiej kupić tańszego GTX460 1GB którego nawet dzieciaki stabilnie podkręcają bez podnoszenia napięcia mając +20% wydajności.


  11. @cyferluu (autor: emuX | data: 18/12/10 | godz.: 08:55)
    dodam że HD6850 np. wg. techpowerup we wszystkich rozdzielczościach jest szybszy od niepodkręconego GTX460 1GB o 3%. Tylko że karta AMD jest droższa o 8%.

    Zatem jest kompletnie nieopłacalna.


  12. emuX (autor: cyferluu | data: 18/12/10 | godz.: 10:03)
    właśnie zmiana napięć a często i chłodzenia to kwintesencja OC :D

    nie da przeprowadzić dobrego OC bez zmiany napięć, a często bez zmiany chłodzenia...

    tak więc dobrze zrobiony radeon PODKRĘCA się i to bardzo ładnie. kwestia leży w jego wykonaniu... referenty sa tańsze i dla ludzi którym wartości stockowe wystarczają w zupełności.


  13. emuX (autor: expert | data: 18/12/10 | godz.: 11:35)
    Pokaż mi choć jednego GTX460 (nie wersje OC) podkręconego do 870Mhz bez ruszania napięć.

    Ten Radeon 6850 po max OC i tak dalej będzie pobierać mniej W niż GTX460 1GB na stocku :D


  14. @11 (autor: Jarek84 | data: 18/12/10 | godz.: 11:57)
    sam nie zaprzeczasz, że karta AMD jest lepsza - a twoje doswiadczenia jako power user w podkręcaniu już ru wszyscy znają - czyli a)karta w wersji pudełkowej juz jest szybsza od GTX460
    b) świetnie sie kręci
    c) super wygląda
    d) ma świetne sterowniki, które nie wyłączają ficzerków jak user 'nie widzi' i nie ślimaczą kompa na Win7.

    Ma tylko jeden mankament, jak wszystkie niefermiaste gpu - nie zrobisz sobie tosta :D

    Reasumują - karty NV są totalnie nieopłacalne - lepiej brać Radeony i cieszyć się nieporównywalnie lepszą jakością.


  15. @11 (autor: Mariosti | data: 18/12/10 | godz.: 12:52)
    Najtańsze wersje 6850 można kupić za niecałe 625zł, więc taniej od najtańszych 460 256bitowych...(oczywiście wersji pełnych, nie SE które to są zupełnie nieporównywalne z tym radkiem)

  16. @Mariosti (autor: emuX | data: 18/12/10 | godz.: 14:43)
    kłamiesz, jeśli świadomie jesteś kolejnym trolem AMD.

    Najtańsze GTX460 1GB nie SE dostępne są za 575zł, najtańsze dostępne HD6850 za 625zł.

    @Jarek84 typowe trolowanie proAMD.


  17. @16 (autor: Jarek84 | data: 18/12/10 | godz.: 15:08)
    i vice wersus.... :D

    wiadomo jak cos jest tanie, jakie jest, a radiator na sekcji zasilania te palitopodobne GTX poniżej 600zł mają, kręcą to się u nich tylko wentylatory, bo o przyzwoitym OC nie może być mowy, nawet się na nich tosta nie da zrobić - podsumowując nieopłacalna nkaszanka... i żadne trolowanie prNV tego nie zmieni :D:D


  18. Nawet GTX460 1GB (non-SE) Palit (autor: Arlic | data: 18/12/10 | godz.: 15:16)
    kosztuje ponad 600zł

  19. Poprawka (autor: Arlic | data: 18/12/10 | godz.: 15:17)
    Palit kosztuje 641zł :)

  20. @Arlic (autor: Wujofefer | data: 18/12/10 | godz.: 15:23)
    No nie do końca. GTX460 w wersji 1GB (non-SE) da się znaleźć już za 575zł.
    http://www.skapiec.pl/...7_6322_2859_0_0_0_21360_0
    za 629 masz Gigabyte z niereferencyjnym najcichszym chyba chłodzeniem dla 460tek i do tego lekko podkręcony.


  21. @20 (autor: Mariosti | data: 18/12/10 | godz.: 15:33)
    Radzę następnym razem sprawdzić te linki.
    Jedyny nie-SE gtx 460 256bit'owy tańszy od najtańszego 6850 jest dostępny tylko w jednym sklepie w wyprzedaży:
    http://www.pixmania.pl/...kapiec&CodePromo=oui
    Sorry ale to nie jest wg mnie miarodajne określenie ceny, bo jakbyście chcieli ją kupić to zapewne nie byłaby już dostępna.


  22. @Wujofefer (autor: expert | data: 18/12/10 | godz.: 15:47)
    Zanim coś napiszesz może raczyłbyś sprawdzić, czy produkt jest dostępny po tych cenach

    Palit za 575zł jest z Pixmanii, a dobrze wiemy jakiego rodzaju jest to sklep, najtaniej w Ramnecie za 646zł

    tego Gigabyte oczywiście też nie dostaniesz za 629zł, najtaniej w Ramnecie, za 676zł


  23. jak zwykle trole AMD (autor: emuX | data: 18/12/10 | godz.: 16:17)
    zarzuciły brak dostępności. Co do pixmani kupowałem tam kiedyś i było jak w każdym sklepie internetowym. A tutaj kolejne miejsce: http://www.gram.pl/..._HDMI_PCI_E_SE_648_3400.html

    HD6850 jest droższy i nieopłacalny.


  24. A 6970 (autor: antrax | data: 18/12/10 | godz.: 16:24)
    kosztuje 1405 pln, więc za miesiąc powinien kosztować 1200 :)

  25. @up (autor: antrax | data: 18/12/10 | godz.: 16:25)
    Nazwa producenta karty: GAINWARD GeForce GTX460 SE - Smart Edition

  26. emuX (autor: expert | data: 18/12/10 | godz.: 16:46)
    Oczywiście podałeś wersje SE, a nie zwykłą ;) Szukaj dalej, a pixmania to nie jest zwyczajny sklep internetowy, dostawa 40-100zł i o jakiejkolwiek gwarancji możesz u nich zapomnieć ;)

  27. emuX (autor: Gigant | data: 18/12/10 | godz.: 17:10)
    AMD's Manufacturer's Suggested Retail Price for HD6850 is $179
    Nvidia's Manufacturer's Suggested Retail Price for GTX 460 1GB is $199

    To AMD ma tańsze karty a nie Nvidia i twoje biadolenie nic tego nie zmieni. HD6850 jest szybszy od GTX460 a jego MSRP cena jest o 20$ mniejsza. GTX460 jest kompletnie nieopłacalny.


  28. HEJ struś... (autor: cyferluu | data: 18/12/10 | godz.: 17:24)
    tu masz link do OC( GDYŻ OC JEST MERITUM SPRAWY) MSI 460 1GB cyclone... którą kupisz za 688zł w morelach :D

    http://www.guru3d.com/...cyclone-oc-1024-review/19

    osiągnęła tylko 885 MHz tylko tyle w porównaniu do radeona... nie ma wałka... te same komponenty ten sam producent... MSI CYCLONE wiec nie mów,że radeony sie słabo podkręcają!!!

    jeżeli ci się chce możesz przekopać rożne fora i może znajdziesz wyższy wynik ale wątpię...

    nvidia nie ma monopolu na bycie TOP. wszelkie wartości na tym świecie są zmienne...


  29. panie power -user (autor: Jarek84 | data: 18/12/10 | godz.: 17:42)
    co kupowałes i ile zapłaciłeś za przesyłkę wtej pixmani ;> A jeszcze w kontekście Twojego power-OC - odsyłałeś coś kiedys do nich na gwarancji?

    A co do zalinkowanej SE za ~580 zł to bez komentarza....

    GTX460 jest nieopłacalny, a po nowym roku będzie jeszcze bardziej nieopłaclany. AMEN.


  30. cyferluu (autor: Gigant | data: 18/12/10 | godz.: 17:48)
    Cyclone GTX460: 675MHz->885MHz=31.1% OC
    Cyclone HD6850: 775MHz->1020MHz=31.6% OC


    Jeśli chodzi o podkręcanie to HD6850 procentowo nawet lepiej się kręci od GTX460.


  31. procentowo (autor: cyferluu | data: 18/12/10 | godz.: 18:08)
    to równica taka jak żadna...

    chciałem tylko obalić mit emuXa na temat radeonów i ich słabego podkrecania się?

    i ten mit jest Busted... radeony świetnie sie podkręcaja... zalezy wszytko od producenta :D


  32. Gigant (autor: expert | data: 18/12/10 | godz.: 18:12)
    A jeśli brać pod uwagę, że stockowe zegary GTX460 są zaniżone*, to wynik HD6850 jest jeszcze bardziej godny podziwu.

    *Nvidia zrobiła to celowo, aby jej partnerzy mogli odbić sobie straty, spowodowane ogromnym poślizgiem Fermi, dlatego w sklepach widzimy tak dużo wersji OC GTX460


  33. ... (autor: Wujofefer | data: 18/12/10 | godz.: 19:35)
    Swoją drogą nie blokowany układ GF104 jest ZA DOBRY.
    Jakby wypuścili w pełni odblokowanego GTX460 z 384 rdzeniami a nie 336 do tego o taktowaniu gdzieś w okolicach 750-800MHz to mogłoby się okazać, że nie dość że jest szybszy od GTX465 to jeszcze pokonuje znacznie droższego GTX470.
    Jakby nie patrzeć chip GF100 jest jednym wielkim niewypałem i do tego kastratem a cała akcja z osłabieniem GTX460 miała na celu podtrzymać sprzedaż droższych układów.

    ps. mała wtopa z cenami, jak sobie was tutaj czytam to dochodzę do wniosku, że chyba lepiej dopłacić te kilka dych niż kupować w pixmani, nie najlepsze oceny mają.


  34. @6850vs460 (autor: Mariosti | data: 18/12/10 | godz.: 19:37)
    No i dodatkowo wspomnieć o tym że prawie na każdej płycie głównej dostępne jest cf w odróżnieniu od sli "dla wybranych".

  35. Wujofefer (autor: morgi | data: 18/12/10 | godz.: 20:39)
    Zapominasz, ze gf100 jest co Tesli, niewypalem mozna nazwac spokojnie ostatnie premiery, a gf104 to sa chipy specjalnie dla graczy. Misja natomiast z gf110 i gf114 to zaklepac pozycje wiodace i to sie uda.

  36. niestety ale nie (autor: Jarek84 | data: 18/12/10 | godz.: 20:46)
    no chyba że masz w tesli pełne GF100 - ojoj nie ma :D

    Kloca można było sprzedać tylko kucharzykom z zielonymi budyniówkami do barów mlecznych dla biedoty...


  37. @35 (autor: Mariosti | data: 18/12/10 | godz.: 20:49)
    Nie no teoretycznie prawdę powiadasz, przynajmniej tak sugerowała nvidia... nigdy nie poznałem konkretów na temat lepszego przystosowania gf110 do gier kosztem gpgpu względem gf100... jeśli je znasz to mógłbyś rozwinąć ten temat...

  38. @37 (autor: Jarek84 | data: 18/12/10 | godz.: 21:04)
    cos tam przycieli, nie wiadomo co w czipie, ale pare milionow tranzystorow mniej + dodali do GF110 wydajne TMU z GF104 .

  39. @38 (autor: Mariosti | data: 18/12/10 | godz.: 21:13)
    Właśnie o to nie wiadomo co mi chodzi, bo znacznie wzrosła przez to sprawność sp w gf110 i to nawet biorąc pod uwagę ich liczbę i taktowanie 1vs1 względem tych z gf100.

  40. @39 (autor: Jarek84 | data: 18/12/10 | godz.: 21:45)
    po pierwsze jest jeden blok GPC więcej niż w GTX480, po drugie trochę zoptymalizowano. Tu masz napisane co nieco na ich temat:

    http://www.anandtech.com/...dias-geforce-gtx-580/2


  41. Mariosti (autor: morgi | data: 18/12/10 | godz.: 22:13)
    Wszystko tu wyluszczyli,
    http://techreport.com/articles.x/19934
    gf110 to gf100 z poprawionym tdp i malymi tweakami pod gry, jak fp16 fullspeed, lepszy Zculling i przelaczany L1, co ma mikroznaczenie, pod Tesle nic nie stacilo z mozliwosci, ale skoro GeForce ida pierwsze w boj to poszly.


  42. morgi (autor: cyferluu | data: 18/12/10 | godz.: 22:47)
    proszę cię... pisz bardziej poprawnie stylistycznie... z tego co napisałeś nie rozumiem ni krzty.Jakbyś napisał to ładnym językiem to zastanowiłbym się nad tym, może nawet lektury liznął i jakaś polemikę starał się nawiązać...

  43. @41 (autor: Mariosti | data: 18/12/10 | godz.: 23:08)
    Czyli w mocno zoptymalizowanym kodzie opencl/cuda gf110 też będzie w wielu przypadkach sporo szybszy od gf100, bo jako specjalny szybki rodzaj pamięci podręcznej i synchronicznego dostępu do kontrolerów ramu wykorzystuje się właśnie tmu. No chyba że kod nie będzie wymagał przesyłania dużej ilości informacji... ale wtedy wciąż będzie sporo szybszy dzięki dodatkowym sm'om i wyższemu taktowaniu. Ogółem bez problemu mogliby i tesle z tego zrobić i nie byłaby ona wcale bezsensowna.
    Obiektywnie rzecz biorąc ten gf110 nie jest wcale gorszym zoptymalizowaniem architektury gf100 w porównaniu do tego tego co ati zrobiło z Cypress => Barts.


  44. morgi (autor: Gigant | data: 19/12/10 | godz.: 01:38)
    Zapominasz że GF110 ma bloknięte dual precision do poziomu 1/8 tej z Tesli. ;)

    Nvidia nie ma porządnego GPGPU dla zwykłego zjadacza chleba. ;)


  45. ... (autor: rafcio_2 | data: 19/12/10 | godz.: 09:43)
    460 HAWK lepiej się kręcą. Mi udało się jedynie wycisnąć 915 MHz, przypuszczam że wine ponosi zasilacz. Ale moża osiągnąć 950-1000 :). Z podstawowych 675 MHz to naprawde dużo

  46. @44 (autor: Mariosti | data: 19/12/10 | godz.: 12:58)
    Z tego co czytałem gtx480 ma dokładnie to samo ograniczenie, więc spokojnie można założyć że to ograniczenie nie jest nałożone fizycznie na te układy (chyba że jakieś cięcie laserem itp), tylko np sterownikami.
    tesla wykorzystuje gpu w pełni i pojedynczą operację 64bitowej precyzji jest w stanie wykonać para sp'ków, co daje 1/2 wydajności pojedynczej precyzji...


  47. @41 Mariosti (autor: Arlic | data: 19/12/10 | godz.: 13:45)
    Chyba Juniper>Barts, bo Nastepcą Crypressa jest Cayman :/

  48. @47 (autor: Mariosti | data: 19/12/10 | godz.: 16:20)
    Może i jest następcą Juniper'a ale barts ma więcej wspólnego z cypressem.

  49. ... (autor: Wujofefer | data: 19/12/10 | godz.: 16:23)
    No i pojawiły się informacje o GF114.
    Podobno ma być znacznie szybszy od starego GTX460 i to nawet o 38%, w końcu to będzie pełne 384 rdzenie rozpędzone do 820MHz.
    Jestem ciekaw czy w takim razie będzie on w stanie zaoferować wyższą wydajność niż GTX470.
    Niestety pobór prądu w górę ze 160 do 180W no i z pewnością cena na początku nie będzie tak atrakcyjna jak obecnych GTX460.

    ps. skoro starego GF104 dało się podkręcić do prawie 900MHz jestem ciekaw jak teraz będzie z tym, czy układ będzie działał niedaleko granicy stabilności czy jednak te dodatkowe 20-30% da się wykręcić.


  50. @49 (autor: Jarek84 | data: 19/12/10 | godz.: 16:46)
    będą go kręcić pewnie do podobnej wydajności co HD6950 - bo obecnie NV nie ma żadnego odpowiednika dla Caymana PRO.

  51. Mariosti (autor: morgi | data: 19/12/10 | godz.: 16:53)
    To ograniczenie jest rozsadne, bo w kartach komercyjnych typu GeForce nikt nie pokusi sie o powazne zastosowanie dpfp, ot jest w kazdej karcie dx11 od Nvidii tak dla przypomnienia i dla zabawy dla napalencow.

  52. @51 (autor: Jarek84 | data: 19/12/10 | godz.: 17:07)
    Boinc i np milkyway?!?!

  53. morgi (autor: Gigant | data: 19/12/10 | godz.: 17:16)
    Nic co ograniczone nie jest rozsądne, liczy się full wypas. Karty GF110/GF100 nie są poważnie traktowane przez Nvidie do GPGPU.

    Cayman ma full DP64 i wsparcie , GF110 nie. AMD traktuje poważnie kwestie GPGPU dla zwykłego zjadacze chleba, Nvidia nie. Taka jest różnica między tymi firmami.


  54. HEHE (autor: Gigant | data: 19/12/10 | godz.: 17:42)
    GPGPU Compute Power:
    GeForce GTX580=197 GFLOPs DP64
    Radeon HD6970=675 GFLOPs DP64

    Sztuczne blokady w GPGPU i tak Nvidia traktuje swoich klientów. ;)


  55. moracz (autor: Gigant | data: 19/12/10 | godz.: 18:05)
    już nie ma argumentów na kontratak, zgasiłem go. ;) jego kochana firma rżnie go w dupe a on się uśmiecha, że nic się nie dzieje.

  56. gigant (autor: cyferluu | data: 19/12/10 | godz.: 18:14)
    a może M. "to" lubi... wiesz różni ludzie są...

  57. @51 (autor: Mariosti | data: 19/12/10 | godz.: 18:53)
    Jak wspomniano powyżej to nie jest rozsądne tylko jest to kolejny chamski cios w stronę klienta. Jeśli ktoś będzie budował profesjonalne centrum obliczeń to i tak nie będzie korzystał ze zwykłych kart... no chyba że będą to radeony... cayman xt ma teraz o 30% większą moc obliczeniową fp64 od tesli c2070 i 2.6 razy większą moc obliczeniową fp32 od tejże tesli... wręcz głupio jest stosować gf'y do gpgpu w tej chwili... a jak jeszcze sterowniki zaczną poprawnie wspierać dwu-układowe radeony to będzie mi aż przykro nvidii bo to ona, nie ati, tak bardzo naciska na ten segment rynku a w gruncie rzeczy nie ma czym...

  58. Mariosti (autor: morgi | data: 19/12/10 | godz.: 19:54)
    To jest rozsadne, po kiego babrac sie GeForce jak wsparcie dla takich kart to gry, CUDAcznosc pod popularne systemy to glownie zabawki dla napalencow, a o minimalnych jesli mozna to nic dobrego powiedziec nie mozna, oni to jak blokuja to na amen w pacierzu, a gpgpu w ich wykonaniu to kompletny bubel, niewarto strzepic jezyka, sa w trakcie przerabiania architektury i srodowiska pod to moze po pewnym czasie zobaczymy.

  59. @58 (autor: Mariosti | data: 19/12/10 | godz.: 20:29)
    No powiedz mi dlaczego bublem jest dokładnie tak samo użyteczny framework co cuda, ale dodatkowo miedzy platformowy i sprzętowo i systemowo, co oznacza że jest wspierany przez znacznie wydajniejsze w obliczeniach gpu czyli radeony? Ja tutaj widzę same minusy koncepcji nvidii, zamkniętej cudy i jej niespecjalnie wydajnej skalarnej architektury zupełnie oderwanej od reszty świata...

    Sztuczne obniżanie wydajności gpu gdy sprzętowo jest ono w stanie osiągnąć pełną wydajność w obliczeniach podwójnej precyzji to po prostu dostarczanie jeszcze gorszego produktu konsumentom. To co klient będzie z tym robił to jego sprawa... Jedynym efektem takiego postępowania może być nie wzrost sprzedaży tesli ale spadek sprzedaży te gf'ów... kolejny przykład krótkowzroczności wynikającej z podejmowanych przez nvidię decyzji...


  60. ... (autor: Wujofefer | data: 19/12/10 | godz.: 20:41)
    Eee... nie żeby coś ale nie wiem po co gadacie z morgim, on ma klapki na oczach i jest trollem. Cokolwiek i kto ktokolwiek czego nie zrobi bądź zrobi i tak dla morgiego AMD ze swoimi Radeonami i Phenomami jest do D***.
    Nvidia może sprzedawać tostery o wydajności średniowiecznych zegarów słonecznych a i tak będzie lepsza od AMD.
    Jego nie zmienicie, dajcie sobie spokój, tylko go nakręcacie przy okazji szarpiąc sobie nerwy.


    Swoją drogą i tak dla nas najważniejsze są gry i wydajność 3D a nie GPGPU. Czy ktoś z was używa tego?
    Ja osobiście liczę na wyraźny wzrost mocy nowych kart, czy to od Nvidii czy od AMD i jeszcze żeby były w przystępnych cenach.

    ps. Od niedawna siedzę w 3DSMaxie i robię raczej proste modele jak np. budynki z zewnątrz i ich otoczenie, trochę tekstur i prostych efektów graficznych jak odblaski na szybach czy źródła światła. Rendering jak na razie trwa krótko (są to sekundy do max minuty), z czasem będę chciał tworzyć proste animacje i zastanawiam się co by było lepsze, CUDAczność Nvidii czy STREAM AMD.
    Jak na razie to jest dla mnie zabawa jednak nie wykluczam, że może przerodzić się to w coś większego. Patrząc na to czego uczą mnie na studiach i słuchając ludzi po informatyce można dojść do wniosku, że ten mgr. inż. jest pustym papierkiem a tak na prawdę liczy się tylko to co się robi ponad program.
    A ja w chwili obecnej jestem rozdarty między grafiką 3D a programowaniem (Javą).


  61. @Mariosti (autor: Wujofefer | data: 19/12/10 | godz.: 20:47)
    No właśnie Nvidia nie jest krótkowzroczna bo chce jak diler uzależnić od siebie konsumentów. Opracowali technologię, włożyli w to kupę kasy i teraz chcą na tym zarabiać, niestety w trochę nie uczciwy sposób, w końcu w biznesie liczy się tylko pieniądz.
    Podobnie robił Intel specjalnie psując kompilatory pod procesory AMD, płacił za "optymalizaję" pod swoje CPU. Tak to się ładnie nazywało a chodziło o jak najgorszą wydajność na AMD i do tego liczne błędy.


  62. morgi (autor: Gigant | data: 19/12/10 | godz.: 20:48)
    to przestań pieprzyć, że Nvidia ma porządne GPGPU dla GeForców.

    Nvidia sama się kastruje a ten udaje, że wszystko jest OK.


  63. @morgi (autor: popierdulka1234 | data: 19/12/10 | godz.: 20:52)
    z łaski swojej odpowiadaj kompleksowo na zadane pytania a nie rozmijaj się z prawdą którą ci uświadamiają

  64. @61 (autor: Mariosti | data: 19/12/10 | godz.: 21:37)
    Gdyby konkurentami były tylko inne zamknięte rozwiązania to owszem nie byłoby to krótkowzroczne podejście... ale konkurentami cuda są... zasadniczo bezkonkurencyjne... DirectCompute za którym stoi Microsoft i OpenCL za którym stoi Khronos... sorry ale w takim towarzystwie cuda nie ma szans na dłuższą metę, tak po prostu na logikę... Gdybym nie miał racji to już teraz cuda byłaby standardowym rozszerzeniem w większości oprogramowania które może potrzebować dużej mocy obliczeniowej, a pomimo dobrych 2 lat silnego promowania tego frameworka jest jeszcze mniej popularny niż wciskany na siłę developerom PhysX... ;]

  65. @61 (autor: Mariosti | data: 19/12/10 | godz.: 21:43)
    Oh nie java, jak każą mi coś w tym pisać to po cichu dusza ma usycha ;] Może jestem nienormalny ale preferuję pisać wszystko z palca w c++ z qt w razie gui, tak jak ja chcę i optymalnie tam gdzie jest to istotne... już wielokrotnie przekonałem się że poświęcając 2x więcej czasu na pisanie programu ponad "aby działał" można przyspieszyć działanie wielu złożonych algorytmów nawet i 100krotnie...

    Co do CUDA vs Stream... oba są bez sensu, jeśli chcesz zacząć korzystać z gpgpu w swoich aplikacjach to osobiście polecam OpenCL'a bo łatwo wpleść go w zwykł program w c++, w directcompute nie pisałem z oczywistych powodów ( gdzie sens? ;) ), ale wyobrażam sobie że nie może być znacznie bardziej złożony od ocl'a.

    No i oczywiście w przypadku modelowania w 3dsmax nie od ciebie zależy z jakiej formy akceleracji gpgpu będziesz mógł korzystać w renderach ;> No chyba że można napisać samemu plugin o aż takiej funkcjonalności... ale nie byłoby to ani proste ani szybkie.


  66. ... (autor: Wujofefer | data: 19/12/10 | godz.: 22:12)
    No ja jestem gdzieś tak na początku mojej drogi jako programista. Jak na razie z grubsza poznałem Pascal'a, C, C++, C# i Javę.
    Piszę w tym ostatnim bo strasznie interesują mnie mobilne, wszędzie działające aplikacje no i biorę udział w pewnym projekcie opartym na Javie, a właściwie to jestem wdrażany do niego :P

    Co do C++, może kiedyś jak znajdę dobry powód by przysiąść do tego języka to coś więcej się go nauczę. Jak na razie nie mam za bardzo na to czasu a i C# chciałbym bardziej poznać.

    Jeśli chodzi o 3DS Max'a to jest to zajęcie bardziej hobbistyczne, by totalnie nie zgłupieć od niekończących się linii kodu, klas, baz czy innych mega błędów mających na celu zniszczenie psychiki programiście. :P


  67. |_- (autor: Mariosti | data: 19/12/10 | godz.: 22:15)
    Rozumiem, ja dla rozluźnienia optymalizuję stare kody źródłowe ;p
    Co do aplikacji mobilnych to z tego co wiem kilka platform mobilnych wspiera właśnie C++ z Qt... np symbiana (a poza tym oczywiście najbardziej popularne systemy do desktopów).


  68. popierdulka (autor: morgi | data: 19/12/10 | godz.: 22:27)
    Bo ma, taki szczgolik, ze gf100 mozna sobie wystawic inny do Tesli inny do GeForce, ale wciaz to ten sam chip. Znacznie lepszy, bo po kiego grzybka minimalni zapodali ponad 20% w hd6k osiagajac lipna wydajnosc w grach, uwstecznili sie, albo raczej zrobili krok w takim kierunku w jakim Nvidia skrecila juz kilka lat temu.

  69. @67 (autor: Wujofefer | data: 19/12/10 | godz.: 22:30)
    A mnie głównie interesuje Android czyli Java.
    Do tego myślę nad Windows Phone 7, tam jest Silverlight no i chyba C#, czyli .net, bo M$ wszedzie pcha swoje rozwiązania, na szczęście MSDN daje darmowy dostęp do pełnego pakietu wartego kilka czy kilkanaście tyś złotych. xD
    Z tego co wiem jakaś odmiana C jest na iOS ale nie interesowałem się tym no i SwEeTaŚnY system z mega ograniczeniami od nadgryzionego jabłka jakoś mnie nie interesuje. Niestety taką mam opinię o tej firmie.

    Java pozwala mi na pisanie kodu i nie interesowanie się zbytnio tym co się z nim dzieje. Po za tym programy są krótsze i działają wszędzie gdzie jest wirtualna maszyna niestety z szybkością działania nie zawsze jest najlepiej ale... z czasem może to poprawią albo mocniejszy sprzęt wyjdzie.
    Po za tym jestem fanem Javatara. xD


  70. @69 (autor: Mariosti | data: 19/12/10 | godz.: 23:32)
    Jeśli mam o javie coś więcej napisać to doceniam ją za jedną rzecz - netbeans'a... to tak świetne ide że bez niego raczej nic bym nie pisał w javie, nawet z przymusu ;>

    Co do msdn aa to u mnie na uczelni też jest bardzo bogaty zestaw narzędzi do wyboru, głównie cieszą os'y i visual studio, ale na upartego można by dobrze wykorzystać i większość z pozostałych narzędzi tam dostępnych, typu project, mappoint, różnych kursów i wszelkich pro/enterprise/ultimate wersji narzędzi ms'u.


  71. @69 (autor: Jarek84 | data: 20/12/10 | godz.: 00:07)
    Jeśli mówisz o Applach - to objective C, ale dość dziwnie mi sie w tym pisało.

    Ja mam 'małe' - jakies 10 letnie doświadczenie w Pascal(poczatki nauki + teraz od czasu do czasu projekty w Delphi i dla siebie cos w Lazarusie najdłuzszy stażem), C/objective C/C++ (ewolucja + studia gdzie były przedmioty wymagające tego języka - najpotężniejszy język wg mnie, między innymi przez możliwość optymalizacji kodu), czasami musiał być też ASM - specyficzne zastosowania, Java - odrzucała mnie dawniej szybkość programów i brak sensownego IDE do tworzenia aplikacji z GUI, ale ogólnie może być (bardzo podobał mi się Hibernate), szczególnie że można teraz tworzyć ciekawe, Visual Basic i C# (najlepsze języki dla .NET framework, bardzo łatwe w nauce i wielki + w postaci opasłego MSDNa i świetnego visual studio - najprzyjemniejszego wg mnie IDE), php (jakoś lepiej mi się w nim pisze niż w javascripcie czy asp) + np kohana ; parę innych języków i technologi pasjonacką, zboczoną psychiką podyktowane bądź przez studia nakazane (Lua, Prolog, Python, OGL, XNA, .NET Compact, midlety w javie, trochę streama i OCL ) Do tego dość duży pakiet SZBD (od mySql zaczynając przechodząc przez postrge, Sql Server, SyBase na Ora kończąc).

    I powiem tak, że tak na prawdę technologie użyte w danej aplikacji (jeśli mamy do czynienia z doświadczonymi architektami) przede wszystkim determinuje specyfika projektu oraz umiejętności teamu i budżet.

    Trudno też powiedzieć, czego najlepiej się uczyć - od jakiego języka zacząć, to również zależy od tego co chce się robić... ewentualnie jak dobrze chce się zarabiać ;)


  72. @morgi (autor: popierdulka1234 | data: 20/12/10 | godz.: 00:27)
    zapodali 20% za przeproszeniem czego, bo z kontekstu twoich wypowiedzi tego wyczytać nie można, może chodzi ci o sok buraczany.

    może wg ciebie gf100 można waszdzić gdzie chcesz ale ponoć w gf110 nvidia wycięła również część na której jej jak najbardziej zależało czyli ECC na każdy ichniejszy blok obliczeniowy, sprostuj moją wypowiedź co do tego tylko merytorycznie poproszę. więc najprawdopodobniej nie ujrzysz najwydajniejszych tesli na gf110 i mit o wszsytkim wszędzie możesz sobie wsadzić
    tu masz linka do tegoż na forum nvidii
    http://forums.nvidia.com/...x.php?showtopic=185152


    jak coś co jest dużo mniejsze, dużo chłodniejsze, żrejące dużo mniej energi under load a przynajmniej tak samo wydajne i z podatkiem od skur....stwa w cenie na dzień dzisiejszy wyższej od 570 a wydajności dymającej nieraz 580 nazywasz zacofaniem to kim ty jesteś. Oczywiście nie wszystkie portale zatwierdzają wszystkie wyniki jak również nie wszystkie portale mają porównywalny zestaw testów. pomijając ekstremalnie różne wyniki komkluzji na różnych portalach odnosisz się tylko do jednej recenzji która miarodajnością może być pokrywana w 5% procentach innych portali natomiast 95% recenzji w których wypowiadają się nienajgorzej o najnowszej rodzinie to pewnie właśnie oni się mylą według ciebie.

    jesteś chyba tak pomylony jak ta od powiernictwa pruskiego która twierdzi że najbardziej pokrzywdzonymi na II WOJNIE ŚWIATOWEJ to niemcy, no chyba nie jesteś podobnego zdania do niej bo w przypadku sprzętu IT jesteś właśnie jak ona.

    co do piłowania złączek, ja przypomnę ci filmik jak kilku inżynierów nvidi pracujących na swoją superturbiną w seri 5xxx geforce wyśmiewa swój produkt

    na rynku dla prostaków nikt nie chce mieć wydajności w GPGPU, a weź koło i walnij się w czoło i spróbuj wytłumaczyć brednie tym co wspomagają BOINCA

    cytując "a o minimalnych jesli mozna to nic dobrego powiedziec nie mozna, oni to jak blokuja to na amen w pacierzu"
    jeden merytoryczny przykład poproszę


    PAMIĘTAJ DZIAŁASZ WG. ZASADY KŁAMSTWO POWTARZANE TYSIĄC RAZY STANIE SIĘ PRAWDĄ

    spróbuj się do tego odnieść


  73. @72 dodatek (autor: popierdulka1234 | data: 20/12/10 | godz.: 00:33)
    http://techreport.com/articles.x/19934


    cytując "GTX 580's double-precision rate remains hobbled at one-quarter of the chip's peak potential."


    co ty na to że za taką kasę nadal dostajesz ćwierć produktu,
    przebij mnie


  74. @Jarek84 (autor: Wujofefer | data: 20/12/10 | godz.: 00:43)
    No o w porównaniu do mnie masz "małe" doświadczenie xD
    Połowy z tego co wymieniłeś nie tknąłem :P
    Co do Delphi to mnie ten język strasznie odrzuca, mam niemiłe doświadczenie z algorytmami (przedmiotem na studiach) gdzie głównym językiem było właśnie delphi, C bądź C++ były... niezrozumiałe dla prowadzącego a "delphi to idealny, prosty i dla wszystkich zrozumiały język do pisania algorytmów"... ble...
    Obym nie musiał znów w tym siedzieć, szlak mnie trafiał jak musiałem kuć flagi, drzewa i inne pierdoły na pamięć w języku, który może niedługo odejdzie do historii (choć o dziwo dalej jest używany), zamiast szlifować znajomość nowych bądź głównych języków pisałem w tym dinozaurze.


  75. brednie (autor: popierdulka1234 | data: 20/12/10 | godz.: 00:59)
    to dla emux http://techreport.com/articles.x/20043/8 i jego 460 z opłacalnością pomijam że nie ma tu tych z super edycji dla mm

    dla emux jaki to 580 jest oplacalny przy 460 w sli http://techreport.com/...-2010/dirt2-dx11-1680.gif w jego ulubionych niskich rozdziałkach

    dla morgi http://techreport.com/...ire-2010/overall-perf.gif dwa sli w porównaniu do cfx 6850 dwa razy drożej 30 kilka procent szybciej

    dla emux http://techreport.com/...ire-2010/value-system.gif przestudiuj sobie ten wykresik i oplacalność w krajach bez podatku cfx6870 i jednego gtx580 i pozostaje ci tylko ocierać łzy, żeby wygrać to nvidia musi dorzucić jeszcze kupę kasy.

    może znajdę ci podobne tylko dla radków 69xx


  76. @emux (autor: popierdulka1234 | data: 20/12/10 | godz.: 01:17)
    tu masz dla ludzi którzy przez najbliższą dekadę będą w to rypać dniami i nocami http://techreport.com/r.x/gfyhkmj/sc2.gif

    emux twoj koronny argument adm nieopłacalne zobacz to ale w krajach bez podatku
    1. http://techreport.com/...gfyhkmj/value-bar-gpu.gif
    2. http://techreport.com/...hkmj/value-bar-system.gif

    na drugim zauważ że sli 460@768 nie daje radkowi 6850 biorąc pod uwagę cenę takiego zestawu


  77. @75 (autor: popierdulka1234 | data: 20/12/10 | godz.: 01:18)
    poprawka dla emux odnośnie ostatnigo zdania http://techreport.com/r.x/gfyhkmj/value-system.gif

  78. @emux (autor: popierdulka1234 | data: 20/12/10 | godz.: 01:22)
    i rewelacyjne na przyszłość podsumowanie

    """"
    Let's make the case for both and see where we land.

    In the GTX 570's favor are a host of traditional winning attributes for a graphics card. It's 20 bucks cheaper, draws a little less power under load, and generates less noise. What's more, although most games aren't yet taking advantage of it, the GTX 570 has measurably and markedly superior geometry processing throughput. That may be a forward-looking architectural feature, and the question of whether and how much that matters is far from settled. Given the performance parity elsewhere, though, it's hard to ignore.

    Cayman's main advances in antialiasing capabilities, geometry processing, and shader scheduling efficiency move AMD closer to what Nvidia has offered in its Fermi architecture for the better part of 2010. That doesn't really grant Cayman a minty fresh scent of newness. Cayman is an incremental change—an improvement, no doubt—that makes these new Radeons more, not less, like the competition.

    On the other hand, the Radeon HD 6970 has 2GB of RAM onboard, can support three or more displays from a single card, and will allow you to play games across them via Eyefinity. You'll need two GTX 570 cards in order to partake of Nvidia's competing Surround Gaming feature, and even then, GTX 570 cards have 1280MB of memory, which could be limiting at six or more megapixels. In this sense, the Radeon HD 6970 outclasses the GTX 570. We can see paying the extra 20 bucks for that, if you aspire to multi-display gaming—or even if you think you might someday.

    With no direct competitors and a nice price of $300, the Radeon HD 6950 gives us no sense of conflict about its merits. It would be an ideal step up from a cheaper offering like the Radeon HD 6870. Indeed, because of Cayman's many improvements, we'd be very tempted to make the leap if we were deciding between the two. The fact that the 6950 has the same set of display outputs and 2GB of memory makes it an intriguing candidate for an Eyefinity setup, too. There really is nothing else in its class.
    """

    teraz dalej powtarzaj swoją prawdę


  79. @74 (autor: Jarek84 | data: 20/12/10 | godz.: 01:32)
    Wiem z własnego doświadczenia - że wiele firm używa i będzie używać Delphi - VCLki są dla Delphi jak i C++ Buildera (dodatkowo darmowe jak np. jvcl i smComponents) - a w tym drugim tworzy się aplikację o niebo lepiej niż w MFC. Poza tym co rok jednak embarcedero dostarcza jakaś nowa wersję swojego IDE z większymi bądź mniejszymi zmianami - wszyscy czekają wreszcie na 64bity... - i jako RAD dla win32 sprawdza się według mnie bardzo dobrze. Na tle innych obiektowych języków (głównie nowych jak C# czy java) poziom 'obiektowości' Delphi (vel Object Pascal) wygląda trochę archaicznie - czasami zdaje się, że jakby dodana na siłę (implementacja interfejsow np.)

    poza tym Delphi w stosunku chociażby do C# zdaje mi się jakieś takie zawsze o krok z tyłu - Regexy są dopiero chyba od Delphi XE, generyki od 2009, do tego unicodowe Stringi od 2009 - które powodowało dużo kłopotów u niektórych przy migracjach projektów. Do tego czasami kiepska stabilność nowo wypuszczonych wersji (dotknęło mnie to z 2006).

    Ale ogólnie przy tworzeniu nowego projektu np w Delphi 2010 pracuje się już całkiem przyjemnie - bo co innego wcześniej wspomniane migracje, które potrafią być czasami katorgą :(


  80. @74 (autor: Jarek84 | data: 20/12/10 | godz.: 01:47)
    A jeszcze pytanko jaka uczelnia Cie teak zniechecila do delphi? - bo mi akurat ASD i ASD2 na UJ pokazały jak bardzo czasochłonne jest pisanie programów w C++ ;P

  81. @emux (autor: popierdulka1234 | data: 20/12/10 | godz.: 02:12)
    a tu masz pobór prądu po podkręcaniu http://techreport.com/...-gtx460-oc/power-load.gif

  82. @popierdulka1234 (autor: arn2 | data: 20/12/10 | godz.: 08:59)
    Nie wysilaj się : oni i tak tego nie przeczytają ,a ty tylko marnujesz swój czas :(

  83. popierdulka (autor: morgi | data: 20/12/10 | godz.: 09:53)
    Ponad 20% wiekszy chip, wiecej tranzystorow i w rezultacie nie urosla wydajnosc nawet o tyle, mimo ciut wyzszego zegara. Reszta to wszystko to co w gf100, a kiedy i czy beda na Tesli to zalezy od popularnosci GeForce 580 i 570, a skoro obie przewyzszaja konkurencje, zwlaszcza w dx11 to moze byc roznie z dostawami.

  84. @Jarek84 (autor: Wujofefer | data: 20/12/10 | godz.: 09:54)
    Politechnika Lubelska.
    Wiem, że Delphi jest dalej używany jednak mimo wszystko, wg. mnie nie powinniśmy się tak rozdrabniać. Informatyk od wszystkiego jest do niczego. Po co komu po studiach znajomość wszystkich języków jak z każdego będzie wiedział po trochu i nic sensownego nie napisze. Jak rozmawiam z ludźmi z 4 bądź 5 roku to wszyscy zgodnie powtarzają, ucz się sam a egzaminy byleby zdać.
    Ja nie wiem czemu tak strasznie cisnął z matematyk, z czego ponad połowa to teoria :/, elektroniki we wszystkich odmianach. Czasem mi się zdaje, że poszedłem na elektronikę z dodatkiem informatyki a nie informatykę. :/
    Jedynie koła tworzone przez studentów ratują sytuację.


  85. @Jarek84 (autor: Wujofefer | data: 20/12/10 | godz.: 09:57)
    Swoją drogą i tak nie jest tak źle jak na UMCSie w Lublinie. Tam najpierw uczą C i C++ a potem tłumaczą po co im pętle, warunki, wskaźniki i co to w ogóle jest algorytm. xD

  86. @84, @85 (autor: Jarek84 | data: 20/12/10 | godz.: 10:27)
    Profil infy na wydziale matematyki na UJ wygląda tak jak matma wyższa z elementami informatyki stosowanej - powiem Ci, że dopiero po tych studiach mogę powiedzieć że infa to cięzki kierunek ;) Z drugiej strony u nas ratowały sytuację przedmioty do wyboru, które nieraz były bardzo interesujące... no ale algebry, analizy, algebraiczne teorie języków i automatów, kompilatory, statystyki, matma dyskretna to była ciemna strona tych studiów mająca mało wpólnego z przyjemnym kodzeniem...

    Z drugiej strony powiem, że matma na tak wysokim poziomie wykształca jednak w człowieku umiejętność analiycznego podejścia do rozwiązywania problemów i radzenia sobie z nimi. Dochodzi też różnica między profilami - nas męczyli z infy czysto teoretycznej najbardziej, kolegów z AGH to znów kosili na wszelkiej maści elektronice.

    Reasumując - dobrze znać kilka technologii, wierz mi taka wiedza procentuje nawet na pierwszym interview - jesli takiego jeszcze nie miałeś ;)

    A specjalistą ciężko jest być z więcej niż jednej dziedziny (mówie tu oczywiście o ludziach którzy na siedzenie przed kompem poświęcają około 8 - 10h dziennie), szkoda poświęcać życie osobiste - to już mówie z własnego doświadczenia wyniesionego jako człownek zespołów w wielu komercyjnych projektach ;)

    A tak na marginesie - to macie jeszcze studia 1-stopniowe czu już 2?

    @83 - morginalny popatrz na min FPS w przypadkach ostrej teselacji... która nawiasem mówiąć nie jest już orężem zielonomózgich w przypadku peanów na cześć zielonego bóstwa. AMD wyprodukowało chip, który świetnie sprawdza się w grach, gpgpu, na którym mają przede wszystkim zarabiać (cała seria HD6xxx to jak na razie małe, bardziej opłacalne chipy w stosunku do konkurencji) i mogą zabrać się za optymalizację VLIW4 w perspektywie wysp z HD7xxx. Poza tym dalej mają najwydajniejszą kartę na rynku, której odpowiednik w postaci HD6990 niedługo zostanie zaprezentowany. + dzierżą palmy perf/W, perf mm2 niestety nie zawsze perf/$ (szczególnie u nas) - ale bardzo dobrze obrazuje to, że bardzo dobra pozycja AMD zmusza NV do obniżek cen i zakasania rękawów.

    Reasumując na rynku GPU jest bardzo wyrównana walka - i bardzo dobrze :]


  87. @84,86 (autor: Mariosti | data: 20/12/10 | godz.: 10:56)
    No to na umcs'ie podejście z początku właśnie podobne do tego na uj jest, dużo matematyki przez pierwsze 2 lata, a co do uczenia najpierw c/c++ a dopiero później teorii... przynajmniej szybko odpadali ludzie którzy by się tam wg mnie męczyli.
    co do samych studiów to są już tylko 2-stopiowe.


  88. @Jarek84 (autor: Wujofefer | data: 20/12/10 | godz.: 11:18)
    U mnie delphi jest językiem, który pojawia się co drugi semestr. Prowadzący ma swój przedmiot w każdym nie parzystym semestrze przez cały okres studiów i wszędzie czy to algorytmy czy metody numeryczne czy nie wiem co tam z nim jeszcze będzie, delphi jest głównym językiem. (po za schematami Schneidera jednak tam można było a nie trzeba było pisać w delphi, ot taki wybór xD)

    Co do toku studiów, są one 2 stopniowe.
    A co do rozmów kwalifikacyjnych, ciekawą sprawą jest, że osoby uczęszczające na wszelkiej maści koła informatyczne mają łatwiejszy start w pracy, ba, pracodawcy sami zgłaszają się do prowadzących koła z propozycjami zatrudnienia czy to na okres 2-3 miesięcy, jeden projekt czy na pół etatu.
    Dzięki temu można zdobyć doświadczenie no i pieniądze jak dla studenta są bardzo dobre, jest to wielokrotność pensji w KFC czy innym Mac'u xD
    Po za tym, znam kilka osób, które po skończeniu studiów dostały pracę (cały etat) w firmach, z którymi wcześniej współpracowali.

    Jeśli chodzi o języki, zgodzę się, że ważne jest by każdy poznać (chyba życia by nie starczyło xD) a przynajmniej te główne. I zgodzę się też, że trzeba się wyspecjalizować, mi się marzy zaawansowany silnik graficzny na Javie i wszystko co związane jest z nią w 3D... ale to jeszcze odległa przyszłość :P

    ps. jeśli chodzi o życie, był czas, że siedziałem więcej w barze grając w bilarda czy kręgle niż na ćwiczeniach i wykładach (jakich wykładach?!), jednak jak tak zbliżam się powoli do tej pracy inżynierskiej to coraz wyraźniej widzę, że same studia informatyka ze mnie nie zrobią, dlatego staram się uczestniczyć w dodatkowych zajęciach, szczególnie po tym jak kumpel pokazał mi silnik graficzny zrobiony przez niego xD
    I wtedy zrozumiałem, że informatyka potrafi być ciekawa ;P


  89. @83 (autor: popierdulka1234 | data: 20/12/10 | godz.: 11:33)
    w czym przywyższają bo dokładnie nie zauważyłem, napewno są nadal bardziej gorące, na bank zużywają więcej energi, na 100% dostają po dupasie od swoich dużo tańszych modeli z obu stron którę są połączone w pary a dodatkowo para gtx580 goniona jest tylko o kilka klatek słabiej przez tandem gtx460@1024MB więc w kilku tytułach na portalu namaszczonym przez pana czoło-lotniskowiec, o jakiej przewadze technologicznej mówisz, ja jej naprawdę nie widzę,

    dodatkowo w tytułach które mnie interesują jako rozrywka w namaszczonym portalu nv, nv dostaję tak po dupalu, że łezka się w oku kręci, więc aby mnie przekonać do swojej racji proszę napisz ciut więcej niż dwa zdania w dodatku w niezrozumiałej składni językowej.

    @82
    przecież wiem ale cóż jak chcą przykłądy to mają, oni potrafią tylko błotem więc nudziło mi się w nocy to sobie poszukałem, najlepsze że TECHREPORT został pobłogosławiony przez NV przy tłumaczeniu się o 580-ce co w niej poprawili, jest też jednym z portali których gość bez większego nadzoru siedział przy APU ale pan m i spółka zdecydowanie ten temat o tym produkcie ominą


  90. @88. (autor: Jarek84 | data: 20/12/10 | godz.: 12:03)
    Fakt, bez zdobycia jakiegokolwiek doświadczenia w czasie studiów byłoby ciężko - sam zresztą w czasie studiów też zacząłem pracować polecony pracodawcy przez prowadzącego, później mojego promotora ;) dochodzą też praktyki studenckie, które podbijałem będąc już pracownikiem ;)

    Co do Javy - Tiobe pokazuje że to jeden z języków wiodących, teraz za Sunem stoi Oracle więc swoje rozwiązanai będą wpychać gdzie się da ;) Mnogość frameworków biznesowych dla Javy zawsze mnie odstraszała... ale przyciągają do niej na pewno godne zarobki :]

    @popierdułka1234 - nie ma się co wysilać - mądrzejsi kupujący i użytkownicy portalu sami potrafią wysnuć wnioski z testów - z tymi paroma 'mądrymi na swój sposób' można co najwyżej się poprzedżeźniać dla zabawy... ;)


  91. @morgulec (autor: trepcia | data: 20/12/10 | godz.: 15:20)
    Nie spamuj, nie jesteś śmieszny więc się nie błaźnij.

    Pozwól niektórym użytkownikom toczyć wartościową rozmowę.


  92. . (autor: emuY | data: 21/12/10 | godz.: 23:43)
    .

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.