Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Środa 18 listopada 2009 
    

Oficjalna premiera kart ATI Radeon HD 5970


Autor: Zbyszek | 09:50
(108)
Dziś ma miejsce oficjalna premiera nowych, flagowych kart graficznych firmy AMD. Modele ATI Radeon HD 5970 to pierwsze na rynku dwuprocesorowe karty ze wsparciem dla najnowszych bibliotek graficznych DirectX 11. Karty wyposażone są w 2GB pamięci GDDR5 oraz dwa 40-nanometrowe układy graficzne o nazwie Cypress, każdy z aktywną pełną liczbą 1600 procesorów strumieniowych. Chipy pracują z zegarem 725 MHz, natomiast częstotliwość taktowania pamięci wynosi 4000 MHz (efektywnie). Zdaniem AMD są to najbardziej wydajne akceleratory na rynku. Ponadto zaletą kart mają być bardzo duże możliwości podkręcania, dzięki wysokim limitom dopuszczalnych zegarów taktujących oraz możliwosći zwiększenia napięć zasilających bezpośrednio z poziomu sterowników, za pomocą narzędzia ATI Overvolt Utility.

Sugerowana cena detaliczna kart wynosi 599 USD w Stanach Zjednocznych oraz 499 Euro w Europie.

Akcelatory są już dostępne w ofertach największych producentów takich jak ASUS, Gigabyte, HIS, MSI, PowerColor, Sapphire, XFX, Club 3D i Diamond Multimedia.



 

    
K O M E N T A R Z E
    

  1. Robi wrażenie (autor: Duke Nukem PL | data: 18/11/09 | godz.: 10:10)
    Ale takiego potwora może kupię za 3 - 4 lata. No i trzeba sobie załatwić taryfę nocną na elektryczne ogrzewanie. Wtedy będzie taniej pograć w nocy :D

  2. Hmmm... (autor: ligand17 | data: 18/11/09 | godz.: 10:25)
    U konkurencji już wisi teścik. AMD ma teraz najwydajniejszą kartę na rynku i to jeszcze z dużym potencjałem O/C. Ale ta karta ma TDP 300W i strasznie się grzeje przy użyciu referencyjnego systemu chłodzenia (nihil novi, GTX295 też ma ten problem). Trzeba poczekać na wersje z autorskimi systemami chłodzenia (może WC?) i wtedy będzie to naprawdę fajna karta. Ale cenę też pewnie miała "fajną".

  3. za 3-4 lata (autor: Drow | data: 18/11/09 | godz.: 10:35)
    to jzu bedzie standard, a nie potwor :)

  4. no jak (autor: ViS | data: 18/11/09 | godz.: 10:35)
    ktoś krzywi się na cenę takich zabawek tzn że go na nią nie stać ;) jak ze wszystkim. Dla mnie mogłaby kosztować i 4tys edycja wc, nic to nie zmienia- kto chce to kupi :)

  5. hmm (autor: akustyk | data: 18/11/09 | godz.: 10:40)
    fajnie... a gry i tak beda optymalizowane pod Xboksa, wiec zakup karty ktora robi 200 fps-ow w COD za kwote 10x wyzsza niz karta z 50 fps... :)

  6. huehue (autor: ViS | data: 18/11/09 | godz.: 10:54)
    właśnie przeczytałem że Ati się poci, tworzy karty, a Nvidia której nie ma i tak zbiera nagrody ;d (hpcwire)

  7. a nie nie przepraszam (autor: ViS | data: 18/11/09 | godz.: 10:58)
    jest i działa~!
    http://tinyurl.com/yhfwlpt


  8. @ViS (autor: M1ras | data: 18/11/09 | godz.: 11:14)
    Fermi w akcji czy karta poprzedniej generacji ...
    Dwa spięte ze sobą Radeony w CrosfireX mogą pobierać ponad 0,5 KW mocy, a do tego reszta platformy i przebijemy kuchenkę mikrofalową ;)
    Wydajność ogromna ale czy ta moc nie pójdzie w gwizdek z powodu, optymalizacji gier/sterowników czas pokaże.


  9. ViS (autor: morgi | data: 18/11/09 | godz.: 11:17)
    Nie sama karta czlowiek zyje, potrzeba jeszcze dobrych sterow, gier ze wsparciem, dodatkow w postaci gpGPU i innych swiecidelek, a nie ciaglych obietnic ze z kazda nastepna miesieczna paczka bedzie lepiej, a nie jest.

  10. @morgi (autor: ligand17 | data: 18/11/09 | godz.: 11:20)
    Ale o co Ci chodzi? Już na obecnej wersji sterowników AMD jest szybsze w większości przypadków od GF. Ale oczywiście, dobrze byłoby, żeby czerwono-zieloni popracowali nad sterownikami.

  11. ... (autor: kubaswielgus | data: 18/11/09 | godz.: 11:26)
    AMD jak nie AMD - wszystko na czas i zgodnie z terminarzem. Jak tak dalej pójdzie to premiera najnowszych kart NV nałoży się z premierą HD68xx. Ode mnie gratki dla nowej karty bo ze wzrostem wydajności 40% w porównaniu do HD5870 cena wzrosła o 27%.

  12. morgi (autor: Dzban | data: 18/11/09 | godz.: 11:42)
    gier "ze wsparciem" to nam nie potrzeba bo to nic ciekawego nie daje

  13. @morgi (autor: rookie | data: 18/11/09 | godz.: 12:07)
    Gry ze wsparciem to były na 3dfx voodoo gdzie trzeba było biblioteki Glide ze sterownikami dodawać....A, zapomniałem - nVidia kupiła 3dfx, stąd pewnie nowe geforce też tego wymagają....

  14. @ViS (autor: Drow | data: 18/11/09 | godz.: 12:25)
    dobre.
    Zwlaszcza kiedy spojrzy sie, na to co lezy na poleczce powyzej, a co nie musi byc opatrzone logiem nv.

    @M1ras: stawialbym, ze raczej pojdzie. powiedzmy sobie szczerze - PC to nie konsola i nie trzeba sie az tak mocno wysilac nad optymalizacja, w koncu "ciemny lud i tak kupi" - nowe podzespoly.


  15. japanese pure ceramic supercaps (autor: RusH | data: 18/11/09 | godz.: 12:27)
    -czy sa jakies srednioceramiczne kondensatory na rynku?
    -czy ta karta uzywa 1 FARADOWYCH kondensatorow? bo supercap to inna nazwa baterii

    debilizm PR nigdy nie przestanie mnie dobijac :/

    wow, maja cyfrowa regulacje napiecia .. jak kazda karta od 6 lat
    maja odczyt napiecia .. jak kazda karta od 6 lat
    overclocking headroom .. jak kazda karta od 10 lat? juz GF2MX mozna bylo suwakiem pojechac do 1GHz na rdzeniu :)

    receopadaja, najgorsze ze
    -ktos kto produkuje ten belkot zarabia >$100K
    -bydlo lyka to jak glodne pelikany


  16. RusH (autor: sz4rlej | data: 18/11/09 | godz.: 13:17)
    No a co lepszego NV umieszcza w reklamach? Przecież to normalne, nie powinieneś się tym dziwić ani brzydzić. W dzisiejszych czasach debilny marketing to standard.

  17. Co do reklam (autor: rookie | data: 18/11/09 | godz.: 13:44)
    http://www.youtube.com/watch?v=Q5vSuSI6lJM

    A w Xbox jest ATI :)


  18. rookie (autor: morgi | data: 18/11/09 | godz.: 13:54)
    Ale dobrze, ze sa i dobre kontakty z developerami, programy wsparcia, lojalnosciowe, a nie zale na necie, ze nas 'olewaja', manipuluja, zamiast brac tylek w troki i rece do raboty a nie zwalac lwia czesc roboty na gracza, ktory musi kombinowac jak kon pod gore, zeby w sporej liczbie gier miec full wypas aa i af.

  19. @morgi (autor: Drow | data: 18/11/09 | godz.: 14:48)
    wlasnie, lojalnosciowe - to mowi samo za siebie.

    @rookie: owszem jest, w nastepcy tez bedzie, o czym niedawno MS informowal, mowiac, ze wspolpraca z ATi uklada im sie idealnie w tej kwestii.


  20. @Drow (autor: Wyrzym | data: 18/11/09 | godz.: 15:22)
    Bo im do X360 zaprojektowali dobra karte, a nie jak Nvidia, rok pozniej, a w ps3 stary gniot ;]

    @morgi
    "Nie sama karta czlowiek zyje, potrzeba jeszcze dobrych sterow"
    Wiesz ze gdyby nie Ty, to bym nawet nie wiedzial ze stery AMD sa zrypane (a sam mam 3870 ^^) nawet podczas testow wszyscy "zapominaja" o tym wspominac :D


  21. ... (autor: Qjanusz | data: 18/11/09 | godz.: 15:25)
    zapowiedzieli potworka i zrobili potworka. Na czas i bez żadnego potknięcia.
    Na pewno znajdą się osoby, które nie będą mogły sobie życia bez takiej karty wyobrazić.

    Nie mogę się doczekać recki z WC na tej karcie i jej osiągami - również z uwzględnieniem parametru MegaWatuGodziny, z zasileniem jedno i trój fazowym ;-)


    A nVidia straszy, knuje i z coraz większym niedowierzaniem patrzy na konkurencję.


  22. @M1ras (autor: trepcia | data: 18/11/09 | godz.: 16:40)
    To fermi jest na zdjęciach. Karty poprzedniej generacji nie wyświetlą dx11. No chyba, że karta na zdjęciu jest tylko tak dla picu a grafikę wyświetla coś "czerwonego" ;-)

  23. Najlepsza karta na rynku, ale ... (autor: Barbarian | data: 18/11/09 | godz.: 16:41)
    i tak nie mam zamiaru jej nigdy kupić. Za 3 lata będzie w wersji do przyjęcia pod każdym względem. Nie trzeba się podniecać takimi okazami. Intel też tłucze proce za $1000 dla wariatów tego sportu, ale niewiele z tego wynika. Najlepsze są zawsze środkowe obszary rynku - jak przykładowo C2D E8400, który od ponad roku jest hiciorem.

  24. @RusH (autor: Barbarian | data: 18/11/09 | godz.: 16:47)
    "bydlo lyka to jak glodne pelikany" - czasem w rodzinie może być ktoś, kto chce mieć dobry komputer i nie musi być ekspertem. Sądzisz, że można 90% ludzi rzetelnie wykonujacych inne zawody niż związane z rynkiem IT nazwać bydłem? Jeszcze możesz błagać takie bydlę (lekarz) o usunięcie guza mózgu. Fryzjera też tak nie nazywaj.

  25. Larrabee vs ATI Radeon HD 5970 (autor: M1ras | data: 18/11/09 | godz.: 18:01)
    " ... Podczas inauguracji konferencji SC09 (Supercomputing Conference) w Portland przedstawiciel Intela Justin Rattner zaprezentował układ Larrabee, który po podkręceniu (overclocking) wykonywał operacje mnożenia macierzy z pojedynczą precyzją (SGEMM) z prędkością nieznacznie przekraczającą granicę jednego teraflopsa. Choć konkurenci z branży GPU mogą się pochwalić o wiele lepszymi teoretycznymi osiągami, to rzeczywisty (mierzalny) współczynnik SGEMM ich układów graficznych wypada często znacznie poniżej tej wartości (np. Nvidia Tesla C1060 osiąga około 320 gigaflopsów). Co prawda przyszła generacja procesorów Nvidii na bazie architektury Fermi będzie co najmniej dwukrotnie szybsza, a aktualne karty ATI z obsługą Direct X11 i teoretyczną mocą 2,72 teraflopsa już teraz przełamują barierę jednego teraflopsa, ale tylko w wersji z dwoma jednostkami GPU takimi jak choćby Radeon 5970. W normalnym trybie pracy stała moc obliczeniowa prototypu Larrebee wynosi już tylko 417 gigaflopsów, a maksymalna 712 gigaflopsów ... " Troche inne spojrzenie na Radeonka

  26. ... (autor: kubaswielgus | data: 18/11/09 | godz.: 18:28)
    M1ras - Mnie to ciekawi czy takie larrabee będzie wykrywane jako GPU czy jako dodatkowe procesory CPU? Ponieważ ma instrukcje x86 to mogłoby to oznaczać, że komputer od razu będzie mógł wykorzystać moc drzemiącą w karcie w programach wielowątkowych bez specjalnie przystosowanych programów. Ale na razie można tylko teoretyzować.

  27. @kubaswielgus (autor: Promilus | data: 18/11/09 | godz.: 18:54)
    Nie, nie mogłoby tak być wykrywane. Architektura samego PC na to nie pozwoli.

  28. @rush (autor: trepcia | data: 18/11/09 | godz.: 18:57)
    "wow, maja cyfrowa regulacje napiecia .. jak kazda karta od 6 lat"
    Tylko nie na każdej karcie możesz zmieniać napięcie (a'ka GF8800 i pochodne).


  29. ... (autor: kubaswielgus | data: 18/11/09 | godz.: 19:04)
    Promilus - a przecież technologia HT to nic innego jak wmówienie komputerowi, że są 2 procesory. Tak jak napisałem - na razie to tylko teoretyzowanie.

  30. @kubaswielgus (autor: M1ras | data: 18/11/09 | godz.: 19:11)
    istniejące oprogramowanie żeby mogło skorzystać z karty graficznej w do obliczeń musi być odpowiednio skompilowane.

  31. @trepcia (autor: Drow | data: 18/11/09 | godz.: 19:16)
    wiesz.. w koncu na polce powyzej tez lezy jakies mobo z jakas karta.. ;)

  32. to Larabee jest niczym (autor: Michał_72 | data: 18/11/09 | godz.: 19:16)
    Duke Nukem If Ever.
    Wejdą, nie wejdą, wejdą , nie wejdą..


  33. Barbarian (autor: Marek1981 | data: 18/11/09 | godz.: 19:24)
    c2d 8400 to teraz hit???? raczej się pomyliłeś:)

  34. @M1ras (autor: Marek1981 | data: 18/11/09 | godz.: 19:34)
    A ja mówię że Larrabee to gówno wydajnościowo zbliżone do gf 7600gt i co nie wierzysz mi???

    Napisałeś to jakbyś nie miał do czynienia z rynkiem IT!!!!
    Larrabee to karta widno nie mająca obecnie żadnej wydajności... Tak same brednie jak rzekomy pokaz jej możliwości firmą zewnętrznym i nagle cisza na 2 lata, kolejne przekładanie premiery itd.


  35. ... (autor: M1ras | data: 18/11/09 | godz.: 19:36)
    Fermi też swego czasu było tylko atrapą a jest już pod postacią następnej generacji Tesli.
    Ciekawy trend można zaobserwować na rynku zaawansowanych GPU. Karty z najwyższej pułki zaczynają służyć do obliczeń nie graficznych a renderowanie grafiki to dodatek. Taką taktykę przyjęła nVidia i Intel ze swoim Larrabee. ATI AMD ze swoimi produktami też zaczyna patrzeć w stronę przetwarzania GPGPU.


  36. @Marek1981 (autor: Barbarian | data: 18/11/09 | godz.: 19:46)
    No dobrze, C2D E8400 nie jest TERAZ hitem, ale jako proc w sensie historycznym to hicior niewątpliwie. Wiele osób kupuje tego proca nawet obecnie i nie narzeka - mimo trzymania ceny. AMD ma w tej cenie niemal wszystko i tym bardziej jest to dziwne. Dobrze, że AMD ma przed sobą kolejne lata na rynku, gdyż był moment, w którym miałem zamiar kupić Phenomka na pamiątkę po tej naprawdę dobrej firmie. Cieszę się bardzo, że AMD zawarło ugodę z Intelem i mam nadzieję, że Intel nie będzie złośliwie wykańczał tak bardzo potrzebnej nam konkurencji. Jeszcze bardziej cieszy mnie fakt tak dobrych produktów AMD w dziedzinie GPU. Obecnie czekam na Core i7 w 32nm pod Socket 1156 i jeśli Intel będzie zwlekał i robił sobie jaja w postaci i5 i i3 (kotlecik), to znów zagości u mnie procek AMD jak to już wiele razy bywało.

  37. @Marek1981 (autor: M1ras | data: 18/11/09 | godz.: 19:51)
    Larrabe to karta prototyp osiągająca określoną wydajność w określonym zastosowaniu w tym przypadku "... operacje mnożenia macierzy z pojedynczą precyzją (SGEMM) ... " Z oceną wydajności w grach wstrzymam się do czasu gdy gotowy produkt ujrzy światło dzienne

  38. Barbarian (autor: dr1zzt | data: 18/11/09 | godz.: 20:02)
    Nie ma lepszego procesora w okolicach 470zl, wiec niewiem po co sie kajasz:)

  39. dr1zzt (autor: Barbarian | data: 18/11/09 | godz.: 20:16)
    E8400 nie można dostać taniej niż za 470+100=570zł, co tym bardziej jest dziwne! Gdyby Intel obniżył cenę np. do 400zł, to byłoby niemal pozamiatane na rynku. Następnym takim hitem będzie i7 w 32nm pod s1156 i nie przekona mnie nikt, że Intel wypuści coś takiego. Obstawiam czerwiec 2010, a zakup planuję we wrześniu.

  40. sorry (autor: Barbarian | data: 18/11/09 | godz.: 20:18)
    ... i nie przekona mnie nikt, że Intel NIE wypuści coś takiego.

  41. @dr1zzt (autor: Marek1981 | data: 18/11/09 | godz.: 20:29)
    "
    Nie ma lepszego procesora w okolicach 470zl, wiec niewiem po co sie kajasz:)"
    -Twoje zakłamanie w kierunku made in intel jest dla mnie śmieszne.
    - za ok470 masz od intela c2q 8300 które jest o niebo lepsze:)
    - za 339 ( tego ja mam) masz x4 620.

    @Barbarian - c2d 8400 niegdyś było dobrą pozycją ale już od dawna nie jest. Tu się zgodzę.

    @M1ras - nadal nie kumasz do czego się doczepiłem.
    "Larrabe to karta prototyp osiągająca określoną wydajność w określonym zastosowaniu w tym przypadku "... operacje mnożenia macierzy z pojedynczą precyzją (SGEMM) ... " Z oceną wydajności w grach wstrzymam się do czasu gdy gotowy produkt ujrzy światło dzienne"
    10 nie doczepiłem się do wydajności w grach bo nie ma tej grafy !!
    2) Jak ktoś normalny może wierzyć w te bzdety??? Pomyśl przez chwile logicznie!!!
    Te GPU AMD mają taką wydajność w pewnych zastosowaniach..... najczęściej nie jest w pełni wykorzystywana ich moc. A teraz podajesz broszurkową wydajność ( bo ile się nie mylę raczej dostępu do ich projektów nie masz) tylko w określonych sytuacjach gdzie może być GPu wykorzystane w 100%.....

    Nie ma L na rynku, nie wiadomo co potrafi i nie jesteśmy nawet w stanie określić przybliżonej wartości!!!! Dodajmy że jakoś intel nie potrafi robić graf a co dopiero dobrych graf!!!
    Z tym czasem 2 lata od niby pokazu możliwości mogliby już dawno zrobić debiut a tu dupa. Coś nie wychodzi im i tyle.


  42. @Marek1981 (autor: M1ras | data: 18/11/09 | godz.: 20:55)
    a więc po kolei:
    1. "2) Jak ktoś normalny może wierzyć w te bzdety??? Pomyśl przez chwile logicznie!!!" Nie podaje broszurkowej wydajności jak sugerujesz, tylko benchmark uruchomiony podczas konferencji Supercomputin Conference. CAŁY CZAS pisze o PROTOTYPIE który jest tam zaprezentowany !!!. Prototypie nie gotowym produkcie.
    Tutaj link do materiału:
    http://tech.wp.pl/...ml?ticaid=1920d&_ticrsn=5
    2. "... A teraz podajesz broszurkową wydajność ( bo ile się nie mylę raczej dostępu do ich projektów nie masz) tylko w określonych sytuacjach gdzie może być GPu wykorzystane w 100%..... " Tak dokładnie to jest porównanie w tym konkretnym przypadku, mogące nie mieć nic wspólnego z rzeczywistą wydajnością, zwłaszcza że prezentacja była przygotowana przez INTELA, a chyba chodzi o to by produkt jak najlepiej zaprezentować to oczywiste ;).
    Edison zanim wynalazł żarówkę przeprowadził wiele prób. Tak samo może być z L może to być tylko epizod w ich historii. Mam nadzieje że teraz się zrozumiemy :)))


  43. Marek (autor: morgi | data: 18/11/09 | godz.: 21:26)
    Ciezko ci przelknac, ze ati i jego moc to tylko papier, chetnie zobacze ile w praktyce osiagaja te radeonki, te kilka tflops to magia, ale pisana jak ksiazki o potterze, zyje tylko w umyslach 'scislych'. Bedzie mocne uderzenie, nie pustym sprzetem z haslami, ale powolnym wykuwaniem osiagow. Najciekawiej zachowuje sie Nvidia i amd, kracac nosem przyznaja po cichu, ze w tym kierunku trzeba bedzie isc, tylko 'po co to x86' tam wsadzili.lol.

  44. Promilus (autor: morgi | data: 18/11/09 | godz.: 21:30)
    'Nie pozwoli', a ciekawe jak bedzie wykrywane hybryda CPU z GPU, czy osobne device, czy jedno wspolne, ale wazniejsze.

  45. @morgi (autor: Drow | data: 18/11/09 | godz.: 21:55)
    na dzis dzien nie ma nic bardziej papierowego, niz twoje uwielbiane Larrabee.

    sample? atrapy? nvidia tez to ma, ale probki karty nie czynia.

    Generalnie: skoncz wasc i nie osmieszaj sie jedynymi pustymi epitetami, jakie opanowales.


  46. @morgi i kubaswielgus (autor: Promilus | data: 18/11/09 | godz.: 21:57)
    Nie będę się rozpisywał. System zobaczy to co zakomunikuje mu bios. Nie sądzę żeby intel robił łatki do swoich płyt z kilkumegowym sterownikiem do larrabee który po jej wykryciu w slocie udostępni systemowi możliwości rdzeni x86 jako procesorów w systemie. A jeśli chodzi o CPU z GPU...będzie jako 2 osobne urządzenia. Przy czym GPU będzie jednocześnie wykrywane jako kontroler pamięci i jako urządzenie wideo. Bo tak zadeklaruje je bios ;)

  47. Oj Morgi, Morgi.. (autor: Kenjiro | data: 18/11/09 | godz.: 22:00)
    Ciężko Ci przełknąć, że to nVidia/Intel i ich moc to tylko papier, bo na razie nic nie pokazali. ATI zarzuca rynek rzeczywistymi produktami o wydajności łatwej do sprawdzenia, wystarczy kupić! To czego nie ma na rynku, można powiedzieć, że nie istnieje. Ot co.

  48. ....... (autor: Marek1981 | data: 18/11/09 | godz.: 22:06)
    @M1ras - Widzisz takie testy to w większości pic....
    Tak czy inaczej każdego można podstawić pod ścianą i twierdzić że konkurencja jest bee....

    By nie być gołosłowny np:
    http://www.benchmark.pl/...t-1887/strona/5200.html i ktoś pomyślałby że AMD ma dużo wydajniejsze procki a tak nie jest....


  49. Morgi- aby tylko z tymi GPGPU (autor: Michał_72 | data: 18/11/09 | godz.: 22:08)
    nie było tak jak z telefonami komórkowymi- najgorzej wypada jakośc dźwieku.
    A w GPGPU jakość wyświetlanego obrazu.. bo soc tam ktos obetnie.


  50. ... (autor: M1ras | data: 18/11/09 | godz.: 22:31)
    @Marek1981 - I dlatego wybieram sprzęt dostosowany do potrzeb, który jest dla mnie najkorzystniejszy ...

    Cena tych radeonów w przeliczeniu na PLN będzie zaporowa. Na szczęście na początku 2010 mają się pojawić Radki 5670 ;)


  51. troche drogo... (autor: skyler | data: 18/11/09 | godz.: 22:41)
    pre-ordery w uk zaczynaja sie od 512 funtow

  52. @Promilus (autor: kubaswielgus | data: 18/11/09 | godz.: 22:57)
    Sam nie wiem, ale chyba przesadzasz z tym kilkumegowym biosem. Poza tym Intel znany jest z narzucania klientom swoich rozwiązań i wcale bym się nie zdziwił gdyby pod nowe karty ukazały się specjalne płyty główne. Chodzi o to, że dużo łatwiej jest przekonać kilku producentów płyt głównych niż setki tysięcy programistów do napisania nowych programów.

  53. Promilus (autor: morgi | data: 19/11/09 | godz.: 10:33)
    To jeszcze sie okaze, chociaz to jest bez znaczenia dla zwyklego uzytkownika w jaki sposob bedzie mial dostep do urzadzenia i jakiego rodzaju sterownik.
    Marek
    Uslugi kryptograficzne, hmmm Westmere zalatwi sprawe na cacy, podobnie w kilku innych benchach amd wypada dziwnie dobrze, ale to tylko przypadek.
    Michał
    Nie ma wyjscia, dzisiejsze GPU stoja pod sciana, nowe radeonki zaprezentowaly indolencje, pomimo podwojenia zasobow sprzetowych wydajnosc ledwie o 50% w grach, gdzie w zasadzie do tego tylko sie nadaja.


  54. @morgi (autor: Drow | data: 19/11/09 | godz.: 10:42)
    rotfl, chlopcze. "ledwie"?
    poprosilbym cie o pokazanie karty nvidii od czasu powiedzmy serii 8, ktora miala wzrost wydajnosci w grach wiekszy, niz 50%, ale nie zrobie tego, bo takowej nie ma.


  55. @morgi (autor: ligand17 | data: 19/11/09 | godz.: 10:49)
    "ledwie o 50% w grach" - no niestety, tutaj wielkiego przyrostu (póki co) nie ma u żadnej ze stron. Ale to się lada moment zmieni, jak tylko się pojawią masowo dostępne płyty/karty z chipem firmy Lucid.

  56. morgi (autor: Dzban | data: 19/11/09 | godz.: 11:29)
    bo te nowe karty AMD są aż tak wydajne że "szorują sufit" w benchmarkach. Obecne procesory Intela są za słabe żeby mogły pokazać pełnię swojej wydajności. NO i to tyle w temacie.

  57. papier... (autor: Qjanusz | data: 19/11/09 | godz.: 11:35)
    ... ma to do siebie, że z jednej strony można na nim wszystko napisać a z drugiej strony można sobie nim podetrzeć.

    A prawda jest taka że zarówno nVidia i Intel swoimi wyczynami chwalą się właśnie na papierze.
    I żadna opinia o AMD nie zabierze im tego, że ich produkty można kupić (fakt że za ciężkie pieniądze) w normalnym sklepie, a nie na pdf-ach w necie.

    Ot cała prawda o konkurencji AMD.


  58. @Qjanusz (autor: kubaswielgus | data: 19/11/09 | godz.: 11:52)
    To, której karty AMD nie możesz kupić?

  59. wiesz co Morgi- chrzanisz (autor: Michał_72 | data: 19/11/09 | godz.: 14:28)
    procenty są ważne w butelce.
    Jeżeli w komputerze z Phenomem II 955 oraz 4870, w rozdzielczości HD wszystko co otwieram chodzi bez problemu- to na wzrost o 50% moge spokojnie poczekać.

    co do procesorów
    http://top500.org/

    po lewej stronie masz listę TOP 500 komputerów- zobacz co siedzi w środku.

    Jak myślisz- dlaczego Nvidia zanotowałą poslizg z GT300?
    Bo moim zdaniem okazało się, że wydajność nowych Radków zwyczajnie ich zaskoczyła i muszą jeszcze podgonić.

    Co do zastosowania GPGPU - dopóki będzie wymagać specjalnie napisanego softu- pozostanie marginesem.


  60. @morgi (autor: Marek1981 | data: 19/11/09 | godz.: 16:09)
    Umiesz czytać??? Chyba mamusia nie nauczyła lub też w szkole nie nauczono:)

  61. Drow (autor: morgi | data: 19/11/09 | godz.: 16:51)
    To wskaz taka, ktora nie ma choc podwojono jej jednostki, pewnie nie znajdziesz takze.:)

  62. @morgi (autor: ligand17 | data: 19/11/09 | godz.: 18:03)
    Pierwszy z brzegu:
    http://pclab.pl/art39671-6.html rozdzielczość 2560x1600
    GTX295 - 49fps
    GTX295 SLI - 78fps
    Przyrost - 23fps, czyli mniej, niż 50%.
    Jedziemy dalej:
    http://pclab.pl/art39671-14.html - również weźmy sobie 2560x1600, AAx8, AFx16:
    GTX295 - 50fps
    GTX295 SLI - 51fps
    różnica - 1fps, czyli całe 2%.
    http://pclab.pl/art39671-22.html - tutaj max to 1920:
    GTX295 - 19fps
    GTX295 SLI - 19fps
    różnica - 0pfs, 0%.


  63. @morgi (autor: trepcia | data: 19/11/09 | godz.: 18:19)
    "wydajnosc ledwie o 50%"
    W większości przypadków procesor jest wąskim gardłem.


  64. ligand17 (autor: morgi | data: 19/11/09 | godz.: 18:45)
    A prosze o takie testy, w ktorych dualik dziala lub nie we wszystkich przypadkach?
    trepcia
    Tak oczywiscie zwlaszcza w bardzo wysokich rozdzielczosciach, gdzie wszystkie procesory wyrownuja sie wydajnoscia w grach, mimo ze nie dysponuja porownywalna wydajnoscia, no ale to dobry przyklad na obrone indolencji GPU jednakowoz na CPU i calej architektury blacharstwa, a fan konsol doskoczy z teza ze to sterowniki i w ogole.


  65. @morgi (autor: trepcia | data: 19/11/09 | godz.: 19:01)
    Wąskie gardło ze strony procesora:
    http://www.in4.pl/..._id=577&rectr_str_numer=6
    http://www.in4.pl/..._id=577&rectr_str_numer=7
    http://www.in4.pl/..._id=577&rectr_str_numer=9
    I tak dalej...


  66. Może (autor: scoobydoo19911 | data: 19/11/09 | godz.: 21:41)
    moje stwierdzenie jest mało odkrywcze ale ta karta jest nie opłacalna droga, gorąca, prądożerna i wielka. niestety te cechy przeważają na nie no chyba że ktoś wyciąga 20000 koła na miesiąc. narazie moje q9400 i gtx260 w zupełności starczają a jak będe chciał coś nowego to poczekam na następną generacje kart bo one dopiero będą prawdziwym dx11 a nie kotletem z przyprawą dx11(tylko nie wiem jeszcze czy nv ma nową architekture czy odgrzewaną jak u ati)

  67. @up (autor: trepcia | data: 19/11/09 | godz.: 21:44)
    Topowe karty jak topowe samochody - nie mają być małe, zwrotne, oszczędne, tanie w zakupie i utrzymaniu.
    Odgrzewanie, jakież to modne słowo dzisiaj, zupełnie jak "funboy" tudzież fanboj.


  68. trepcia (autor: morgi | data: 19/11/09 | godz.: 21:58)
    Bedzie wina procesora jak wszedzie bedzie czy Nvidia czy ati i zascreenuje mi ktos uzycie rdzeni, to widac na tej granicy i niech mnie ktos wtajemniczy, ale jakim cudem do ulamka klatki, moze to ustawka silnika gry, albo sterownik.

  69. @morgi (autor: ligand17 | data: 19/11/09 | godz.: 22:00)
    No przecież Ci podałem testy, w których SLI działa - przecież widoczny jest przyrost wydajności.

  70. @trepcia (autor: scoobydoo19911 | data: 19/11/09 | godz.: 22:26)
    zgodze się z tobą że odgrzewanie to modne słowo ale nowe radki t praktycznie to samo co poprzednie tyle że mają dx11 są w innym procesie i mają więcej jednostek zunifikowanych czy jakoś tak także więc technologicznie super skoku nie ma(ale te całe eyefinity to ciekawy bajer) jest poprostu wszystkiego więcej. nie twierdze że radki są kiepskie tylko że nie wnoszą super innowacji. zastanawia mnie natomiast czy nowe nv będą na nowej architekturze czy po optymalizacjach jak u ati

  71. @morgi (autor: trepcia | data: 19/11/09 | godz.: 22:30)
    "moze to ustawka silnika gry, albo sterownik."
    Teoria spiskowa wiecznie żywa a zimna wojna nigdy się nie skończyła, nie? Śmieszny jesteś, co ma silnik gry do ilości wyświetlanych klatek oraz jej maksymalnej ilości? W jaki sposób może on powiedzieć karcie "dość, na więcej klatek Ci nie pozwolę"?
    Wina sterownika? Chyba, żeby sztucznie zaniżać wydajność karty przed konkurencją, która ma w niedługim czasie wydać swój produkt. Ot, taki pstryczek w nos "patrzcie, to nie maksymalna wydajność karty, tak naprawdę blokowaliśmy 20% jej mocy abyście o tym nie wiedzieli i wydali bubla w bardzo wysokiej cenie, którego bez problemu pokonamy wydajnością".


  72. @scooby (autor: trepcia | data: 19/11/09 | godz.: 22:35)
    Odgrzewanie to wystawienie tego samego modelu rdzenia pod nową nazwą (a'ka GF8800->9800). Ewolucja to stopniowe udoskonalanie produktu. Nowa architektura to nowy projekt układu, można powiedzieć, że zaprojektowany zupełnie od nowa (wiadomo, zawsze jakieś podwaliny są z poprzedniego układu). Mam nadzieję, że teraz widzisz różnicę pomiędzy odgrzewaniem, ewolucją i nową architekturą.

  73. @trepcia dla (autor: scoobydoo19911 | data: 19/11/09 | godz.: 22:52)
    mnie nowa architektura jest projektowana od zera wiadomo że będzie podobna w jakiś sposób do poprzednich ale to wynika z sprzętowych uwarunkowań dx od 10 do 11 czyli konieczności wykorzystania zunifikowanych jesdnostek cieniujących, a przez to można stwierdzić że architektury nv i ati są podobne do siebie(prosze nie zlinczujcie mnie za to).
    Rozumiem że według tego co powiedziałeś gt240 nv które ma więcej wspólnego z 8800gt niż faktyczną serią 200, nie jest kotletem bo ma dodany dx10,1 i jest w 40nm.


  74. no może (autor: scoobydoo19911 | data: 19/11/09 | godz.: 22:55)
    się troche rozpędziłem z tym kotletem w końcu ta prawdziwa seria 200 też mo wszystkiego więcej i lepie doprcowanego w stosunku do kart wywodzących się z g80

  75. o kurcze (autor: scoobydoo19911 | data: 19/11/09 | godz.: 22:56)
    ale poleciałem po bandzie ortografią

  76. znowu (autor: scoobydoo19911 | data: 19/11/09 | godz.: 22:57)
    to samo tyle że z składnią

  77. @scooby (autor: trepcia | data: 19/11/09 | godz.: 23:14)
    Skończ z kotletowaniem bo wybitnym kucharzem nie zostaniesz :-) Kotlet to TEN SAM układ pod nową nazwą.
    Czasem mi się wydaje, że niektórzy nie rozumieją co to znaczy ten sam... Twój klon będzie taki sam jak Ty, Twój brat bliźniak już nie bo ma inne DNA. Można powiedzieć, że Twój klon jest "kotletem" Ciebie pomimo tego, że Ty masz na imię np. Marek o on Jarek. Prościej już się nie da... ;p


  78. Pomyłka (autor: scoobydoo19911 | data: 19/11/09 | godz.: 23:20)
    zależy jaki bliźniak jeżeli jedno jajowy to ma identyczne dna a rozbieżności w zachowaniu i wyglądzie wynikają z czynników zewnętrznych.

  79. Teraz (autor: scoobydoo19911 | data: 19/11/09 | godz.: 23:35)
    ja ci spróbóje wytłumaczyć moje odniesienie do serii hd5000 jako kotletów. mianowicie masz kawałek wiprzowiny(dla przykładu ati bez żadnych podtekstów) z tejże wieprzowiny wycinasz kawałek mięsa(architektura r600) następnie wykrawasz z tego kotlety(podstawowe r600 ,rv670, i tak dalej) a następnie przyrządzasz je począwszy od pierwszego uczysz się jak robić to lepiej. pomimo że każdy z tych kotletów jest z tego samego kawałka mięsa każdy jest inaczej przyrządzony i doprawiony z każdnym kolejnym smażeniem kucharze(inzynmierowie ati bądź nv) nabierają doświadczenia a ich kotlety są coraz lepsze po mimo że teoretycznie jest ten sam kawałek mięsa.

  80. @scooby (autor: trepcia | data: 19/11/09 | godz.: 23:48)
    Nie do końca z tym DNA http://wyborcza.pl/1,76842,4962301.html

    No tak, ale na początku miałeś schabowego a na końcu masz dewolaja. A odgrzewanym kotletem jest zamównienie dewolaja a dostanie schabowego.

    Zresztą, od kiedy twojepc gastronomią się zajmuje?


  81. Trepcia- no jak to "jak"? (autor: Michał_72 | data: 20/11/09 | godz.: 00:52)
    V sync=on :))
    i maksymalna ilośc klatek będze równa "odświezaniu" monitora.


  82. nazywanie HD5XXX kotletem... (autor: Qjanusz | data: 20/11/09 | godz.: 10:12)
    ...jest już sporym przegięciem. Nawet jak na tzw "forumowych kretynów".

    Pewnie bierze im się to od zbyt długiego kontaktu ze spalonym tłuszczem z produktów 8800=9800.


  83. :)) (autor: dr1zzt | data: 20/11/09 | godz.: 10:48)
    "Kotlet to TEN SAM układ pod nową nazwą."

    Dokladnie. Najtrafniejszym przykladem sa wychodzace co tydzien supernowoczesne procesory AMD. I tak od lat.. W porownaniu z nimi inne uklady to lekko dozmazane frytki:)

    @barbarian
    Ta jasne. Wystarczy przejrzec allego. Skad Ci sie wzielo to +100zl? :)))


  84. @dr1zzt (autor: Promilus | data: 20/11/09 | godz.: 11:45)
    Jasne ;) to E5x00 i 7x00 są kotletami intela. to samo można powiedzieć o quadach i lepszych dualikach - w końcu zasadniczo te same układy a różne oznaczenia ;)

  85. @dr1zzt (autor: ligand17 | data: 20/11/09 | godz.: 11:49)
    Może jakimś przykładem zarzucisz? Napisz, jaki to "supernowoczesny procesor AMD" pojawił się w ostatnim tygodniu i z czyją jest kalką.

  86. Promilus (autor: morgi | data: 20/11/09 | godz.: 12:16)
    To juz nie odrozniasz kastrata od kotleta, a Intel specjalizuje sie w amputacjach na potrzeby zdrowia koncernu i dywersyfikacji produktu, a nie wypuszcza kotleta, kastrata i w dodatku uwalonce.

  87. @morgi (autor: Promilus | data: 20/11/09 | godz.: 12:43)
    No jeśli ktoś zarzuca, że kolejne modele CPU oparte o ten sam rdzeń to kotletowanie to idę za ciosem. Jeśli to było do Ciebie za trudne do zrozumienia to jakże mi przykro.

  88. Promilus (autor: morgi | data: 20/11/09 | godz.: 16:26)
    Kotletem jest wszystko co sprzedawane jest z nowa nalepka, a zmian na plus tam nie uswiadczysz. Tak wiec kotletem na bazie architektury sa np. k8-k10 we wszystkich procesach, wszystkie radeonki hd i wszystkie GF od 8k do dzisiaj, na bazie rdzenia wiekszosc uwalonych denebow sprzedawanych pod roznymi nazwami czyste kuriozum, pare identycznych kart na bazie G92.

  89. @morgi (autor: trepcia | data: 20/11/09 | godz.: 16:36)
    To i Intel niezłym kucharzem jest i zafundował nam całe tuziny kotletów w różnych smakach :-)

  90. @morgi (autor: Promilus | data: 20/11/09 | godz.: 17:08)
    No tak, E6300, E3200, E5200, E7200...zmian nie uświadczysz ;) No bo tylko kosmetyka to FSB i cięcie keszu ^^ A czym jest i7 jeśli nie C2Q z IMC? :P

  91. weźcie pod uwagę (autor: sz4rlej | data: 20/11/09 | godz.: 18:40)
    że nowa architektura nie powstanie, dopókibędzie możliwe sensowne zwiększanie mocy na bazie istniejących. przecież firmy muszą na czymś zarabiać, nie?

  92. ... (autor: trepcia | data: 20/11/09 | godz.: 19:06)
    Zarabiają na nas, to malo?

  93. Promilus (autor: morgi | data: 20/11/09 | godz.: 21:53)
    No wlasnie czym, tam sa zmiany w kazdym elemencie, ale lepiej poleciec po bandzie, to mozna stwierdzic co zmienilo sie w k10 od k8 jednostki wykonawcze? A E3, E5, E6 to kolejne edycje kastratow, czy dywersyfikacja sprzedazy, co innego gdyby Intel ustawil na jednym rdzeniu cala linie procesorow i ponazywal sobie kolejne rdzenie kazde z osobna.

  94. @Morgi (autor: AmigaPPC | data: 20/11/09 | godz.: 23:12)
    jaką lub czego dywersyfikację masz na myśli ?

  95. @morgi (autor: Promilus | data: 21/11/09 | godz.: 06:52)
    kolejne edycje kastratów zasadniczo...a nie żadne dywersyfikacje

  96. dla firm komercyjnych zarobki nigdy nie są za duże (autor: sz4rlej | data: 21/11/09 | godz.: 11:14)
    dodam jeszcze, że nowa konstrukcja to ryzyko niewypału :)

  97. Promilus (autor: morgi | data: 21/11/09 | godz.: 14:50)
    Zasadniczo to uwalonce jeszcze inna wersja niz kotlet, zaowalowana metoda sprzedawania niesprawnych rdzeni, a przeciez dobra blokada zaprogramowana w sprzet to pikus.
    sz4rlej
    Ryzyko jesli calkowicie zmieniasz od strony innowacyjnej, a nie przygotujesz dobre pole do ladowania, czyli stery, oprogramowanie i technologie towarzyszace. Tak wlasnie jest z ati, chocby nie wiem jak sie starali w sprzecie, bez odpowiedniej otoczki, wsparcia i marketingu bedzie i jest lipnica.


  98. @morgi (autor: Promilus | data: 21/11/09 | godz.: 15:00)
    To powiedz proszę na czym bazuje Celeron dual core E3200, Pentium dual core E5200, Pentium dual core E6300 oraz Core 2 Duo E7200? Wiesz na czym? na tym samym kawałku krzemu!! AMD nie zdywersyfikowało swoich produktów? Regor natywne 2 rdzenie, 1MB cache L2 na rdzeń 45nm. Propus to drugi rdzeń (z niego wywodzi się też heka). Trzecim typem rdzenia jest Deneb, od propusa różni go w zasadzie tylko obecny cache L3. Z niego wywodzi się 3 rdzeniowa rana i 2 rdzeniowa callisto. A intel co ma? Wolfdale 3M i wolfdale 6M - z tego składa co chce. Od celeronów po quad core. Masz, właśnie pokazałem ci jak niewiele wiesz o intelu.

  99. @promilus (autor: trepcia | data: 21/11/09 | godz.: 15:57)
    Nie gorączkuj się, to nic nie da... to jak ze ślepym o kolorach rozmawiać.

  100. @morgi (autor: Drow | data: 21/11/09 | godz.: 19:45)
    jakim cudem mozesz wiedziec, ze lipnica, skoro nawet w rekach nie miales nigdy karty ATi? Bo powiedzmy sobie to szczerze, wychwalasz integry Intela, bo to jedyne, co w twoim komputerze siedzialo, a ATi nigdy zadnego produktu nie miales, czego dowodzisz piszac bzdury bez pokrycia w rzeczywistosci, od lat.

  101. Promilus (autor: morgi | data: 22/11/09 | godz.: 11:33)
    Regor i Propus tez przycinaja i sa w wersjach uwalonych. Rozumiem kastracje cache, bo to nie wplywa zasadniczo na czytelne przeslanie i pozycjonowanie produktu, ale obsadzic denebem z gory na dol prawie wszystko, nawet miast Propusow, Hek to juz niezle kotletowanie.
    Drow
    Przypomnij sobie jak proroczo wg amd mialo hd4k niszczyc konkurencje i zdobywac rynek, analitycy byli sceptyczni, a Nvidia wystarczylo ze popuscila z cenami i wstawila psiksa i okularki i juz jest z przodu. Po 2 miesiacach od premiery hd5k nadal sa problemy z dostepnoscia i sterownikami, ale to juz nic nowego w tym roku nie licz na rewolucje.


  102. @morgi (autor: trepcia | data: 22/11/09 | godz.: 12:46)
    Jakie problemy ze sterownikami? Podziel się swoimi "rewelacjami" bo ciągłe na ślepo powtarzanie "radeony mają złe sterowniki" jest takie samo jak "Balcerowicz musi odejść".

  103. A tymczasem (autor: AmigaPPC | data: 22/11/09 | godz.: 15:16)
    nVidia znowu w plecy - do PS4 zostały wybrane chipy PowerVR (na zasadzie wyłączności) zamiast nV wskazuje to jednoznacznie, że Sony nie będzie współpracowało z nV przy produkcji PS4

  104. @morgi (autor: Drow | data: 22/11/09 | godz.: 17:01)
    z jakimi sterownikami? konkretne przyklady, juz, od siebie - nie z wydumanych for internetowych.

    Chcialem napisac "slucham", ale dobrze wiem, ze ty tych kart w reku nie miales, wiec nawet nie spodziewam sie merytoryki w twojeo odpowiedzi, tylko belkotu - bo w tym jestes dobry.


  105. @morgi (autor: Promilus | data: 22/11/09 | godz.: 18:36)
    No nie gadaj, że wolfdale nie...quadów też jest całkiem kilka rodzai...także tych z 512KB L2 na rdzeń. Celeron quad core się to powinno nazywać...no ale. Intel tnie rdzeń na:
    1. cache
    2. FSB
    3. SSE4
    4. VT
    ... więc nie opowiadaj że AMD jest gorsze, bo to nieprawda. Co do HD4k - haaa...to teraz powiedz mistrzu ile na 1 karcie zarobiło AMD a ile NV i przekonamy się kto jest górą ;)


  106. @Promilus (autor: scoobydoo19911 | data: 23/11/09 | godz.: 15:17)
    AMD może gorsze nie jest ale też nie jest lepsze od Intela

    generalnie take it easy


  107. @scoobydoo19911 (autor: Promilus | data: 23/11/09 | godz.: 15:38)
    A czy ja napisałem gdzieś że jest? Po prostu nie lubię hipokryzji...dodatkowo połączonego z niedoinformowaniem.

  108. @Promilus (autor: AmigaPPC | data: 23/11/09 | godz.: 18:52)
    nie ma żadnego niedoinformowania @Morgi to sama hipokryzja. Fakty nie pasujące do jego "wynurzeń" są po prostu ignorowane przez niego.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.