Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Czwartek 20 sierpnia 2009 
    

Pierwsze zdjęcia nowych kart AMD z DirectX 11


Autor: Zbyszek | źródło: Chiphell | 20:30
(46)
W sieci pojawiły się pierwsze zdjęcia nadchodzących kart graficznych ATI Radeon zgodnych z najnowszymi bilbiotekami DirectX 11. Fotografie przedstawiają jedną z kart z nowej serii wraz z zainstalowanym systemem chłodzenia, który swoim kształtem przypomina coolery stosowane dotychczas w kartach z serii ATI Radeon HD 4770. Jak można zauważyć na zdjęciach karta ma czarną płytkę drukowaną, dwa złącza CrossFire oraz 6-pinowy wtyk zasilający. Na śledziu znajdują się dwa wyjścia DVI oraz jedno HDMI i jedno DisplayPort. Oficjalna premiera nowych kart firmy AMD obędzie się 10 września obecnego roku.


 

    
K O M E N T A R Z E
    

  1. MASAKRATOR (autor: LOLO64 | data: 20/08/09 | godz.: 21:26)
    nVidio GIŃ przepadnij !!!

  2. AŻ się (autor: Informator | data: 20/08/09 | godz.: 21:32)
    podnieciłem ;)

  3. .... (autor: MariuschM | data: 20/08/09 | godz.: 21:33)
    chociaż chłodzenie jest z HD4770 to nie ma to znaczeniaXD jest to jedno z najlepszych chłodzeń które w życiu zostało przez nich stworzonychXD perfekcyjnie chłodzi i ciche że nawet Nvidia nie podskoczyXD a tak w ogóle to widać że jest to jednordzeniowa wersja:) ale najważniejsze i tak pozostanie to że wymaga tylko jednej 6 pinowej wtyczkiXD

  4. chłodzenie? (autor: bezrobotnydarek | data: 21/08/09 | godz.: 03:14)
    to chłodzenie wcale mi nie przypomina tego z Radeon HD4770.
    Ciekawe kiedy doczekam czasów, że reklamy w stylu: "komputer z kartą graficzną GeForce" przestaną się pojawiać w telewizji, bo w tej chwili GeForce ma tak silną markę, że już nawet nie podają jaki model Ge Forca xD


  5. @bezrobotnydarek (autor: Wedelek | data: 21/08/09 | godz.: 08:58)
    No cóż. nie podająjaki, bo ludzie mogliby skumać, że to padaka :D Pozatym n-vidia wcale nie ma już takiej dobrej pozycji.

    Co do chłodzenia, to są 2 referety i do jednego pasuje, choć ja akurat bardziej bym się skłaniał do porównań z HD3870.


  6. jakiekolwiek to chlodzenie by nie bylo (autor: psemeq | data: 21/08/09 | godz.: 12:08)
    i tak idzie do wymiany na wodne... przy takich kartach to tylko wodne ratuje temperatury...

  7. @psemeq (autor: MariuschM | data: 21/08/09 | godz.: 14:55)
    a skąd wiesz jak bardzo będa się one grzały?? w nich jest nowa architektura i nie można zapomnieć że są one w 40nm procesie tworzone więc temperatura jeszcze mniejsza będzieXD

    nie umiem się doczekać jak będzie wyglądał 2 rdzeniowy przedstawicielXD


  8. off topic (autor: antrax | data: 21/08/09 | godz.: 16:11)
    czy może mi ktoś dać namiar na jakieś sklepy z WC konkretnie potrzebuje blok na 4870. W Cooling.pl byłem

  9. Hehe (autor: dr1zzt | data: 21/08/09 | godz.: 17:17)
    Tak wlasnie wyglada hipokryzja fanow amd :)
    Konkurencja w postaci fenomkow zdrowa dla spadkow cen intela, ale nvidia niech zginie!
    Nie widzieliscie na oczy nawet tej karty, nie znacie CEN, nie wiecie czy to bedzie udany produkt, a juz walicie gruche.
    Okropnie to smieszne :)
    Cenie sobie karty ati, ale do "miazdzenia" nvidii jej daleko. Radze poszukac i poczytac jak amd cisnelo ms zeby posuwal w dx11 instrukcje, ktorych nie ma w kartach ati.. (DepthBoundsTest, wyjebiscie potrzebne do cieni stencilowych) Z silnikiem fizyki tez zrobili scieme, bo pozazdroscili nvidii psyhx. I teraz ati bedzie mialo computing shaders ;-)


  10. psemeq (autor: Elektron | data: 21/08/09 | godz.: 18:02)
    tylko wodne, człowieku na jakiej planecie ty żyjesz? Mam HD4850, kupiłem sobie Scythe Musashi, wentyle prawie się nie kręcą i karta po kilku godzinach grania przy 700/1100 ledwo dobija 50st w bardzo słabo wentylowanej obudowie.

  11. @dr1zzt (autor: Wedelek | data: 21/08/09 | godz.: 18:10)
    To co mówisz, to bujda na resorach. A to, że ATI chciało swoich technologii w dx?? No cóż. Nie oni pierwsi. N-vidia robiła już to wcześniej. A physix, to wynalazek agei, nie n-vidii. To samo z SLI. Zieloni połowę patentów przejęli, a nie wymyślili szpecu. A my chcemy tylko dać N-vidii po głowie za te kotlety, co serwuje i serwowała. Nikt tu nie chce upadku zielonych.

  12. dr1zzt (autor: Adolph | data: 21/08/09 | godz.: 18:27)
    Poprostu Ati jest narazie jedynym producentem ktory nie sypie tak kotletami ;)

    psemeq, skoro ty być taki MONDRY, to powiedz jakie tempertatury osiągają Radeony i jakie temperatury są dla nich szkodliwe.


  13. w związku z głupotą (autor: Wedelek | data: 21/08/09 | godz.: 19:04)
    i gorączką co poniektórych userów, radzę przeczytać nim się zacznie głupoty pisać.

    http://www.techfanatyk.net/...zka-kart-czy-userow/


  14. tak a propos (autor: Giray | data: 21/08/09 | godz.: 19:32)
    była kiedys pewna firma, bardziej znana w tym czasie od Nvidii, ktora przez dluzszy czas nie potrafila wypuscic nic nowego. Miala jednak od Nvidii gorzej funkcjonujacy dzial marketingu i nie przejawiala aktywnosci w sferze kulinarnej ;). Jak sie to dla niej skonczylo wszystcy zapewne dobrze wiedza. Swoja droga to morgiego gdzies diabli wzieli :P

  15. @Giray (autor: Wedelek | data: 21/08/09 | godz.: 20:36)
    Nie wywołuj wilka z lasu.

  16. Wedelek (autor: Adolph | data: 21/08/09 | godz.: 22:25)
    Dzięki, trepcia to chyba kiedyś wrzucił, a szukać mi się nie chciało ^^

  17. Wedelek bujda? (autor: dr1zzt | data: 21/08/09 | godz.: 22:53)
    Problem jest w tym ze karty nvidii wiekszosc "fajerwerkow" w ati obsluguje, a biedne ati niestety nvidiowych nie.
    Wszystko sie rozbija o CUDA, ktorego nieudana podrobe uczynilo amd. Prawda jest taka ze wiekszosc fanbojow piejacych tutaj do ati/amd, zupelnie nie ma pojecia do czego piszcza.
    Prosze mnie nie odebrac jako morgiego2, bo rowniez karty ati kupuje i uzywam, nvidie "skonczylem" na 8800. Bo je lubie i juz. Ale nie mozna byc slepym.. nv mimo "kotletowatego" procesu robi karty, ktorych "pure power" niestety jest czyms, z czym ati nie moze sobie poradzic.


  18. czego to karty (autor: Adolph | data: 21/08/09 | godz.: 23:05)
    Ati nie obsługują, a nv tak i nie jest to CUDA?
    Co obsługują karty ati, a nv nie i nie jest to DX.10.1, a wkrótce 11?


  19. .... (autor: MariuschM | data: 22/08/09 | godz.: 00:30)
    DX11 sprawi to że te wszystkie CUDA PhysX będą niepotrzebne... ATI w tym momencie przejmie prowadzenie bo właśnie to sprawiało że ATI było w tyle a pod względem architektury już dawno biło Nvidię na głowę... tak szczerze to DX11 to klęska Nvidii bo tracą przez nią wszystkie plusy które miała

  20. ........... (autor: Marek1981 | data: 22/08/09 | godz.: 01:59)
    @dr1zzt - o jakich fajerwerkach piszesz???
    "Wszystko sie rozbija o CUDA, ktorego nieudana podrobe uczynilo amd." - nie błaźnij się.
    te cuda potrafią zawieszać i restartować pc-ty więc same są w obecnej formie do d...!!!
    A stream od AMD też działa, nie mam pojęcia czy dobrze, nie znam opinii


  21. Mariuschku (autor: morgi | data: 22/08/09 | godz.: 11:22)
    Ale masz wyobraznie, dx11 ma jeden glowny feler, jest ograniczone do windows, a CUDA do Nvidii, czyli na wszelakie platformy. To nie zmienia oczywiscie mojej oceny gpu w takiej postaci do gpgpu to dalej niezle bajki w teorii.

  22. @morgi (autor: trepcia | data: 22/08/09 | godz.: 11:37)
    Takie same bajki jak to, jakim killerem wydajnościowym miał być projekt Larrabe. Wiele szumu o nic.

  23. @morgi (autor: MariuschM | data: 22/08/09 | godz.: 11:57)
    tylko popatrz na to że ponad 90% użytkowników korzysta z windowsa więc co za różnica?? jeśli teraz cuda nie będą miały znaczenia na widowsie to AMD bije Nvidię na głowę... jedyne co nvidii pozostało to te 2% rynku które należy do linuxa i nic więcej...

    a Larrabee to już przeszłość... 3 krotnie zmieniali architekturę bo za bardzo się nagrzewało i nie wiadomo co będzie tym razem... już 3 krotnie przekroczono budżet który był dany... a wydajność?? za pierwszym razem beznadziejna, za drugim razem porównywalna do HD4850 a teraz?? może będzie już HD4870... oni prędzej zrezygnują z tego niż osiągną taką wydajność jak aktualne topowe karty a co by pomyśleć o tym żeby była wydajność taka jak w HD5*** po prostu można się śmiać i nic więcejXD Intel zaliczył faila i to niezłego... dodatkowo Larrabee nie będzie się nadawało do gier... to już prędzej do obliczeń i nic więcej


  24. ... (autor: trepcia | data: 22/08/09 | godz.: 12:50)
    Wadą a jednocześnie i zaletą Larrabee jest to, że jest w pełni programowy. Teoretycznie może wszystko ale do niczego nie jest wyspecjalizowany, przez co jest strasznie energochłonny i średniowydajny.
    Jak coś jest do wszystkiego to jest do... (każdy niech sobie sam odpowie w myślach) :-)


  25. Lrabee (autor: Wedelek | data: 22/08/09 | godz.: 14:17)
    byłoby niezłe do rozwiązań profesjonalnych gdyby... było wydajne, tak nie jest i cienkoi to widzę

    @dr1zzt Stream w Photoshopie CS4 chodiz bardzo dobrzeu kumpla. Wiem, bo sam widziałem. A co do tego gorszego obsługiwaia przez ATI, to poczytaj sobie. http://pclab.pl/art35447.html


  26. Wedelek (autor: dr1zzt | data: 22/08/09 | godz.: 14:27)
    Jak zaprzac stream'a do PS? Sam bym chetnie poprobowal..

  27. tdp (autor: gindek | data: 22/08/09 | godz.: 14:38)
    ciekawe jakie tdp, bo chlodzenie wyglada tak na 130-150w max

  28. bardzo prosto (autor: Wedelek | data: 22/08/09 | godz.: 16:12)
    instalujesz plug-iny jak ten http://www.benchmark.pl/...CS4_-_plugin-20189.html

  29. Dupa (autor: dr1zzt | data: 22/08/09 | godz.: 17:32)
    Pod XP nie dziala.

  30. yo pedały! (autor: Sajron | data: 22/08/09 | godz.: 19:24)
    podobno premiera nowych kart ATI ma odbyc sie pokładzie lotniskowca USS Hornet.
    http://en.expreview.com/...t-aircraft-carrier.html

    Nvidia juz sra w gacie. hehe jak im wystrzelą z takiego arsenału to się niepozbierają.


  31. trepcia, MariuschM (autor: Sajron | data: 22/08/09 | godz.: 19:34)
    larrabee niewypałem? buhaha na dobre karty jeszcze nikt na oczy nie widział a ci juz wszystko wiedzą. buahahahah trole out!

    larrabee to nie zadna 3 wersja a cały czas ta sama bo zawsze był zapowidanany na 2010rok. pewnie maja zamiar go zrobic w procesie 32nm wiec spokojna głowka!

    a probne wersje 32rdzeniowe na niedopracowanych sterach podobno osiągały wydajnosc GTX285.
    pomysl sobie co bedzie jak dopracują stery i zrobią wersje z większa iloscią rdzeni.


  32. @sajron (autor: antrax | data: 22/08/09 | godz.: 19:45)
    "pomysl sobie co bedzie jak dopracują stery i zrobią wersje z większa iloscią rdzeni."
    A ty pomyśl czym to trzeba będzie chłodzić i ile prądu pożre pod obciążeniem


  33. @Sajron (autor: MariuschM | data: 22/08/09 | godz.: 19:57)
    a ty pomyśl zanim coś napiszesz.. to jest oficjalna informacja od Intela na temat larrabee... napisali że teraz robią już 3 architekturę bo każda którą zrobili sie okropnie grzała i wydajność na niej była marna... i z tym GTX285 to wymyśliłeś... bo intel sam powiedział że wydajność jest niska i dlatego cały czas zmieniają architekturę...
    ale zapewniają że jak zostanie wydane to będzie ona taka dobra jak aktualne karty na rynku czyli nie przebije HD5*** i to jest oficjalna informacja od intela a nie jakaś zmyślona


  34. MariuschM (autor: Sajron | data: 22/08/09 | godz.: 20:38)
    litosci trolu... nic nie wiesz a zabierasz głos, kim jestes aby dyktowac mi tutaj co jest co a co nie?
    Larrabee to cały czas ta sama architektura,
    nadal jest to rdzen Pentium C54 z 512bit wektorowym FPU.

    jedynie moze to byc 3 rewizja, jak np dostosowanie układu do 65nm,45nm czy 32nm czy zwiększanie ilosci rdzeni.

    oficjalne stanowisko Intela:
    http://www.fudzilla.com/content/view/15148/65/

    tak wiec jest to Larrabee 1 a nie żadne 3 czy 4.
    a wydajnosc GTX285 to byl taki news niedawno że wersja probna niedopracowane stery etc osiaga wydajnosc troche wyzszą od GTX285.
    wiec jest dobrze poprawią stery, doładują więcej rdzeni , zrobią na procesie 32nm i karta będzie o wiele lepsza od GTX285.


  35. antrax (autor: morgi | data: 22/08/09 | godz.: 21:07)
    A co zal ci entuzjastow, ze maja kase na max. hardcore, od amd mieli mozliwosc ostatnio 4 lata temu zapodac cokolwiek hardcore, teraz jest wieloletnia przerwa na szczescie od wtapiaczy.

  36. @Sajron (autor: MariuschM | data: 22/08/09 | godz.: 21:59)
    http://pclab.pl/...abee-do_trzech_razy_sztuka.html

    no z jednej strony masz rację bo nie powiedzieli że dokładnie nowa architektura tylko nazwali to generacja a mogło to znaczyć tyle co powiedziałeś... ale nadal można powiedzieć że Larrabee okropnie się grzeje więc prace będą trwać dalej...

    po za tym to że Larrabee ma być taka wydajna jak GTX285 to wiadomość z końca czerwca i było napisane że na to wskazują pierwsze testy... a oznaczało to tyle ze ostateczna wersja będzie taka dobra jak GTX285... ale teraz wystąpiły problemy z temperaturą i będą znów kolejne odciągnięcia...


  37. MariuschM (autor: Sajron | data: 22/08/09 | godz.: 22:35)
    ...

    Intel i grzanie? chyba cos ci sie pomyliło. Intel to potęga i nie ma mowy aby jego super układy się grzały!

    poczekaj do 2010roku a nie pierdoły gadasz teraz , jaknarazie to nic nie wiadomo czy układ ten sie grzeje czy nie ,jakie ma TDP i wydajnosc ,która to rewizja etc.

    wszystko to są spekulacje a nie oficjalne stanowisko od Intela.

    jedyne co wiadomo to że stanowisko Intela które mówi że produkt zapowiadany jest na 2010r. ma byc konkurencyjny dla kart konkurencji, i ze jest to larrabee 1. wszelkie inne informajce nie pochodza od Intela i mogą byc błedne.


  38. @Sajron (autor: MariuschM | data: 22/08/09 | godz.: 23:19)
    "Pierwsza oraz druga generacja okładu sprawiała niemałe problemy związane ze swoją wysoką temperaturą pracy, przez co Gigant z Santa Clara został zmuszony do wprowadzenia zmian, które to poprawią."

    to nie jest mój text....


  39. @Sajron (autor: MariuschM | data: 22/08/09 | godz.: 23:20)
    poczytaj sobie ten link co podałem...

  40. @Sajron (autor: MariuschM | data: 22/08/09 | godz.: 23:21)
    http://nvision.pl/news-ext-14328.html

    i kolejna ciekawa informacja.. ciekawe w jakim stopniu jest ona prawdziwa...


  41. MariuschM (autor: Sajron | data: 23/08/09 | godz.: 03:17)
    ale co ja mam czytac, pierdoły? Intel oficjalnie obalił plotki o 3 i 4 generacji układu zatem newsy na pclab i nvision to totalna bzdura. pewnie z fudzilli zerżneli tego newsa buhahaha

    tak wiec zlituj się i nie wciskaj mi tych bzdet bo ja nie wierze we wszystko w co czytam...


  42. @Sajron (autor: Wedelek | data: 23/08/09 | godz.: 11:13)
    problem w tym, że Ty w nic nie wierzysz, co nie jest wygodne dla Ciebie lub nie zgadza się z twoim poglądem. jesteś taki sam jak morgi.

  43. @Sajron (autor: rainy | data: 23/08/09 | godz.: 13:47)
    Choć forma i treść twoich wypowiedzi bywa irytująca na ogół piszesz z sensem.

    Czy naprawdę oczekujesz takiego oświadczenia od Intela: "ponieważ Larrabee jest zbyt duży i ma za duży pobór mocy musimy go przeprojektować.
    Również jego wydajność jest dla nas rozczarowująca".

    Zapewniam cię, że inwestorzy a zwłaszca udziałowcy nie byliby zachwyceni (uwzgledniając środki zainwestowane w ten projekt).

    Jeżeli poszukasz sobie informacji na temat Larrabee to przekonasz się, że miał się on ukazać w drugiej połowie tego roku i być wykonany w 45nm.

    Przesunięcie na I połowę 2010 oznacza (czego się zresztą spodziewałem), że będzie wydany w 32nm.

    To uprawnia do wniosku o kłopotach natury technicznej (wielkość, pobór mocy).

    Niewykluczone zresztą, że po premierze nowej generacji kart od ATI i Nvidii, Intel przesunie jego premierę jeszcze bardziej - np. II połowa 2010.

    Zresztą (wbrew twierdzeniom morgiego o dotrzymywaniu terminów) Intel ma już taki produkt - jest to serwerowy behemot o nazwie Tukwila.

    Pierwotnie miał się ukazać pod koniec 2006 lub na początku 2007, potem w drugiej połowie 2008 a obecnie jest mowa o I kwartale 2010.

    Stopień komplikacji obydwu układów jest porównywalny (choć Tukwila jest jeszcze bardziej złożona).


  44. @rainy (autor: MariuschM | data: 23/08/09 | godz.: 20:52)
    bez sensu jest tłumaczyć to mu... on ma takie zachowanie jak morgi... czyli nic do niego nie dociera... dla niego intel jest święty i nawet jakby przesunęli premierę na 2011 rok to powie on po prostu że Intel chciał trzymać ludzi w napięciu by zwiększyć w ten sposób chęć kupienia tego GPGPU...

  45. Wedelek (autor: Sajron | data: 23/08/09 | godz.: 20:59)
    ale jakim moim poglądem? to jest oficjalne stanowisko Intela a nie mój pogląd
    wiec stary wes sie lecz na mozg...

    rainy
    powiedz mi co ty chcesz pzreprojektowywac w larrabee? rdzeń P54C? buhahahahaha

    i o jakim przesunieciu mowisz? Intel od zawsze zapowiadał układ na 2009/2010rok.
    wiec nie chrzan głupot ze Intel niewyrabia.


  46. MariuschM (autor: morgi | data: 26/08/09 | godz.: 18:18)
    Ty mi powiedz kiedy ta premiera, bo u Intela nie wiedza, to jak mawia holender krok po kroku, trzeba wyszykowac proca na odstrzal rynku, albo szykowac alternatywy, Intel jest wodzem i liderem, od niego oczekuje sie wszystkiego w zasadzie w ramach przelomow i skokow w chipach jakosciowo i ilosciowo, bo to jedyna firma z takim zasobem i potencjalem, reszta jest milczeniem.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.