Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Poniedziałek 24 sierpnia 2009 
    

Dwuprocesorowe karty Nvidia z DirectX 11


Autor: Zbyszek | źródło: Fudzilla | 07:32
(84)
Jednym z najbardziej oczekiwanych wydarzeń tegorocznej jesieni będzie premiera nowej generacji kart graficznych, obsługujących najnowsze biblioteki DirectX 11. Już 10 września swoje akceleratory zaprezentuje firma AMD, trzymając w zanadrzu karty składające się z dwóch układów RV870, mające być odpowiedzą na akceleratory firmy Nvidia z układami GT300, których premiera spodziewana jest w listopadzie. Tymczasem z najnowszych informacji wynika, że również Nvidia pracuje nad kartami składającymi się z dwóch układów graficznych GT300. Akceleratory będą przypominać dotychczas oferowane GeForce GTX 295 i mają trafić do sklepów w pierwszym kwartale 2010 roku. Niestety w chwili obecnej nie wiadomo jeszcze nic na temat ich specyfikacji technicznej.

Zobacz także:

17.8.2009 | 8:19 | Premiera pierwszych kart graficznych AMD z DirectX 11 już 10 września
31.7.2009 | 23:35 | Nvidia GT300 - premiera w listopadzie, dostępność w styczniu?
3.6.2009 | 12:15 | Computex: AMD prezentuje działające 40nm układy z DirectX 11 [video]
18.5.2009 | 7:04 | Nvidia ma już pierwsze próbki układów GT300
15.5.2009 | 21:14 | Układy Nvidia GT300 mniejsze od GT200
6.5.2009 | 8:14 | Nvidia GT300 z 512-bitową magistralą pamięci GDDR5
30.4.2009 | 8:07 | Nieoficjalna specyfikacja RV870
23.4.2009 | 11:14 | Nieoficjalna specyfikacja Nvidia GT300
12.12.2008 | 22:15 | AMD ma już sample inżynierskie RV870

 


    
K O M E N T A R Z E
    

  1. ........... (autor: Marek1981 | data: 24/08/09 | godz.: 09:02)
    Robi się coraz ciekawiej:)
    Ale z teraz rodzi się dużo pytań np:
    - czy wydajność G300 nie zrobiła wrażenia i Nvidia bojąc się porażki chce wypuścić potwora z 2GPU
    -Prąd0żeronść G300 pozwoli na 2xGPU, a może wcale nie jest u nich tak źle.
    - czy dostarczą dostateczną ilość chipów a może kolejna papierkowa premiera


  2. ... (autor: MariuschM | data: 24/08/09 | godz.: 09:04)
    z tego co wyczytałem w necie ma to być w 2 lub 3 kwartale 2010 roku a nie w pierwszym

  3. Marek1981 (autor: Sajron | data: 24/08/09 | godz.: 10:35)
    to chyba logiczne że jak wprowadzają podwójne GT300 to pojedyńczy GT300 nie ma szans z podwójnym RV870.

    jeszcze może się okazac że podwójny GT300 przegra z podwójnym RV870. ;)


  4. pozatym Zbyszek jaki listopad? (autor: Sajron | data: 24/08/09 | godz.: 10:40)
    Nvidia jest w polu ze swoim GT300, sample mieli 5 miechów za ATI, zatem układy też nie będa wcześniej niz 5 miechów po ATI no chyba że papier wypuszczą wcześniej. lol

  5. Oby nie było tak (autor: dj_jang | data: 24/08/09 | godz.: 11:24)
    że nvidia będzie musiała na szybko coś wypuścić i zrobi jak ati z karta 2900, kosztowna i mało wydajna, o poborze prądu nie wspomnę :)

  6. @Sajron (autor: Gladzio | data: 24/08/09 | godz.: 11:25)
    Zgadzam się, NVidia jest w ciemnej dupie i nie zapowiada się ciekawie jej przyszłość. Oczywiście możemy założyć, że fanboje kupią tego podwójnego GT300, lecz pobór prądu przy takiej ilości tranzystorów i temperatura wielkiego czipa mogą być zabójcze, nie wspominając już o kosztach produkcji, które są 2x większe niż u ATI.
    NVidia już od dłuższego czasu dopłaca sporo do produkcji kart, a ile dopiero będzie...!


  7. @Sajron (autor: Promilus | data: 24/08/09 | godz.: 11:32)
    W grach - wątpię, w GPGPU - bardzo możliwe. W końcu jeśli kojarzysz Crunch3ra to wiesz, że robi optymalizacje do projektów na platformie BOINC. W przypadku m.in. milkyway@home i collatz conjure (3x+1) tak zmieszany z błotem STREAM od AMD działający na RV770 jest jednak lepszy niż CUDA na GT200. I to zarówno FP64 (milkyway działa na DP) jak i FP32 (collatz śmiga na SP). Wkurza mnie niewielkie wsparcie jakiego AMD udziela developerom...bo to, że sprzęt mają odpowiedni to każdy programista wie... ale softu nie potrafią wypromować! Teraz w SDK 2.0 BETA niby jest już OpenCL, ale nie sprawdzałem jeszcze.

  8. ....... (autor: Marek1981 | data: 24/08/09 | godz.: 11:35)
    @Sajron - z logiką to ty masz chyba mało wspólnego....... wiesz jakie są w ogóle zasady??
    Może G300 będzie bardzo wydajne ale... problem z poborem prądu i ratunek w obniżaniu napięcia a co za tym idzie MHz rdzenia oraz wydajność.
    Na razie to tylko spekulacje.


  9. @Gladzio (autor: Promilus | data: 24/08/09 | godz.: 14:16)
    Jak na dzień dzisiejszy to jednak pod względem efektywności to NV jest do przodu - karty zużywają mniej prądu niż AMD. Co innego, że jeśli chodzi o wydajność obliczeniową to praktycznie wydajność/zużycie jest mniej więcej na równi lub na korzyść AMD (mowa o czystej wydajności matematycznej shaderów, nie wydajności w grach). Dodatkowo duży chip ma jeszcze jedną zaletę - łatwiej z niego odprowadzić ciepło. Wyobraź sobie 200mm2 wydzielające 200W, a 500mm2 wydzielających taką samą ilość - tak jak w radiatorze - większa powierzchnia, lepsze oddawanie ciepła. Z tego też względu chłodzenie NV może być cichsze i mniej skomplikowane. Ale druga strona medalu to właśnie słaby uzysk z wafla = większe koszty produkcji = mniejsze zarobki NV na pojedynczej karcie.

  10. Sajron jak zwykle (autor: ligand17 | data: 24/08/09 | godz.: 14:25)
    chrzani głupoty. Douczyłeś się już, czekoladowy nosku? Czy nadal kot Schroedingera jest dla ciebie zbyt dużym wyzwaniem?

  11. jak czytam (autor: konio | data: 24/08/09 | godz.: 15:57)
    te wypociny to można baranka strzelić .Sami prorocy .Gówno wiadomo co będzie lepsze a co nie jak wyjdzie to się okaże ... wszystko zależy od ceny i mam to gdzieś czy będzie to ATI czy NV i takie wypociny typu że to będzie lepsze czy tamto są poprostu śmieszne .... sami specjaliści .....

  12. @konio (autor: Marek1981 | data: 24/08/09 | godz.: 16:24)
    -nikt nikomu nie nakazuje czytać
    -nikt nie nakazuje się tu logować
    -nikt za nikim nie będzie płakał.

    A najważniejsze to że po czyt "takich niby specjalistów" można niekiedy dowiedzieć się czegoś ciekawego a nie czytać ulotki made in (intel,nvidia czy amd). No ale co ja mogę wiedzieć o świadomości użyszkodników .......


  13. Sajron (autor: morgi | data: 24/08/09 | godz.: 17:03)
    A jak tradycyjnie Nvidia bedzie szybsza, to co zrobisz? ati daje premiere ale kiedy bedzie sprzet w sklepach i jeszcze trzeba zweryfikowac te dx11, bo to co napisze amd to 2x trzeba sprawdzac, bo moze byc duza wsypa lub naciaganie.

  14. morgi (autor: Markizy | data: 24/08/09 | godz.: 17:07)
    naciągane są twoje teorie.

    Co do dostępności kart premiera ma być we wrześniu, a maja być dostępne w październiku. Może chodzi o niewielka dostępność kart na początku lub o papierową premierę. Pożyjemy zobaczymy.


  15. Markizy (autor: morgi | data: 24/08/09 | godz.: 17:17)
    No wlasnie znowu papier, a obiecywali, ze juz nigdy. Ciekawe, dlaczego tak sie spiesza, moze chca byc przed konkurencja przynajmniej miesiac, a moze po premierze Win7 bedzie sprzet, to powiedza ze juz byla premiera, jak z RV740, zrobia piramide cenowa na naiwnych fanow amd. Tak czy siak, demka dx11 zostaja, co reszta konkretna prawdopodobnie to po premierze u rywala.

  16. @morgi (autor: Marek1981 | data: 24/08/09 | godz.: 17:27)
    4770 kosztowało tyle za ile ludzie mogli dać i dali.
    prawo popytu i podaży, tak samo było z gf8800gt ale jakoś tego nie zauważyłeś, co więcej chwaliłeś że nvidia taka fajna.
    Jak widać punt widzenia zależy od miejsca siedzenia.


  17. morgi (autor: Markizy | data: 24/08/09 | godz.: 17:32)
    czemu sie spiesza, żeby producenci gierek z DX11 dopracowali je bardziej pod ich karty, niż pod konkurencje która jeszcze ich nie ma ;p

    Z reszta jak by nie patrzyć, nie jest powiedziane czy kart w ogóle nie będzie w sklepach czy w ograniczonych ilościach.


  18. z tego co pamietam (autor: niewidzialny27 | data: 24/08/09 | godz.: 17:48)
    z sera hd4xxx nie bylo przoblemu premiera i w bardzo krotkim czasie byla dostepna w Polsce, w stanach i azji byla dostepna w dniu premiery

  19. morgi (autor: Sajron | data: 24/08/09 | godz.: 18:04)
    Nvidia nie bedzie szybsza bo ATI/AMD jest teraz na skraju bankructwa. Zrobią wszystko aby wystawic kartę szybszą od konkurencji.
    Nowa seria musi byc czyms przelomowym inaczej dowidzenia AMD.


  20. Markizy (autor: morgi | data: 24/08/09 | godz.: 18:31)
    Pod amd gier sie nie robi, tylko sterowniki pod nie robia, gry sie robi pod Nvidie i kilka jej programow lojalnosciowych, oczywiscie amd zdobylo sie na game co to nic nie daje. Nvidia nie musi sie spieszyc, zasadniczo wiadomo, ze maja gwozdzie w pojezdzie CUDA i musza zrobic wszystko przed Intelem, aby nabrac mocy i przetrwac ciezkie nadchodzace czasy, o amd martwic sie nie trzeba, bo ono ni to konkurencja w stream a licha w grach.

  21. Marek (autor: morgi | data: 24/08/09 | godz.: 18:33)
    Faktycznie dali, ale kart bylo paredziesiat tysiecy, to i sie nie nachapali bo fabryka miala lipe a nie produkcje.

  22. ... (autor: coolart | data: 24/08/09 | godz.: 18:58)
    nv to jak intel zrzynać z ludzi kasę, porównajcie ceny Intel vs AMD a NV vs ATI obie firmy jada na tych samych zasadach plac za nasz super produkt co dla kowalskiego nie jest zbyt opłacalne i normalne ze wybierze AMD i ATI bo sa transze. co innego w Ameryce czy inny bogatszych krajach gdzie ludzie zarabiają więcej niz polskie stawki tam INTEL czy NV to tak samo jak AMD i ATI na jedno im to wychodzi.

  23. To news w stylu............. (autor: Mario2k | data: 24/08/09 | godz.: 19:14)
    Odwroccie oczy od ATI bo my tez cos dla was szykujemy :)

    Lipne toto na maxa a ludziki sie podniecaja


  24. Drogi (autor: scoobydoo19911 | data: 24/08/09 | godz.: 20:10)
    Sajronie z tym że amd jest na skraju bankrutctwa się zgodze ale że rv870 będzie na 100% szybsze od GT300 już niestety nie.

    też nie uważam że nowy potworek od ati bedzie chłodny i mało prądożerny bo jeżeli ati zachowa swoją taktyke to braki w zapasach mocy układu będą nadrabiać w taktowaniach rdzenia to nie będzie ani chłodno ani oszczędnie. nikt z was nie zauważył że pomimo różnicy rozmiarów rdzenia to nv miało niższe temperatury i podobne zużyciecie prądu.

    a co do wydajności układów to obie korporacje celują w inne przedziały rynku więc każdy na swoje wyjdzie


  25. scoobydoo19911 (autor: Sajron | data: 24/08/09 | godz.: 22:03)
    pewny jestes że Cypress nie będzie szybszy od GT300? o ile chcesz sie założyc że tak nie będzie? ;)

  26. scoobydoo19911 (autor: Sajron | data: 24/08/09 | godz.: 22:09)
    nierozumiesz posiadanie produktu najszybszego jest ważniejsze niż marka firmy i ten własnie fakt nakręca cała sprzedarz kart. Nvidia zrobiła najwydajniejszą karte G80, GT200 i dzięki temu pomimo DROZSZYCH cen od konkurencji i tak sprzedaje 2x więcej ukłądów od ATI.

    TAK wiec zrobienie najszybszego spzretu to klucz do sukcesu i ATI zdaje sobie sparwe z tego dobrze zatem bedąc na pograniczu bankructwa wystawią teraz wszystkie karty albo dupa i plajta.


  27. według mnie (autor: Sajron | data: 24/08/09 | godz.: 22:14)
    GT300 nie ma szans z RV870. ATI teraz ich przyciśnie.

  28. pomysl sobie (autor: Sajron | data: 24/08/09 | godz.: 22:18)
    co byś zrobił gdybyś pracował jako inzynier w firmie AMD i by ci powiedzieli ze firma jest na skraju bankructwa. ci ludzie jak nie zaprojektują czegoś przełomowego to mogą się porzegnac z pracą.

  29. AMD jest teraz (autor: Sajron | data: 24/08/09 | godz.: 22:25)
    w stanie agresywnej polityki projektowej. albo zrobią chipa wydajniejszego od konkurencji albo mogą sie pozegnac bo tracic setki milionow dolcow kwartalnie to długo tak nie można jechac.

  30. .... (autor: MariuschM | data: 24/08/09 | godz.: 22:40)
    ale AMD zrobiło dobrą decyzję z przejęciem ATI... jeśli w prockach źle idzie to zrobią rewelacyjne GPU i zawładną rybek GPUxD zarobią kasę która pozwoli im załatać dziurę i wyjdą na równe nogi:) zrobią kolejną serię kart i znów osiągną sukces i wyjdą na duży plus i będą mogli się wreszcie zająć stworzeniem układu który znów przywróci stare motto:) podobna wydajność za niższą cenę:) miejmy nadzieję że wszystko się jeszcze im poukłada bo intel musi mieć jakąś konkurencję...

  31. Sajron - brawo 5 postów pod rząd.... ;> (autor: Grave | data: 24/08/09 | godz.: 22:40)
    W pojedynku RV870 VS GT300 obstawiam tak:

    1. Pojedynczy RV870 przegra z pojedynczym GT300 (choć różnica może nie być duża)

    2. Podwójny RV870 (R800) będzie szybszy od pojedynczego GT300 wszędzie tam gdzie CF efektywnie zadziała.

    3. Nvidia ma jeszczę opcję wydajnia podwójnego GT300 aczkolwiek nie wiem jak oni zamierzają tego dokonać :D


  32. Grave (autor: Sajron | data: 24/08/09 | godz.: 23:01)
    widzisz zakładasz tak bo obecnie ATI ma troche słabsze karty od Nvidi ale jesteś w błedzie . Cypress to zupelnie nowa architektura PRZEŁOMOWA jak twierdzi AMD!
    ATI idzie teraz na całosc i GT300 polegnie. ;)

    ATI bedzie miało korone wydajności ;)


  33. @Sajron (autor: MariuschM | data: 24/08/09 | godz.: 23:06)
    jak tak czytam te twoje posty to mnie szlak bierze że dopiero będę mógł je kupić w październiku a nie już teraz...

    według tego co AMD pisało to najlepsza ich karta jest zdecydowanie przełomem tylko nie wiadomo czy chodziło im o x2 czy zwykłą bo jesli o zwykłą... to współczuję Nvidi


  34. Grave (autor: Sajron | data: 24/08/09 | godz.: 23:07)
    sorry za 5 postow ale nie mozna tu edytowac, proponuje zrobic edycje.

  35. pozatym co to za roznica (autor: Sajron | data: 24/08/09 | godz.: 23:08)
    czy napisze w jednym poscie czy w pieciu ;)

  36. MariuschM (autor: Sajron | data: 24/08/09 | godz.: 23:12)
    oczywiscie że chodzi o zwykłą , x2 będzie jeszcze wydajniejsza :D Nvidia jest w tarapatach.

  37. Sajron (autor: Markizy | data: 24/08/09 | godz.: 23:22)
    różnica jest, bo nie tworzy się setka komentarzy od jednej osoby, jak by sama ze sobą rozmawiało.

    Co do karty z serii 5xxx myślę że ma bardzo wiele cech wspólnych z serii 4xxx, większą wydajność będzie wynikać z :
    -wiekszej ilości procesorów strumienowych i ich usprawnienia
    -zmiany kontrolera pamięci może wrócą do ring bus, co kiedyś ATI stosowało.
    -dołożenia TMU i ROP.


  38. @Sajron (autor: MariuschM | data: 24/08/09 | godz.: 23:24)
    tylko wiesz o tym że przy takiej wydajności Larrabee nie miało by co podskakiwać wersji x2 tego radeonka?? szczególnie że znająć ATI będzie ono dążyło by było jak najtaniej więc można sie nawet spodziewać podobnej ceny O_o

  39. Sajron (autor: scoobydoo19911 | data: 24/08/09 | godz.: 23:31)
    Przyjacielu ale na jakiej podstawie zkładasz że gt300 będzie słabsze od rv870. nie oszukujmy sie nv sie nie może pogodzić z tym że komuś udało sie przebić architekture g80 i teraz muszą się odgryźć. podejrzewam że nv nawet początku nv będzie zaniżać w sterownikach wydajność gt300 aby ati przy życiu podtrzymać a potem jak nowe karty okrzepną na podstawie ich architektury wypuszczą zoptymalizowaną wersje (mniejszą oszczędniejszą wydajniejsza jak było w g80 i potem g92) gt300 będzie tylko pokazówką technologiczną właściwa walka o rynek rozegra się już przy pomocy zoptymalizowanej wersji gt300 i rv870. Jak wcześniej napisałem to co wyjdzie pod koniec roku to będą tylko pokazówki technologiczne

  40. Może i GT300 (autor: yantar | data: 25/08/09 | godz.: 01:53)
    będzie szybsze ale .... Jeśli popatrzeć, że za drugi kwartał AMD miało największy wzrost dynamiki sprzedaży układów graficznych (41,5%, NVidia niewielki spadek). A małe ożywienie w gospodarce zaczyna być odczuwalne, można z dużym prawdopodobieństwem założyć, że w tym roku najwięcej w segmencie grafiki zyska właśnie AMD. Czyli, że HD5xxx ma znacznie większe szanse być dobrze przyjęty na rynku niż GT300, który w dodatku zadebiutuje później. Jesli pierwsze testy na portalach nie pokażą jakiejś większej przewagi układu NV nad AMD to będzie pozamiatane. AMD wykorzysta na sprzedaż okres przedświąteczny, gdy tymczasem GT300 wejdzie dopiero w czasie słabego okresu sprzedaży w I kwartale i ceną też raczej nie zaskoczy. Przynajmniej zapowiada się ciekawa jesień w sprzęcie.

  41. ............ (autor: Marek1981 | data: 25/08/09 | godz.: 07:30)
    @Sajron - zapowiedzi zapowiedziami a rzeczywistość to brutalnie zweryfikuje.
    @Yantar - trafnie to określiłeś.

    Nikt z was nie zakłada poślizg dostępności kart Nvidii, dużo większy i skomplikowany chip daje większe prawdopodobieństwo wadliwości.
    Powtórka z gtx280, gdzie pomimo słabego uzysku i tak ok 11% trafiało na serwis.


  42. @Markizy (autor: Promilus | data: 25/08/09 | godz.: 07:58)
    Właśnie nie, samo AMD twierdziło ostatnio że seria Evergreen nie zupełnie czerpie z architektury R600 jak pozostałe serie (HD2k, 3k i 4k jakby nie było) czyli całkiem możliwe że to będzie kompletna przebudowa, albo rzeczywiście całkiem nowy projekt.
    Co do ringbusa - swoje przeszedł i poszedł do piachu - obecny kontroler jest lepszy dla GDDR5.
    @all (w tym grave) ATI już raz pokazało całkiem solidną konkurencję w postaci R8500, a potem ZDOMINOWAŁA na dłuższy okres czasu rynek R300 i pochodnymi..a przecież i później robili dobre karty...X850, X1950 kontra 6800 czy 7950. Nie należy więc zakładać z góry, że to NV ZAWSZE będzie produkować chipy efektywniejsze i wydajniejsze.


  43. @yantar (autor: dr1zzt | data: 25/08/09 | godz.: 10:15)
    Bo Sajron wie wszystko. Wystarczy spojrzec w jego posty :)
    Najpierw stal murem za intelem i jechal po fenomach, potem mu sie odmienilo i zakochal sie w amd, ale wciaz wie ze nvidia bedzie slabsza i polegnie! Nawet ta za dwa lata :-)
    Dobrze ze to nie zalezy od niego tylko developerow, a gejforsy o wiele przyjemniej sie programuje niz karty ati - napis "nvidia the way its meant to be played" bedzie jeszcze dlugo goscil w grach.


  44. @dr1zzt (autor: Promilus | data: 25/08/09 | godz.: 10:30)
    "Dobrze ze to nie zalezy od niego tylko developerow, a gejforsy o wiele przyjemniej sie programuje niz karty ati - napis "nvidia the way its meant to be played" bedzie jeszcze dlugo goscil w grach.
    "
    Jeśli chodzi o GPGPU to niezupełnie lepiej, jeśli chodzi o gry to tam nie ma absolutnie żadnej różnicy...są funkcje rysujące DirectXa które musi obsługiwać i GF i Radek, i Chrome i każda inna karta by z daną wersją DXa była zgodna. Więc gdzie to pisanie pod GFy?


  45. cos wiecej o wydajnosci ATI (autor: Markizy | data: 25/08/09 | godz.: 10:35)
    http://www.benchmark.pl/...cyjnej_cenie-23038.html i o cenach

  46. @Promilus (autor: dr1zzt | data: 25/08/09 | godz.: 11:31)
    Porozmawiaj z naszym programista grafiki (imho jednym z najlepszych na swiecie) dlaczego niektore rzeczy trzeba robic specjalnie inaczej na ati.. bo nie dzialaja jak powinny.
    Jezeli twierdzisz ze nie ma roznicy i wszystko wyglada identycznie na obu, to niestety sie mylisz.


  47. @dr1zzt (autor: Promilus | data: 25/08/09 | godz.: 12:26)
    Heh, niech ci ten twój programista poda 1(!!) przykład funkcji DX która nie działa tak jak powinna na Radeonach, albo 1(!!) funkcji rdzennej OpenGLa która nie działa tak jak powinna na radeonach. Rdzennej czyli takiej która jest zdefiniowana w standardzie, a nie będąca dodatkowym rozszerzeniem standardu.

  48. Mowisz i masz. (autor: dr1zzt | data: 25/08/09 | godz.: 12:51)
    gl_ClipVertex

  49. @dr1zzt (autor: Promilus | data: 25/08/09 | godz.: 14:11)
    Hah, no to mnie rozbawiłeś :)
    "I found writing to gl_ClipVertex seems to be totally ignored (GeForce 7900 GT)."
    - http://www.gamedev.net/...opic.asp?topic_id=473505
    Dalej?
    http://www.opengl.org/...howflat&Number=233702
    Jeszcze?
    http://www.gamedev.net/...opic.asp?topic_id=514075
    Można by się tak tym wszystkim przerzucać, ale po co...OGL ma to do siebie, że zawiera cholernie stare mechanizmy renderowania, jak i całkiem nowe...i OBOJE producentów częściowo ze starych zrezygnowało, ewentualnie zostawili w profesjonalnych kartach do CADa, bo też i programiści w takich programach mają jakieś straszne problemy z wykorzystaniem nowszych, szybszych i wygodniejszych funkcji.


  50. Ja Ciebie rozbawilem? (autor: dr1zzt | data: 25/08/09 | godz.: 15:20)
    Czytales te watki do konca? Czy tylko magia google? :)
    Mowa jest o kartach 8800+ i hd+, oczywiscie ogl 3.0..


  51. @dr1zzt (autor: Promilus | data: 25/08/09 | godz.: 16:51)
    Pewnie że czytałem do końca, jak raczyłeś zauważyć dotyczy to produktów obu producentów, zatem jak wcześniej stwierdziłem nie ma w DX żadnego pisania pod GFy, a w OGL zawsze było pisanie pod konkretny sprzęt wykorzystujący konkretne rozszerzenia ;) Jak jeszcze pamiętasz czasy Permedii, VooDoo i paru innych chipsetów to wiesz o co biega.

  52. Promilus (autor: morgi | data: 25/08/09 | godz.: 19:06)
    Pomyliles kompilacje Cg ze sprzetem na ktorym chodzi OGL czy HLSL. Nie jest pisane pod sprzet calosciowo, tylko optymalizowane, u ati optymalizacje sa kiepawe i padaja programisci w przedbiegach, a czyja to wina ze Carmack woli GFy?

  53. morgi (autor: Markizy | data: 25/08/09 | godz.: 19:48)
    może przyzwyczajenie :P

  54. Markizy (autor: morgi | data: 25/08/09 | godz.: 20:08)
    Jasne, Nvidia jest tak 'wiekowa' i w ogole rzadzi od wielu lat, a myslalem ze to ati bylo pierwsze w branzy, ale fakt to juz amd zostalo, niestety dla rynku.

  55. morgi (autor: Markizy | data: 25/08/09 | godz.: 21:14)
    ati nigdy nie zyskało tak dużego udziału w rynku jaki miała Nvidia, i to jest główna przyczyna, dodatkowo później o ATI przycichło, a po niewypale z seria 2xxx to większość programistów podziękowała, serie 3xxx zignorowali i dopiero przy 4 ocknęli się że można to jednak programować i cieszyć sie wielka mocą w ich GPU.

  56. morgi (autor: Sajron | data: 25/08/09 | godz.: 21:24)
    ty lepiej powiedz co zrobisz za miesiac kiedy na rynku ATI będzie królowac swoją serią 5000 , nadal bedziesz za Nvidią? ;)

    Nvidia wyda karty dopiero 5 miechow za ATI i pewnie będą to prądożerne grzałki. ;)
    Nvidia dała ciała i niewyrabia z szybkim tempem jakie narzuciło ATI ;)
    Nvidia to teraz jak AMD nic w terminie, w tyłu za konkurencją, papierowe premiery i tylko mydlą oczy klientom. ;)


  57. hm.... (autor: Wedelek | data: 25/08/09 | godz.: 23:41)
    wg mnie to będzie tak, że ATI wyda karty nieco słabsze od GTX295, ale o połowę tańsze i będzie walczyła o high end dwuprocesorówką, natomiast N-vidia zgarnie jak dotychczas palmę wydajności, ale jej karty w niższych segmentach będą mniej opłacalne. Oczywiście to wrózenie z fusów, bo jak bedzie, to mało kto ma większą pewność, a wie tylko Bóg.

  58. @Wedelek (autor: MariuschM | data: 26/08/09 | godz.: 00:00)
    akurat to co napisałeś to głupoty... GTX295 w porównaniu z nowymi 40nm układami to przeżytek... ATI nawet nie chwaliło by się tym że ich układy są dobre gdyby było gorsze od tego...

  59. Wedelek (autor: Sajron | data: 26/08/09 | godz.: 01:58)
    słabsze od GTX295? no co ty? karty będą conajmniej 2x wydajniejsze od GTX295. ;)

  60. .............. (autor: Marek1981 | data: 26/08/09 | godz.: 09:15)
    Jak dla mnie najwydajniejsza z hd5xxx może nie być szybsza od gtx295 ale i tak posiada dx11, mniejszy pobór prądu i co najważniejsze będzie dużo tańsza.
    Oczywiście według zapowiedzi ma być szybsza:
    http://twojepc.pl/...e_radeon_hd_4890&strona=4
    A wedle doniesień ma mieć w 3dmark06 18k pt, choć nie wiadomo o pozostałych podzespołach.


  61. Podniecanie sie dx11 jest nie na miejscu. (autor: dr1zzt | data: 26/08/09 | godz.: 13:19)
    Nawet DX9 nie jest w pelni wykorzystany, dx10 i 10.1 to margines. Co z tego ze ati bedzie mialo dx11 jak pierwsze gry pojawia sie wtedy.. kiedy beda karty nvidii z tymze :)
    Zaklad? :)
    Sajron przestan juz pitolic jakie to karty ati beda wydajne i jak beda krolowac, bo tego nie wiesz.
    Sam hardware to tylko 30% sukcesu.


  62. nie wydaje (autor: scoobydoo19911 | data: 26/08/09 | godz.: 13:23)
    mi się żeby r870 było dwa razy szybsze od gtx295. Ja stawiam że będzie o jakieś 20% aktualnego klocka nv co by dało wydajność dwa razy wwiększą niż w poprzedniej generacji kart jendon procesorowych (gtx275 i hd4890) czyli tak jak w zapowiedziach amd od 50% do 100%. w grach dobrze wykorzystujacych sli gtx295 będzie porównywalny a w reszcie radek będzie dużo szybszy. popzostaje czekać na dx11 od nv. Sajronie nie zapominaj że w aktualnej generacji ati sie bardziej grazło i wcinało więcej prądu pomimo dużo mniejszych rozmiarów rdzenia więc to jest nie powiedziane że ati będzie chłodne i nie można się tu kierować że taki był jakiś radeon z obecnejh generacji w 40nm bo on byl wykastrowany nawet w porównaniu do rv770 a przecież nowe radki maja mieć szerszą magistrale (jeżeli to co pisze w sieci jest prawdą), dwa razy więcej sp, no i wyskie takty rdzenia u ati też nie wpłyną pozytywnie na ciepło i pobór prądu że nie wspomne o wysokich napięciach

  63. @dr1zzt (autor: scoobydoo19911 | data: 26/08/09 | godz.: 13:24)
    no z dx11 to pierwsze gry wykorzystujące go będą już nie długo np dirt2

  64. @dr1zzt (autor: Promilus | data: 26/08/09 | godz.: 13:32)
    Tak, tak, rzeczywiście DX9 nie jest w pełni wykorzystywany...oj to że MOŻNA większość efektów DX10 realizować przy pomocy funkcji DX9 nie znaczy od razu że DX10, 10.1 i 11 są niepotrzebne. Przecież 99% SM3.0 da się zrobić z powodzeniem na X850 z odpowiednim wrapperem (karta z SM2.0b)...czy DX9c przez to jest niepotrzebny? Nie...bo ten wrapper na 1 funkcję DX9c musi dać kilka 9b, to samo dotyczy realizacji efektów DX10/11 na XPku.

  65. @dr1zzt (autor: Marek1981 | data: 26/08/09 | godz.: 13:42)
    Takie rozumowanie jest dla mnie głupie.

    Podniecanie sie dx11 jest nie na miejscu.
    Nawet DX9 nie jest w pelni wykorzystany, dx10 i 10.1 to margines."

    Po jasną ciasną zrobili PC??? Przecież wtedy może były z 2 rzeczy do których mogli go wykorzystać. Po co szybsze procki,dyski, po co lepsze samochody jak dróg odpowiednich nie mamy......


  66. Marek (autor: dr1zzt | data: 26/08/09 | godz.: 14:09)
    A nie glupie jest gruszenie sie przy czyms o czym nie ma sie bladego pojecia? Czego jeszcze w ogole nie ma???
    Patrz - sajron-prorok.
    W ogole Twoja odpowiedz jest dla mnie bez sensu..
    Tak samo jak bez sensu jest Twoj bzdurny post, ktorego dzis wynalazlem - patrz e8400 i problemy z grami. Zalosne :)
    Kup sobie fenomka, on gry lepiej OBSLUGUJE, jest trv kompatybilny wstecz :-)


  67. @dr1zzt (autor: Marek1981 | data: 26/08/09 | godz.: 15:20)
    Mam 1 wersje i nie żałuje, tak jak bym nie żałował c2d,c2q.....
    Ale jak ktoś jest .... to tego nie zrozumie.


  68. scoobydoo19911 (autor: Sajron | data: 26/08/09 | godz.: 17:15)
    ale jakie 20%? RV870 w grach dx11 zmiezdzy GTX295 bo ten nawet nie odpali ich ;)

    samo dodanie lepszej obsługi multiCPU w dx11 to podobno 50% wzrost wydajnosci ;)


  69. @Sajron (autor: MariuschM | data: 26/08/09 | godz.: 18:03)
    ale z tego co czytałem na temat DX11 to będzie on również działał na kartach nie obsługujących DX11

    wiem że będzie w 100% działał na tych obsługujące DX10.1, z DX10 niby nie aż tak dobrze jak z DX10.1, a w przypadku tych na DX9 to ma działać ale nie tak świetnie jak na DX10

    wszystko się okaże ale wierzę że ATI zrobi przełom i Nvidia będzie w niezłych opałachXD


  70. @MariushM (autor: Promilus | data: 26/08/09 | godz.: 18:09)
    Będą 3 wersje Compute shaderów, 4.0, 4.1 i 5.0 zależnie od tego czy karta jest DX10, 10.1 czy 11. To jedna różnica. Druga to tesselacja - na 99% obecny model AMD jednak niezupełnie jest zgodny z DX11 więc raczej wątpliwe by HD2k/3k/4k pod tym względem mogły skorzystać. Ale nie można jednoznacznie kreślić, że absolutnie będą niewykorzystane. Domain shader i hull shader - realnie każdy SM4.0 mógłby te funkcje pełnić, ale znając życie będą kombinować i to zarówno M$ jak i producenci GPU :/ Co jeszcze - multithreaded API - no cóż, tutaj zyskamy chyba tylko jak będą aplikacje przekompilowane na DX11. Ogólnie to ten DX względem 10tki jest tym czym było 9.0 dla 8.1

  71. Sajron (autor: morgi | data: 26/08/09 | godz.: 18:11)
    Jeszcze wierzysz w cuda, ze ati tym cos zdziala, przemysl dobrze, do czego ten sprzet sie nada, jak z grami ma nie lada problem. Co w tym dziwnego, ze mniejsze rdzenie mozna szybciej i czesciej zapodac, jak zwyczajnie zeby to to kupic trzeba znalezc zachety, a tak co znowu wcisna kiczowate demka, a lud bedzie czekal na Nvidie, ktora nie ciemie bita i cos na te papierowe ladowiska ati wyszykuje przynajmniej w kampanii obludy marketowej.

  72. morgi (autor: Sajron | data: 26/08/09 | godz.: 19:55)
    a niech se lud czeka na GT300 tylko oby nie było tak jak z czekaniem na R600 ;) wiadomo jak to sie skończyło dla ATI produkt spoźniony i gorszy wydajnosciowo ,podobnie może byc z Nvidią ;)

    odnosnie papierowej premiery to u ATI z tym problemu nie bedzie jako że tapeout mieli 5 miechów wcześniej od Nvidii a same układy są 2x mniejsze od GT300 zatem mają 2x wiekszy nakład chipow przy tej samej ilosci zamówionych wafli. ;)
    tak wiec to Nvidia wyda kilka miechów pozniej od ATI i w dodatku jeszcze papier. ;)


  73. Sajron (autor: morgi | data: 26/08/09 | godz.: 20:57)
    Mnie to ziebi i grzeje, im dluzej popracuja na tym nowym chipem w Nvidia, tym pewniej sie czuje, bo znak, ze maja bolca w glowach jak przeskoczyc impas ktory nadejdzie z Intelowskim procem do przyspieszonych obliczen FP, czyli Larrabee. ati to jest pikus, taka slaba firemka, ktora lyknac stosunkowo latwo, ale jak gobliny przespia z CUDA, to plyna w otchlan z tym calym programowaniem, juz nigdy nie drgna.

  74. Sajron (autor: scoobydoo19911 | data: 26/08/09 | godz.: 21:22)
    w grach w pełni korzystający z dx11 nowe radki na stoprocent beda lepsze od gtx 295. ale na gry wpełni korzystające z zalet dx11 poczekamy jeszcze sporo czasu o to co będzie zawierało elemnty nowych bibliotek. pozatym nie uważałeś na lekcjach aplikacje dx11 będą w stu procentach kompatybilne z sprzętem dx10 poprostu starsze sprzęty ni będą pokazywać wszystkich efektów graficznych

  75. morgi (autor: Sajron | data: 26/08/09 | godz.: 21:27)
    ciezka praca intelektualna inzynierow ATI musi dac owoc. tam debile nie pracuja ;)

    ATI to wcale nie jest pikus, sztab projektowy u ATI ma lepsze doswiadczenie i jest wiekszy od tego z Intela GPU. ;)

    a Nvidia czym dłużej pracuje nad GT300 tym większy poslizg ma bo ATI już masówke ma we wrześniu ;)


  76. Sajron (autor: morgi | data: 26/08/09 | godz.: 22:22)
    Problem w tym, ze ich ubylo, bo amd wykopalo setki takich specow, slabo placa to sami odchodza do innych konkurentow, w dodatku to taki demotywator. Nvidia, Intel ma tylu albo i wiecej utalentowanych specow, myslisz ze maja porownywalne ego, czy wieksze, aby spelnic oczekiwany target, rozliczyc prace, osiagnac zysk. Tacy co przynosza dlugi czas strate sie wylewa i to niestety widac.

  77. @Sajron (autor: MariuschM | data: 26/08/09 | godz.: 22:25)
    morgi trochę ma racji... Nvidia czeka aż nowe radki zostaną wyprodukowane a ci sobie kupią i zrobią test ich, następnie porozbierają i dowiedzą co w nich jest takiego i wydadzą coś co będzie od tych lepsze tylko że nie pomyśleli że ATI w tym momencie będzie już szykować coś nowego a nie czekać aż ci zrobią swój ruchXD

  78. Sajron (autor: scoobydoo19911 | data: 26/08/09 | godz.: 23:27)
    We wreśniu ma być tylko papierowa premiera radków pełn dostępność dopierto w listopadzie

  79. @scoobydoo19911 (autor: MariuschM | data: 26/08/09 | godz.: 23:47)
    w październiku a nie w listopadzie... a to co wydadzą w wrześniu będzie i tak wystarczająco wiele by starczyło do października

  80. MariuschM (autor: scoobydoo19911 | data: 26/08/09 | godz.: 23:51)
    no nie był bym taki pewien z tą wystarczającą dostępnością

  81. @scoobydoo19911 (autor: MariuschM | data: 27/08/09 | godz.: 00:02)
    no to sam się przekonasz.. z HD4770 było podobnie... gadali że tylko pare zrobili i nie będą wiecej robić... i jak patrze ile ich ludzie nakupili to się dziwię czemu jeszcze te karty można kupić... a niby miało nie starczyć na miesiąc a jeszcze są.... tak samo jest teraz... kart niby mało a będzie ich tyle że każdy sobie kupi i jeszcze zostanie ich tysiące

  82. @scoobydoo19911 (autor: MariuschM | data: 27/08/09 | godz.: 00:03)
    zapomniałem dodać:
    i nie mozna zapomnieć o tym że wiele ludzi będzie czekało na x2 i pozostałe tańsze wersje... więc to co teraz będzie wystarczy w 100%


  83. tia morgi (autor: Sajron | data: 27/08/09 | godz.: 00:21)
    Intel ma wielu utalentowanych speców którzy szczególne swój talent pokazali przy projektowaniu GMA które jest o klase gorsze od 780G ;)

    pracownicy ATI mają teraz większą motywacje jako że firma AMD wisi na skraju bankructwa i pewnie nie chcieli by stracic pracy. ;)


  84. @Sajron (autor: Promilus | data: 27/08/09 | godz.: 06:51)
    Nie straciliby ;) Udziały AMD w GF wykupiłby ASIC, a może jeszcze ktoś. A na resztę AMD z pewnością ktoś by się połakomił. Gorsza sprawa...w takim przypadku nowy właściciel musiałby od nowa starać się o licencję na x86 :]

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.