Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Piątek 31 lipca 2009 
    

Nvidia GT300 - premiera w listopadzie, dostępność w styczniu?


Autor: Zbyszek | źródło: DigiTimes | 23:35
(77)
Do premiery kolejnej gerenacji kart graficznych z obsługą bibliotek DirectX 11 pozostaje coraz mniej czasu. Gotowe 40-nanometrowe układy pokazywała już w czerwcu firma AMD, zapowiadając, że oparte o nie karty graficzne trafią do sklepów jeszcze przed premierą systemu operacyjnego Windows 7 (25 października). Według nieoficjalnych informacji, premiera konkurencyjnych kart firmy Nvidia, opartych o 40nm układy o nazwie kodowej GT300, odbędzie się w listopadzie obecnego roku. Same karty będą dostępne w sklepach już w dniu premiery, jednak w bardzo ograniczonych ilościach. Sytuacja poprawi się dopiero w pierwszym kwartale 2010 roku, kiedy to ruszy pełna produkcja kart z układami GT300.

Zobacz także:

3.6.2009 | 12:15 | Computex: AMD prezentuje działające 40nm układy z DirectX 11 [video]
18.5.2009 | 7:04 | Nvidia ma już pierwsze próbki układów GT300
15.5.2009 | 21:14 | Układy Nvidia GT300 mniejsze od GT200
6.5.2009 | 8:14 | Nvidia GT300 z 512-bitową magistralą pamięci GDDR5
30.4.2009 | 8:07 | Nieoficjalna specyfikacja RV870
23.4.2009 | 11:14 | Nieoficjalna specyfikacja Nvidia GT300
12.12.2008 | 22:15 | AMD ma już sample inżynierskie RV870

 

    
K O M E N T A R Z E
    

  1. Papierowa premiera (autor: Wedelek | data: 1/08/09 | godz.: 19:27)
    ATI/AMD ich zje do tego czasu.

  2. no niewiem (autor: rajkonkret | data: 1/08/09 | godz.: 21:18)
    generalnie to ati na początek chce uderzyc średniakami a nvidia wypusci potwora i dopiero zacznie schodzic w dół

  3. rajkonkret (autor: Markizy | data: 1/08/09 | godz.: 22:53)
    ale ile osób kupuje takie potworki :)
    w każdym razie dzięki temu że będą dłużej a rynku to sterowniki ATI będą lepiej zoptymalizowane (może, bo u nich różnie jest).


  4. @Wedelek (autor: kamil87 | data: 1/08/09 | godz.: 23:48)
    @Wedelek: Obyś się nie zdziwił... Pamiętasz co się działo z 40nm HD4770 w czasie premiery?

    Ciągle mają problemy z masową produkcją chipów w tym rozmiarze technologicznym... I jeśli się nie uporają fabryki z tym to i ATI i Nvidia będą miały "papierowe premiery"...


  5. a według (autor: scoobydoo19911 | data: 2/08/09 | godz.: 00:04)
    mnie nie chodzi o dostępnoś ale o to że nv nad gt300 pracuje od czasów g80 a z sterami nv problemy rzadko miałem, a z ati wiele razy problemy na lapku były. więc o wydajność i dopracowanie sterów się nie boje

  6. @scoobydoo19911 (autor: Marek1981 | data: 2/08/09 | godz.: 00:12)
    to ciekawe, z tym że ja miałem problemy ze sterami nvidii:) i ta ich jakość jest żenująca.

  7. @kamil87 (autor: Wedelek | data: 2/08/09 | godz.: 09:00)
    Mimo wszystko sporo się od tego czasu zmieniło, a ATI miało już dawno temu swoje chipy rv870. Prawdopodobnie teraz je po prostu produkują, żeby w dniu premiery były dostępne. N-vidia jak widać po prostu chce pokazać, że są gotowi, ale potrzebują czasu na produkcję. Stąd pewnie te daty listopad i styczeń. ATI bedzie mieć wcześniej swoje karty i to im pewnie da sporą przewage na starcie. Kto będzie mieć lepsze układy w ostatecznym rozrachunku, to okaże się po pierwszych testach.

  8. Marek (autor: morgi | data: 2/08/09 | godz.: 10:03)
    Haha jasne catalyst przebija wszystko, tak spapranych i niedorozwinietych sterow nie ma na rynku, bijmy poklony.

  9. morgi (autor: Markizy | data: 2/08/09 | godz.: 10:33)
    ty swoim trolowaniem też wszystko przebijasz i kogo obchodzi twoja uwaga tak na poważnie :P

  10. Wedelek (autor: Sajron | data: 2/08/09 | godz.: 12:54)
    Nvidia gotowa? buhahah Nvidia jest w polu ze swoimi układami GT300. niedwawno mieli tapeout więc dolicz do tego sobie conajmniej 6 miesiecy zanim uklad trafi na rynek. początek 2010 jako najwczesniej bym stawiał a ATI ma premiere juz w pazdzierniku.

  11. NVidia zachowuje się jak Donald Tusk (autor: Gladzio | data: 2/08/09 | godz.: 13:02)
    Chcą tylko pokazać się ludziom, że nie są w tyle. A naprawdę są bardzo w tyle. Patrzcie, DX10 byłby bardzo udany gdyby nie kłopoty NVidii. W zasadzie Dx11 ma wszystkie najważniejsze technologie, które planowane były dla dziesiątki. Mały uśmiech do kamery: "nic się nie stało. Patrzcie ludzie, my też to mamy. Nieważne, że na papierze, ale mamy". Liczą się tylko dzięki PR'owi i kontraktami z producentami gier.

  12. Moim zdaniem jednak Nvidia zdąży z premierą w tym roku (autor: Grave | data: 2/08/09 | godz.: 13:51)
    Choćby mieli wyprodukować początkowo tylko sample dla prasy do recenzji przy praktycznym braku kart dla zwykłych użytkowników, to premierę zrobią.

    Wezmą wyselekcjonowane układy (jakiś tam % sprawnych chipów na pewno mają nawet teraz, mały bo mały ale zawsze) i to pójdzie na odparcie ataku ATI.

    Zbyt wiele mają do stracenia gdyby zaliczyli półroczne opóźnienie względem ATI. Nvidia tylko raz w ten sposób wpadła (opóźniona premiera GeForce FX) i raczej wyciągnęła wnioski z tamtej sytuacji.

    Ciężko przewidywać jak się będzie sprawował sam chip GT300, ale z dużym prawdopodobieństwem czeka nas powtórka z rozrywki, a więc sytuacja w której pojedynczy RV870 będzie wolniejszy od GT300, natomiast R800 (2xRV870) zaoferuje wydajność zbliżoną do GPU Nvidii o ile CF zadziała (a z tym jak wiadomo bywa baaaardzo różnie).


  13. @Wedelek (autor: kamil87 | data: 2/08/09 | godz.: 13:54)
    Ale tutaj nie chodzi o technologię ATI, tylko fabryki zewnętrzne (a konkretniej TSMC) produkujące chipsety. Oni mają problemy z wdrażaniem technologii 40nm, braki 4770 były spowodowane tym, że sporo chipsetów nie przechodziło testów i lądowało w koszu...
    Jeśli będzie tak dalej to co z tego, że ATI stworzy świetne karty, jeśli będzie z fabryki wychodziło mało chipsetów, większość będzie trafiać do USA, gdzie rynek jest najważniejszy... W Polsce wyląduje garstka kart, których ceny zostaną wywindowane w góre (jak cena 4770, która po zapowiedziach miała oscylować w okolicach 400 zł i po kilku miesiącach zejść do 330-360, a jest niemal nieosiągalna a jeśli już to bliżej jej granicy 500 zł aniżeli 400 zł)... ;-)


  14. ..... (autor: Wedelek | data: 2/08/09 | godz.: 13:58)
    @Sajron
    Mylisz się i to bardzo. 2 czy 3 miechy temu zieloni mieli rew A1. Do listopada jest pół roku. od pierwszych sampli. To dostateczna ilość czasu by być gotowym z układem, ale nie wystarczająca żeby zapełnić magazyny. Ta gotowość przyjdzie 3 miechy później. Czyli ok stycznia. ATI/AMD już dawno pewnie produkuje nowe evergreeny (RV870).

    @Gladzio
    Masz rację z N-vidią i kompletny jej brak w pzypadk osoby pana premiera. Akurat on wszystiego zrobić nie może. Owszem, PO nie jest ani święte, ani najlepsze, ale sęk w tym że inne ugrupowania tylko przeszkadzają lub sa gorsze. Np PIS i ich marionetka Prezydent, który vetuje dosłownie wszystko. Lewica nie jest lepsza, bo razem z Pisem robi rozwałkę w państwie kierując sie tylko swoją prywatą. Np głośna sprawa TVP. Za zmiany, które narzuciły SLD i PiS zapłacimy 6mln złotych!! PSL też nie jest wiele lepszy. PO nie bronię, ale nie mają szansy pokazać czego tak naprawdę chcą i na razie są wg mnie najlepszym wyjściem dla Polski. A najlepiej wogóle nie mieszać IT do polityki:P


  15. @morgi (autor: Marek1981 | data: 2/08/09 | godz.: 14:05)
    ja instaluje same stery, bez zbednych aplikacji.
    Co do nvidii to dosyć że stery nie są stabilne to jeszcze jest problem z wydajnością, a raczej jej brak. Pomimo tak zajebistej opinii odnośnie sterów na co drugiej wersji jest spadek wydajności nawet o 40%. ( to zauważyłem na grafach: GF2, GF4, GF 6600GT, GF7300GT,GF8600GT)


  16. Marek (autor: morgi | data: 2/08/09 | godz.: 14:27)
    Mam tu ciekawe misje dla posiadaczy ati, dlaczego notorycznie gasnie monitor lub zawiesza sie aplikacja jak tylko probuje wejsc do trybu 3d, no to prosze to jest problem catalyst czy monitora?

  17. @morgi (autor: Promilus | data: 2/08/09 | godz.: 14:42)
    A ja takiego problemu nie mam i nigdy nie miałem, cud?

  18. @Sajron (autor: scoobydoo19911 | data: 2/08/09 | godz.: 15:09)
    Zdaje sobie sprawe że nie lubisz nv ale twierdzeni że są w polu z gt300 jest śmieszne. biorąc pod uwage że prace nad gt300 trwają od pokazania się g80 a może nawet wcześniej. myślisz że zaprojektowanie nowej architektury od zera to jest rok czasu, no jeżli tak to świadczy o twoim braku wiedzy. nie gloryfikując ati ich rv870 to będzie kotlet architektury wywodzącej się od r600 pewnie bez ringbusa z hardokorywymi przyprawami w postaci dx11, (ma to swoje plusy np. teoretyczny brak problemów z setrami, dopracowanie rdzenia, teoretyczna przewidywalność ale w zasadzie nie będzie to coś czeko nie znamy). w żadnym razie nie twierdze że rozwązanie ati jest kiepskie czy coś bo z tego co pokazali na coputexie wygląda to ciekawie. ale nie można zkreślać nv na starcie

  19. scoobydoo19911 (autor: Sajron | data: 2/08/09 | godz.: 17:29)
    bo są w polu, ATI miało tapeout rv870 już 8 miesięcy temu w styczniu a oni dopiero teraz.
    więc nie mają szans na wypuszczenie układów masowo w tym roku tak jak ATI.
    ich produktów spodzewam się conajmniej 6 miechów po premierze ATI :P Nvidia to leszcze tak jak AMD.


  20. z tą masowością (autor: scoobydoo19911 | data: 2/08/09 | godz.: 17:42)
    to najpierwtsmc musi sobie dać rade. nv nie może sobie w stope strzelić prze prowadzająć premiere pół roku po ati nawet jak dostępność będzie tylko papierowa to i tak zrobia premiere a pierwsze karty rozślą do testów

  21. morgi i sajron (autor: mandred | data: 2/08/09 | godz.: 18:02)
    to chyba jedna osoba z rozdwojoną jaźnią, bo reprezentują ten sam poziom - 12 letni dzieciak

  22. morgi (autor: Elektron | data: 2/08/09 | godz.: 18:09)
    bo trybu 3D nie włącza się mniejszym przyciskiem na obudowie komputera. Zapamiętaj to ;)
    Odkąd jadę na ATI, to 0 zwiech spowodowanych przez grafę (oprócz tych resetów obrazu (nie kompa, jak u nvidii) gdy szukałem najwyższego stabilnego OC)


  23. heh Men at War (autor: Mario2k | data: 2/08/09 | godz.: 18:27)
    Od 16miesiecy mam 8800GT wczesniej kulawego Radka 1900xT , co mnie dobija w mojej NVidi
    ze od 2 lat kuleja sterowniki w tak popularnej grze jak BF2 , 2x wiecej FPS niz na kulawym radku ale doczyt geometri i textur dobija mnie masakrycznie

    Wiec nie badzcie slepi ,jedni i drudzy daja dupy na roznych polach .

    b.t.w
    W tym roku na 99% przesiade sie na ATI (DX11)
    jezeli nie zwariuja z stosunkiem cena/wydajnosc


  24. ...... (autor: Marek1981 | data: 2/08/09 | godz.: 18:45)
    widać że nie tylko ja nie mam żadnych problemów ze sterami ( przez 6 lat tylko 1 przypadek) a u nv notorycznie, przez co min zakazałem zmieniać ludkom co im składałem PC by nie dzwonili.
    To samo z win7, jakoś z moich znajomych mających radeona nikt nie miał problemów a u 3 z gf są problemy. Pewnie przypadek......


  25. @morgi (autor: trepcia | data: 2/08/09 | godz.: 19:30)
    Zasilacz pada? Ostatnio dokładnie taki sam przypadek miałem u szwagierki (dwa dni temu oddałem jej zrobionego kompa) :D Wymieniłem zasilacz (iBox dołączany do obudowy, zasiłka ma 3.5 roku...) na coś firmowego, problem zniknął.

  26. @Grave (autor: trepcia | data: 2/08/09 | godz.: 19:32)
    "o ile CF zadziała" - mam dobrą nowinę, DX11 ma wspierać multiGPU więc zarówno SLI jak i CF powinno działać bez problemu.

  27. @trepcia (autor: Promilus | data: 2/08/09 | godz.: 19:56)
    Ta nowina to skąd? Prawdę mówiąc lipa, bo nie do końca ludzie to rozumieją. DX11 nie ma żadnego systemu do multigpu, jedynie to że obsługa API będzie tym razem w pełni wielowątkowa - czyli nie trzeba będzie żyłować E8xxx, bo zegar przestanie być czynnikiem bardzo ograniczającym, za to wydajność lepiej będzie się skalować z ilością rdzeni. Tylko tyle i aż tyle.
    Co do multigpu - AMD niedawno chyba nieco poszerzyło OpenGLa dodając GPU affinity, nv też takie coś ma, ale nie jestem pewien czy GF to obsługuje, czy jedynie Quadro.


  28. scoobydoo19911 (autor: Sajron | data: 2/08/09 | godz.: 20:08)
    a co komu po papierowej premierze? liczy się masówka a nie papier. ATI będzie miało własnie masówke pełnej gamy układów rv840 , rv870 już w pażdzierniku. a Nvidia jedynie w tym czasie zaprezentuje swojego bydlatego GT300 i tyle będzie słychac o niej.
    Nvidia planuje masową produkcje układów konkurencyjnych dla rv840 i rv870 dopiero w Q2 2010 . Innymi słowy sa poł roku za ATI.


  29. jak (autor: scoobydoo19911 | data: 2/08/09 | godz.: 20:45)
    wcześniej napisałem na masówkę bym nie liczył bo tsmc nie poradzi sobie z masówka

  30. Sajron (autor: Grave | data: 2/08/09 | godz.: 21:15)
    Nvidia o kasę się nie martwi. I tak są w tym względzie w o wiele lepszej sytuacji niż ATI (AMD). Dlatego dla NV z GT300 będzie liczyć się przede wszystkim prestiż i fakt posiadania najszybszej karty na rynku.

    I choć pakowanie się w mega-chipy z punktu widzenia ekonomicznego może być dyskusyjne to ja nawet trochę podziwiam Nvidię za takie bezkompromisowe podejście do budowy GPU. Nie boją się wyzwań :)

    Jak kiedyś powiedział Jen-Hsun Huang a propos G80 "jeżeli moi inżynierowie mówią mi, że używając 2x więcej tranzystorów są w stanie zbudować 2x szybsze GPU to mówię im - podejmijcie się tego"

    I oni ciągle tak robią :)

    Wpakowują w chip maksymalną ilość jednostek obliczeniowych i tyle tranzystorów ile tylko są w stanie w ramach ograniczeń procesu technologicznego.

    Stąd ostatnio często potrzebny jest oddzielny układ odpowiedzialny za obsługę wyświetlacza (NVIO) - nie zmieścił się w samym GPU.

    I choć wychodzi z tego chip potwornie duży, grzejący się, i drogi w produkcji to jako swego rodzaju "pokazówka technologiczna" świadcząca o możliwościach firmy sprawdza się bardzo dobrze.

    Celem w końcu jest najszybszy GPU na rynku i nie wątpię że po raz kolejny NV ten cel osiągnie z GT300.


  31. Grave (autor: Sajron | data: 2/08/09 | godz.: 21:53)
    w dupę sobie wsadz prestiż! robienie bydlastych chipów nie świadczy o żadnym prestiżu firmy tylko o nieudolności inyżynierskiej. Nvidia żeby dorównac finezyjnosci ATI musi robic 2x wieksze chipy!

    chipy takie nie dosc że wogóle nieopłacalne w produkcji to jeszcze gorące i pobierające dużo W. tandeta na maxa a nie prestiż.
    prestiżem to bym nazwał jakby zrobili czhipa o powierzchni np. 100mm2 ,2x szybszego od konkurencji i pobierającego mało W a nie takie gówno jak GT200.


  32. scoobydoo19911 (autor: Sajron | data: 2/08/09 | godz.: 22:01)
    mysle że jednak sobie poradzą, TSMC nie ma już problemów z 40nm a rv740 to było tylko testowanie procesu a nie masowa produkcja.

  33. Sajron (autor: Grave | data: 2/08/09 | godz.: 22:02)
    <<Nvidia żeby dorównac finezyjnosci ATI musi robic 2x wieksze chipy!>>

    Tak by było gdyby pojedynczy RV8780 dorównał wydajnością GT300. Ale wszyscy dobrze wiedzą, że tak się nie stanie.

    Owszem ATI zrobi mniejszy chip, ale ta mniejsza ilość tranzystorów wynika z pewnych kompromisów jakie poczyniono.

    Spodziewam się, że GT300 będzie mieć ZNACZNIE więcej jednostek obliczeniowych (TMU, ROP, SPU) niż RV870, a także najpewniej szerszą szynę pamięci (512bit vs 256bit u ATI).

    Z efektywnością architektury u Nvidii bywa ostatnio różnie, ale nie ma cudów żeby chip który będzie mieć "wszystkiego więcej" (vide wyżej) nie okaże się szybszy!!

    Może będzie mniej szybsze lub więcej, ale na pewno będzie.

    ATI żeby się zrównać wydajnością będzie potrzebowało dwóch chipów, które łącznie już bynajmniej nie będą takie super energooszczędne.

    Nie wiem czy sobie przypominasz ile prądu ciągnął R700, wcale nie mniej niż GTX280, a wyprzedzał tego ostatniego tylko wtedy kiedy CF zadziałało i CPU się nie zatkał.

    Właściwie dopiero niedawno ATI w końcu pokazało na co ją stać i wypuściła R4890 z poprawioną sekcją zasilania która umożliwiła taktowanie 1GHz.

    I tu rzeczywiście można mówić o zwycięstwie strategii ATI. Bo tak przetaktowany chip jest wydajniejszy od GTX285, mniejszy, tańszy w produkcji i pobiera mniej prądu.

    Szkoda że nie mogli tak od razu zrobić i darować sobie wypuszczanie dwuukładowego R700....


  34. @Grave (autor: Promilus | data: 2/08/09 | godz.: 22:12)
    Albo mnie się wydaje, albo w grach rzeczywiście wykorzystujących DX10,1 HD4890 dorównywało jak nie przebijało GTX280? 1 GPU vs 1GPU.

  35. @sajron (autor: scoobydoo19911 | data: 2/08/09 | godz.: 22:15)
    nie bierzesz pod uwage że gt200 pomimo swoich rozmiarów jest mniej prądożerny, że przy mniejszych taktach i napięciach osiąga większą wydajność, i mniej się grzeje ni rv770. z punktu widzenia zwykłego użytkownika pobór prądu i kultura pracy jest ważniejsza niż technologia i rozmiar chipa

  36. Promilus (autor: Grave | data: 2/08/09 | godz.: 22:16)
    Przy taktowaniu 1GHz vs fabrycznie taktowany GTX285 układ ATI jest szybszy w większości gier czy to DX10.1, DX10 czy DX9, co tym samym czyni z niego najszybsze GPU na rynku.

    Natomiast miano najszybszej karty ciągle należy do Nvidii (GTX295 czyli 2x GTX285 z pewnymi cięciami).


  37. Grave (autor: Sajron | data: 2/08/09 | godz.: 22:20)
    "Tak by było gdyby pojedynczy RV870 dorównał wydajnością GT300. Ale wszyscy dobrze wiedzą, że tak się nie stanie."

    jacy wszyscy? mów za siebie fanboju.
    rv870 ma byc chipem dla segmentu performance zatem jest konkurentem dla GT300 w wydajnosci! stawiam że będzie tak jak teraz, ATI będzie miało czhip o podobnej wydajnosci co GT300 przy 2x mniejszych rozmiarach. :P


  38. Sajron (autor: Grave | data: 2/08/09 | godz.: 22:26)
    We'll see....

    A co do "fanboya" to wiesz ciekawe to jest. Najpierw byłem tu uważany za fanboya ATI, teraz za fanboya NVIDII, to już sam nie wiem czyim jestem fanboyem wygląda na to, że i jednej i drugiej firmy naraz :D

    W jednym PC mam grafikę ATI (R2600), w jednym Nvidii (GF9600GT), w laptopach z kolei ponownie Nvidia (GF8600M GS) oraz Intel (GMA 950).

    Nawet w przypadku CPU dałem szansę zarówno Intelowi jak i AMD (odpowiednio C2D 3GHz oraz Athlon X2 3,2GHz) w laptopie z kolei tylko Intel (C2D 2,2GHz oraz C2D 1,2GHz).

    Gdzie Ty tu widzisz "fanbojostwo" to ja nie wiem :D


  39. scoobydoo19911 (autor: Sajron | data: 2/08/09 | godz.: 22:33)
    o czym ty teraz pierdaczysz? rv790 pobiera podobną ilosc energii co GT200 a grzanie układu zależy od rodzaju zastosowanego chłodzenia. nie widze tu nic aby którąs firmę faworyzowac w tych aspektach.

  40. Grave (autor: Sajron | data: 2/08/09 | godz.: 22:42)
    wiesz co denerwuje mnie to że już teraz zakładasz że rv870 będzie mniej wydajny od GT300. dopoki chipow nie ma to nic nie wiadomo wiec przychamuj troche bo ktos jeszcze przeczyta twoje wypociny i wezmie je na serio!

  41. wedelek (autor: komisarz | data: 2/08/09 | godz.: 22:49)
    naiwnosc az razi, ale nie bardziej nez posty o polityce pod newsem o kompach. daruj sobie prosze takie wywody...

  42. Sajron (autor: Grave | data: 2/08/09 | godz.: 22:59)
    Na pewno to wiadomo tylko tyle że wszyscy umrzemy. Każde przewidywanie niesie ze sobą pewne ryzyko, ale mimo tego wiele rzeczy da się przewidzieć Z DUŻYM (nie 100% ale dużym) prawdopodobieństwem sukcesu.

    Przecieki odnośnie potencjalnych specyfikacji GT300 i RV870 czy też samych koncepcji budowy obu GPU już od jakiegoś czasu można znaleźć w necie.

    Jako, że zarówno ATI jak i NVIDIA mają za sobą wypuszczenie pierwszych próbnych układów (tape out) przecieki te stają się z czasem coraz pewniejsze.

    I o ile co do szczegółów nie można mieć pewności to można spokojnie założyć, że znowu czeka nas walka jednego gigantycznego chipa z dwoma mniejszymi konkurencji.

    Zresztą ATI nie ukrywa takiej taktyki. Mniejszy chip ma być maksymalnie efektywny, a do walki z najszybszym GPU Nvidii ATI pośle wersję X2. Tak jak w przypadku R600 i R700.

    Ponieważ przerabialiśmy ten schemat już dwukrotnie uważam za uprawnione postawienie tezy, że tym razem będzie podobnie.

    Mogę się mylić w szczegółach, ale co do kwestii zasadniczej jestem niemal (to właśnie to ryzyko) pewien: RV870 będzie wolniejszy od GT300. Nie wiem o ile czy o 20, 30 czy 50% ale BĘDZIE WOLNIEJSZY.

    Jest to naturalna konsekwencja taktyki ATI której sama firma nie ukrywa.

    Do walki z GT300 ATI oddeleguje podwójną wersję.

    A co do potencjalnych specyfikacji to ta która niedawno się pojawiła wydaje się być całkiem realna:

    RV870

    zegar GPU 900MHz
    1GB pamięci DDR5 @ 1,1GHz
    1200 SPU (240 SP)
    32 ROPS
    48 TMU

    [ati-forum.de]

    Czyli taki "mocno dopakowany" Radeon 4870.

    I tej specyfikacji bym dał spory kredyt zaufania ze względu na czas w jakim się pojawiła (blisko premiery).


  43. sajron (autor: scoobydoo19911 | data: 2/08/09 | godz.: 23:09)
    pierdaczysz to ty ale na własnym klozecie. ja stwierdzam fakt karty nv się mniej grzeją i są mniej prądożerne w rozrachunku (nv jest sporo lepsze w stanie spoczynku a ati ciut lepsze podczas pracy w 3d) no i naucz się czytać bo ja pisałem o kartach z tego samego okresu czli rv770 i gt200 a nie o czymś co jeszcze nie weszło na rynek

  44. Grave (autor: Sajron | data: 2/08/09 | godz.: 23:23)
    jakie znowu? czy dzisiaj ATi wlaczy dwoma czipami z pojedynczym GT200? nie! Radeon 4890 jest wystraczająco mocny aby zdjąc Nvide z topu przy 2x mniejszych rozmiarach!

    RV870 nie będzie wolniejszy od GT300. te wszystkei przecieki co dotychczas się pojawiły to są po częsci bzdury.


  45. Sajron (autor: Grave | data: 2/08/09 | godz.: 23:32)
    1. Bierz poprawkę że 4890 pojawił się ROK po premierze samego RV770 jako RV790 czyli jego poprawiona wersja. Dlaczego zatem zakładasz że RV870 od razu pojawi się w swojej najmocniejszej odmianie?

    2. Owszem przy taktowaniu 1GHz (niemal 50% wyższym (sic!!!) niż GTX285) układ ATI jest szybszy.

    Ale weź pod uwagę, że stało się tak tylko dlatego, że Nvidia darowała sobie ripostę i nie podbiła napięcia i taktowania w swoich GPU, a przecież mogli to zrobić.

    Co widać wyraźnie w testach. O ile na fabrycznych taktach 1GHz vs 648MHz układ ATI jest szybszy to już wystarczy wyrównać szanse i podkręcić GPU Nvidii aby to GeForce był szybszy.

    Dzieje się tak dlatego, że przy danym taktowaniu (a więc "zegar w zegar") GPU Nvidii jest DUŻO SZYBSZE bo ma po prostu więcej jednostek obliczeniowych.

    ATI ostatecznie rzutem na taśmę wygrało z GTX285 ale potrzebowało na to podbicia zegara o 250MHz czyli o 1/3!!


  46. @Grave (autor: Promilus | data: 2/08/09 | godz.: 23:40)
    ta specyfikacji kupy się nie trzyma, nie po to w rv770 dali 2,5x więcej TMU niż RBE by pozbyć się problemów z wydajnością teksturowania i filtrowania by popsuć to w rv870.

    Specyfikacja przed premierą może być równie prawdziwa co RV770 (a jak to leciało, 512bit gddr5, 640 spu...i taktowanie powyżej 1ghz)

    Co do grzania się kart i poboru energii ... prawda jest taka, że AMD ma tutaj niewielkie pole do popisu, bo taktowanie 2D chipu i pamięci zależy od producenta. Kto chce zmierzyć pobór prądu niech moduje bios by w 2D taki HD4890 miał 200MHz na rdzeniu i 4x400MHz na pamięciach przy zmniejszonym napięciu...Co? Sekcja zasilania nie przewiduje programowego vcore? A to pech, wina AMD z całą pewnością...przecież oni wypuszczają chip i referencyjną kartę :P
    A tak swoją drogą...skoro HD4890 walczy z gtx275 który dodatkowo jest kilka procent wolniejszy od gtx280, zaś sam chip to jakieś 260mm2 vs ~400 (*w 55nm*) w przypadku nv to jednak skłaniałbym się do zdania, że AMD z krzemu, przynajmniej w GPU, potrafi wyciągnąć więcej niż NV. Oczywiście, gdzieś tam widziałem nieźle chłodzonego podkręconego ostro GTX260 z konkretnym zasilaniem... no, ale realnie patrząc to jednak technologia wykonania to właśnie po stronie radków stoi.


  47. @Grave (autor: Promilus | data: 2/08/09 | godz.: 23:43)
    no myślałem że będziesz konkretnie argumentował, a tu lipa.
    1. podkręć tego GTX i daj test poprwności obliczeń CUDA... albo choćby F@H zapuść...zobaczysz to czego ci większość gier nie pokaże...a mianowicie PRZEKŁAMANIA
    2. nie uczciwa walka bo radek jest prawie 2x tak taktowany? To co można powiedzieć o tym, że GTX ma 2x więcej jednostek ROP i TMU?
    3. SP w GT200 i G80/92 są taktowane z częstotliwościami powyżej 1GHz...czyli więcej niż AMD ma w standardzie :P


  48. Promilus (autor: Grave | data: 3/08/09 | godz.: 01:10)
    1. Proszę:

    http://www.evga.com/...rce%20200%20Series%20Family

    702MHz na GPU - wystarczająco dużo żeby pokonać taktowanego 1GHz Radeona 4890.

    Dają na to gwarancję, więc artefaktami karta na pewno nie sypie. A akurat ta firma (EVGA) raczej chłamu nie wypuszcza .

    2. Tylko że dużo łatwiej jest podkręcić taktowanie niż usprawnić architekturę chipu. Zegar w zegar Nvidia jest szybsza i to świadczy o przewadze jej GPU. Tak samo jak Core2Duo jest zegar w zegar szybsze od Phenoma.

    Zresztą patrz punkt 1 - OC można nadrobić braki w architekturze, ale tylko na krótką metę. Bo Nvidia zegary także podnieść może i już wtedy ATI ze swoją mniej wydajną architekturą jest udupione.

    Nie mam nic do koncepcji ATI - konsekwentnie realizują swoją taktykę, która w dużej mierze się sprawdza, aczkolwiek ma też swoje wady.

    Jestem przekonany, że RV870 będzie bardzo dobrym wydajnym chipem, jako że wywodzi się z udanej architektury swojego poprzednika. Jeżeli ATI nie przesadzi z ceną na pewno ma sporą szansę na sukces.

    Natomiast jestem także przekonany, że pojedynczy RV870 przegra z GT300. Przypuszczalnie ceny tych kart będą się znacznie różnić.

    Dla GT300 jako topowej karty Nvidia na pewno przywali cenę ponad 2000zł, z kolei ATI z RV870 raczej powinno celować z kwotą ok 1000zł zostawiając sobie wyższą cenę dla R800.


  49. Jeszcze odnośnie OC może być to (może nawet lepsze): (autor: Grave | data: 3/08/09 | godz.: 01:21)
    http://www.evga.com/...rce%20200%20Series%20Family

    GPU @ 713MHz. (tu dla GTX275 czyli oficjalnego konkurenta 4890).


  50. też (autor: scoobydoo19911 | data: 3/08/09 | godz.: 01:35)
    mi się wydaje że ati będzie tańsze ale robiąc to w okolic 1000 zł stworzyli by walkę wewnętrzną miedzy 4890 a rv870 bo 4870 x2 jest grubo ponad 1000zł. cene stawiam na początek jakieś 1300- 1400 zł potem bezie wersja xx w okolicach 1800-2000zł (trzeba patrzeć na polskie realia) a gt300 dla high endowego modelu na początek 1800zł potem regularne spadki do poziomu 1600 zł. zasadniczym konkurentem dla pojedynczego rv870 bedą kastraty pełengo gt300. modele nv stawiam w takiej kolejności gtx380 gtx360 gtx350 (docelowy konkurent rv870)

    u ati hd5870x2(docelowy konkurent pełnego gt300) hd5870(konkurent gtx350) hd5850

    oczywiście nazwy są czysto hipotetyczne ale
    uważm że na samym szczycie będzie równa walka szczebel niże nv będzie miała lukę w rynku potem na 3 sczeblu nv idrugim ati będzie otro i na końcu na trzecim szczeblu ati będzie miało brak konkurencji.

    a więc przy dobrych wiatrach obie korporcje dostaną spory kawalek tortu


  51. miało (autor: scoobydoo19911 | data: 3/08/09 | godz.: 01:36)
    byc x2 zamiast xx

  52. a według mnie (autor: maw136 | data: 3/08/09 | godz.: 02:54)
    jak ATI popracowała nad ultra threaded unit czy jak to u nich się nazywa i wyciągnie pełną moc z jednostek bo wydaje mi się że jak na razie są wykorzystane 2-3/5 jak im się uda wyciskać 4/5 to NV się schowa z ich liczbami ;p

  53. @Grave (autor: Promilus | data: 3/08/09 | godz.: 08:21)
    'Zegar w zegar Nvidia jest szybsza i to świadczy o przewadze jej GPU.'
    Nie, o niczym to nie świadczy, to nie jak P4 kontra A64...Bo jeśli HD4870 taktowany 750MHz mając 16RBE i 40TMU z 256 bitową magistralą przy powierzchni chipu 256mm2 dorównuje wydajnością karcie z 28ROP, 64TMU (zwykły GTX260) z ponad dwukrotnie większym układem taktowanym częstotliwością będącą ~76% RV770XT to chyba świaczy to tylko i wyłącznie o przewadze radeona. A czemu?
    Proszę cię bardzo:
    1. nv powierzchnia chipa 2x większa (65nm) albo blisko 2x większa (55nm)
    2. NV przy taktowaniu SP blisko 2x większym, przy 1,75 krotnej liczbie ROP i 1,6 krotnej liczbie TMU osiąga wydajność porównywalną z RV770

    Jeśli nie bardzo jarzysz do czego zmierzam... GPU pozwala na wzrost wydajności przez zwiększenie liczby równoległych jednostek (TMU, ROP), ale zwiększona liczba TMU absolutnie niesie za sobą zwiększone zapotrzebowanie na przepustowość pamięci...więc cały czas na szerokość nie możemy liczyć. Dodatkowo mój przykład wyżej pokazuje że taktowanie z wydajnością lepiej się skaluje niż niebotyczne ilości ROP i TMU...bo skoro układ AMD ma 30% wyższe taktowanie (tmu i rbe, bo shaderów blisko połowę niższe) od układu nvidii który z kolei ma 60-75% więcej jednostek to chyba łatwo wyciągnąć wnioski dot. efektywności i rzeczywiście LEPSZEJ architektury.
    Co do przetaktowania weź poczytaj:
    http://foldingforum.org/...1ff39d8fc8bec5dcc76276c
    I co, że w grach nie pojawiają się artefakty jak są aplikacje korzystające z CUDA które te przekłamania w obliczeniach są w stanie wykryć? :P Bo ty pewnie u siebie zauważasz różnicę między kolorem FFFFEE a FFFFFED...no tak, między kolorami różnicy nie zauważysz, ale między dość konkretnymi wartościami liczbowymi z pewnością.


  54. @grave (autor: trepcia | data: 3/08/09 | godz.: 10:15)
    Zobaczymy jaki wpływ na wydajność karty i jakość wyświetlanego obrazu będzie miała teselacja oraz która z firm bardziej ją opanowała (dla przypomnienia: teselacja w kartach ATI występuje już od 2002r).

  55. Panowie skonczcie ta dyskusje.... (autor: cris22 | data: 3/08/09 | godz.: 11:32)
    Niektorzy fanboye Intela czy nVidii i tak nie dadza sie przekonac ZADNYMI argumentami (slabosci i tak beda uwazac za zalety) i beda piac z zachwytu na kazdym kroku nad polityka i produktami tych firm... Kazdy niech pozostanie przy swoim zdaniu i kupuje to co sam ocenia za korzystne... Nie warto kopac sie z koniem...

  56. @up (autor: trepcia | data: 3/08/09 | godz.: 12:21)
    Raczej z osłem. Tylko osioł nie zmienia zdania :-) Koń prędzej czy później pójdzie tam, gdzie chcemy (wiem to z autopsji).

  57. Sajron (autor: Adolph | data: 3/08/09 | godz.: 14:08)
    Mówi jedno, pisze drugie, jak zwykle...
    Komenty 37 & 40
    Tak się wydziera jaki to będzie ten RV870,
    a zaraz ripostuje, że tych kart nie ma, żeby się Grave nie napałał, no po prostu, człowieku aż oczy bolą jak się to czyta. Jak sam piszesz, nie ma co teraz stawiać, zobaczymy jak wyjdzie.


  58. Sajron (autor: Adolph | data: 3/08/09 | godz.: 14:10)
    Kolejna sprawa... przecież ty taki bogaty...
    Napewno nie chciałbyś takiej grzałki, ktora zjada tyle prądu... ale jest najwydajniejsza? Przecież tobie na wydajności zależy, nie?


  59. ahh... (autor: Wedelek | data: 3/08/09 | godz.: 14:39)
    @komisarz
    To Ty wydajesz mi się nie poważny. Co do polityki, to jest demokracja i każdy może mieć własne zdanie.

    @all
    Nie pozostaje nam nic innego, jak tylko czekać na testy. Mam nadzieję, że wewrześniu pojawią sie nowe radki. A póki co polecam poczytać http://pclab.pl/art35447.html

    Duży art, ale fajnie napisany. Znowu n-vidia pogłębia moje odczucie, że traktuje nieco po macoszemu tych, których nie stać na najwydajniejsze karty ich produkcji:/ (sytuacja z falloutem3 np podczas wygładzania trzyliniowego)


  60. cris22 (autor: morgi | data: 3/08/09 | godz.: 15:08)
    Jakie argumenty, przeciez dla Nvidii problemem jest wielkosc chipu czy wydajnosc ogolna, ale najwyrazniej nie jest to problem skoro sprzedaja w cenie konkurencyjnej i ludzie to biora. U ati jest tylko ledwie dopracowany sprzet pod gry na Windows i tyle, reszta albo lezy odlogiem, albo sie prawdopodobnie nie nadaje.

  61. Promilus (autor: morgi | data: 3/08/09 | godz.: 15:12)
    Parametry tech. biora w leb, bo u ati maly chip, ale kto wie jaki uzysk z wafla, bo niby maly rv740 a jakie tragedie sie rozegraly w ostatnie miesiace? Wielkie chipy Nvidii nie sa wcale bardziej lakome od ati i to jest ciekawe, do tego programowalnosc tych gpu jest dalece bardziej posunieta, wiec w dobie DX11 niby to ati jest w lepszej pozycji, ciekawe jak Stream v1 lezy praktycznie zmieszano to z blotem w porownaniu z CUDActwem.

  62. a morgi (autor: Adolph | data: 3/08/09 | godz.: 15:35)
    Fan intela i jego grafik X3100/X4500, jak zwykle to samo :), wszystko co nie jest od Intela to "zuo" :D

  63. ....... (autor: Marek1981 | data: 3/08/09 | godz.: 21:44)
    @morgi - co za bełkot, jakieś konkrety??
    @Adolph - masz rację, ja np mam x4500 i tak klnę za te przekłamania. Na szczęście mam jeszcze stacjonarke.
    @Wedelek - thx za artykuł, odczucia podobne i można jeszcze dodać jedną konkluzję:
    Pomimo robienia gier pod GF na radkach wyglądają lepiej (tryb bez upiększaczy), wniosek stery nvidii są gorszej jakości.


  64. @morgi (autor: Promilus | data: 3/08/09 | godz.: 21:51)
    1. gdzie tu rozmawiamy o RV740 gdy NV realnie nie ma w tym wymiarze nic do zaoferowania, a jeśli nawet coś zaczęła wypuszczać to w tej samej firmie robi chipy co i AMD, zatem przy stałym współczynniku 'zanieczyszczeń' mniejsze chipy zawsze będą częściej wychodziły sprawne. No, ale tak jak starego psa nie można nauczyć nowych sztuczek, tak i morgiego myślenia.
    'Wielkie chipy Nvidii nie sa wcale bardziej lakome od ati i to jest ciekawe, do tego programowalnosc tych gpu jest dalece bardziej posunieta, wiec w dobie DX11 niby to ati jest w lepszej pozycji, ciekawe jak Stream v1 lezy praktycznie zmieszano to z blotem w porownaniu z CUDActwem' - tak posunięta, że nie potrafili mimochodem przeprogramować SP by wspierały SM4.1 ;) Oj rzeczywiście, masakra :] Przejrzyj specyfikację RV7xx zanim zaczniesz opowiadać bzdury o CUDA gdy nie dość że nie miałeś okazji nic zaprogramować nawet w C, to nie masz pojęcia o GPGPU.


  65. Promilus (autor: Adolph | data: 3/08/09 | godz.: 22:11)
    Nie wysilaj się ;)
    Gdyby CUDA, Stream były by od Intela, zobaczyłbyś całkiem inne nastawienie morgiego, jak napisałem, to co nie jest od Intela to "zuo".
    Taka żałosna prawda, napisze tak:
    http://static0.blip.pl/...ictures/203934_inmsg.jpg


  66. @Adolph (autor: AmigaPPC | data: 4/08/09 | godz.: 00:11)
    Świętą prawda Panie Dzieju :)

  67. Promilus (autor: Markizy | data: 4/08/09 | godz.: 08:10)
    starego psa nowej sztuczki nauczy ale trwać będzie to dłużej :P

  68. Promilus (autor: morgi | data: 4/08/09 | godz.: 10:08)
    Niestety, ale rv7xx nieistnieje w ramach programowania do takiego poziomu jak CUDActwo, ale faktycznie masz racje nie mam pojecia, bo gpgpu to jest narazie scifi i pare zbednych gadzetow dla pryszczatych, w zapowiedzi ciagle od wielu lat jakoby detronizujace cpu. lol. A Nvidia dalej klepie kupujcie Duo do naszego zestawu gpGPU, a nie Nehalema?

  69. morgi (autor: Markizy | data: 4/08/09 | godz.: 12:53)
    Początki każdej nowej technologi są trudne, jak było z HT, dwurdzeniowością i wszystkimi rozszerzeniami SEE ??

    Dzięki determinacji nvidi (na razie brak większych działań od AMD) gpgpu może zdominować komputery do tego stopnia ze zacznie wpierać CPU na x86, lub też GPU scalone z CPU przez co moc procesorów AMD skoczy w górę, a co do nvidi to nie wiadomo nad czym pracują jej inżynierowie, ale pogłoski już o czymś świadczą. A intel z czym zostanie z larrabee które jest nie wiadomą do końca? a ważna sprawą jest doświadczanie w projektowaniu zaawansowanych układów GPU a tego u intela brak.


  70. Intel (autor: Wedelek | data: 4/08/09 | godz.: 18:31)
    może się ostro zachwiać na rynku jeśli rozwiązania GPGPU się zadomowią. Dużo może nam wyjaśnić Larabee. Raczej jakiś wielki przełom to to nie będzie.

    Co do nowych GPU to wiadomo już, że wersja X2 powinna pojawić sie razem z wersją pojedyńczą. http://www.fudzilla.com/content/view/14909/34/


  71. Markizy (autor: morgi | data: 4/08/09 | godz.: 19:01)
    To nie kwestia determinacji czy widzimisie, gpu sa za cienkie w uszach, poprzez te krotkowzroczne wysoce wyspecjalizowane zastosowanie i widzenie programistow. To jest system naczyn polaczonych, nie sposob zrobic uniwersalnego proca bez doglebnych i rzeczowych badan, bez technologii i specjalnie do tego przeznaczonych fabryk czy wlasnych czy ostatnio zaeksperymentowano dzierzawionych(amd). GPU to proste proce przy CPU, z wyspecjalizowanymi jednostkami nastawione na renderowanie, a cala reszte trzeba by tworzyc od podstaw, wiec startu do x86 nie ma.

  72. morgi (autor: Markizy | data: 4/08/09 | godz.: 20:45)
    ciężkie zabawki czy karmili z procy ?

    Co ty gadasz ? jak nie można zbudować prostego uniwersalnego proca ? można i takie są od dawna, x86 ma duża przewagę nad GPU dzięki mechanizmom przewidywania skoków i takie tam detale, co nie zmienia że może wylądować na marginesie jako coś co tylko tłumaczy programy a cała obróbka danych idzie na GPU. Proste proce to RISC

    http://twojepc.pl/...ly.php?id=droga_ku_wydajnosci dokształć się lepiej trochę.


  73. @morgi (autor: trepcia | data: 4/08/09 | godz.: 21:25)
    Eee.... GPU wyspecjalizowane? Gdzie byłeś od czasów "united shaders"? Procesory są wyspecjalizowane i mocno okrojone. Przyszłość należy do GPU, które mają duuuuużo większe pole do manewrów niż CPU.
    Zacznij chociaż troszkę programować w PASCALU a oczy Ci się otworzą. Nie wspominająć już o innych językach.


  74. @morgi (autor: Promilus | data: 4/08/09 | godz.: 21:47)
    CUDA to tylko API, ma się to nijak do sprzętu. Kompilator C będzie tak samo działał na MC68k. PPC czy x86. Czym są CUDA? Ano kompilujesz programik w C for CUDA, kompilator tłumaczy to na rozkazy wewnętrzne GPU, do GPU ma bezpośredni dostęp przez sterownik CUDA...czyli odpada DirectX po drodze. Jakby ktoś się uparł można zrobić CUDA for ATI i przy dobrej optymalizacji tylko i wyłącznie sterownika CUDA można osiągnąć TE SAME EFEKTY. ale na programowaniu się nie znasz, na architekturach mikroprocesorów również...więc nie dyskutuj.
    Przy okazji - GPU są wyspecjalizowane, ale SP operują na podstawowych działaniach - dodawanie, odejmowanie, mnozenie, dzielenie, potęgowanie, sinus, pierwiastkowanie itp. itd. Jeśli uważasz że mając 800 jednostek potrafiących w sekundzie wykonać 800*750M prostych operacji arytmetycznych to tego się nie da wykorzystać w praktyce i jakikolwiek CPU może się z tym równać to oznacza, że jesteś jeszcze większym idiotą niż myślałem. GPU w łamaniu WEP są kilkanaście/kilkadziesiąt razy szybsze niż najmocniejszy i7!!
    I to bynajmniej nie koniec zastosowań GPGPU.


  75. Promilus (autor: Adolph | data: 5/08/09 | godz.: 00:51)
    Morgi to wyznawca boga Intela, jak Intel nie produkuje GPU (nie licząc gówien co się nazywają integry, bo to nawet obrazu pożadnie pokazać nie może), to znaczy, że są do dupy :), co tam morgi będzie sobie dupe, zawracał, czy to prawda, czy nie ;)

  76. Co za bzdury niekturzy wypisują (autor: PCCPU | data: 5/08/09 | godz.: 09:40)
    Dokładne zegary taktujące GeForce GTX 285 wynoszą 648 MHz dla układu graficznego i 1476 MHz dla 240 procesorów strumieniowych. Procesory strumieniowe w GPU ATI mają tę samą częstotliwość co rdzeń.

  77. GPGPU (autor: Wedelek | data: 5/08/09 | godz.: 11:31)
    to przyszłość. Olbrzymia moc, którą można wykorzystać do dowolnych celów. Tradycyjne CPU prawdopodobnie będą jedynie jednostkami pomocniczymi, podczas gdy cały ciężar pracy weźmie na siebie właśnie GPU. Prawdziwym przełomem może być też wykorzystanie procesorów kwantowych.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.