TwojePC.pl © 2001 - 2024
|
|
K O M E N T A R Z E |
|
|
|
- powiesiłbym sobie taka płytkę na lusterku w samochodzie :D (autor: Se8a | data: 3/06/09 | godz.: 13:06)
no może jednak troche za duża, zwykła CD wystarczy ;]
- Literówka (autor: Gladzio | data: 3/06/09 | godz.: 13:14)
"...na temat parametrów technicznych układów, <<wiadomi>> jedynie..."
- nono (autor: Chucky | data: 3/06/09 | godz.: 13:53)
AMD szaleje... nice ;]
- widzicie to co ja? (autor: Sajron | data: 3/06/09 | godz.: 14:09)
wafel ma uklady o powierzchni jedynie 180mm2 a Nvidia szykuje 495mm2 bydlaka . ATI bedzie miec 3x tansze w produkcji chipy :P ulala nvidia pozamiatana! mistrzostwo swiata!
- powiedzcie mi (autor: MayheM | data: 3/06/09 | godz.: 14:26)
dlaczego prostokatne uklady produkuje sie z okraglych wafli? Przeciez z kazdego takiego wafla conajmniej 10% to odpad.
- MayheM (autor: Aamitoza | data: 3/06/09 | godz.: 14:51)
Bo nie wymyślono lepszego sposobu krystalizacji krzemu niż metoda Czochralskiego. Co jest bardziej opłacalne, robić na okrągłych waflach (i wyrzucuć pare sztuk), czy na prostokątnych wyciętych z tego koła? (i pozbyć się ogromnej powierzchni wafla)
- ... (autor: Aamitoza | data: 3/06/09 | godz.: 14:54)
te filmy chyba telefonem były nagrywane, bo w sumie to nic na nich nei widać... może jedynie tylko to o co mniej więcej chodzi.
- @Sajron (autor: ligand17 | data: 3/06/09 | godz.: 14:55)
Ja nie widzę. Skąd wytrzasnąłeś to 180mm2?
- MayheM (autor: morgi | data: 3/06/09 | godz.: 14:58)
Po prostu tak wynika z metody pozyskiwania monokrysztalu krzemu, metoda CZ, zwana tez Czochralskiego. Wyciagasz ze stopu walec, potem go tniesz na plasterki, masz tutaj komiks z opisem
http://www.covalent.co.jp/...ts/wafer/process.html
- ligand17 (autor: morgi | data: 3/06/09 | godz.: 15:00)
Metoda na cepa, policz na zdjeciu ilosc chipow podziel sobie przez powierzchnie plasterka i masz.
- Dodac jeszcze warto (autor: Kosiarz | data: 3/06/09 | godz.: 15:01)
ze im mniejszy uklad tym mniej odpadow. Pierwsze proby obliczenia powierzchni kola polegaly na wpakowaniu w nie wielu trojkatow i prostokatow ktorych to pole umieli obliczac. Im mniejsza figura tym wiecej tego napchasz czyli w efekcie mniej pojdzie na lusterko dla Se8a
- ligand17 (autor: Sajron | data: 3/06/09 | godz.: 15:10)
widac na zdjeciu,
wafel ma srednice 300mm
na waflu miesci się pionowo 26 układów a poziomo 19 zatem:
300: 26=11.5
300: 19=15.8
11.5*15.8=182mm2
Zatem jeden układ wraz z pustą przestrzenią go otaczającą ma około 182mm2. Czyli tak na oko po odliczeniu pustej przestrzeni jeden rdzeń ma ze 170mm2.
- sorry na odwrot (autor: Sajron | data: 3/06/09 | godz.: 15:12)
pionowo masz 19 układów a poziomo 26
- przy braku defektów (autor: Sajron | data: 3/06/09 | godz.: 15:32)
ATI ma 3x więcej układów z jednego wafla niż GT300. Jednakże nigdy nie ma tak że nie ma defektów i czym większy jest chip tym większy jest odpad. Zatem w praktyce ATI ma 3x mniejszy chip i 3x mniejsze defkty co przekłada się na 9x więcej układów z wafla niz GT300. Zatem koszt wytworzenia jednego układu ATI jest 9x mniejszy i do tego dochodzi jeszcze mniejszy koszt płytki drukowanej z racji zastosowania 256bit szyny pamieci. ATI normalnie wymiata.
- NVidia chyba obiera złą drogę rozwoju (autor: Gladzio | data: 3/06/09 | godz.: 15:32)
Nie można w nieskończoność powiększać swoich układów. Nawet niższy proces technologiczny niewiele tu zdziała. Gratulacje dla ATI. Seria 5000 na 99% będzie wielkim hitem.
- Gladzio (autor: Sajron | data: 3/06/09 | godz.: 15:47)
jasne że bedzie hitem bo nawet jakby karta była 2x gorsza wydajnościowo od GT300 to i tak zawsze można ją sprzedac 9x taniej :P
- Sajron... (autor: Simon89 | data: 3/06/09 | godz.: 15:51)
dokładnie o tym myślałem: 180mm^2 vs 500mm^2. Moc obliczeniową ma mieś potężna (jak na taką powierzchnię). No ale z GT300 ma konkurować 2xRV800, a nie pojedynczy. Ciekawe... poczekajmy...
- Simon89 (autor: Sajron | data: 3/06/09 | godz.: 16:10)
Zapewne chodziło ci o R800(2x RV870). Spoko ale toż to nawet 2 układy będą o wiele tańsze niż GT300.
- Gladzio (autor: morgi | data: 3/06/09 | godz.: 16:14)
Ja na 99.99% zgaduje, ze ty tego nie wiesz tylko tak sobie wrozysz, co jest o tyle bezcelowe co i nieszkodliwe.
- Sajron - 9x wiecej układów???? (autor: komisarz | data: 3/06/09 | godz.: 16:29)
ładnie się rozpędziłeś, ale logiki w tym zero. Z tego, że chip będzie 3x mniejszy i odpadów będzie 3x mniej wynika, że układów z wafla będzie 3x wiecej. Nie 9.
- Morgi (autor: Gladzio | data: 3/06/09 | godz.: 16:32)
Leć do sklepu i płać 2000zł za najnowszego GTX. No na co jeszcze czekasz?
- @Gladzio (autor: Chucky | data: 3/06/09 | godz.: 16:48)
jak to na co -na 5870 X2 ;]
- ... (autor: Gladzio | data: 3/06/09 | godz.: 16:55)
Przeczytałem kiedyś taki komentarz pod newsem o nowych układach GT300: "Znowu ATI zrobi kartę 10% wolniejszą i 50% tańszą".
- komisarz (autor: Sajron | data: 3/06/09 | godz.: 16:57)
ATI ma 3x więcej układów z wafla ale bez założenia strat czyli defektów.
np.
1.Nvidia ma uzysk 100 układów z wafla z czego 30% znich jest bez wad zatem ma 30 sprawnych układów.
2.ATI ma 300 układów z wafla z czego 90% z nich jest sprawnych co daje 270 sprawnych.
Jak widzisz uzysk jest 3x większy natomiast uzysk sprawnych układów 9x większy. :P
Czym większy rdzeń tym większe prawdopodobieństwo że układ natrafi na defekt.
- G200 miał uzysk sprawnych układów (autor: Sajron | data: 3/06/09 | godz.: 17:04)
na poziomie 40%. Zatem GT300 będzie miec jeszcze gorszy uzysk (30%?)z racji nieświeżego wciąż jeszcze procesu 40nm. Błędy geometryczne poprawia się wraz z dopracowywaniem procesu przez co z czasem wzrasta uzysk sprawnych układów.
- Sajron (autor: morgi | data: 3/06/09 | godz.: 17:08)
Skad te wymysly, przy takich uzyskach to kazda karta bylaby widmem, jak 4770, ale ty wiesz wiecej piszesz prosto z tajwanu...
- Nvidia (autor: Sajron | data: 3/06/09 | godz.: 17:11)
sprzedaje zablokowane układy z defktami aka GX260 który ma bloknięte obszary dotknięte defektami. Z czego drastycznie powiększa swój uzysk (ponad 2 krotnie) no ale pełnych G200 to oni maja raptem 40% sprawnych.
- morgi (autor: Sajron | data: 3/06/09 | godz.: 17:23)
jakby teraz Nvidia rzuciła GT300 do procesu 40nm to by mieli zaledwie 30% sprawnych układów.
HD4770 to inna bajka bo ma powierzchnie zaledwie 137mm2 co przekłada się na o wiele wiekszy uzysk jak i procent sprawnych układów. Przy takich małych rozmiarach to masz bez problemu uzysk na poziomie 80% wzwyż jakby jeszcze sprzedawali kastraty to by nawet i do 100% doszli.
- nawet samo ATI (autor: Sajron | data: 3/06/09 | godz.: 17:31)
stosuje takie sztuczki jak większa ilośc ALU.
np. układ RV770 ma tak naprawdę nie 800SP a 900SP. 100SP jest zarezerwowanych na defekty i blokowana. Dzieki takiemu trickowi ATI ma uzysk sprawnych układów na poziomie 90%.
- Sajron (autor: komisarz | data: 3/06/09 | godz.: 19:20)
70% / 3 = 23%. Tyle w temacie.
- Sajron (autor: morgi | data: 3/06/09 | godz.: 19:25)
Mowisz jakies brednie z tymi procentami, na jakims portaliku napisali, ze rv740 ma 20%, a ty walisz ze wiekszy chip bedzie mial wiecej? Poczekajmy na konkrety, to co amd zaprezentowalo to zgaduje na rzut oka maly ukladzik predzej wyglada jak skurczona wersja 7xx niz topowy model, ale moze odkryli konkurenta dla cGPU.
- dzieki za odp (autor: MayheM | data: 3/06/09 | godz.: 19:49)
i wszystko jasne :)
- morgi (autor: Dzban | data: 3/06/09 | godz.: 19:51)
Sajron ma w sumie rację. Co do 4770 to popyt był duży a produkcja się jeszcze dobrze nie zaczęła.
- "maja wlasna osobowsoc, maja prace, sa glodni... AI .. sztuczna inteligecja.. " (autor: blob21 | data: 3/06/09 | godz.: 19:52)
eeeeee ...... co ma dx 11 do pisania skryptow ???
ps. a sztuczna inteligecja jesli jest to napewno nie na targach computex.... :D
- może (autor: scoobydoo19911 | data: 3/06/09 | godz.: 20:46)
uznacie mnie za fanboya nv ale gt300 może być prawdziwym wydajnościowym i nie powinniśmy go od razu skreślać może wyjść na to że nv będzie dużo lepsze high endzie bo do mid endu ten uklad powinien przynajmniej być dwa razy mniejszy więc proces 28nm byłby mile widziany(na jakiejś stronce czytałem że tsmc i nv planują rozpoczęcie produkcji tego procesu w 2010 a więc nie długo)
- morgi! (autor: Sajron | data: 3/06/09 | godz.: 20:58)
Gdzie żeś wyczytał te bzdury z 20%? TSMC ma jedynie problemy z nakładem produkcyjnym układów RV740 a nie z ich uzyskiem.
ATI ma uzysk ponad 90% z RV740 jak mi nie wierzysz to twoja sprawa. RV740 ma dodatkowe 80SP przeznaczone na defekty co podnosci drastycznie uzysk.
Odnosnie tego układu na tym zdjęciu to jest to na 100% RV870 bo by lowenda RV840 nie pokazywali. :P Układ po odliczeniiu pustej przestrzeni ma zaledwie ~160mm2. Niezle nie? :D Nvidia może sobie pomażyc o takich rozmiarach.
- @MORGI (autor: Promilus | data: 3/06/09 | godz.: 21:03)
Sorry, ale TSMC produkuje już i pamięci w 32nm...ale dalej produkuje też chipsety graficzne w 55nm, do tego rv740 w 40nm...hmm, albo mi się wydaje, albo fabów jest więcej, baaa, ta linia która produkuje w 40nm po prostu jest zbyt mało wydajna. I nie chodzi tu o UZYSK z 1 WAFLA, a o wydajność właśnie jednej linii produkcyjnej :)
- i tak (autor: scoobydoo19911 | data: 3/06/09 | godz.: 21:04)
na marginesie wątpie aby był to topowy procesor
- sajron (autor: scoobydoo19911 | data: 3/06/09 | godz.: 21:07)
czemui nie mógł by to być rv840(o ile tak się to będzie nazywać) przecież w mniej skomplikowanym układzie jest łatwej wykryć błędy i potem jes usunąć. no i jak by to było prawdziwe rv 870 to by o tym trąbili na prawo i lewo.
- i nigdzie (autor: scoobydoo19911 | data: 3/06/09 | godz.: 21:09)
nie jest napisane jaki to układ
- TSMC i 28nm (autor: Wedelek | data: 3/06/09 | godz.: 21:10)
Tak, ale nie tak szybko, jak wam się wydaje. Najpierw musi się linia 40nm zwrócić. IT rządzi ekonomia, a nie marzenia.
Wielkie brawa dla AMD. Seria HD5xxx coraz blizej:P
- Układ na tym zdjeciu nazywa się (autor: Sajron | data: 3/06/09 | godz.: 21:25)
Evergreen a jakiś czas temu było info że RV870 ma miec teraz taką nazwę kodową.
http://www.tweaktown.com/...ts_codename/index.html
- może (autor: scoobydoo19911 | data: 3/06/09 | godz.: 21:35)
się czepiam ale mimo wszystko dalej twierdze że to na zdjęciu to nie jest rv870 bo jak by tak było to ati by o tym trąbiło
- scoobydoo19911 (autor: Sajron | data: 3/06/09 | godz.: 21:47)
ATI nie trąbi że to układ RV870 bo pozmieniali teraz nazewnictwo , zamiast oznaczeń RV870 ,R800 bedziesz teraz miec nazwy Evergreen ,Cypress etc.
- Sajron (autor: morgi | data: 3/06/09 | godz.: 22:09)
http://www.dvhardware.net/article35848.html
amd uzywalo dawniej nickow do swoich kart, kody numeryczne sa dla malolatow zeby wysylali smsy dla dody.
- sajron (autor: Aamitoza | data: 3/06/09 | godz.: 22:11)
RV870 ma mieć powierzchnię około 210mm^2 a nie 170mm^2, więc nie wiem na jakiej podstawie twierdzisz, że jest to RV870. Gdzie na 170mm^2 zmieścisz jeszcze 16 ropów i 400SP? Wystarczy brać to na logikę, pomyśla najpierw troszeczke. 170mm^2 to może miał by RV770 w 40nm. (przyopomnę że RV740 ma prawie 140mm^2 a ma szynę 128 i 160sp mniej od RV770).
- Jakieś sugestie dlaczego układ ten ma tak małe rozmiary? (autor: Sajron | data: 3/06/09 | godz.: 22:28)
Może jednostki SP będą teraz puszczone z większą czestotliwością niż rdzeń?
Teoretycznie powinno to podwoic moc FLOPS układu przy bardzo małym nakładzie dodatkowych tranzystorow.
- Sajron (autor: Aamitoza | data: 3/06/09 | godz.: 22:39)
Jak dalej chcesz robić z ludzi idiotów, to prosze bardzo, ale to ze zdjęcia nie jest w żadnym wypadku RV870. Ta karta potrzebuje dodatkowych ropów i inżynierowie ATi doskonale o tym wiedzą. Rv740 ma 140mm^2 i posiada bodaj 16 ropów(rbe), i szynę 128. dodaj do tego szerszą szynę i już dochodzimy od przypuszczalnie 150/160mm^2. Gdzie miejsce na te 16 dodatkowych RBE? Myślisz, że zostaną one udoskonalone po raz kolejny i wszystko przejdzie bez tej poprawki? Śmiem wątpić.
- morgi (autor: Sajron | data: 3/06/09 | godz.: 22:43)
Nie wierz wszystkiemu co czytasz! Koszt jedengo wafla 300mm to około 6000$ Jakby RV740 miał uzysk na poziomie 20% to koszt wytworzenia takiego układu przekraczałby 100$ a jak wiadomo ATI sprzedaje te karty poniżej 100$. Predzej by ATI nie wydało zlecenie produkowania takiej karty przy takim uzysku niż by miała dopłacac do interesu. Totalna bzdura z tymi 20%
- TSMC nie wyrabia z linią produkcyjną (autor: Sajron | data: 3/06/09 | godz.: 22:45)
a fanboye zwalają to na yield issue i potem powstają takie głupie newsy. LOL
- Aamitoza (autor: Sajron | data: 3/06/09 | godz.: 23:07)
Pokazali gotowy wafel z układem Evergreen który ma 170mm2 a ty nadal upierasz się że jest to 210mm2? lol Ten poprzedni news z tymi 1200SP i 32ROP to była bujda taka sama jak 480SP w RV770.
Evergreem nie musi miec wcale więcej ROPów. ROPy nie blokują wydajnosci układu.
Wystarczy że przeprojektują układ RV770 aby można było podnosic zegary szaderów i mają 2x wydanjniejszy układ o takim samym budżecie tranzystorów.
- sajronie (autor: scoobydoo19911 | data: 3/06/09 | godz.: 23:12)
śledze temat gpu nie rozumiem wszystkiego (może jestem w błędzie ale podejżewam że jest więcej osób które nie rozumieją wszystkich zwrotów technicznych) i
mam taką małą prośbę czy mógł byś pisać po polsku te zwroty techniczne np: yield issue
- sajron przestań piepszyć. (autor: Aamitoza | data: 3/06/09 | godz.: 23:12)
170mm^2 to może mieć Rv770 w wersji dx11. A Twojegp biadolenia o cudowności inżynierów AMD zwiększających wydajność kilku krotnie poprzez nie zrobienie prawie niczego nie da się czytać.
Jak było by tak kolorowo, to RV770 miał by 400SP taktowanych 2GHz. Ale nie miał i dostał ponad 2x więcej SP. Ta architektura nie nadaje się do takich zabiegów widocznie. To że nvidia tak ma, oznacza jedynie tyle, ze shadery nvidia konstrukcyjnie dają taką możliwość.
- Aamitoza (autor: Sajron | data: 3/06/09 | godz.: 23:35)
mistrzu za dużo siedze w tych klockach abyś mnie mogł zagiąc. racja że układ rv770 w 40nm by miał powierzchnie podobną do Evergreen ale to nic nie znaczy bo mogli zwiększyc gęstosc upakowania trazystorów i uklad ma więcej tranzystorów niż rv770.
RV770 nie miał wyżej taktowanych szaderów bo to było tylko proste rozwinięcie układu rv670 o dodtkowe SP/TMU. A Evergreen to ma byc już nowym układem DX11, zatem oddzielne szadery to nie problem zrobic. Nvidia ma sowje jednostki SP ''fully pipelined'' dlatego może je puszcac niezależnie. U ATI można zrobic to samo.
- Aamitoza (autor: Dzban | data: 3/06/09 | godz.: 23:57)
teraz zagadka dla ciebie W jaki sposób inżynierom z AMD udało się zwiększyć ilość SP i TMU w Rv770 zwiększając powierzchnię rdzenia tylko o jakieś 40%? Magia normalnie. A poza tym taki 4890 udowadnia że cały rdzeń po drobnych usprawnieniach może działać z wyższym taktowaniem.
- rv770 (autor: Sajron | data: 3/06/09 | godz.: 23:59)
ma 160 jedostek SP po 5 ALU. są one cześciowo potokowane i zsynchronizowane z zegarem układu. Wystarczy rozbudowac potok o dodatkowe fazy ,wstawic odzielny "domain clock" i ma się znacznie większą czestotliowsc SP. Proste jak drut. :P
- sajron (autor: Aamitoza | data: 4/06/09 | godz.: 00:04)
i gdzie te 170, skoro trzeba coś "rozbudować"? ;>
@Dzban
Bo SP nie zajmują ogromnych powierzchnii układu? Najwięcej zajmują jednostki RBE (ROP) - trzeba od tego zacząć. A działanie rdzenia z wyższym taktowaniem? Przede wszystkim małe poprawki w rdzeniu i poprawki procesu technologicznego.
- Aamitoza (autor: Sajron | data: 4/06/09 | godz.: 00:21)
no jak to gdzie? jakby układ miał gestrzą strukture upakowania traznystorów to by się zmiescili z tym rozbudowaniem SP.
u rv770 jednostki SP to 29% powierzchni całego chipa zatem 74mm2. ATI przechodząc z rv670 do rv770 przeprojektowało SP tak że mogło upochac geściej tranzystory na tej samej powierzchi w wyniku czego układ rv770 miał o wiele mniejsze jednostki SP!
- PRZEDE WSZYSTKIM to poprawki w sekcji zasilania (autor: Grave | data: 4/06/09 | godz.: 00:25)
i idące wraz z nimi zwiększenie napięcia zasilającego GPU. Bez tego o 1GHz taktowaniu rdzenia nie byłoby w ogóle mowy.
Standardowy RV770 spokojnie osiągał ~850MHz, a więc tyle ile wynosiło do niedawna standardowe taktowanie Radeona 4890.
Dodatkowe 150MHz w modelach z 1GHz zegarem to już zasługa podbicia napięcia.
- Sajron (autor: Aamitoza | data: 4/06/09 | godz.: 00:27)
Jak bys mógł, to podowaj przynajmniej linki, do tych Swoich rewelacji, bo te 29% sa jak dla mnie wyssane z palca ;]
- pozatym ja nie twierdze (autor: Sajron | data: 4/06/09 | godz.: 00:27)
ze układ rv870 Evergreen bedzie miał cokolwiek rozbudowane. równie dobrze moze to byc dokładnie ten sam układ co rv770 tylko że z dodanym DX11 i w 40nm.
- Aamitoza (autor: Sajron | data: 4/06/09 | godz.: 00:29)
nie zgrywaj się bo mam akurat w paicie u siebie na pulpicie rdzen rv770 z jego blokami i se obliczylem dokładnie ile procent powierzchni zajmują poszczególne jednostki. Zmartwie cie ROPy zajmują mniejsza powierzchnię od SP. :P
- sajron (autor: Aamitoza | data: 4/06/09 | godz.: 00:34)
"Se" obliczać, to każdy potrafi ;]
Bo ropów jest tylko 16. Porównaj ile zajmowały ROP'y w porównaniu do SP w Rv670. W RV770 SP już jest tak nasrane, ze nie ma co porównywać.
- ps, (autor: Aamitoza | data: 4/06/09 | godz.: 00:35)
podziel się foteczką rdzenia, bo nie chce mi się teraz nawet szukać.
- Aamitoza (autor: Sajron | data: 4/06/09 | godz.: 00:41)
co jest nasrane? jak ty sie wyrazasz wogole dzicko. :P
- Wystarczy już tego Aamitoza! (autor: Sajron | data: 4/06/09 | godz.: 00:46)
ja sapadam bo widze że ty próbujesz zamęt tylko tu zrobic.
narqa mistrzu :P buhaha
- @morgi (autor: Drow | data: 4/06/09 | godz.: 08:19)
"Ja na 99.99% zgaduje, ze ty tego nie wiesz tylko tak sobie wrozysz, co jest o tyle bezcelowe co i nieszkodliwe."
A ja na 99.99% zgaduje, ze akurat ty juz WIESZ co z tego wyniknie i dlaczego tak slabo, prawda?
- Aamitoza (autor: Promilus | data: 4/06/09 | godz.: 09:04)
RV670 kontra R600 wyraźnie wskazują że da się chip zoptymalizować. W RV670 mamy DX10.1 i PCIE-2.0 a liczba tranzystorów zmalała o 33mln. Naiwne byłoby myślenie że te 33mln to brakujące 256 bitów kontrolera pamięci.
- Drow (autor: morgi | data: 4/06/09 | godz.: 15:14)
Niestety nie mam kart tarota ani szklanej kuli, nie ozenilem sie z cyganka, a po ile chodzi wg ciebie teraz czytanie przyszlosci?
Promilus
Naiwne to stwierdzenie, ze dx10.1 i te cale 'technologie' w hd3k zmienilo cos istotnie na plus, procz tego ze zmniejszyl sie proces dzieki fabryce i rzutem na tasme podratowalo to wtope r6xx kompletna.
- @morgi (autor: Promilus | data: 4/06/09 | godz.: 15:33)
Niedawno na in4 NetCop pokazał różnice w wydajności w kilku grach KORZYSTAJĄCYCH z DX10.1 - jeśli uważasz, że technologia dająca przy dobrej optymalizacji i załączeniu AA/AF od 10 do 30% więcej klatek niż DX10.0 to nic istotnego to masz wielki problem z logicznym myśleniem.
- morgi! (autor: Sajron | data: 4/06/09 | godz.: 16:22)
rv670 miał na celu głównie zmniejszenie koszta produkcji i poboru prądu a nie wydajnosci.
z 420mm2 przeszli na 192mm2 a pobór prądu spadł o połowe i to dla ciebie jest mało?
odnosnie rv870 to ja widze ze na zdjeciu układ zklada sie z 4 kwadracików , zatem wygląda jakby układ był kompletnie inaczej zaprojektowany niz rv770.
obsługa dx11 i tesselator 6 generacji to jest pewnik ,ciekawe co zrobili z pozostałymi elementami bo napewno musia one byc choc troche podrasowane. oddzielny domain clock dla SP ? jakies sugestie?
- jakby mogli puszczac szadery oddzielnie (autor: Sajron | data: 4/06/09 | godz.: 16:32)
tak jak u Nvidii to np. z zegarem 1600MHz i niezmienionej ilosci SP 800 układ by miał 2.56TFlops! Niezle nie? ponad 2TFlops na 170mm2. :P
- no ludzie macie szanse teraz sie wykazac! (autor: Sajron | data: 4/06/09 | godz.: 16:35)
wyjmijcie teraz swoje szklane kule i powiedzcie jakie parametry bedzie miec ten układ?
- Promilus (autor: morgi | data: 4/06/09 | godz.: 16:44)
Nieistotne, kuriozalne, amd na targach juz promuje dx11, a wiec te zyski z dx10.1 to tylko specjalna optymalizacja pod wpadke ati z dx10.0, a dokladnie koszmarne spadki wydajnosci i fatalna jakosc przy aktywacji aa, af
- morgi (autor: dr1zzt | data: 4/06/09 | godz.: 16:51)
Te koszmarne spadki wydajnosci to wylacznie wina oprogramowania kart ati przez developerow gier, i ludzi odpowiedzialnych za catalysty. Skad wiem? Pracuje w tej branzy, i nie raz slyszalem jak nasi programisci od grafiki wkurwiali sie na problemy z atikami. Do niedawna bylo tak ze jak na nvidii chodzi, to ati mozna zlac - tez bedzie dzialac, a ze nie tak jak trzeba to niewazne, i tak wiecej ludzi ma dziforsa..
- @morgi (autor: Promilus | data: 4/06/09 | godz.: 17:06)
Heh, rozumiem że DX10.1 to ATI wymyśliło i jest to 'sztuczka'? Czyli GF obsługujący DX10.1 NIE będzie miał wzrostu wydajności? Bo jak będzie miał w tym trybie to oznacza, ze to wcale nie sztuczka, a realny wzrost wynikający z zastosowania nowszego API i układów je obsługujących, a nie żadne sztuczki. Oczywiście można to będzie sprawdzić w prosty sposób ... GT300 obsługujący DX11 obsługiwać musi także DX10 i 10.1. Uważasz że ten chip NIE będzie miał większej wydajności w trybie DX10.1? No pochwal się inteligencją :]
- heh (autor: Sajron | data: 4/06/09 | godz.: 17:48)
Nvidia teraz zaczyna wprowadzac dx10.1 cos co ATI ma już od 2 lat . ATI już bawi się z układami dx11 a Nvidia nie ma nawet dx10.1 :P morgi i kto tu gra pierwsze skrzypce?
- orłem nie jestem (autor: Wedelek | data: 4/06/09 | godz.: 18:08)
ale n-vidia nie wprowadziła dx 10.1 dlatego, że musiałaby sporo przeprojektować. Karty zielonych nie są tak podatne na rasowanie nowościami jak te od ATI.
Co do budowy jednostek, to jedni mają skalarne, a drudzy wektorowe.
http://www.pimpmycomp.net/index.php?id=art71
Ten skromny artykół nieźle opisuje tę sytuację.
- @Wedelek (autor: Promilus | data: 4/06/09 | godz.: 18:22)
Nie, przeprojektowania dużo wcale nie było, dlatego ATI zrobiło to 'mimochodem' przy przejściu na niższy proces produkcyjny. W końcu NV też przeprojektowała SP tworząc GF9600GT z 64SP który to realnie niewiele ustępuje starszemu bratu z blisko 2x większą ilością SP (112), a tym bardziej nie ustępuje 8800GS/9600GSO z 96SP.Prawda?
- @Promilus (autor: Wedelek | data: 4/06/09 | godz.: 18:26)
Wcale nie chodzi mi o to, że nie można, tylko że n-vidia nie chciała ponosić kosztów. To bardziej wynikało z jej zadufania. Choć rzeczywiście więcej rzeczy trzeba zmienić w dżiforsach żeby wprowadzić nowość niż w ATI. Oczywiście nie jest to żaden problem, jednak...
- Promilus (autor: morgi | data: 4/06/09 | godz.: 18:36)
Bedzie miec wyzsza wydajnosc ogolna? Co bedzie miec to okaze sie po premierze, bo teraz to znowu szklana kulke musialbys mi pokazac. Fakt jest taki, ze dx10.1 to znowu najkrotsza historia, ktora jesienia przechodzi do lamusa, a zatem jak to wypada w oczach swiata? tyle gier co palcow u reki, a papieru jakie to cuda pokaze bylo wiecej stron...
- @morgi (autor: Wedelek | data: 4/06/09 | godz.: 18:43)
I pokazało. Co prawda gier nie wiele, ale DX10.1 jest o niebo lepszy od DX10.
- @morgi (autor: Promilus | data: 4/06/09 | godz.: 18:59)
Ja piernicze, no co ty uważasz, że ATI zaimplementowało mikroskopijnego czarnego co jak wykrywa że gra jest DX10.1 to kręci klatkami szybciej? Przecież wzrost wydajności nie bierze się z tego, że nagle shadery dostają kopa, tylko dlatego że niektóre funkcje DX10.1 są wydajniejsze niż DX10.0 i ich implementacja w grze pozytywnie wpływa na wydajność. Jeśli zatem w GT300 NIE przyniósłby taki tryb większej wydajności, to w zasadzie i samo DX11 niewiele by mu pomogło, bo te API jest również jedynie rozwinięciem DX10 i 10.1 czyli korzystać będzie z tych samych funkcji. Wróżką nie jestem, natomiast wiem, że K8 z SSE3 w aplikacjach wykorzystujących to rozszerzenie jest szybsze od K8 z jedynie SSE2 ;)
- tak troche poza tematem (autor: Markizy | data: 4/06/09 | godz.: 20:06)
gierki z dx11 powinny działać lepiej na radkach ponieważ posiadają cześć optymalizacji które w nim się znajdą (o ile się nie mylę tak będzie), tak radeony maja realne szanse na zysk wydajności w dx11 w stosunku do GF obecnych.
Jeśli DX10.1 jest beznadziejne to dlaczego VIA go zastosowała w swoich kartach S3 Graphics Chrome? no chyba nie dla marketingu tylko dlatego że znacznie usprawnia działanie karty.
Co do układu na waflu to myślę że to nie jest rv870, tylko układ z niższej półki. Która może posiadać przykładowo 640SP
- a to taka ciekawostka (autor: Markizy | data: 4/06/09 | godz.: 20:19)
http://pclab.pl/news37018.html
- Też czytałem (autor: Wedelek | data: 4/06/09 | godz.: 20:55)
Szczerze powiedziawszy, to jeśli to prawda, to wielkie brawa dla intela. Myślałem, że będzie dużo gorzej.
- @Wedelek (autor: rainy | data: 4/06/09 | godz.: 21:06)
Gdyby faktycznie, wydajność była na takim poziomie to byłby dobry wynik.
Nie zapominaj jednak o sterownikach - z tymi sądząc po IGP, Intel ma poważne kłopoty.
A bez nich nawet najlepszy hardware jest niewiele wart.
Druga sprawa to wielkość - 700mm2 w 45nm to stanowczo za dużo - zapewne dlatego Intel wypuści Larabee w 32nm.
Dla porównania, GT300 ma mieć 495mm2 w 40nm - a przecież proces technologiczny Intela jest znacząco bardziej zaawansowany od tego stosowanego przez TSMC.
- Markizy! (autor: Sajron | data: 4/06/09 | godz.: 21:49)
ale o jakich taktach i ilosci rdzeni mowa? bo Larrabee bedzie w róznych wersjach.
np.
16rdzeni 1.5GHz= 768GFLops
24rdzenie 2GHz= 1536GFlops
32rdzenie 2.5GHz=2560GFlops.
GTX285= 1060GFlops.
więc nie mów mi że 32rdzeniowka z zegarem 2.5GHz ma wydajnosc GTX285 bo cię wyśmieje.
- Sajron (autor: Markizy | data: 4/06/09 | godz.: 22:05)
srututut, naucz się czytać, nie jest pozwiedzana która wersja, z jakimi taktowaniami wiec skąd ta pewność że to nie kuleje tak 32rdzeniowy intel w stosunku do GTX285 ? Cyferki cyferkami, a praktyka bywa różna.
- ciekawy artykuł (autor: Marek1981 | data: 4/06/09 | godz.: 22:15)
http://pclab.pl/news37018.html
- Sajron (autor: mandred | data: 4/06/09 | godz.: 22:19)
a wiesz gdzie możesz sobie te GFlops wsadzić?
Dla porównania 4870 ma 1200GFlops a jest słabszy od GTX285
- Markizy (autor: Sajron | data: 4/06/09 | godz.: 22:21)
ale jesli jest to rzeczywiscie 32rdzeniowa wersja to jest to katastrofa dla Intela.
GT300 ma byc 2-3x szybszy od GTX285. hm...
mówi się trudno no ale ja tam i tak jestem za ATI jeśli chodzi o grafy.
btw ten układ na zdjęciu to napewno jest rv870 bo po co mili by prezentowac lowenda jako szczyt technologii? Z rozmiarów rdzenia wynika że układ ma conajmniej tyle tranzystorów co rv770 wiec na rv840 mi to nie wygląda.
- @Sajron (autor: rainy | data: 4/06/09 | godz.: 22:27)
Dla morgiego, jesteś na pewno niepojętym zjawiskiem: wiebiciel Intela i ATI - bowiem jak można wielbić "wroga".
Co do Larrabee: czemu się tak ograniczasz, dlaczego by nie 64 rdzenie taktowane zegarem 4 GHz? :)
- Ktoś tu coś powtarza.. (autor: Adolph | data: 4/06/09 | godz.: 22:34)
Ale nie ważne... ja sie wtrące...
DX 11 a funkcje 10.1... na bank tak będzie. przyklad... stary Radeon 8500 :D jest pare gierek gdzie GF3 czy 4 nie zadziala, Stare dziFk FX'y.
Larabee, też może być niezly, a moze tez być wtopa, tak jak kiedyś z Parhelią 512, miała być super wyszła byle jaka... Co do przerobieniana DX10.1 układu NV i Ati już dawno było powiedziane gdzieś, że Nvidia musiałaby prawie od nowa stworzyc układ, a układ ATI właśnie się charakteryzował tym, że łatwo można go przerobić. Wbrew pozorom ROP to jeden z najważniejszych elementów GPU, 16ROP'ów pomału staje się zbyt małą ilością. Jak upchnąć więcej tranzystorów?? Z tego co wiem jest tylko jeden, zmiejszenie długości ścieżki między tranzystorami... co wychodzi na miejszy proces technologiczny...
- rainy (autor: Sajron | data: 4/06/09 | godz.: 22:37)
dla mnie ATI to oddzielna firma robiąca świetne grafy a Intel to firma robiąca świetne CPU. nie widze co tu takiego z wroga jest. o co ci chodzi z tym wrogiem?
- Sajron (autor: Markizy | data: 4/06/09 | godz.: 22:39)
bo już taki układ maja opracowany w 40nm, wiec tylko go dostosować do DX11. A dwa AMD/ATI pilnie strzeże swoich tajemnic (zapowiedzi radeonów 4800) wiec nie sadze że chcieli pokazać co naprawdę mają, bo można przypuszczać że rv870 będzie miał wydajność od 0,5-0,7 układu GT300.
- Tu chodzi... (autor: Adolph | data: 4/06/09 | godz.: 22:40)
O Morgiego...
- @Sajron (autor: rainy | data: 4/06/09 | godz.: 22:43)
Dla morgiego, AMD jest "wrogiem", więc przelewa swoje "uczucia" również na ATI (bo to jednak już jest część składowa AMD).
Nie sądzę, żeby GT300 był 2-3 szybszy niż GTX285 - choć zapewne, będzie wyraźnie wydajniejszy.
- No juz... (autor: Adolph | data: 4/06/09 | godz.: 22:43)
Prawie sety koment :P, jak zwykle, jeżeli chodzi o News o AMD :D
- Adolph (autor: Sajron | data: 4/06/09 | godz.: 22:49)
ale co tu morgi ma do rzeczy?
Markizy
architektura rv740 nie bedzie miec nic wspolnego z nowymi kartami dx11. rv870 to nowy design z oddzielnie taktowanymi szaderami kolego. :p
- Eh... (autor: Adolph | data: 4/06/09 | godz.: 22:51)
Jak niby stworzyć całkiem nowy układ w tak krótkim czasie??
- rainy (autor: Sajron | data: 4/06/09 | godz.: 22:52)
a Nvidia jest wrogiem Intela wiec co ma do rzeczy to że morgi jest za Nvidią?
- A co do Morgiego... (autor: Adolph | data: 4/06/09 | godz.: 22:52)
To była odpowiedz co chodzi z "wrogiem"
- Adolph (autor: Sajron | data: 4/06/09 | godz.: 22:54)
nie w krotkim, rv870 jest robiony od dobrych dwoch lat. tak samo jak teraz pewnie pracują już nad rv970 czy rv1000.
- @Sajron (autor: bmiluch | data: 4/06/09 | godz.: 22:58)
"ATI ma 3x więcej układów z wafla ale bez założenia strat czyli defektów.
np.
1.Nvidia ma uzysk 100 układów z wafla z czego 30% znich jest bez wad zatem ma 30 sprawnych układów.
2.ATI ma 300 układów z wafla z czego 90% z nich jest sprawnych co daje 270 sprawnych.
Jak widzisz uzysk jest 3x większy natomiast uzysk sprawnych układów 9x większy. :P
Czym większy rdzeń tym większe prawdopodobieństwo że układ natrafi na defekt."
Dobra, bez złośliwości. Interesuje mnie tylko samo rozumowanie.
W modelu uproszczonym wszystko sprowadza się do geometrii i prawdopodobieństwa.
Zacznijmy od punktu 2:
Jeżeli ATI ma 90% układów sprawnych z 300 to oznacza conajmniej 30 fizycznych defektów w krzemie.
Zakładając taką samą ilość 30 defektów na wafel u nVidi wychodzi, że 70/100 = 70% układów jest sprawnych.
Chyba 3x dotyczy zależności dla układów niesprawnych a nie sprawnych. To procent układów niesprawnych będzie 3x wiekszy.
Poza tym takie zależności ilości uszkodzonych układów są liniowe względem wielkości układów, gdy ilość defektów jest względnie mała. Przy wiekszej ilości defektów wzrasta prawdopodobieństwo, że kilka defektów wystąpi w jednym układzie i wtedy rzeczywista ilość odpadów będzie troche mniejsza dla nVidii niż to wynika z modelu liniowego.
(prawdopodobieństwo wystąpienie kilku defektów w 1 układzie jest większe dla wiekszych układów, w takim wypadku kilka defektów dyskwalifikuje mniejszą liczbowo ilość dużych układów niż ilość małych)
A tak na prawdę trzeba jeszcze uwzględnić to, że w konstrukcji układów jest pewna redundancja i nie każdy defekt dyskfalifikuje układ...
- @Sajron (autor: rainy | data: 4/06/09 | godz.: 23:00)
Odkąd szef Nvidii, wyraził się kilka razy pogardliwie o Intelu, to Nvidia jest już na czarnej liście u morgiego.
Z tym, że ATI jest zawsze gorsze bo od AMD.
- Sajron (autor: Markizy | data: 4/06/09 | godz.: 23:02)
z rv740 może mieć wiele wspólnego, bo będzie to układ na podobny segment rynku, a dwa skąd wiesz że AMD zdecyduje się na to żeby shadery były oddzielnie taktowane, narazie nic nie wiadomo, bo AMD podało tylko jak się układy nazywać będą i że będą zgodne z DX, i na tym się kończy, reszta to lewe przecieki i domysły serwisów.
I nie sadze żeby AMD oddzielnie taktowało shadery bo to by wymagało dodatkowej synchronizacji wszystkiego, a to może przynosić starty i zysk będzie nikły. Jak by mieli to zrobić to by to już dawno zrobili. Widocznie tutaj jest to nie opłacalne.
- rainy (autor: Sajron | data: 4/06/09 | godz.: 23:04)
według plotek GT300 ma byc właśnie 2-3x szybszy od GTX285 wiec larrabee nie będzie sie nadawac ani na highend gdzie bedzie mocno Nvidia dominowac ani na mainstrem gdzie ATI zmiecie wszystkich malutkimi układami. To było raczej pewne że larrabee bedzie miec ciezko z dedykowanymi grafami ale podobno intel zastosuje te larrabeee jako koprocesory do Sandybridga wiec wszystko jest nie stracone. Intel nie jest głupi. Jak karta nie przyjmie się na rynku GPU to zawsze jest rynek CPU.
- Taaak... (autor: Adolph | data: 4/06/09 | godz.: 23:06)
A czemu Intel mientolił tak długo PIV?? Jak zrobili Radziaka HD 2900, to juz robili Rv870, ale na 100%, nie od poczatku, bo dopiero stworzyli nową architekture... małe jest prawdopodobiestwo, że jeszcze raz zmienili architekturkę... Z Prockami jest podobnie, dodajesz rozkazy, szersze rejestry, wiecej pamieci cache, więcej Mhz, ale zanim zmienisz architekture mija z 5lat
- Markizy (autor: Sajron | data: 4/06/09 | godz.: 23:14)
r600,rv670,rv770,rv740 to jedna i ta sama architektura z róznymi ilosciami jednostek wykonawczych i malymi tuningami. trudno aby teraz kiedy pojawia się dx11 nie zrobili czegos nowego.3 lata to juz i tak sporo jak na jechanie na niezmienionej architekturze. czas na zmiany.
uwzam ze układ bedzie miec oddzielne taktowane szadery z racji tego ze ma małą powierzchnie, jakby dowalili znacznie wiecej jednostek SP to by nie osiągneli rozmiarów 170mm2.
- Nie trudno... (autor: Adolph | data: 4/06/09 | godz.: 23:18)
Ale bardzo możliwe... Może dziwny przykład ale Procek Phenom, obiecali, że dogoni Intela, że będzie nowy, a był to ten sam Proc tylko pozbawiony wad "starego"
- Sajron (autor: Markizy | data: 4/06/09 | godz.: 23:19)
tylko nikt nie wie co to jest naprawdę za układ na waflu.
- Markizy (autor: Sajron | data: 4/06/09 | godz.: 23:29)
Evergreen dx11 40nm model dla rynku mainstrem czyli albo rv870 albo rv840.
- Adolph (autor: Sajron | data: 4/06/09 | godz.: 23:37)
Phenom to podrasowany K8. Zupełnie nową architekturą robioną od podstaw ma byc dopiero Buldożer.
- O to mi właśnie chodzi... (autor: Adolph | data: 4/06/09 | godz.: 23:42)
Architekture robi się latami, a nie 3 lata i zmieniamy tylko dlatego, ze wyszła nowa Winda z DX11
- @Adolph (autor: rainy | data: 4/06/09 | godz.: 23:53)
Generalnie, masz rację, z tym, że w GPU zmiany są jednak szybsze w porównaniu z procesorami.
Opracowanie nowej architektury w przypadku CPU wymaga więcej czasu i nakładów finansowych.
Ideałem w związku z tym, (niezależnie CPU/GPU) jest taka, która daje się elastycznie modyfikować.
- @rainy (autor: Adolph | data: 5/06/09 | godz.: 00:33)
Zgadzam się, że GPU rozwijają się szybciej jak CPU, ale mi chodziło tylko o porównanie. A co do samego radziaka, na tym polega jego phenomen :D,czytałem gdzieś że można go łatwo przystosować przykładem może być właśnie chociażby wspomniany DX.
- Wydaje mi się (autor: Adolph | data: 5/06/09 | godz.: 00:41)
Że miała na to wpływ budowa VLIW, coś na wzór procków Transmety, które mogły się przystosować do różnych polecen które tłumaczyła na natywny kod vliw,ale mogę się mylic
- Sajron (autor: Markizy | data: 5/06/09 | godz.: 08:31)
i widzisz, sam nie wiesz jaki może być układ na zdjęciu, bo będzie jeden z tych dwóch :P a może się okaże że coś całkiem innego, wiec to co piszesz to sa tylko twoje przypuszczenia które się mogą w ogóle nie sprawdzić. A sam stawiam ze jest to gorszy układ, bo AMD zrobiło się od serii radeonów 4xxx bardzo tajemnicze , o czym zresztą mówiłem.
- @Markizy (autor: Promilus | data: 5/06/09 | godz.: 09:44)
Też przypuszczam, że nie jest to najsilniejszy model. Co do taktowania shaderów - tak Sajron, AMD może tak zrobić i w zasadzie byłoby to nawet słuszne posunięcie, gdyby nie fakt, że w 40nm trudniej zapanować nad prądami upływu bramki - co przy wyższych częstotliwościach ma ZASADNICZE znaczenie. Sam zresztą pisałeś o tym odnośnie naszej dyskusji nad bodajże Larrabee (TSMC kontra Intel). W HD4k wymyślili SidePort i teraz chyba nadeszła pora na jego wykorzystanie - moim zdaniem to jest metoda na podniesienie skalowalności kart wieloprocesorowych. A jak będzie się przekonamy za jakiś czas.
- O widze ze o Larrabee na podstawie (autor: morgi | data: 5/06/09 | godz.: 11:07)
plot mozna wszystko omowic. Jasne, jesli emulowany rendering na podstawie programowalnych w wiekszosci jednostek jest tak szybki, to biore w ciemno taka wrozbe. Emulacja Nvidii i amd gpu do uzytku w x86 jest nieobecna, a CUDA to emuluje HPC naprawde kiepawo.
- @morgi (autor: Promilus | data: 5/06/09 | godz.: 11:53)
Tak, pewnie dlatego klastry na Tesli są wykorzystywane do badań sejsmologicznych ;) Bo są kiepawe :D
- @morgi (autor: Promilus | data: 5/06/09 | godz.: 12:26)
Żeby nie być gołosłownym :
http://en.wikipedia.org/wiki/Acceleware
Wejdziesz na stronkę korporacji to też znajdziesz troszkę info :P Jak się plecie bzdury bez zastanowienia to potem tak jest.
HPC to nie x86 - to ogółem obliczenia wymagające wielkiej mocy przerobowej, której to x86 NIE MA ;)
- Obywatele udzielają się w dyskusji (autor: Gladzio | data: 5/06/09 | godz.: 13:06)
Przed wojną też dyskutowali...
xD
- ... (autor: Aamitoza | data: 5/06/09 | godz.: 14:22)
A Wy dalej porwadzicie jałowe dyskusje z Sajronem? :) Gdyby pokazali rdzeń o powierzchni 100mm^2 te powiedział by że jest to RV870, układ jest całkiem przeprojektowany, wydajnośc 2x większa niż RV770... Nikt nie ma tak dokładnej kryształowej kuli jak on :)
Swoją drogą, serwis Vr-zone zrobił zdjęcie karty na której puszczano demka technologiczne i jest ona dosyć mała że tak to ujmę, więc szanse, żeby był to RV870 są równie małe. ;]
- no i (autor: scoobydoo19911 | data: 5/06/09 | godz.: 14:41)
in4 czy gdzieś tam pisali że najbardziej możliwe jest że evergreen to rv840
- Promilus (autor: morgi | data: 5/06/09 | godz.: 15:45)
HPC nie buduja na x86? A to jakas nowosc, bo myslalem ze CUDA to taka nowosc w HPC, a budowanie cloud computing na bazie roznych farm obliczeniowych to nie nowosc.
- Promilus (autor: morgi | data: 5/06/09 | godz.: 15:48)
Moc obliczeniowa jaka ma GT200 to jest smiech, bo do powaznych obliczen stosuje sie pelen standard IEEE 754 a nie czesciowo symulowany..
- Chyba jednak mimo wszystko to były RV840 (autor: Wedelek | data: 5/06/09 | godz.: 15:53)
http://pclab.pl/news37028.html
Pomijając kwestię plotkarską newsa, to jednak wygląda na to, ze mają rację i to co AMD pokazała, to układ rv840, który bardzo możliwe, zej jest już w 100% gotowy i wyjdzie tuż przed rv870.
- Aamitoza (autor: Sajron | data: 5/06/09 | godz.: 16:29)
przechodząc z rv670 do rv770 ATI podwoiło wydajnosc swoich kart. myslisz że tym razem kiedy wprowadzą nowy proces 40nm i dx11 będzie gorzej? buhahaha dla mnie sprawa jest jasna nowa karta bedzie conajmniej 2x szybsza od rv770.
Mistrzu ATI mając karte rv840 musi miec tez i rv870 bo obie bazują na tej samej architekturze tylko z inną liczbą jednostek.
Myslisz ze by się bawili i pokazywali mainstreama a nie karte z segmentu performance rv870? to by było nie logiczne aby pokazywac gorsza kartę. zatem karta ta to rv870 i basta. wogole czy do karty pokroju hd4670 ładowali by podwojny system chłodzenia? lol oczywiscie ze nie.
- Promilus (autor: Sajron | data: 5/06/09 | godz.: 16:46)
może byc tak jak mówisz , sideport w dzisziejszych kartach jest nieuzywany zatem ATI zapewne go uzyje w nowej serii. Jest szansa że ATI bedzie teraz łaczyc czipy sideportem i ładowac konfiguracje kart z 2 a nawet 4 chipami to by w sumie tłumaczyło dlaczego próbuja robic małe czipy z 170mm2.
- @morgi (autor: Promilus | data: 5/06/09 | godz.: 17:00)
Tak, to gdzie jest ta precyzja rzeczywiście potrzebna. Doczytaj zanim się odezwiesz.
HPC to nie x86 - ten dobrze radzi sobie z kontrolą wątków - jest świetny jako procesor do systemu, natomiast NIE do obróbki znaczącej ilości danych.
Stąd też taka a nie inna konstrukcja Roadrunnera, zawierającego 2x więcej potężnych PowerXCell i8 bez ogromnego poboru energii oraz ~7 tysięcy opteronów - właśnie jako procesory główne - dzielące zadania i na których pracuje system.
Może AVX coś w tej sferze zmieni, ale chyba zdajesz sobie sprawę, że nie tylko intel opracowuje nowe technologie.
- @Sajron (autor: Adolph | data: 5/06/09 | godz.: 17:01)
Pewnie nie uwieżysz, ale nie wydaje mi się, że by miał być teraz postęp taki jaki był po przejściu z serii 3 na 4, ile można optymalizować pracę karty, nie mówie tu o driverach ale pracy samej karty, nawet jeżeli poprawią jedną rzecz to przychamuje ich druga zgodnie z Prawem Amdahla.
- Sajroniku :) (autor: Aamitoza | data: 5/06/09 | godz.: 18:11)
""zatem karta ta to rv870 i basta. wogole czy do karty pokroju hd4670 ładowali by podwojny system chłodzenia? lol oczywiscie ze nie.""
Jakie chłodzenie jest montowane na HD4770? :) nawet Ci z grzeczności odpowiem - Dwuslotowe.
Więc przestań pitolić od rzeczy jak masz w zwyczaju.
- Aamitoza (autor: Sajron | data: 5/06/09 | godz.: 18:58)
mistrzu masz problem z oczami czy co?
na zdjęciu widac wyraznie że karta jest dwusledziowa a obecne hd4770 maja jednego sledzia.
- Sajron (autor: Aamitoza | data: 5/06/09 | godz.: 19:04)
Referencyjny HD4770 ma 2 slotowe chłodzenie.
http://img.ktr.pl/g/gratir4770sap512/db.jpg zarówno ten (na którym producenci zmieniają naklejki), jak i ten ze zdjęć z prezentacji AMD. Przestań piepszyć od rzeczy już.
Jeżeli karta ma większą powierzchnię od hd4770, to chyba racjonalnym jest zastosowanie 2 slotowego chłodzenia. I wielkościowo karta ze zdjęcie jest też podobnych rozmiarów do HD4770 ;]
- Aamitoza (autor: Sajron | data: 5/06/09 | godz.: 19:22)
no jakoś nie widze aby karta na tym linku miała dwa sledzie. mam cos z oczami a moze rzeczywistosc jest nieobiektywna i widzimy dwie różne rzeczy? hahaha racjonalnym podejsciem jest zastosowanie 2sledzi do karty pokroju rv870
- sajron ... (autor: Aamitoza | data: 5/06/09 | godz.: 19:27)
Co mają DWA śledzie do 2SLOTOWEGO chłodzenia? Widziałem 2 śledzie w HD4670 a i w serii 8600. Więc nie rozumiem za bardzo pojęcia "dwa śledzie = highend ... hahah.
http://www.komputronik.pl/...CI_E_/pelny,id,71808/ zdjęcie nr 4 - karta zajmuje 2 sloty.
- hhaha ;) (autor: Aamitoza | data: 5/06/09 | godz.: 19:29)
o nie!
http://www.komputronik.pl/...CI_E_/pelny,id,57554/
HD4870 z jednym śledziem :o low end!
- swoimi stwierdzeniami ośmieszasz się strasznie ;) (autor: Aamitoza | data: 5/06/09 | godz.: 19:34)
http://www.komputronik.pl/...Sonic/pelny,id,55007/
9600GT ma 2 śledzie ... high end! :lol2:
- Aamitoza (autor: Sajron | data: 5/06/09 | godz.: 19:52)
dla mnie sprawa jest jasna 2 sledzie to karta o większej mocy a jeden sledz to lowend i nie pokazuj skrajne przypadki
karty pokroju hd4850, hd4770, hd4670 to karty jednosledziowe , hd4870 i hd4890 mają dwa sledzie zatem evergreen to karta dla highendu czyli rv870 :P
- sajron (autor: Aamitoza | data: 5/06/09 | godz.: 19:57)
jesteś jedynym człowiekiem na ziemii który ocenia po śledziach wydajność karty - gratuluje! Ja nei dałem skrajnych przypadków, tylko pierwsze lepsze przypadki. - często używając 2 slotowego chłodzenia dodaje się2 śledź, żeby część ciepłego powietrza uciekała poza obudowę i to jest sotykane we wszystkch możliwych konstrukcjach - nawet low endowych! ;]
Ja tam jak był bym takim fanbojem ATi bym się cieszył, że Rv840 bedzie wydajnym potworkiem (szybszym od RV770 zapewne) i bedzie miał rdzeń wielkości RV670. A dalej zostając na Twoim miejscu, marzył bym o tym, aby RV870 miał te ponad 200mm^2 i dokopał GT300 ;) Ale widzę, jesteś minimalistą :D
- Sajron (autor: Markizy | data: 5/06/09 | godz.: 20:09)
weź się zastanów co piszesz :P
4850 tylko referencyjne maja jedno slotowe chłodzenie (uwaga nie żadne śledziowe), pozostała większość maja chłodzenie które wykraczają poza jeden slot.
- Promilus (autor: morgi | data: 5/06/09 | godz.: 20:10)
Do obliczen HPC nadaje sie x86, sama o tym pisze Nvidia zajrzyj tu
http://http.download.nvidia.com/...r/TDCI_CUDA.pdf
od 20 strony zaczyna sie wyliczanie 'zalet' wobec SSE, a najciekawsza jest..23 strona, czyli zgodnosc z IEEE 752 klapa i dalszy stek kpin. Porownaj sobie mozliwosci FP-dp to nie bedzie taki slaby i86 wobec tych smiesznych gpu. Bedzie czas przy okazji wejscia LRB do obiegu o tym szerzej podebatowac, a teraz to CUDAczne promowanie nawet nie jest podliczane w dochodach Nvidii.
- Promilus (autor: morgi | data: 5/06/09 | godz.: 20:25)
'HPC to nie x86 - ten dobrze radzi sobie z kontrolą wątków - jest świetny jako procesor do systemu, natomiast NIE do obróbki znaczącej ilości danych.'
Jak to slabo sobie radzi, stosowna technologia typu SMT, z ktorej korzystaja inni ale nie amd i glowa mniej boli.
- @morgi (autor: Promilus | data: 5/06/09 | godz.: 20:51)
Ja pierdziele...nie dociera? Przecież SMT nie zwiększa możliwości obliczeniowych procesora! Możliwości te (teoretyczne lub najczęściej nazywane PEAK PERFORMANCE) wynikają tylko i wyłącznie z ilości i taktowania ALU/FPU. SMT to technologia pozwalająca na 1 rdzeniu równoległe uruchomienie więcej niż 1 wątku, ale nie zwiększa to magicznie przetwarzanych danych, a pozwala na efektywniejsze wykorzystanie ALU (czyli bliżej 100%), które to właśnie w większej ilości przy technologii CISC (i RISC tłumaczone z CISC) po prostu są NIEEFEKTYWNE.
W podanym przez ciebie dokumencie (a przejrzałem cały) nie ma NIGDZIE mowy o tym, jak to x86 niby nadaje się do zastosowań HPC.
http://www.top500.org/...igh_performance_computing
Radzę zwrócić uwagę (baczną) na punkt 4 i SPECIALIZED CPU, do których x86 nie należy.
- Dawać dalej Panowie (autor: Zbyszek.J | data: 5/06/09 | godz.: 22:59)
Jeszcze trochę i dobijemy do 200 komentarzy...
- Zbyszek.J (autor: Markizy | data: 5/06/09 | godz.: 23:37)
a jaki jest obecny rekord na twojepc w komentarzach ?? :)
- hmmm (autor: Zbyszek.J | data: 5/06/09 | godz.: 23:48)
w sumie nie wiem, ale na pewno jeszcze nigdy nie było więcej od 200...
- zbyszku (autor: Aamitoza | data: 5/06/09 | godz.: 23:51)
To bedie nowy rekord. Jeszcze tylko 50. wystarczy że Sajron wpadnie i zrobi się na pewno 50 bezwartościowych i pustych merytorycznie komentarzy.
- no coz (autor: Zbyszek.J | data: 5/06/09 | godz.: 23:54)
A czy ja napisałem że to będzie szczytny rekord? śmieje sie bo w temacie głównie tylko kłótnia...
- omg... moze ja też pomogę :P (autor: Simon89 | data: 6/06/09 | godz.: 00:01)
sam mam HD4670 z DWUśledziowym i jednocześnie DWUslotowym chłodzeniem, jednak to nie jest high-end. ilość śledzi nie ma znaczenia w patrzeniu jaką ta karta ma moc.
- Aamitoza (autor: Sajron | data: 6/06/09 | godz.: 00:34)
a widziales karty 4890 albo 4870x2 z jednym sledziem? albo 4650 ,4550, 4350 z dwoma? zastanów się co piszesz.
najlepiej aby był to rv870 i miał wydajnosc sporo wiekszą od rv770. :P wtedy by dokopał GT300 jak nie wydajnoscią to napewno ceną.
- sajron (autor: Aamitoza | data: 6/06/09 | godz.: 00:59)
"sam mam HD4670 z DWUśledziowym i jednocześnie DWUslotowym chłodzeniem, jednak to nie jest high-end. ilość śledzi nie ma znaczenia w patrzeniu jaką ta karta ma moc."
cytat z wypowiedzi zaraz nad Tobą ;)
2 śledź moze być dodany ze względu na konstrukcję chłodzenia.
- ... (autor: Aamitoza | data: 6/06/09 | godz.: 01:01)
Mam nadzieje, że ta mała padaczka ze zdjęcia nie bedzie miała nic wspólnego z RV870 i bedzie to jedynie jakiś kastrat.
- Aamitoza (autor: Sajron | data: 6/06/09 | godz.: 03:27)
mistrzu ale czy ty qrna nie rozumesz że karta która ma np. dwa sledzie jak w przypadku 4670 to jest przypadek jak jeden na 20, to jest wyjątek od reguły, kapujesz?
wiec nie robili by takiego czegos odrazu w przypadku tego układu co zaprezentowali na pokazie bo to nie miało by sensu :P
ta jasne kastraty by pokazywali jakby nie mieli czegos mocniejszego do pokazania :P wes wogole przestan majaczyc juz bo zaczynasz byc nudny.
- @Sajron (autor: Promilus | data: 6/06/09 | godz.: 07:52)
raczej coś innego - niereferencyjna konstrukcja :)
Referenty AMD:
HD4670 i (!!) 4850 - 1 śledź.
HD4870 - 2 śledzie.
W przypadku starszych konstrukcji też jakiś lepszych 'turbinek' nie dawali ani do lowendu, ani do klasy średniej, a jedynie do wyższej półki. Dodatkowo, jeśli chodzi o zupełnie nowe generacje produktów ATI wypuszczało zawsze te lepsze, a po pewnym czasie gorsze (czyli najpierw HD2900...po pewnym czasie 2600 i 2400, niektórzy pewnie pamiętają po ilu miesiącach od premiery HD48xx pojawiły się 46xx ). A jak rzeczywiście będzie to czas pokaże, nie ma co kłócić się gdy wszystko o czym piszemy to tylko domysły (kierowane pewnymi logicznymi zależnościami, ale jednak domysły).
- Sajron (autor: Gladzio | data: 6/06/09 | godz.: 10:57)
Idź sobie w coś zagraj, zamiast pierniczyć bzdury.
- @SAJRON PIEPRZYSZ STRASZNIE (autor: Wedelek | data: 6/06/09 | godz.: 11:50)
Prawie jak morgi. Z tym, że morgi nie wypowiada się tak często. Jeżeli chodzi o chłodzenie, to jak Ci to już niektórzy powyżej udowodnili nie ma żadnej reguly, która by mówiła, że co ma 1 slot chłodzenia,to low, a co 2 to high. Choćby mój GF9600GT jest dwu-slotowy, a co. High end?? NIE.
- Promilus (autor: morgi | data: 6/06/09 | godz.: 14:28)
Dlatego ze rynek HPC/data center jest malutkim odpryskiem wobec calego rynku serwerowego, wg Intela
to ledwie 10% dostaw workstations, a do 2012 zwiekszy sie max. do 25%. Wszystko jest pod kontrola, juz teraz po wejsciu Xeonow 55xx wszystko przeprowadza sie na ta platforme masz lekturke
http://news.cnet.com/8301-13924_3-10166803-64.html
http://www.hpcwire.com/...lem-42360237.html?page=1
- @morgi (autor: Promilus | data: 6/06/09 | godz.: 15:05)
Pewnie, gdzieś trzeba 4 tesle włożyć, dlaczego nie na płytę z i7 ;)
- @morgi (autor: Promilus | data: 6/06/09 | godz.: 15:26)
Zapomniałem dodać...tak jak w Roadrunnerze w większości podanych przez ciebie przypadków chodzi o systemy hybrydowe, gdzie:
1. szybkie QPI (25GB/s?)
2. 3 kanałowe DDR3 (biorąc pod uwagę 192bit @ 1333MHz to ~32GB/s)
są największymi zaletami, przebijającymi w tym przypadku nawet samą wydajność procesora.
Nie zmienia to jednak tego, że systemy hybrydowe działają po prostu lepiej (mniejszy pobór prądu, a większa wydajność). A dlaczego? Bo trudniej kontrolować jednocześnie platformę obliczeniową (dzielić wątki, magazynować wyniki itp.) i jednocześnie obliczać. Stąd podejście IBM wcale mnie nie dziwi - Opterony dzielą dane wejściowe między Celle, obsługują system, wyprowadzają i magazynują wyniki obliczeń którymi właśnie Cell się zajmuje - czystą matematyką. GPU może równie dobrze w IDENTYCZNY sposób być wykorzystane...wyłącznie same obliczenia. Czy OpenCL coś w tej mierze zmieni - może...ale dominacji x86 się nie spodziewaj, to tak jakbyś cały czas udoskonalał samochód i myślał że w końcu przegonisz samolot :]
Nie mistrzu, samolot ma latać, a samochód jeździć i tego nie przeskoczysz. Tak jak GPU może równolegle przetwarzać wiele danych, a CPU 'równolegle' przetwarzać wiele wątków. Danych niestety x86 równolegle zbyt wiele nie przetwarza.
- a tak przy okazji (autor: Promilus | data: 6/06/09 | godz.: 15:32)
http://nvision.pl/news-ext-13730.html
Czyli nie ma się o co więcej kłócić :)
//swoją drogą teraz wiem czemu dema wcale płynnością nie porażały :P
- Promilus! (autor: Sajron | data: 6/06/09 | godz.: 16:40)
proszę cię nie wklejaj tu tych bzdur.
zrodło tego newsa było od vrzone a oni wyraznie napisali :
"This card probably belongs to the mainstream segment (RV840), part of the AMD's DX11 Evergreen family."
Widzisz co napisali "prawdopodobnie" czyli zgadują a nie że są pewni a nvision napisało newsa jakby to był już pewnik.
"To co widzicie na tej niewyraźnej fotografii, to wczesna wersja inżynieryjna karty zbudowanej na bazie 40 nm układu RV840"
Smiech na sali jak oni przekrecają to wszystko.
- @promilus (autor: Simon89 | data: 6/06/09 | godz.: 19:02)
A pamiętasz odpalenie Alana Wake'a na pierwszych cztero-rdzeniowych procesorach? Prędkości tam uzyskiwane to było ledwie kilkanaście klatek/s przy procesorach które jeszcze nie wyszły. Tak samo może być z RV840... zobaczymy po premierze a ni9e teraz ganić ich za to że tylko 30 czy 40 klatek/s.
- @simon89 (autor: Promilus | data: 6/06/09 | godz.: 19:10)
jak się na targach pokazuje zalety DX11 w jakimś demku to warto by było żeby to było imponujące demko, mnie to natomiast na kolana nie powaliło.
- ajjj... (autor: Simon89 | data: 6/06/09 | godz.: 19:34)
może im w tym pomóż jeśli jesteś taki dobry. Dobrze że W OGÓLE coś pokazali (nVidia np nie pokazała NIC). Na kilka miesięcy przed premierą jeśli mają cokolwiek to i tak jest bardzo dobrze. Jeśli potrafisz to pomóż projektować im chipy.
- @simon89 (autor: Promilus | data: 6/06/09 | godz.: 19:44)
Jeśli te 89 to twój rocznik to musisz jeszcze trochę pożyć żeby ze mną podyskutować...
- Ulubione słowa papieża: (autor: Gladzio | data: 6/06/09 | godz.: 20:12)
Guanabanakumkwatpersymonasalak
- proponuje bana dla Gladzia (autor: Sajron | data: 6/06/09 | godz.: 22:06)
za obraze papieża. kto jest za?
- promilus... (autor: Simon89 | data: 6/06/09 | godz.: 22:09)
ja też nie będę dyskutował skoro nie ma z kim.
- Simon89 (autor: Sajron | data: 6/06/09 | godz.: 22:13)
układ jest za duży na rv840 , ATI przewaznie robi czipy w granicach 100mm2 to tego segmentu a nie odrazu 170mm2.
- @simon89 (autor: Promilus | data: 6/06/09 | godz.: 22:34)
Froblinsy pokazali w zwiazku z DX10.1, tesselacje w zwiazku z DX10.0, to tak realnie rzecz biorac CO pokazali w zwiazku z DX11 na Computexie? AI na compute shaderach? Przeglądając to co ma wnieść DX11 to w zasadzie oprócz tesselacji nie ma nic co poprawiałoby stronę wizualną ponad poziom DX10, za to jest kilka rozwiązań zwiększających wydajność poza poziom DX10.1, a tego właśnie na demkach AMD wcale nie widać. Jak jestem fanem (nie fanboyem - pseudokibicem) ATI, tak jestem też obiektywny z reguły. I niestety jak wcześniej napisałem, DX11 w wydaniu AMD to na Computexie tylko i wyłącznie marketing. My mamy chip a nvidia nie...szkoda że nawet głupie demo kiepsko działa, a przecież dema są OPTYMALIZOWANE pod konkretny sprzęt.
- eee (autor: Simon89 | data: 6/06/09 | godz.: 22:37)
tylko popatrz na to: ile kosztowały karty grafiki kiedyś... za kartę dość słabą trzeba było zapłacić 700-800zł, dzisiaj za taką cenę mamy bardzo mocną kartę. Tak samo może teraz zrobią: karty o powierzchni 170mm^2 będą należały do lowend-u. Wiem, gdybam... ale chcę zobaczyć to 200 postów :P
- Promilus... (autor: Simon89 | data: 6/06/09 | godz.: 22:45)
ja Cię dobrze rozumiem i wiem co chcesz pokazać. Dobrze mówisz: my mamy kartę a oni nie. Tak to jest marketing. Kiepsko zoptymalizowane? Mają na to czas... jakieś 4-5 miesięcy, a do tego mogą jeszcze dużo zmienić w samym GPU. Heh... DX11 nic nie wprowadził względem DX10.1, DX10.1 nic w stosunku do DX10, a z kolei DX10 tylko nieznacznie ulepszył grafikę względem DX9... ok rozumiem. Nie od razu Rzym zbudowano. Tak samo tutaj: DX11 będzie miał to co najlepsze miały poprzednie wersje a do tego wprowadzi nowości. Może na tym demku nie udało im się tego pokazać... ale... to ma znaczyć że to wszystko co wprowadzili/wprowadzą w DX11/HD5000 to nie jest krok do przodu? Stop.
- ... (autor: Simon89 | data: 6/06/09 | godz.: 22:50)
demko zoptymalizowane pod sprzęt który wyjdzie za 4 miesiące, to odpalone na DX11 który wyjdzie za jakiś czas, a do tego sterowniki które wyjdą za 4 miesiące... spartolili sprawę z HD5000... nie kupię tej grafy. | Taka jest Twoja postawa. Zastanów się chłopie.
- @simon89 (autor: Promilus | data: 6/06/09 | godz.: 23:13)
http://www.idg.pl/...dostepnia.DirectX.11.SDK.html
Zwróć uwagę na datę - to raz.
Dwa - pokolenie po Czernobylu to chyba w większej części ma nieco inaczej klepki poukładane, lubicie własne pseudownioski wciskać do cudzych ust. Nie, to ty zastanów się chłopie - skrytykowałem demo, i froblinsy, i morda z tesselacją.
A jeśli nie wiesz co to demo technologiczne i co powinno reprezentować...to jakże mi przykro. Obejrzyj sobie na YT dema scenowe z A1200 i zobaczysz ile można wycisnąć z tak starego sprzętu - dema technologiczne wyciskają mniej, ale mają dokładnie to samo zadanie - pokazać zalety danej architektury. A w zasadzie żadne z dem nie pokazało atutów HD5k, bo to wszystko już BYŁO. Nie rozumiesz - nie dziwię ci się, jak nasz profesorek mawia, inżynierowie z nowej matury nie będą w stanie całki policzyć...
- ale jak by nie patrzyć (autor: Markizy | data: 7/06/09 | godz.: 09:57)
to DX11 oficjalnie chyba na rynku nie ma, bo zadebiutuje z win7, a od strony programowej może sam M$ poprawić, a AMD od strony sterowników.
- Ano w październiku (autor: Wedelek | data: 7/06/09 | godz.: 11:07)
...dopiero ujżymy finalną wersję dx11. Dokładnie 22. Mają zatem dość sporo czasu na poprawki. 5 miechów. Co do samej przezentacji, to cóż. Miała ona na celu jak mniemam samo pochwalenie sie gotowością dla wsparcia niż ukazywanie wielkich różnic, które notabene są już coraz trudniejsze do zauważenia. DX11 zresztą miał głównie z tego słynąć, że obsługuje w sposób pełny wiele rdzeni graficznych. Obecnie z tą obsługą bywało różnie. Także przez trudności natury programistycznej.
PS jeszcze tylko 21 postów do 200:P
- Wedelek (autor: Markizy | data: 7/06/09 | godz.: 11:54)
to tak jak myslałem że jest z tym DX11:))
już teraz tylko 20 :D
- heh... (autor: Simon89 | data: 7/06/09 | godz.: 16:10)
ja Ci nie mówię jaki to Ty jesteś i kiedy się urodziłeś a co dopiero co potrafisz czy umiesz... bez takich wstawek proszę.
Wiesz co mi powiedz... co chciałeś zobaczyć na tych demach? Grafikę lepszą niż w Crysis-ie? Fizykę lepszą niż w Half-Life? Lepszą obsługę SI (AI)? Co jeszcze oprócz tesselacji chciałbyś tam zobaczyć? Jakieś cuda? (bez skojarzeń do CUDA nVidii)
- @simon (autor: Promilus | data: 7/06/09 | godz.: 16:58)
Co chciałbym zobaczyć? Coś innego niż widziałem do tej pory.
http://www.youtube.com/...17tM&feature=related
"Co ci przypomina, co ci przypomina, widok znajomy ten?"
I słusznie coś przypomina, bo tym się AMD chwaliło już przy okazji DX10.1 już ładne pare miesięcy temu
A to:
http://www.youtube.com/watch?v=SgQj4JRgMo0
przy okazji wydania R600 (HD2900).
Co chciałbym na demie DX11 zobaczyć? np. różnicę w obciążeniu procesora (4 rdzeniowego) w DX10 i DX11 - tak, to jest jedna z nowości - prawdziwy wielowątkowy rendering. Co jeszcze? AVIVO wykorzystujące Compute Shadery, Havoka wykorzystującego Compute Shadery...tak, po usunięciu kilku bibliotek z systemu (amdcalcl calrt itp.) by nie było wątpliwości, że to leci przez DXa a nie Streama.
- A ja chciałbym zobaczyć (autor: Wedelek | data: 7/06/09 | godz.: 17:36)
2 mainstreamowe karty, które razem ze sobą współdziałają i oddtwarzają w 100% płynnie skomplikowaną grafikę w takim np crysisie. (oczywiście crysis nie obsługuje dx11).
- Sajron (autor: Aamitoza | data: 7/06/09 | godz.: 20:31)
"układ jest za duży na rv840 , ATI przewaznie robi czipy w granicach 100mm2 to tego segmentu a nie odrazu 170mm2."
ale AMD nie robi high endu o takiej powierzchni. RV670 - egment średni - powierzchnia około tych 180mm2. Segment średni/wyższy - RV770 - 260mm2. Węc nic nie wskazuje na to, zeby ukłąd w tym segmencie miał te 170mm2.
- Zgadzam się (autor: Wedelek | data: 7/06/09 | godz.: 21:07)
ale pewnie zaraz sajron zacznie oponować. Prawda jest jednak taka, ze chip wydaje się zbyt małym, by był rv 870. No chyba, ze ATI planuje połączyć i skoordynować kilka chipów o wydajności rv790 pod kontrolą dx11. Ale to raczej nie możliwe.
- ... (autor: trepcia | data: 7/06/09 | godz.: 22:27)
Chyba do 200 komentarzy nie dojdzie... No ludzie, kłóćcie się dalej ;-)
- hm... (autor: Simon89 | data: 7/06/09 | godz.: 22:45)
pamiętacie jak kiedyś się mówiło że HD5000 będzie się składało z kilku GPU? Może to prawda i tak będzie.... a więc jeśli jeden taki GPU wycisnął 40fps to 4 takie GPU wyciśnie jakieś 100-160 fps... przy założeniu że DX11 rozwiąże problemy multiGPU
- @Simon (autor: Wedelek | data: 7/06/09 | godz.: 22:58)
No cóż. Jeśli myślisz o rozwiązaniu problemu micro-cośtam, co charakteryzowało się przycinaniem grafiki mimo wysokich fps, to mam duże nadzieje na poprawę.
Ale mimo wszystko nie chce mi sie wierzyć, ze ATI pójdzie tą drogą. Chociaż całkiem możliwe, ze rv870 będzie całkiem inne niż rv770/790
- @trepcia (autor: Wedelek | data: 7/06/09 | godz.: 22:59)
Jajestem już gotów nawet wespół z Tobą robić offtopa dla takiego rekordziku:P Tym bardziej, ze jeszcze tylko 11 postów:)
- @Wedelek (autor: Promilus | data: 7/06/09 | godz.: 23:08)
microstuttering jest bodajże efektem stosowania AFR - gdzie GPU1 musi czekać aż GPU2 swoją klatkę obrobi i vice versa - w specyficznych przypadkach tak opóźnienia się nawarstwiają że gra 'przycina' mimo wysokiego framerate. Już pisałem o tym - multigpu nie ma większych szans rozwoju przy aktualnej technologi....coś a'la hydra (dedykowany sprzęt do podziału sceny i monitoringu obciążenia rdzeni graficznych), albo zupełnie nowe metody renderingu przy zastosowaniu wielu procesorów. Chociaż osobiście stawiałbym na to pierwsze, bo da się uzyskać naprawdę niezłą skalowalność wraz ze wzrostem ilości układów. I to nawet heterogenicznych.
- Hm.. (autor: Wedelek | data: 7/06/09 | godz.: 23:15)
Nie wiem jak to będzie, ale multi gpu mogłoby póść w inną stronę. Jedno GPU do grafiki, jedno do fizyki.
- ... (autor: Simon89 | data: 7/06/09 | godz.: 23:53)
no a nie da się jakoś tego pominąć, tzn żeby oba GPU obrabiały klatki jednocześnie? Bez wzajemnego czekania?
- ... (autor: Simon89 | data: 7/06/09 | godz.: 23:55)
trzeba inaczej skonstruować chipy żeby to działało dobrze?
- Simon89 (autor: Aamitoza | data: 8/06/09 | godz.: 00:31)
Da się tak zrobić, ale ekran jest dzielony na 2 częsci - lewa dla jednego GPu, prawa dla drugiego (lub góra/dół) ale zauważ, że jedna część obrazu moze być bardziej skomplikowana od drugiej i z tego powodu takie rozwiązanie nie sprawdza się zbyt dobrze. Ostatnio były sporo wzmianek o "hydrze" osobnym układzie który rozdzielał by obraz (a dokłądniej nie sam obraz, a całą scenę) na poszczególne rdzenie tak aby ich obciązenie było bliskie 100%.
- @Aamitoza (autor: Promilus | data: 8/06/09 | godz.: 03:30)
Dokładnie o tym właśnie pisałem. Przy czym gdybyś miał np. HD4670 i 4890 to TEŻ by działało - po prostu słabsza karta dostawałaby mniejszą część do roboty. Baaa, wg założeń producenta (Lucid) można by stosować i radeony, i geforce naraz. Niestety - zawsze jest jakiś haczyk - dodatkowy układ jest o wiele bardziej skomplikowany niż NF200, przez co też i wiele droższy. Ale za to będzie też jeden problem mniej - pamięć - w takim przypadku rzeczywiście będzie się sumować.
- Aj, zamiast spać, to na forum siedzicie:P (autor: Wedelek | data: 8/06/09 | godz.: 08:25)
A co do 2 GPU, to dziwi mnie czemu jeszcze ATI, czy N-vididia nie montuje na swoich układach drugiego, małego rdzenia, kttóry by tylko odpowiadał za liczenie fizyki. To nie byłoby takie drogie rozwiązanie. Taki układ nie musiałby być bardzo silny. Wystarczyółby chip rv840np. Przez montowanie tego na jednej PCB, jedna szyna z nieco większą przepustowością + nieco więcej pamięci dla tegoż układu. Choć całkiem możliwe, ze są jakieś problemy natury hardwareu. Choć nie bardzo wiem jakie, bo przecież te 2 układy mogłyby być separowane, więc czemu nie??
- W końcu DX11 pomoże:D (autor: Wedelek | data: 8/06/09 | godz.: 08:48)
http://pclab.pl/art37055.html
Obsługa 4 rdzeni do liczenia informacji do obsługi GPU, w końcu tesselacja i koniec Physixa. Jeśli to wypali, to AMD rulez. w końcu mają więcej doświadczenia w tesselacji.
- ... (autor: trepcia | data: 8/06/09 | godz.: 11:22)
Mam nadzieję, że coś ruszy w multi-gpu. Wielkie i bardzo skomplikowane GPU powinno odejść w niepamięć, zespół kilku specjalizowanych jednostek to jest to :-) Bo jak to mówią, jak coś jest do wszystkiego to jest do niczego.
- @trepcia (autor: Marek1981 | data: 8/06/09 | godz.: 11:52)
Ja też mam taką nadzieję. Jak to się potwierdzi może dojść do nokautu. Nvidia nie jest w stanie teraz robić multigpu ponieważ ma za duże chipy.
- 200 (autor: trepcia | data: 8/06/09 | godz.: 13:13)
Dobra, jest 200 :D
- Trepcia, Marek (autor: Aamitoza | data: 8/06/09 | godz.: 15:51)
Nie znacie się. Specjalizowane jednostki to kupa, bo intel tak uważa, więc Sajron tak uważa a jak on tak uważa, to jest to prawda objawiona!
- a tam (autor: Wedelek | data: 8/06/09 | godz.: 16:26)
Sajronowi trzeba wybaczyć. Jego szklana kula ostatnio coraz gorzej funkcjonuje:D
Te wyspecjalizowane jednostki to naprawdę przyszłość. Pewnie gpu pójdą tą samą drogą co CPU.
- Aamitoza! (autor: Sajron | data: 8/06/09 | godz.: 17:02)
mistrzu prawdziwie objawiony czy ty nierozumiesz że to bedzie układ rv870 a nie rv840/830.
segment performance:
rv670-192mm2
rv770-256mm2
segment mainstream:
rv635-118mm2
rv730-146mm2
rv740-137mm2
teraz zastanów się gdzie bliżej pasuje te 170mm2? bo dla mnie to jest to segment performacne :p
146mm2-170mm2-192mm2.
widzisz o 2mm bliżej jest układu rv670. :P
uff było blisko a bys wygrał. :p
- @Sajron (autor: Marek1981 | data: 8/06/09 | godz.: 17:59)
Myśle że to bedzie mainstream wydajniejsze od obecnego performance:)
Tak byłoby najlogiczniej
- sajrom... włącz proces który większość ludzi nazywa logicznym myśleniem ;) (autor: Aamitoza | data: 8/06/09 | godz.: 18:24)
segment performance:
rv670-192mm2
... hahahah ... :D nie rozśmieszaj ludzi. Ta kart nie byłą demonem wydajności. Mainstream to te 200-250mm2. W ogóle rozrzut pomiędzy rozpiską Twojego segmentu performance, to ponad 60mm2! A pomiędzy mainstreamem ledwo 30. Więc do czego bardziej pasuje 170mm2? do 256, czy do 118? (weźmy skrajności)
- Kłócić nie mam się zamiaru (autor: Wedelek | data: 8/06/09 | godz.: 18:50)
ale na zdrowy rozum nie pasuje mi rozmiar tego chipu do rv870. Po prostu jest za mały.
- Aamitoza! (autor: Sajron | data: 8/06/09 | godz.: 19:01)
ahahaa mistrzu ale rv870 to jest układ 40nm.
porównywanie układów 55nm do 40nm mija sie z celem. jakby rv870 był wykonany w 55nm to by miał z 270mm2. :p
dzieki procesowi 40nm ATI bedzie miało teraz mniejsze układy i :
rv870 bedzie 170mm2.
rv830 bedzie 100-140mm2.
rv810 bedzie 60-90mm2.
całkiem logicznie to wygląda , co nie? :p
>200mm2 to ja zostawiam na układ rv890.
- Sajron (autor: Wedelek | data: 8/06/09 | godz.: 19:10)
nie wydaje mi się aby to miało wystarczyć, chyba, ze ATI planuje zrobić przełomowe multi gpu.
- Wedelek! (autor: Sajron | data: 8/06/09 | godz.: 19:27)
Wystarczec na co? Według mnie to jest nawet za dużo jak na dzisiejsze kotlety ze strony Nvidii.
W dodatku Nvidia jest w polu ze swoim GT300 nie wspominając o jego kastratach. Do czasu pojawienia się GT300 i jego kastratów ATI zdąży wypuscic rv890.
- sajron (autor: Aamitoza | data: 8/06/09 | godz.: 19:34)
skąd masz kryształową kulę? ;>
Jaka jest logika w tym, aby wydawać RV870 jako układ o podobnej ilosci tranzstorów do obecnego?
popatrz na przykład chociaz by tego rv670 i rv770 - różnica jest i to około 40%. Więc Teraz powinni zachować powierzchnię 250mm2 przy zwiększonej dosyć znacznie ilości tranzystorów. - to było by najbardziej optymalne wyjście, a nie wydawanie rv870 który jest... mocno spokrewnionym z rv770 kotletem z dopiskiem dx11? To nie nvidia Sajroniku, aby wydac kotleta z nowa nazwą ;)
- @Aamitoza (autor: Promilus | data: 8/06/09 | godz.: 19:51)
A jaki jest sens zwiększania ilości SP (i ilości tranzystorów) skoro można zwiększyć ich taktowanie i mieć mniejszy chip a wydajniejszy?
- no tak (autor: Wedelek | data: 8/06/09 | godz.: 20:01)
.. ale nie da się tego robić w nieskończoność. Zresztą ATI często popełniało błędy, ale nie takie.
Zresztą przekonamy się we wrześniu. ja obstawiam, ze zaprezentowany chip albo będzie w duecie działać albo to nie jest pełny rv870.
- Promilus (autor: Aamitoza | data: 8/06/09 | godz.: 20:04)
A wiesz, że zwiekszenie taktowania nie zwieksza wydajności w sposób liniowy?
Tego układu nie trzeba tak dopakowywać w SP, bo już jest ich i tak dosyć dużo. Z resztą taktowaniem SP dużo nie zrobisz w tej sytuacji, skoro nie jest to słaby punkt rv770.
- Promilus (autor: Sajron | data: 8/06/09 | godz.: 20:06)
no właśnie! Aamitoza wydaje się o tym nie wiedziec że głowny koncept przy projektowaniu chipów to jest własnie koncept projektowania jak najwydajniejszych chipow przy jak najmniejszym budzecie tranzystorów. :P
- Aamitoza (autor: Sajron | data: 8/06/09 | godz.: 20:10)
mistrzu a jaki jest słaby punkt rv770? :P
- @Aamitoza (autor: Promilus | data: 8/06/09 | godz.: 20:58)
Taaa, a dodawanie jednostek niby zwiększa wydajność w sposób liniowy?
http://en.wikipedia.org/wiki/Amdahl%27s_law
Proszem cię bardzo...widać że i jedno, i drugie nie powoduje liniowego wzrostu wydajności. Natomiast to z czego ty musisz zdać sobie sprawę, to fakt że im więcej tranzystorów - tym większa powierzchnia (a SP zajmują jej naprawdę całkiem sporo) a im większa powierzchnia tym większe koszta. A opracowywanie chipu jest jak funkcja wielu zmiennych gdzie jedną jest koszt, kolejną wydajność...i trzeba znaleźć taki punkt gdzie koszt->min, a wydajność do->max, a wierz mi że to nie będzie ten punkt gdzie wydajność=max.
- słabe punkty? (autor: Aamitoza | data: 8/06/09 | godz.: 20:59)
Prosze bardzo - Teksturowanie i filtrowanie anizotropowe. To są rzeczy do poprawienia w tym układzie. Jedna jak i druga rzecz nei jest kompletnie zalezna od jednostek cieniowania, więc zwiekszenie częstotliwości wiele nie da w grach gdzie teksturowanei jest bardzo ważne (np. stalker).
- Promilus (autor: Aamitoza | data: 8/06/09 | godz.: 21:04)
Jaka wydajnośc do maksimum? Co da zwiekszenie częstotliwości SP jeżeli nie one zatykają karte? - wydajność zwiekszy sie, ale nie tak jak mozna by się tego spodziewać.
- mimo wszystko (autor: Wedelek | data: 8/06/09 | godz.: 21:22)
... nie można zwiększać wydajności przez zmianę taktowania tylko. To dobry sposób gdy mamy już wydajny chip i chcemy z niego wyciągnąć jeszcze więcej i sprzedać drożej. Jak choćby rv790 w stosunku do rv770. Aler nie jest to dobry sposób na projektowanie nowej rv-ki. No chyba, że ATI zrobi coś super rewolucyjego i stąd tak mała ilość. Ale takie "cuda" to się naprawdę bardzo żadko zdarzają. Jeyne co wg mnei może mieć ręce i nogi, to robienie multi gpu. Ale z tym są jak wiemy spore problemy i raczej AMD takiego ryzyka nie podejmie, chyba, ze mają nie tyle asa, co jokera w ręce, który zmieni nasze zapatrywania na GPU.
- Aamitoza! (autor: Sajron | data: 8/06/09 | godz.: 22:05)
mistrzu układ taktowany z wyższą czestotliwoscią skaluje się liniowo o ile nie ograniczają go inne komponenty.
ja bym się bardziej martwił o ilosc procesorów niż o czestotliwosc gdyż czym więcej jednostek tym bardziej musi byc sparalelizowany kod a jak wiadomo w nieskonczonosc kodu się dzielic nie da i stąd te ograniczenia w liniowosci. :p
taaa powiedz to inżynierom ATI żeby doładowali więcej TMU. hahaha jakby układ ograniczały TMU to by zwiększyli stosunek SP/TMU. kiedy przechodzili z rv670 do rv770 stosunek ten pozostal taki sam(5:1). zatem TMU nie ograniczają układu mistrzu. :p
- sajron... popatrz najpierw na testy? :) (autor: Aamitoza | data: 8/06/09 | godz.: 22:22)
W większości gier radeon HD4850 daje bęcki wszelkiego rodzaju 9800GTX/8800GTS, a w grach takich jak stalker, gdzie teksturowanie jest jedną z ważniejszych rzeczy, dostaje często po dopie od 8800GT a nawet 9600GTO/GT! Więc swoje stwierdzenia "zrobili by" możesz sobie wsadzić ;) R600 tez zrobili by, żeby AA działało sprawnie, ale nawet po przejściu na RV670 nie zrobili z tym nic. Dopiero w RV770 przebudowali ropy.
Co z tego, że stosunek nie został zmieniony? Nie został zwiększony i z wydajnością jest jak jest w takich okolicznosciach. Kolejna już seria radeonów nie domaga w teksturowaniu, więc czemu się dziwisz?
- @Aamitoza (autor: Promilus | data: 8/06/09 | godz.: 22:33)
No nie rozbrajaj mnie. Zwiększając liczbę TMU musieliby zwiększyć liczbę SP - dlaczego? Bo doszli do optymalnej liczby ROP:TMU:SP i każdy inny stosunek po prostu zrąbałby układ. Co za tym idzie...koszt tranzystorów. Filtrowanie? A gdzie niby widzisz problemy z filtrowaniem anizotropowym? To, że gdzieś przy okazji któryś 'katalizator' wyłączył nie znaczy że to układ ma jakiś problem - bo nie ma.
>>http://www.in4.pl/..._id=526&rectr_str_numer=3
Teraz pokaż gdzie te TMU tak strasznie ograniczają wydajność (HD4890 ma 2x mniej ROP i TMU, i 1.31x większy zegar...co daje teoretycznie 65% wydajności GeForce GTX285 podczas gdy rezultaty gry wskazują że wydajność Radka to 81-90% wydajności GTX285 - i gdzie tu słabość architektury!!??)
- @Aamitoza (autor: Promilus | data: 8/06/09 | godz.: 22:35)
nie porównuj starego 8800GT z 56TMU na 16ROP czy 9800GTX z 64TMU na 16ROP z nowymi konstrukcjami mającymi max 2,5-2,66x więcej TMU niż ROP (GT200).
- Promilus (autor: Aamitoza | data: 8/06/09 | godz.: 22:51)
http://www.egielda.com.pl/?str=art&id=4311-18
najpierw masz testy w crysis dx10 z Anizo w których 4850 dostaje becki od 9800GTX'a/8800GTS'a i ledwo radzi sbie z 8800GT, a po wyłączeniu anizo... magia! (albo inaczej rezygnacja ze słabego filtrowania radeona) radeon jest nawet szybszy od 8800Gts'a!
A teksturowanie? Prosze bardzo, lecimy - GRAW2
Radeon HD 4850 - 51.8FPS
Radeon HD 3870 - 44.7FPS
GF 8800 GT - 60,0FPS
Różnica między jednym jak i drugim radeonem dosyć mała, a RV770 jak widac jest słabszy nawet od 8800GT - powód? słaba wydajnośc TMU (z resztą te 40tmu dziwnym sposobem mają wydajność 32TMU jeżeli patrzeć na syntetyki).
Zobacz sobie jeszcze na stalkera i mapę "bar"
Radeon HD 4850 27.0 FPS
Radeon HD 3870 12.4 FPS
GF 8800 GT 33.9 FPS
W większości gier po włączeniu AFx16 wydajność spada znacznie w porównaiu do spadku na GF. A TMU albo dopakują, albo zwiększą ich ilość.
Kto Ci powiedział, że doszli do "optymalnej liczby"? Nie ma czegoś takiego jak optymalna liczba jezeli układ zaczyna się dławić w niektórych sytuacjach.
- @Aamitoza (autor: Promilus | data: 8/06/09 | godz.: 23:14)
super...test z 2 tygodni po wypuszczeniu radka na jego pierwszych sterownikach :)
http://www.tomshardware.com/...ysis-v1.21,753.html
Hmmm...cuda? Magia?
Jak już wspominałem...rodzinka G80 miała to do siebie że była PRZEŁADOWANA jednostakmi teksturującymi, czemu nie pokażesz testów jak...HD4890 kontra jego cenowy konkurent GTX275? Nowe karty.
http://www.tomshardware.com/...Fallout-3,1173.html
oraz
http://www.tomshardware.com/...Fallout-3,1171.html
Patrz, AA i AF i nagle GF8800GT nawet z 1GB RAM dostaje taki strzał że odpada z porównania. Kolego - mało jeszcze wiesz, a na podstawie 2 gier chciałbyś wnioski snuć. Przez dłuższy okres czasu w Gridzie karty NV nie mogły nawiązać konkurencji z Radeonami...a co teraz? Nagle architektura z kiepskiej za sprawą sterowników zmieniła się w wydajną? Nie ma ABSOLUTNIE żadnego problemu, ani z AA, ani z AF ani z wydajnością teksturowania - to tylko twoje zupełnie błędne wnioski.
- Promilus (autor: Aamitoza | data: 8/06/09 | godz.: 23:27)
Błędne wnioski wyciągasz jedynie Ty, skoro uważasz, że zwiekszenie taktowania SP zdziała cuda.
Co ma cenwy konkurent do słabości architektury? Zauważ że w tym crysisie jest włączone AA dodatkowo, które na radeonach powoduje mniejszy spadek wydajności z powodu przebudowanych ropów w stsunku do serii 3xxx. A ja mówiłem o samej wydajności AF.
Ja wnioskuje to na podstawie 3 gier, które obnażają słabaści architektury. Mogę pokaać że w kilku radeon wypada znacznie lepiej, ale po co? Jak gra wykorzystuje bardziej SP wtedy radeon bedzie radził sobie świetnie, ale jak przychodzi zabrac się za wydajne teksturowanie (a SP tutaj nie pomogą) radeon zaczyna siędławić.
Sztuką nie jest pokazac w czym radzi sobie lepiej, sztuką jest doszukac się słabości architektury które nadają się do poprawienia.
- heh (autor: Promilus | data: 8/06/09 | godz.: 23:48)
Nie dociera, oj nie dociera. Pokazałem ci na przykładzie FALLOUTA 3 że w tym tytule włączenie AF 15x powoduje że wszystkie te twoje bożki w postaci GF8800Gt i 9800GTX nagle dostają w dupsko, albo inaczej - spadek wydajności jest na nich większy. I co z tego wynika? Zgodnie z twoim tokiem rozumowania, że AF jest na geforce słabe i gra obnaża słabość architektury. A to pierwszy lepszy przykład przecież...
http://www.tomshardware.com/....E.A.R.-2,1179.html
http://www.tomshardware.com/....E.A.R.-2,1180.html
Hmmm. Kolejny przykład...ja piernicze, normalnie niemożliwe...
- Aamitoza! (autor: Sajron | data: 9/06/09 | godz.: 00:07)
nie ośmieszaj się. dajesz linka z egieldy gdzie testowali kartę na pierwszych sterach.
policz sobie ilo to wersji sterownikow wyszlo do tego casu. w dodatku ten portal jest czysto fanboyowsko nvidowski, kto wie moze i grzebali jeszcze w ustawieniach aby spreparowac wyniki na niekorzysc ATI.
pozatym zobacz sobie na te testy:
http://www.xbitlabs.com/...eon-hd4890_9.html#sect3
w grach stalker , crisis etc Radeon 4890 z właczonym AF16x nie ma najmniejszych problemów z rozwaleniem nawet GTX285 o 8800GTS niewpominając bo ten do daleko w tyle jest pomimo większej ilosci TMU od Radeona.
- jesteś kurwa niereformowalny. (autor: Aamitoza | data: 9/06/09 | godz.: 00:09)
Napisałem że po włączeniu AA Radeony tracą mniej od GF które po włączeniu AA tracą dośc dużo w stosunku do radeona? A dajesz cały czas porównanie bez upiększaczy -> AA I AF. Znajdź coś gdzie bedzie samo AF bez AA to wtedy pogadamy o "braku słabości" tej architektury.
- safron (autor: Aamitoza | data: 9/06/09 | godz.: 00:13)
"w dodatku ten portal jest czysto fanboyowsko nvidowski, kto wie moze i grzebali jeszcze w ustawieniach aby spreparowac wyniki na niekorzysc ATI."
Zniszczyłeś wszystko tym zdaniem... ahahahahaha :D
ps.
e. We use the Enhanced full dynamic lighting (DX10) mode for our test and additionally enable the DirectX 10.1 mode for the ATI cards.
Czytaj zanim zabłyśniesz głupotą. Od dawna wiadomo, że DX10.1 dużo dale na kartach ATi. Więc nie udało Ci sie zabłysnąć i udowodnic, że AF i teksturowanie na radeonach nie jest z dupy ;]
- ... (autor: Aamitoza | data: 9/06/09 | godz.: 00:14)
Swoją drogą poczekajmy i zobaczymy kto miał więcej racji ;]
- Aamitoza (autor: Sajron | data: 9/06/09 | godz.: 00:28)
to ty jestes niereformowalny . tak trudno ci zrozumiec ze po właczeniu 16AF Radeony nie mają najmniejszych problemów z rywalizowaniem z topowymi układami Nvidii?
gdzie tu masz jakies słabości?
w linku dalem ci przyklad gry stalker z właczonym jedynie AF16X i co układ Nvidii dostaje baty kolego. hehe
- jedynie AF16? (autor: Aamitoza | data: 9/06/09 | godz.: 00:33)
Ja poza tym AF16 widzę jeszcze DX10.1. jak nie widzisz, to strasznie mi przykro ;)
ATi miało i wciaż ma słaba wydajność filtrowania anizotropowego i może z HD5xxx ulegnie to zmianie. A że w DX10.1 jest wydajniejsze, to chyba nic dziwnego - to API jest szybsze od DX10. Gdyby lepsza wydajnośc filtrowania przewaga była by jeszcze większa.
- ... (autor: Aamitoza | data: 9/06/09 | godz.: 00:34)
Swojadrogą z mojej strony to już koniec udziału w tej jałowej dyskusji. Będzie premiera, to przekonamy się czym jest rv870 i co w nim zmienili.
- @Aamitoza (autor: Promilus | data: 9/06/09 | godz.: 07:04)
W STALKERZE DX10.1 radeonowi nie daje praktycznie nic!!!! Zobacz test na in4 gdzie różnica między DX10 a 10.1 w STALKERZE to max 1FPS. Ale nie, jaśnie wielki pan będzie twierdził że to DX10.1 powoduje że włączenie AF w tej grze nie powoduje tak drastycznego spadku wydajności jak w innych. Jesteś niereformowalny kolego, a pojęcia nie masz żadnego.
- @ALL (autor: Wedelek | data: 9/06/09 | godz.: 08:53)
Po pierwsze, to wy jesteście ślepi, bo amitoza z filtrowaniem anizotropowym ma rację. Owszem. Przesada w jej postach jest widoczna, a problem sztucznie rozdęty, ale mimo wszystko jest faktem. To jest słąbsza strona rv770.
Po drugie dx10.1 daje sporego kopa kartom ati, bo użyto tam lepszych algorytmów niż w podstawce i nie ma co pierdolić głupot, że to nei pomaga. Owszem. Są gry gdzie nie widać znaczącej różnicy, ale w innych jest to niemal przepaść.
Po trzecie choćby ten układ był boski, to itak trzeba go wzmocnić lub przebudować. Czemu?? Bo ten układ był mocny i jest do teraz, ale w przyszłości nowe gry obnażą jego słabości. Bedą dużo bardziej zasobożerne, bo nie bedzie ich juz blokować procesor. Dużo też na to wskazuje, ze akceleracja fizyki też będzie wspólna.
Po czwarte sama tesselacja, czy zwięksanie napięć i taktowania cudów wielkich nie przyniesie. W końcu konkurencja też z pewnością nie śpi.
- @Wedelek (autor: Promilus | data: 9/06/09 | godz.: 09:09)
Przecież Sajron pokazał STALKERa z AF w którym DX10.1 dosłownie NIC nie daje kartom AMD, dlaczego nie wnikam. Ale jak tak baaaardzo chcecie się kłócić - proszę bardzo, dość rozległy test:
http://www.bit-tech.net/...-architecture-review/11
Jak widać o ile w przeładowanych TMU kartach 8800GT i 9800GTX AF ma bardzo niewielki wpływ na wydajność, o tyle w nowszych konstrukcjach nvidii (opartych o GT200) jest praktycznie tak jak w przypadku AMD, czyli spadek jest choć zasadniczo niewielki. Czyli to co piszecie o błędach architektury RV770 odnosi się również do GT200, a skoro tak to po ch*** na siłę udowadniać że to AMD ma z tym problem? A poza tym test powyżej jest z lata 2008 a od tego czasu troszkę się pozmieniało (8.11 wzwyż)
- Promilus (autor: Wedelek | data: 9/06/09 | godz.: 09:17)
Czytaj uważniej co piszę.
"Są gry gdzie nie widać znaczącej różnicy, ale w innych jest to niemal przepaść." Chodzi mi tu między innymi właśnie o rzeczonego Stalkera, gdzie nie ma prawie żadnej różnicy.
"To jest słąbsza strona rv770." chodzi o to że u n-vidii jest nieco lepiej. Nie powiedziałem jednak, ze jest to słabość, a jedynie najsłąbsze ogniwo w kartach ATI, które mogliby poprawić.
Czytanie ze zrozumieniem nie boli.
- @Wedelek (autor: Promilus | data: 9/06/09 | godz.: 10:39)
Tak, najpierw narzekamy na słabe teksturowanie (zamieszczony przeze mnie link to podważa), potem na AF (j.w.), argumentem miała być rzekoma słaba wydajność przy AF w Crysisie i STALKERZE, a tu co...obie gry na nowszych sterownikach śmigają bez problemu. Zatem sorry, czytanie ze zrozumieniem nie boli.
- ha ha (autor: Wedelek | data: 9/06/09 | godz.: 11:00)
Tyle, ze ja nie narzekam na słabe teksturowanie, tylko "słabsze" niż w gf. To Ty masz problemy ze zrozumienie, mojego postu chyba. Zresztą wyraźnie zaznaczyłęm, ze nie we wszystkich grach widać różnicę. Powiedziałem też ze mogliby nad tym popracować w kolejnej edycji chipu. no wybacz, ale przeinaczanie czyichś słów nic Ci nie da.
- @Wedelek (autor: Promilus | data: 9/06/09 | godz.: 12:58)
To ja się pytam jak możesz narzekać na słabsze teksturowanie układu (RV790) który zapewnia 80-90% wydajności GT200 mimo iż teoretycznie powinien mieć 65% ze względu na samo porównanie ilości i taktowania TMU/ROP. Bo moim zdaniem EFEKTYWNOŚĆ teksturowania RV770/790 jest bardzo duża pod tym względem. W końcu GT200 to układ mający 2x (!!) więcej TMU i ROP. To tak jakbyś mówił, że 9600GT ma słabą architekturę bo jest słabsze od HD4770, zaś HD4670 ma słabą architekturę bo jest słabsze niż 9600GT. No sorry, ale tego nie porównuje się w ten sposób! Teraz dla 1 czy 2 gier AMD specjalnie doda 16-24TMU, a co za tym idzie 320-480SPU, co za tym idzie powierzchnię chipa zwiększy o jakieś 50%, pobór prądu również, co za tym idzie o kilkadziesiąt $ większą cenę końcową karty... uważasz że to dobre rozwiązanie? Dla kilku gier? Gorzej z Tobą niż myślałem. Nie myśl jak klient któremu zależy na:
niskiej cenie, wysokiej wydajności, niskiej temperaturze i poziomie hałasu, niskim poborze mocy
A pomyśl czasem jako inżynier który chip ma zaprojektować...by był:
w miarę wydajny, w miarę tani, w miarę oszczędny, w miarę chłodny.
- @Promilus (autor: Wedelek | data: 9/06/09 | godz.: 13:15)
W życiu nie powiedziałem i nie powiem że ATI ma złą architekturę bo myślę wręcz odwrotnie. I tutaj w 100% się zgadzamy. Chodziło0 mi tylko o to, że wg mnie dobrze by zrobili, gdyby dodali troszkę tmu i ropów. Niższy proces to znacznie niższy pobór prądu i mniejszy układ. A co za tym idzie mniej$. Dlatego myślę, że mogliby zwiększyć liczbę układów w rdzeniu mniej więcej w kosztach jakie zaoszczędzili na przejściu na niższy proces. Wyszłaby karta potwór za 900zł ok. Myślę, ze jest to akceptowalna kwota. Oczywiście to kwestia sporna.
Co do samej architektury, to nie mam zamiaru w żaden sposób się wymądżać. Prawda jest jednak taka, że mimo iż rv 770/90 jest super, to nie można spocząć na laurach. Tyle odemnie.
- @Wedelek (autor: Promilus | data: 9/06/09 | godz.: 13:28)
No przecież ja też nie mówię że nie można czegoś ulepszyć, ale przecież z głową a nie jak nvidia która zwiększa liczbę jednostek wykonawczych a w zasadzie efektów tak wcale nie widać. Bo racja jest, że AF w G80/92 bardzo fajnie działa, za to AA (ważniejsze bo różnice widać i między 0x i 2x, i między 2x a 4x, i nawet między 4x a 8x) wymaga sporej ilości pamięci i karta szybciej się DŁAWI. Sama architektura RV7xx jest LEPSZA od G80/92 nvidii i tu też nie ma się co kłócić. I też nie chodzi mi o to, że uważam cię za idiotę lub coś w tym stylu, ale popierasz Aamitozę któremu JA OSOBIŚCIE pokazałem jak blade pojęcie ma o czym mówi i jak błędnie do tego podchodzi. Niestety nikt testów z linka zamieszczonego w poście numer 237 nie powtórzył na obecnych sterownikach, RV770 podniecano się całe lato, a teraz nic nowego się nie ukazało...a szkoda, bo dowiódłbym, że 99% przypadków większeg pogorszenia wydajności po włączeniu AA/AF na radeonach niż na GF to kwestia samych sterowników, a nie architektury. Dla niektórych najwidoczniej wyniki na danych sterownikach bezpośrednio świadczą o architekturze - nic bardziej mylnego! W przeciągu pół roku bywało nie raz, że wydajność z zaledwie przeciętnej wskakiwała na wysoką - wyłącznie za sprawą sterowników. I to w obu przypadkach, czy ATI czy NV. Więc co takiego można powiedzieć o wydajności architektury miesiąc czy dwa po wprowadzeniu kart na rynek? No właśnie GÓWNO!
- @Promilus (autor: Wedelek | data: 9/06/09 | godz.: 13:48)
NIe wspieram Amitozy, a jedynie stwierdziłem, ze miał trochę racji w tym co pisał, ale "Przesada w jej postach jest widoczna, a problem sztucznie rozdęty".
Wydaje mi sie, ze trochę sie nie zrozumieliśmy. Mnie chodziło bardzie j o problemy jakie "mogą" wystąpić w przyszłości, z najsłabszymi stronami chipu. Tym bardziej, że włąśnie w mało dopracowanych sterownikach często widać najlepiej co jest najsłabszym ogniwem.
A czy układ rv 770/790 ma wystarczająco TMU i ROP?? Uważam, ze może ich być trochę za mało na przyszłość. Tylko kto z nas wie, czy architektóra ATI nie potrzebuje mniej ROP-ów i TMU do sprawnego działania niż karty zielonych?? To wiedzą tylko inżynierowie,
- ..up (autor: Wedelek | data: 9/06/09 | godz.: 13:48)
zapomniałem że wiedzą też Sajron i morgi:P
- hehe (autor: Promilus | data: 9/06/09 | godz.: 13:55)
No to fakt :) Ale prawdę mówiąc jak widzę ile zyskuje NV zwiększając ilość ROP i TMU, a ile AMD zwiększając taktowanie tych układów...to w obecnym czasie taktowanie>ilość. Może przy bardziej skomplikowanych scenach w przyszłości może być odwrotnie
- n-vidia (autor: Wedelek | data: 9/06/09 | godz.: 14:16)
wogóle wpadła jak sliwka w kompot ze swoimi dużymi chipami. Teraz następuje unifikacja i złe wieści dla nich.
http://pclab.pl/news37093.html
Mam nadzieję, ze dostaną po dupie na tyle zeby rynek wyrównał się 50:50
- hm, chyba się nie uda (autor: Wedelek | data: 9/06/09 | godz.: 22:50)
Dobić do 250 komentów. Niech ktoś coś jeszcze napiszę:P
- ... (autor: Aamitoza | data: 10/06/09 | godz.: 09:09)
no i co Ty nie powiesz? ;>
- Skwituję dyskusję (autor: Wedelek | data: 10/06/09 | godz.: 09:20)
dwoma myślami:)
Mamy rekordzik 250 postów:)
A co do dysputy, to wyniki ujrzymy w trakcie premiery. Ciekawe kto był najblizej prawdy:P
- oczywiscie ze ja mam racje (autor: Sajron | data: 10/06/09 | godz.: 18:03)
twoje zdanie sie nie liczy :p
- Hm zobaczymy (autor: Wedelek | data: 11/06/09 | godz.: 12:54)
Sajron, zobaczymy. Ale itak nie chce mi się wierzyć, zeby rv 870 były tak małe.
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|