Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Wtorek 15 września 2009 
    

Przecieki na temat wydajności kart ATI Radeon HD 5870 i 5850


Autor: Zbyszek | źródło: TechPowerUp | 14:25
(76)
W sieci pojawiły się nowe informacje na temat wydajności nadchodzących kart graficznych firmy AMD, zgodnych z najnowszymi bibliotekami DirectX 11. Flagowe modele ATI Radeon HD 5870 mają oferować wydajność średnio o 50% większą od GeForce GTX 285. W zależności od danej gry, różnica wynosić ma od 5 do 155% na korzyść nowej karty AMD. Radeon HD 5870 ma być szybszy również od GeForce GTX 295, który w niektórych grach oferuje wydajność o 25% większą, jednak w innych tytułach karta AMD jest o 95% szybsza. Wydajność drugiej z nowych kart - ATI Radeon HD 5850 ma być średnio 30% większa od GeForce GTX 285. Na oficjalnie potwierdzenie powyższych informacji musimy poczekać do oficjalnej premiery nowych kart.


(kliknij aby powiększyć)


(kliknij aby powiększyć)

 


    
K O M E N T A R Z E
    

  1. Standardowe... (autor: DAWIDUS | data: 15/09/09 | godz.: 15:10)
    Marketingowe przecieki w celu podgrzania atmosfery... jak widze takie badziewne wykresy... to... przypomina mi sie Matrox Parhellia 512...

  2. .:. (autor: Shneider | data: 15/09/09 | godz.: 15:13)
    a gdzie 5850? trosze tytul newsa naciagany.

    co do reszty sie nie wypowiem. bo jeszcze nikt wiarygodny nie mila tej karty w raczkach.


  3. Ciekawi mnie to, (autor: ReMoS | data: 15/09/09 | godz.: 15:33)
    że wydajność 4890 jest większa niż GTX285, ciekawe jak im to wyszło? hehe

  4. To sie nazywa agresywny marketing (autor: dr1zzt | data: 15/09/09 | godz.: 15:40)
    j/w

  5. Bo to nie wszędzie tak jest (autor: Wujofefer | data: 15/09/09 | godz.: 15:41)
    Ale zdarzają się gry i testy w których radek 4870 jest szybszy od GTX'a 285.

  6. ......... (autor: Marek1981 | data: 15/09/09 | godz.: 16:01)
    @Shneider - a ja widzę, na ostatnim zdjęciu.
    @ReMoS - jest kilka gier w których Ati rządzi ale w większości recenzenci je pomijają bo nie odzwierciedlają prawdziwą moc kart graficznych Nvidii.

    Ale widać marketing AMD zaczyna zżynać od konkurencji, och te wykresy:))


  7. Powinni dać skalę od 99% (autor: Grave | data: 15/09/09 | godz.: 16:18)
    po co się ograniczać :D

    Ale co by nie mówić szykuje się wydajnościowy potwór od ATI :)


  8. ReMoS (autor: Pauler | data: 15/09/09 | godz.: 16:23)
    zauważ jeden mały szczegół 'DirectX 10.1'

  9. 5870 (autor: Simon89 | data: 15/09/09 | godz.: 17:23)
    ta karta musi być mocna, biorąc pod uwagę same parametry to one nie może być słaba. Zastanawia mnie tylko to że 5850 będzie nieznacznie słabsze. Oby wprowadzili 5770 i 5750 jak najszybciej bo nie każdego będzie stać na potwora,

  10. hoho (autor: Simon89 | data: 15/09/09 | godz.: 17:33)
    karta zapowiada sie naprawde ciekawie.

    http://i28.tinypic.com/22zwc0.jpg
    http://i30.tinypic.com/10icr5u.png
    http://i28.tinypic.com/fduic7.png
    http://i29.tinypic.com/2hnown6.png

    zmienne taktowanie i napięcie gddr5 w locie bez błędów. Zresztą sami oceńcie. Cacko.


  11. PANIE MORGI (autor: LOLO64 | data: 15/09/09 | godz.: 17:34)
    No i gdzie Pana posiało? Prawda kole w oczy. Proponuję kompresik z chłodnej herbatki, powinno przejść. Jeśli nie poskutkuje zalecam środek antydepresyjny Velafax. Tylko proszę zapoznać się z ulotką dołączoną do opakowania. Jest tam napisane, że nie wolno łączyć leku z alkoholem, bo może dojśc do zatrzymania akcji serca. To już nie przelewki. Ale cóż, jak się ma takie problemy jak Pan, trzeba i nie gadać. Mam nadzieję, że nieługo znowu zobaczymy Pana na łamach TPC, odmienionego i wyzwolonego. Czekamy wszyscy.

  12. @LOLO64 (autor: MariuschM | data: 15/09/09 | godz.: 17:53)
    wierzysz w to że morgi zmieni zdanie?? bo ja nie... pewnie znów wyskoczy z jakimś bezsensownym textem typu że te radeony i tak są do dupy albo że nvidia wyda lepsze karty itd...
    albo że te testy są nieprawdziwe itd...
    istnieje jeszcze szansa że powie że się te karty nie opłacają z powodu ceny ale w tym momencie kompletnie by się skompromitował...


  13. bardzo dobre wyniki pojedynczej karty (autor: power | data: 15/09/09 | godz.: 18:06)
    graczom jeszcze tylko brakuje obslugi physyx do szczescia.
    chyba ze ten hack dziala?
    http://pclab.pl/...0806/physx_radeon_ng_o_hq_2.jpg
    juz nie moge doczekac sie na odpowiedz nvidii, bo nie wiem czy czekac na ich karte czy od razu kupic radeona premierze?


  14. ...... (autor: Marek1981 | data: 15/09/09 | godz.: 18:19)
    Po co physx??? Jak na razie nic to nie daje po za traceniem fps i najwydajniejsza karta obozu zielonych ma duże problemy. Gdzieś widziałem testy i to co widziałem było żenujące.

  15. power jak narazie to psyh coś tam nie ma w żadnej grze (autor: mandred | data: 15/09/09 | godz.: 18:24)
    a przynajmniej nie w takiej formie jakby się chciało, nawet jeśli radki nie będą miały tego pshya to można dorzucić jakiegoś taniego geforca żeby się tym zajął

  16. My name is morgi: (autor: Dadexix | data: 15/09/09 | godz.: 18:49)
    Belkot marketingowy... maja one max kilka procent wiecej mocy ale nawet debil nie kupi, bo tu upadajaca marka, AMD i wszystko wiadomo, nie ma co inwestowac w taka spolke[autor: tak, ja tez sie zawsze zastanawiam co wg morgiego ma kupno sprzetu danej firmy i to ile ma $$ na koncie... przeciez to nie akcje.. ale mniejsza lecimy dalej...], Wyjdzie gt300 to Wam szczena opadnie, a co dopiero gdy bedzie labree, tak na prawde to swiadomi kupujacy kupia sobie gma4500 i poczekaja na labree, dzieki czemu dadza wsparcie firmie rozwiajacej technologie, ktora hamuje technologiczny zastoj[Niestety morgi nie wie ze w zyciu trzy zajwiska najbardziej napedzaja tworzenie nowych technologii - wojna, seks i konkurecja]

  17. @power (autor: MariuschM | data: 15/09/09 | godz.: 18:50)
    z tego co wiem do DX11 sprawia że Physx staje się bezużyteczny tak samo jak cuda od Nvidii...
    mówiąc prosto Nvidia już nie ma czym się chwalić...


  18. MariuschM (autor: morgi | data: 15/09/09 | godz.: 19:12)
    A skad takie info, gdzie to napisali, duzo huku i szumu od Microsoftu, a windows 7 to klon Visty.

  19. kiedyś wszyscy płakali, że chcą CUDÓW, pardon (autor: Vetch | data: 15/09/09 | godz.: 19:24)
    EAXów od Creative w Viście. Dziś już nikt o tym nie pamięta. M$ dobrze robi, a producenci płaczą, bo już nie będzie można okradać klientów.

  20. Ja na (autor: antrax | data: 15/09/09 | godz.: 19:43)
    Moim wysłużonym Radosławie 4870 skręconym deko dziś odpaliłem 3dsmarka06 i mój wynik to 16958 chyba nieźle jak na tandetną ATI ;) ciekawi mnie ile wyciągnie 5870 na moim zestawie i 3,6GHz to nie za mało na tego potworka?

  21. Apropos (autor: antrax | data: 15/09/09 | godz.: 19:46)
    fizyki to ładnie wyglądają efekty wybuchów w crysis warhead na Radosławie oczywiście

  22. @morgi (autor: MariuschM | data: 15/09/09 | godz.: 19:47)
    wiedziałem że to sprawi że się odezwiesz bo to twoja ostatnia nadzieja nvidiiXD

    a no Win7 to klon Visty to się zgodzę ale DX11 to nie jest klon DX10.1 a jak wiadomo to właśnie DX11 ma wprowadzić tą nowość a nie system

    dlatego też Nvidia jest stracona gdy zostanie wprowadzony DX11

    propo niby DX11 ma być też na viste tylko jaki to ma sens?? jeśli każdy jest niezadowolony z tego systemu??


  23. coż za komentarz (autor: mandred | data: 15/09/09 | godz.: 20:45)
    a gdzie miażdżenie, upadanie, totalne dno i cała reszta?

  24. @mandred (autor: MariuschM | data: 15/09/09 | godz.: 20:56)
    nie widzisz tego?? morgi się już poddałXD ujrzał upadek swego panaXD

  25. Ale jestescie przykrzy, fanboje amd... (autor: dr1zzt | data: 15/09/09 | godz.: 21:26)
    Gorzej niz morgi, niestety.
    Z jednej strony wyzywacie od trolli, po czym prowokujecie(trollujac samemu srogo), przy okazji wychwalajac (a druga strone lzac) cos czego nie widzieliscie na wlasne slepka.
    Nvidia jest stracona, intel jest stracony, pozostanie tylko Wasz marny procent posiadaczy Amortyzowanych Modeli Dupy, zawojujecie rynek.
    Kurwa, to jest zalosne. I smieszne :-) Chyba kupie geforca.


  26. MariuschM (autor: morgi | data: 15/09/09 | godz.: 21:31)
    Dla mnie CUDAcznosc to wrog publiczny no1, podobnie jak inne cacuszka, tyle ze Nvidia wie jak ciosac z fanow kase, w przeciwienstwie do amd i ma bo ma te namiastki.

  27. Apropos PhysX (autor: dr1zzt | data: 15/09/09 | godz.: 21:44)
    Instaluje shifta wlasnie... i jaki katalog mamy w roocie w imejdzu? hmm? =]

  28. maciek (autor: maciek1707 | data: 15/09/09 | godz.: 23:27)
    "... jednak w innych tytułach jest o 95% wolniejszy od karty AMD" czyli 20 krotnie wolniejszy

  29. nv vs ati (autor: bane1 | data: 16/09/09 | godz.: 00:22)
    Tak od jakiegoś czasu czytam te wasze mądrości i to jest śmieszne , geforce czy radeon to czy to ,a kogo to obchodzi , wybór jest i tak nie w waszych rękach ja osobiście lubię psyhx i to nie jest pomysł nv tylko ageia , i to podnosi liczbę klatek a nie obniża , radeon ma swoj patent ale coś im nie idzie z wdrożeniem , moim zdaniem rozwój i konkurencja to zdrowe jest .

    dla mnie czy jest 100 czy 35 klatek to powiem wam te 35 stale mi wystarczy , a tak na marginesie ile widzi oko ludzkie?


  30. oko widzi (autor: ZeXeL | data: 16/09/09 | godz.: 00:40)
    60.

  31. @bane1 i @ZeXeL (autor: gindek | data: 16/09/09 | godz.: 01:23)
    widzi tyle ile jest wyswietlane, ale "wylapuje" 24fps (tyle maja filmy), jednak przy takim fps daje sie odczyc laga po myszka. Dlatego widywalem w tesatach ( u konkurencji), jako granice płynnosci właśnie przez ciebie wymieniana liczbe 35fps. Napewno nie bez znaczenia jest tu fakt ze klatki w filmie sa wyswietlane w równym odstepie czasu, natomiast w generowanym obrazie PEWNIE moze dosc do sytuacji kiedy np. 12 klatek jest wyswietlanych przez pierwsze 0.30 sekundy, potem jest 0.40 sekundy przerwy i ostatnie 12 klatek jest wyswietlanych przez ostania 0.30 sekundy, i stad brala by sie liczba ... 35, w ktorej moze byc kilka klatek zapasu. Pewnie to zalezy jeszcze od mozliwosci oka danej osoby ( ale tu sobie nie dam glowy uciac).
    60 fps to o wiele za duzo, nawet turbodynomen tyle by nie wyłapał

    Generowanie wiekszej ilosci klatek niz wynosi odswierzanie monitora nie ma sensu bo nie zostaja wyswietlone ( dlatego niektore gry maja limity wys. klatek), a niepotrzebnie obciazana jest obliczeniami karta graficzna.


  32. gindek ZeXeL (autor: bane1 | data: 16/09/09 | godz.: 08:04)
    No właśnie czyli nie ma sensu żeby karta produkowała 100 klatek , ja bym wolał tak zoptymalizowane silniki gier żeby było powiedzmy jeżeli 35 jest granicą plenności powiedzmy 45 stale zawsze i czy więcej coś potrzeba bo mi nie te 100 i tak nie zobaczę , a jestem jeszcze ciekaw jaki procesor pociągnie te nowe potwory z ich maksymalnymi możliwościami i jedno mnie zastanawia jeżeli to zdjęcie jest prawdziwe to ten wylot ciepła jest dość mocno mały i będą tam niezłe temperatury z tak dużej karty odać tyle ciepła tam małą dziurką to będzie dość trudne .

  33. @bane1 (autor: Marek1981 | data: 16/09/09 | godz.: 10:00)
    brawo dla pana za niesłychany zasób wiedzy...

    "i to podnosi liczbę klatek a nie obniża" jak było to picie do mnie to poczytaj zanim mnie skrytykujesz:
    http://www.benchmark.pl/...2-1919/strona/5304.html


  34. Marek1981 (autor: bane1 | data: 16/09/09 | godz.: 10:41)


    3dmark ventage wyłącz psyhx i zobacz wydajność cpu i włącz i zobacz wydajność w obliczeniach .

    Jeszcze jak to nie było oficjalnie zainplantowane w sterownikach i można to było włączyć w zmodowanych sterach to raczej liczba klatek i płynność wzrastały .

    Jeżeli procesor zostaje odciążony z obliczeń psyhx i może się zająć geometrią to co się dzieje?

    a co do picia to ja lubie kawę pić , i drinki a nie lubie pic ludzi


  35. .... (autor: Marek1981 | data: 16/09/09 | godz.: 10:49)
    Od kiedy interesują nas 3d marki??? Myślałem że te lata minęły już dawno.....

  36. bane1 (autor: Aamitoza | data: 16/09/09 | godz.: 10:58)
    genialny przykład, ale to tylko test CPU. W grach wygląda to tak, że z powodu wiekszej ilości elementów do renderowania wydajnośc wcale nie wzrasta, bo karta graficzna jest dodatkowo obciążona. Więcej elementów = więcej wielokątów = wiecej roboty dla GPU, a co jeszcze jeżeli to samo GPU musi zajmować się DODATKOWO liczeniem fizyki? No gdzie w takim razie ten wzrost wydajności? W niektórych grach taki wzrost może wystepować jezeli fizyka nie jest jakoś wyraźnie udoskonalona, a jedynie obliczenia są przeniesione na GPU zz physix... ale dzieje sie tak tylko w miejscach gdzie wąskim gardłem jest CPU, a w innych okolicznosciach jest taka sama wydajność lub mniejsza od tej bez physix (w końcu karta nie musi liczyć fizyki).

  37. FPS (autor: KaT | data: 16/09/09 | godz.: 11:00)
    Przestańcie opowiadać banialuki o 30, 24 czy innej liczbie klatek na sekundę. Czym innym jest tryb 1080p/24 na BluRay, czym innym zdolność ludzkiego oka do rozpoznawania ilości obrazów na sekundę a jeszcze czym innym ilość klatek i ich znaczenie w grach. Polecam na początek następującą lekturę:

    http://www.100fps.com/...frames_can_humans_see.htm


  38. KaT (autor: Elektron | data: 16/09/09 | godz.: 12:18)
    Ja nawet nie zwracam uwagi na takie pieprzenie, że 30FPS wystarczy, bo tyle widzi moje oko. Sranie w banie. Jeśli byłaby to prawda, to nie widziałbym różnicy w UT2004 między 30FPS, 60FPS, a 200FPS. A widzę i to bardzo dużą. Nawet nie ma co porównywać komfortu napitalania w przeciwników. Jeśli 30-60-fps-owcy widzą różnicy, to sory jesteście zadżumione leszcze ;)

  39. miało być (autor: Elektron | data: 16/09/09 | godz.: 12:22)
    "nie widzą"
    Teraz jestem ograniczony przez monitor, ale na CRT im więcej tym lepiej.


  40. .:. (autor: Shneider | data: 16/09/09 | godz.: 13:53)
    Elektron - LCD przewaznie maja 59Hz, wiec ;-)

    a z kolei modele TN 100-200MHz fizycznie nie sa w stanie wyswietlic takiego obrazu.


  41. klatkomania (autor: bane1 | data: 16/09/09 | godz.: 14:26)
    czyli dla was czy więcej klatek tym lepiej nie ważne że programiści nie mają czasu nawet dobrze nauczyć się jednej rzeczy bo co pól roku mają nowe mocniejsze karty które nawet spaszczony kod pociągnął .

    większe szybsze lepsze tylko co wy chcecie na tym włączyć unreala w 300 klatkach hehehe

    sam posiadam kartę z seri 2XX i powiem wam naprawdę gram sobie spokojnie w najnowsze tytuły w 1680x1050 z antylaisaingiem 16 qx chyba jakoś tak się to nazywa na maks detalach , demo re 5 miało nim 37 maks 64 klatki i po co mi więcej, dajcie programistą nadążyć za rozwojem sprzętu , a z tym pomysłem ageia psyhx ,nvidia udostępniła wam w cenie karty akcelerator który kiedyś był osobną płytką a wam źle czasem was nie rozumiem , z tego co wiem to ati nie chciało obsługi psyhx tylko swój patent który jakoś do tej pory nie wiem czy jest .


  42. teraz pewnie (autor: scoobydoo19911 | data: 16/09/09 | godz.: 18:40)
    mnie wszyscy zrugacie ale te wykresy to ściema. jeszcze tak nie byłożeby nastepna generacja była 3 razy szybsza od poprzednie, zresztą te wachania wydajności to nic dobrego

  43. a gdzie masz że 3 razy? (autor: mandred | data: 16/09/09 | godz.: 19:36)
    wahania są spowodowane optymalizacją danej gry, ale co tu gadać trzeba poczekać do premiery i wtedy się okaże.

  44. no może faktycznie (autor: scoobydoo19911 | data: 16/09/09 | godz.: 20:00)
    się rozpędziłem z 3 razy większą wydajnością (niedokładnie spojrzałem na wykresy), ale wolałbym 60% więcej mocy niż takie wahania gdzie nowa generacja potrafi być słabsza od poprzedniej

  45. @bane1 (autor: Promilus | data: 16/09/09 | godz.: 20:49)
    Heh, nie bardzo rozumiesz. PGPU PhysX działa na absolutnie KAŻDYM GPU supportującym CUDA, bo właśnie przez CUDA odbywa się obsługa GPGPU do PhysXa. By radeon mógł obsługiwać PhysX musiałby się pojawić komercyjny sterownik CUDA dla AMD (na który AMD musiałoby wykupić licencję i dokumentację), AMD musiałoby poświęcić znowuż część swoich programistów by z kolejnymi wersjami CUDA wypuszczać kolejne sterowniki do GPGPU ... chyba troszkę przeceniasz możliwości ich zespołu, jeśli myślisz że z kija cuda zrobią (tak, architektura zunifikowanych shaderów w rv6xx/7xx.8xx jest na tyle odległa od G80/92/GT200 że nie działałoby to NIGDY optymalnie na radeonach). Zatem sorry bardzo, ale ja też na taką 'dobroduszną' ofertę NV bym nic tylko napluł.

  46. lol (autor: power | data: 16/09/09 | godz.: 22:45)
    czytanie twojepc wieczorem to bardzo dobry srodek na sen, 1 baran, 2 baran, 3 baran, itd. jak tak sobie licze tych baranow to pozniej szybko zasypiam.

    ps.zazdroszcze takim ktorzy nie widza roznicy w grach pomiedzy 24 fps a 30 lub 60 czy 100.
    ps2.ortografia u pewnych osob powala mnie.


  47. @power (autor: scoobydoo19911 | data: 16/09/09 | godz.: 22:49)
    a ty to niby taki geniusz jesteś?

    a co do zazdroszczniea to ludzkie oko widzinie wiecej jak 20 fps więc przy dwudziestu klatkach gra powinna być w 100% płynna ale wdzisiejszych czasach już nie ma takiej optymalizcji kody jak kiedyś i przy 20fps i gra potrafi ostro ścinać


  48. Promilus (autor: bane1 | data: 17/09/09 | godz.: 00:46)
    hmm no ale tak miało być ale ati stworzyło co swój system psyhx nie wiem jak to się nazywa chciali i pewni zrobbią ,dlaczego przedtem ktoś wstawił zdjęcia ze to działa na ati zmodowane z sterami psyhx , mi się wydaje że raczej sterowniki psyhx to sterownik i zainplantowane coś z akceleratorów ageia do układu nvidi i dlatego to działa , bo akcelerator ageia działa ze starami nvidi jest wybór przynajmniej był jakie urządzenie ma działać , za czasów ageia nikt nie słyszał o cuda , pakiet cuda działa z nvidia ale jakoś to się nie instaluje z sterami grafy a psyhx tak.

  49. Bane1 (autor: Luke Jadi | data: 17/09/09 | godz.: 01:46)
    Litości kruca fak! Napisz to po POLSKU ja cię błagam. Albo nie, lepiej nie pisz już nic.

  50. @bane1 (autor: Promilus | data: 17/09/09 | godz.: 07:19)
    Jak to działa...dobre pytanie. To ci wyjaśnie jak to działa...była sobie AGEIA, stworzyła chipp (PPU) który wykonywał kilkadziesiąt skomplikowanych instrukcji do użytku w fizyce. Nie był specjalnie mocno taktowany, nie ptorzebował super przepustowego łącza...soft odwoływał się do niego w skomplikowanych scenach z dużą ilością fizyki a on sobie szybko przeliczał kolizje, trajektorie i niewiadomo co jeszcze. Potem AGEIA została wykupiona przez NV, gdy G80 było już na rynku...zatem nie, w GeForce nie ma żadnego specjalnego dodanego układu, ani nawet struktury w krzemie do obsługi fizyki - wykorzystywane są procesory strumieniowe (shadery) do EMULACJI PPU - ot NV przepisała część funkcji starego physxa dla PPU by wykorzystywały SP w GPU wykorzystując CUDA. Eran Badit napisał sterownik CUDA dla ATI, ale 1. był strasznie niedopracowany (nie wszystko działało) 2. był strasznie niezoptymalizowany (i co że działało jak i tak dużo wolniej niż na GF). To teraz się zastanówmy - AMD mogło zgodzić się na propozycję NV i skończyłoby się tym, że GFy byłyby w CUDA&PhyssX szybsze, a Radeony wolniejsze. Że obu producentów wspierałoby ten standard to zarówno physx jak i CUDA bardzo szeroko by się przyjęły, zaś AMD byłoby znowu tylko przydupaskiem nvidii bo nie mogłoby nawet myśleć o porównywalnej wydajności z architekturą która była już projektowana z myślą o CUDA. AMD jednak nie dało się wpuścić w maliny, gier z GPU PPhysX jest kilka i będzie jeszcze kilka, reszta ma physxa ale nie korzysta z GPU NV i wykorzystuje tylko CPU więc wyniki w grach będą zależeć tylko od szybkości CPU i GPU, a nie od ich producenta. PhysX jako zamknięty standard nie zdobył szturmem rynku i jeśli NV chce go rozpromować będzie musiała go przepisać na OpenCL lub Direct Compute - a wtedy i radeonki go będą miały i wykorzystywały w miarę możliwości optymalnie.

  51. Widzieliście to?? (autor: Wedelek | data: 17/09/09 | godz.: 08:22)
    http://www.youtube.com/...;feature=player_embedded

    Wypas :D


  52. ...... (autor: Marek1981 | data: 17/09/09 | godz.: 10:00)
    @promilus - niezły wywód:) Może zrozumie.
    Dodam tylko, że AMD ma odpowiednik w postaci STREAM, działa podobnie do CUDA. Nie chwalą się za bardzo tym lecz słyszałem komentarze że lepiej działa technologia ATI.
    Z tym, że nie zaimplementowali CUDA, wyszło AMD tylko na zdrowie, poszli w nowsze GDDR, dx10.1 i niższy proces technologiczny. Teraz mogą zbić konkurencję mając dużo lepsze produkty (hd5xxx).


  53. Promilus (autor: bane1 | data: 17/09/09 | godz.: 10:45)
    czyli z tego wychodzi ze nvidia zło ati dobro , jakiś kult czy coś?

    troszkę mi to pod rasizm podpada :)


  54. @bane1 (autor: Promilus | data: 17/09/09 | godz.: 11:27)
    Eh, widzę że będę się musiał drobną emtaforą posłużyć żeby to zobrazować (jak to teraz trzeba coraz częściej dzięki reformie szkolnictwa).
    Masz firmę, produkujesz żarówki...mają to do siebie że fajnie świecą, ale mają inny gwint niż konkurencja. Koleś z konkurencji gwint swoich żarówek dopasował tak by pasowały do wykupionej przez niego wcześniej firmy produkującej kinkiety :) I teraz tobie proponuje że za 'drobną' opłatą użyczy ci praw do wykorzystywania ich typu gwintu do żarówek, mimo że twój dla twojej żarówki jest lepszy bo potrafi dostarczyć wystarczająco dużo prądu by dobrze świeciła, a konkurencyjny nie. I co powiesz temu szefowi konkurencji? Ah tak, jasne, już zmieniam?


  55. Promilus (autor: bane1 | data: 17/09/09 | godz.: 11:37)
    ale czy ja napisałem że ati jest grosze czy coś podobnego , troszkę nasilę mi tłuczecie do łba nvidia zła bo chciała tak i tak a ati dobre bo nie chciało , sam poleciłem znajomemu kartę ati radka 4850 , bo był tani i szybszy niż w tym czasie dostępne karty i działa i znajomy zadowolony , to co robi ati czy nvidia to ich zagrania i jednych i drugich to się nazywa marketing, konkurencja jestem za tym , ja poprostu lubię karty nvidi bo się lepiej kręcą i tyle, podoba mi się cuda psyhx i to jest mój wybór tobie ati , to tak samo jak z procesorami więcej klatek weź intela kręć i masz ,taniej weź amd ale czy to aż taka różnica żeby tak sobie do głowy dobierać ??

  56. bane1 (autor: dr1zzt | data: 17/09/09 | godz.: 12:33)
    Niestety tu jest taki trend.
    Amd dobre i piekne, reszta zla i rozsiewa groze. Najbardziej podobaja mi sie prorocy, juz widzacy jak ati miazdzy nvidie (ba, dokladnie znaja osiagi karty, ktorej nie widzieli poza jpg i marketingowymi wykresami). Rynki oszaleja.. Pragna dominacji, mimo ze w postach o procesorach klikaja ze konkurencja jest potrzebna i zdrowa. Wyzywaja od fanbojow morgiego, i kogokolwiek kto napisze ze intel/nvidia jest lepsza - bo przeciez *kleknij* AMD *powstan* rzadzilo, rzadzi i rzadzic bedzie. (Mimo ze wyniki sprzedazy pokazuja calkiem cos innego) Nieliczni ktorzy sie odwarza cos napisac o nvidi/intelu sa zaszczekiwani bzdurnymi argumentami, w ktorych kroluje "amd najlepsze w grach" i polsko-centusiowe "jakosc/cena" Gier z physx (tym czyms przez co tylko traci sie fps) jest sztuk kilka i bedzie kilka (tak naprawde kolo 200), za to z hawokiem osiemset tysiecy. Stream lepszy od CUDA, bo tak gdzies slyszeli.A, oczywiscie poza rynkiem rozrywkowym na pc nic wiecej dla nich nie istnieje...


  57. .......... (autor: Marek1981 | data: 17/09/09 | godz.: 13:20)
    widzę że fanboye intela już szaleją:))
    - nie znam nikogo co by stwierdził, że teraz procki Intela są gorsze od AMD (oprócz Atoma)
    -"Najbardziej podobaja mi sie prorocy, juz widzacy jak ati miazdzy nvidie (ba, dokladnie znaja osiagi karty, ktorej nie widzieli poza jpg i marketingowymi wykresami)" czyż większość nie pisze, że jak wyniki się potwierdzą, to ... ???
    widać czytanie nie jest mocną stroną co niektórych.
    -"Wyzywaja od fanbojow morgiego, i kogokolwiek kto napisze ze intel/nvidia" nikt tego nie podważa w destopach ( przynajmniej dopóki nie wyjdzie hd5xxx i może się to zmienić)
    -"MD *powstan* rzadzilo, rzadzi i rzadzic bedzie. (Mimo ze wyniki sprzedazy pokazuja calkiem cos innego)"
    Jak zwykle brak umiejętności czytania ze zrozumieniem daje o sobie znać - ile razy było poruszane że AMD to mała firemka i nikt nie chce by upadła by Intel nie dyktował wielkich cen...... Więc nikt nie podważa o ilości sprzedaży procków intela (dużo ponad 80%)
    -"Nieliczni ktorzy sie odwarza cos napisac o nvidi/intelu sa zaszczekiwani bzdurnymi argumentami, w ktorych kroluje "amd najlepsze w grach"" nikt nie pisał że jest najlepsza w grach tylko w danej cenie jest równie dobra... i kto jest zaszczekiwany??
    -Gier z physx (tym czyms przez co tylko traci sie fps) - poczytaj trochę zanim się zbłaźnisz, poczytaj post Promilusa o implementacji Physx!!!
    - "Stream lepszy od CUDA, bo tak gdzies slyszeli"
    To było do mnie więc odpowiadam, że sam jako tak nie wykorzystywałem tego, znajomy ma i cuda i stream i mówił że lepiej działa stream, oczywiście nikt też nie wspomniał że te cuda potrafią zawiesić kompa.... i całą prace szlak trafia.


  58. @bane1 (autor: Promilus | data: 17/09/09 | godz.: 14:01)
    Chyba nie bardzo jarzysz, czy ja gdzieś piszę kto jest dobry a kto zły? Obie firmy chcą zarobić i tu się nie ma co oszukiwać. Ale tylko naprawdę naiwne osoby mogłyby stwierdzić, że NV wyciągnęła dobrodusznie dłoń w kierunku AMD proponując im PhysX w zamian za zaakceptowanie CUDA...i troszkę $ ;)
    @Marek1981 - a STREAM potrafi zrestartować akcelerator (VPU Recovery), albo wygasić obraz (komp działa normalnie, tylko obrazu ni ma)...heh :]


  59. Promilus (autor: morgi | data: 17/09/09 | godz.: 14:53)
    CUDA i PhysX jest i dziala, koszmarna technologia i pic na wode, ale jest od kilku sezonow, co ma amd...nic, otwarte technologie w zapowiedziach, jakies liczenie na Microsoft i OpenCL, przeciez ta pierwsza pokazala juz windowsy i ile jeszcze bedziemy czekac na wzrosty wydajnosci, a OpenCL, to jak GL, pare gierek z watpliwa jakoscia i nic, wielkie puste obietnice. Wole juz renderowanie smieci by Nvidia i liczenie na kolejna odmiane CUDAcznosci.

  60. @morgi (autor: Promilus | data: 17/09/09 | godz.: 15:04)
    OpenGL...hmm...autocad, catia i sporo innych, nie na gierkach się świat komputerów zaczyna i nie na gierkach kończy.

  61. Marek (autor: morgi | data: 17/09/09 | godz.: 15:04)
    'ile razy było poruszane że AMD to mała firemka i nikt nie chce by upadła by Intel nie dyktował wielkich cen'
    Tak naprawde nikt tego nie wie, ale amd nie jest warunkiem na istnienie rynku, czy takich czy innych cen. W zasadzie to, ze sa tacy mizerni to ich wina, ich efekt pracy i nikt nie leje zalow, ze sami zmascili to co urobili sobie dzieki pierwszej fazie k8. Czas na zmiany, a oni zmienili tylko zarzad, wlascicieli i powywalali sporo kadry, a to powinno byc na koncu, produkt sie liczy.


  62. Promilus (autor: morgi | data: 17/09/09 | godz.: 15:06)
    Dak cos z komercyjnej branzy, na cadach nie da sie zarobic..:D

  63. @morgi (autor: Promilus | data: 17/09/09 | godz.: 15:26)
    Nie da się zarobić rozumiesz w jaki sposób? Że pracując w CAD nie da się zarobić, czy sprzedając CADa? ;) o ci powiem, że w obu przypadkach się strasznie mylisz ;)

  64. @morgi (autor: Marek1981 | data: 17/09/09 | godz.: 15:34)
    po raz kolejny pokazujesz swoją "ynteligencje" albo to prowokacja.
    "W zasadzie to, ze sa tacy mizerni to ich wina, ich efekt pracy"
    Ciekawe dlaczego Intel dostaje kary za nielegalne praktyki monopolistyczne??
    W sumie dzięki nim mogli sobie pozwolić na opracowanie i doszlifowanie technologii w CD


  65. amd mala (autor: bane1 | data: 17/09/09 | godz.: 15:53)
    co do fanboyów intela to sam ma procesor amd x3 , i nvidia gts 250 ,dlaczego bo jest tańczy niż intel , a co do tego ze amd mała firemka no w sumie tak ale ati/amd , jedyna firma która robi chipy procesory i układy grafik nawet intel nie ma własnych grafik a nvidia własnych procesorów , ale faktycznie tu jest tak że jak broń boże się coś napisze o nvidi czy intelu to rany boskie heteryzm na skale ogólnoświatową to jest dopiero śmieszne .

  66. @bane1 (autor: Promilus | data: 17/09/09 | godz.: 16:08)
    Heteryzm? Hmmm ;) Intel w GPU nie ma w zasadzie żadnego doświadczenia, jego konstrukcje nigdy nie były specjalnie udane na tle konkurencji. Larrabee nie będzie wyjątkiem - ot chcą chłopaki zrobić średnie GPU z zajebiaszczym GPGPU (dzięki x86) i tyle. Procesory - tutaj rozwój x86 to akurat zawsze było kopiowanie rozwiązań z innych architektur. NV również nie od zawsze jest potentatem na rynku GPU, wcześniej było 3DLabs, PowerVR, 3dfx, Tseng, Cirrus Logic, ATI, Matrox, S3, SiS...taka konkurencja fajna, i tyleż samo standardów ;) A teraz mamy w zasadzie samo ATI i NV, do tego drobne IGP intela i jakieś cieniutkie Chrome S3 i na dobrą sprawę tyle. Przepraszam, jeszcze mikromiękki ktory reguluje w jakim kierunku karty powinny iść :P

  67. Promilus (autor: bane1 | data: 17/09/09 | godz.: 16:42)
    no heteryzm ;)

    no ale co to ma wspólnego z tym co teraz napisałeś z tym co robi amd/ati?

    Amd/Ati nie jest małą firmą produkuje wszystko , a od produkcji wszystkiego do monopulu jest krok niewielki , dlaczego ati skoro takie dobre nie udostepnia na swoich chipsetach obslugi sli , nvidia tez a intel ??

    ati idzie w szybkość kart i chwała im za to ale nvidia idzie w co w szybkość watpie , dlaczego psx3 ma wiele rdzeni bo technologia sie konczy procesory zyskuja wiele rdzeni a grafiki trzeba coś zmienić żeby niezapedzić się w kozi róg , niech kombinują nowe rzeczy jeszcze nikt nie narzekaół na rozwój tylko polacy tak umieja :)


  68. @bane1 (autor: Promilus | data: 17/09/09 | godz.: 17:47)
    Ahh...powiedz mi co ma AMD zrobić ze SLI? Wiesz co to jest sli od strony elektrycznej? Ano dokładnie to samo co crossfire. Masz 2-4 sloty PCI-E, wkładasz w nie te same* karty, spinasz je mostkiem/tasiemką/kablem którym przesyłane są renderowane obrazy i tyle. Od strony softu...to sterowniki GFa sprawdzają czy znajduje się na płycie układ do SLI (NF100, NF200 lub jakieś inne NV gówno, ewentualnie P55 i X58 z odpowiednim BIOSem), jeśli tego nie ma to choćbyś miał 2 sloty PCI-E po 16 linii to SLI ci nie zadziała. A jak jest z crossfire? Wystarczy że powiem że oprócz chipsetów AMD cross działa też na płytach (odpowiednio przystosowanych - czyt. mających minimum 2 sloty PCI-E 16x choć nie koniecznie sygnałowo 'pełne') i965, P35, P45, P55, X38, X48, X58 a nawet (tada!) na 780a SLI made by nvidia ;) Jeśli nie jarzysz...to wiedz, że bynajmniej nie AMD blokuje SLI na swoich chipsetach :)

  69. Promilus (autor: morgi | data: 17/09/09 | godz.: 18:55)
    Nie da sie zarobic chyba dosc jasne, ze soft typu cad to pelna nisza a nie milionowe naklady dla byle jakiej gierki, wydawanej seryjnie czasem.
    Marek
    Praktyki, ktorych nie bylo i jest to nie zasadzone, ale orzekniete przez instytucje ktora sama nie przestrzega prawa antymonopol., zreszta odwolanko gotowe i calkiem sprawne, tylko czy cos wskora. Najwazniejsze jest to, ze korupcja urzednicza 'nieistnieje' bo kara trafi do pokrzywdzonego klienta w formie 'rekompensaty' a klient machnie reka i kupi Intela.
    http://arstechnica.com/...rss&utm_campaign=rss


  70. @Promilus (autor: scoobydoo19911 | data: 17/09/09 | godz.: 19:12)
    Sli jest blokowane tylko i wyłącznie z poziomu sterownika więc da się je zaimplementować na praktycznie dowolnym chpseccie z obsługą pci-e a już na chipsetach amd tymbardziej bo crossfire z punktu technicznego nie różni się za bardzo od sli

  71. Promilus (autor: bane1 | data: 17/09/09 | godz.: 19:23)
    wiedz widzisz jednak chyba jestes delikatnie uprzedzony do nvidi , i ogólnie anty ja kumam co to sli i pare innych rzeczy tez ale chciałem zobaczyć kulture osobista a tego tu naprawde potrafi braknąć , to jest jedyny powod dlaczego wogóle tu napisałem i moje obawy się sprawdziły dziekuje za miłą i bardzo pouczającą pogawętke .

  72. @morgi (autor: Promilus | data: 17/09/09 | godz.: 19:57)
    Gry nie kosztują 2 ani 4, ani bynajmniej 13 tysięcy złotych :)
    @scoobydoo - a co ja cholercia wcześniej napisałem?
    @bane1 - no bo śmieszne jest dyskutowanie z kimś, który żąda od AMD by udostępniła SLI na swoich chipsetach, skoro to sama nvidia stoi na drodze takiemu rozwiązaniu po prostu je blokując w sterownikach do karty graficznej. Gdybyś się orientował to kojarzyłbyś SLI PATCH dla produktu ASRocka opartego bodajże na ULi M1695 albo 97 i wyposażonego w 2xPCI-E 8x (rozwiązanie reklamowane jako XLI). Patch po drobnych przeróbkach umożliwiał SLI na KAŻDEJ przystosowanej do multigpu płycie głównej, nvidia zablokowała tę możliwość w sterownikach...czyli rozpoznawanie "czy mam sli chipset, czy go nie mam". I bzdurą totalną propagowaną przez wielu fanów jest to, że chipset ze SLI rzeczywiście coś ważnego robi i jest niezbędny by SLI działało...a dowód to choćby P55 czy X58...zwykłe wyprowadzenie linii PCIE-E w liczbie jak dobrze kojarzę ~40...żadnej specjalnej SLI logiki nie ma...a mimo wszystko działa praktycznie identycznie jak 780i SLI...uprzedzony nie jestem do nvidii, bo i jej karty miałem i mam, za to mierzi mnie ich obłuda. Bo i kontroler RAID, i SLI w NFORCE to rozwiązania CZYSTO programowe. NF100 i NF200 to zwykłe scalaki których jedyną funkcją jest rozdzielenie 1 szyny PCI-E 16x na dwie takie same (a prawda jest taka, że praw dot. kanału telekomunikacyjnego nie przeskoczysz, czyli NF200 robi coś, ale z pewnością nie podwaja przepustowości ;) ). Czyli - płacisz za kawałek układu który realnie jest zbędny za to podnosi całkowity koszt płyty głównej...no i trzeba go schłodzić. Dlaczego? Ano bo takie jest widzimisię nvidii...mogę się z tym nie zgadzać i właśnie to robię.


  73. Promilus (autor: bane1 | data: 17/09/09 | godz.: 20:05)
    dlaczego śmieszne? przedtem się nie dało a teraz się da , uli no masz racje nie ma to jak porządny chipset uli , czyli dochodzimy do tego że amd/ati to taki potajemny monopolista robią chipsety pod swoje produkty ale już nie pod inne intel może udostępnić i crossfire i sli i jakoś jest dobrze ale ati nie bo nvidia zła , popatrz na to co piszesz i zobacz politykę firmy ati/amd , nvidia , intal bo jeżeli ja nie kumam to ty nie masz już wogóle pojęcia o czym piszesz .

  74. bane1 (autor: Simon89 | data: 17/09/09 | godz.: 20:30)
    co ty pierdzielisz? Naucz sie czytać ze zrozumieniem!

  75. @morgi (autor: Michał1988 | data: 17/09/09 | godz.: 20:49)
    A zastanawiałeś się dlaczego i7 i platforma dla niego jest tak droga? Wiesz chyba, że jest tak samo jak CAD kierowany do niszy, do profesjonalnych zastosowań? Dlatego Intel ustalił dla niego taką, a nie inną cenę, bo chociażby w renderingu jest obecnie zdecydowanie szybszy niż AMD czy C2Q.
    I tak samo jest z CADAMI, przykładowo najtańsza licencja na AutoCADA 2010, na jedno stanowisko kosztuje prawie 4800 zł, a inne są dopiero za kilkanaście tysięcy. A teraz każdy, kto zajmuje się projektami w budowlance, pracuje na AutoCADZIE właśnie.
    Mimo, że użytkowników nie mają tyle co chociażby producenci gier, to nadrabiają to ceną produktu.
    To program dla konkretnych odbiorców, tak samo jak i7 jest prockiem dla konkretnej grupy klientów.


  76. @banne1 (autor: Promilus | data: 17/09/09 | godz.: 20:53)
    Tak, intel produkuje chipsety dla siebie, AMD dla siebie...pomijając ATI które dla intela też produkowało...ULi przejęte przez NV produkowały chyba również pod intela i AMD. Intel ma crossfire bo AMD a w zasadzie ATI (które z intelem współpracowało dość ściśle swego czasu) pełną specyfikację podaje i nawet starsze chipsety dla LGA775 miały crossfire dla testów (niestety nie koniecznie to działało, były drobne błędy w implementacji). Intel obsługuje SLI...dupa, nie obsługuje...to SLI obsługuje intela!! I nie każdego, a tylko P55 z certyfikatem SLI oraz X58 z certyfikatem SLI. Bo płyty na X58 bez SLI TEŻ SĄ! Ten sam chipset, również kilka slotów PCI-E a SLI nie ma...no to zaraz, czy to czasem nie jest JAWNYM dowodem, że SLI NIE WYMAGA żadnego specjalnego SPRZĘTU i wszelkie BLOKADY I OGRANICZENIA są w samych STEROWNIKACH? Przedtem się dało..tak, przy serii GF6 i 7, bo NV nie pomyślała, że ktoś tego patcha od ASRocka przerobi...a że tak się stało to nowsze wersje sterowników ABSOLUTNIE takie rozwiązania blokowały. Naprawdę nie trzeba mieć wybitnego intelektu żeby to objąć rozumem...

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.