Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 5 listopada 2010 
    

Radeon HD 6970 z 2GB pamięci GDDR5


Autor: Zbyszek | źródło: Xtreme News | 11:02
(106)
Nowe karty graficzne Radeon HD 6970 firmy AMD, które trafią na rynek w drugiej połowie bieżącego miesiąca będą wyposażone w 2GB pamięci GDDR5. Akceleratory będą bazować na układach o nazwie kodowej Cayman i mają stanowić konkurencję dla kart GeForce GTX 580, których premiera odbędzie się już w najbliższy wtorek 9 listopada. Według najnowszych informacji dostępnych w sieci również Radeon HD 6950 otrzyma 2GB pamięci. Obie karty będą dysponować 256-bitową magistralą i oprócz wszystkich nowości które pojawiły się wraz z serią Radeon HD 6800 otrzymają także jeszcze bardziej wydajny tesselator. Premiera najnowszych Radeonów odbędzie się w ostatnim pełnym tygodniu miesiąca, trwającym od 22 do 28 listopada.


 


    
K O M E N T A R Z E
    

  1. hehe boją się zielonych (autor: Sony Vaio | data: 5/11/10 | godz.: 11:24)
    muszą sztucznie pompować nadymaną kukłę by w ogóle zobaczyć kurz za liderem.

  2. @Sony (autor: rookie | data: 5/11/10 | godz.: 11:44)
    Chodzi ci o twoją dmuchaną lalę ze sklepu ''różowa landrynka xxx''? Nie ma gwarancji ??

  3. ciągle tylko (autor: DTOsman | data: 5/11/10 | godz.: 11:54)
    slajdy, prezentacje, a konkurencja ma już gotowy produkt który wkrótce podbije serca entuzjastów jakości i wydajności na całym świecie.

  4. Skoro nie może być szybszy (autor: pomidor | data: 5/11/10 | godz.: 12:00)
    od GF, to przynajmniej pamięci będzie miał więcej.

  5. O i dlatego nowe karty zamieniaja (autor: morgi | data: 5/11/10 | godz.: 12:11)
    sie w palniki, juz to widac, zeby dogonic Nvidie musza dolozyc na wielkosci rdzenia i wiecej kosci, a wiec zgodnie z tym papierkiem <300W zupelnie jak Fermi, hiehie.

  6. To jest moc (autor: stud3nt | data: 5/11/10 | godz.: 12:12)
    Radeony 69xx będą miały dużo więcej wszystkiego za tą samą cenę i w pełni wykorzystają 2GB pamięci, w przeciwieństwie do pompowanych baloników a'la GT430 z 2GB pamięci.

    Komentarz napisany w celu zrównoważenie bezczelnego trollowania z postów wyżej.


  7. do trolli (autor: bananowy song | data: 5/11/10 | godz.: 12:20)
    premiera za kilka dni więc nvdia może już zacząć trząść portkami.

    @morgi
    to fakt, grzałka im wyszła. Nie popieram tego, ale gdzie się podział koronny argument trolli, że wydajność uzasadnia pobór prądu?


  8. @DTOsman (autor: Promilus | data: 5/11/10 | godz.: 12:30)
    Serio? Wyniki 6970 też już na chińskich stronach opublikowano ;) Więc jest to tak samo gotowy produkt jak i ten gtx580 nv :P

  9. stud3nt (autor: morgi | data: 5/11/10 | godz.: 12:32)
    Za ta sama cene co dualik po staremu, obudzmy sie ze snu, wiecej wszystkiego w tym samym procesie znaczy wiecej papierow na stole u sprzedawcy lub cyferek na przelewie i rachunku za prad, nie ma nic za darmo.

  10. @morgi:"obudzmy sie ze snu" (autor: bmiluch | data: 5/11/10 | godz.: 12:47)
    Ty pierwszy...

  11. ... (autor: AMD_Master | data: 5/11/10 | godz.: 13:15)
    Gdyby we wszystkich grafikach montowali 2GB pamięci to gry mogłyby nieźle na tym zyskać:
    - dokładniejsze modele
    - tekstury w wyższej rozdzielczości
    - bardziej rozbudowane wirtualne światy

    A na razie gry są pisane pod max 1GB pamięci więc można sobie pomarzyć.


  12. Zupelny BEZSENS (autor: Rajq | data: 5/11/10 | godz.: 13:50)
    gry to gnioty w 95% niepelnosprytne porty z konsol gdzie gpu ma do dyspozycji znacznie mniej vram. Leniwi pazerni Devsi wydajac na pieca gre nawet pacem nie kwina zeby dolozyc jakies ladniejsze tekstury. 2 GB to marketingowy belkot zupelnie niepotrzebny. Gry nawet w rozdzialce 25xx nie wykorzystuja 1GB.

  13. 256-bit....szrot... (autor: wukilah | data: 5/11/10 | godz.: 14:02)
    j.w.

  14. up.. (autor: Marek1981 | data: 5/11/10 | godz.: 14:31)
    Jak widać dużo jest k......w na tym portalu.
    Kartę kupuje się na jakiś okres czasu (u mnie 3-4 lata) i wielkość vramu ma też znaczenie. Teraz wykorzystują max 1GB za rok lub dwa lata to będzie max 2GB co za tym idzie taka grafika jeszcze nie będzie tak zamulać w wielkich rozdziałkach.


  15. bmiluch (autor: morgi | data: 5/11/10 | godz.: 14:42)
    Ja tu jestem od robienia incepcji, wyszperam kazdy kit, zostaja same fakty.

  16. ano... i (autor: cyferluu | data: 5/11/10 | godz.: 14:59)
    wiesz morgi ty to w limbo ostro wpadłes a nie jakas tam ci incepcja :D

  17. He he (autor: Jarek84 | data: 5/11/10 | godz.: 15:03)
    więc NV robi wszystko (czytaj premierę GTX580 na 09.11) żeby jeszcze przez jakieś 2 tyg. cieszyć się najwydajniejszym chipem graficznym...

  18. morgi osiągnoł ... (autor: Metal Machine | data: 5/11/10 | godz.: 15:08)
    wyższy stopień wtajemniczenia. Ma chyba jakieś wtyki w sieci z dopalaczami(zamkneli je bo wystarczy im paru "kolekcjonerów" z tego portalu:)

    A na temat karty: Prędzej czy później przyda się to 2 GB ramu. Liczę, że OpenCL lub podoben umożliwią wykorzystywanie tej pamięci w "cywilnych" aplikacjach. W końcu jest to bardzo szybka pamięć i jest jej sporo.


  19. @Metal Machine (autor: xernos | data: 5/11/10 | godz.: 15:23)
    Nie zamknęli tylko przenieśli za granicę o czym kozioł już nie trąbi w każdych wiadomościach że teraz na zagranicznych serwerach hostowane są sklepy i z stamtąd idzie wysyłka do Polski(i tam płaca podatki :).

    Pzdr.


  20. Jarek84 (autor: morgi | data: 5/11/10 | godz.: 15:31)
    hehe wyjdzie pare gierek pod Nvidie - hiehie
    http://www.kitguru.net/...or-gtx580-expect-delays/
    to nie bedzie tylko holidaya, a kto powiedzial, ze nie wystawia kreconych maszyn.
    Co do budzenia to wolam do fanow bo kick nie dziala, tylko sami musza sie obudzic ze swojego koszmaru.


  21. eee uuu yyy (autor: cyferluu | data: 5/11/10 | godz.: 15:41)
    ja i tak w crysisa nie gralem i grac nie będę... a jeżeli faktycznie zrobia pod 580 to dla mnie oczywiste jest jaki haczyk będzie. Za dużo dużo za dużo o wiele za dużo tesselacji dadzą tak aby to na 580 w miare działało a wogołe nie działało na radkach. Proste lecz mija sie zupełnie z celem :D

  22. @21 (autor: Jarek84 | data: 5/11/10 | godz.: 15:46)
    Gorzej jak zrobia gre pod NV, a bedzie lepiej dzialac na AMD :D

    @20 pff - już Crysis był GTX580 ready, więc karta trochę spóżniona :E


  23. Szykuje się porządka karta (autor: morgi | | data: 5/11/10 | godz.: 16:12)
    Tym razem NVIDIA dostanie mocno po d***e.

  24. Ojjj (autor: Piontas | data: 5/11/10 | godz.: 16:39)
    Walka pomiędzy GTX 580 a HD 6970 może być naprawdę ciekawa :)

  25. AMD Radeon HD6970 (autor: PCCPU | data: 5/11/10 | godz.: 16:45)
    To bedzie potezna karta i nie zmieni to zadne ujadanie. GTX580 to wykastrowany GTX480(poblokowany i niedopracowany) z odblokowanymi pozal sie Boze cuda core. G110 to GPU ktorym od poczadku mialo byc fermi :-D Nic tylko sie smiac. Ci ktorzy mysla ze bedzie duzy skok wydajnosci sa naiwni. To jest straszliwy pisk nvidii jak szczora na tonacym okrecie :-D nvidia sama przyznala ze to babol tamdeta

  26. ... (autor: arn2 | data: 5/11/10 | godz.: 17:47)
    Mogliby zrobić wersję 1GB specjalnie dla ludzi ,którzy nie potrzebują 2Gb

    Ciekawe co będzie z premierą gtx580.czy to będzie normalna premiera czy może "papierowa" (pudełek/atrapy itd).


  27. @PCCPU (autor: emuX | data: 5/11/10 | godz.: 18:38)
    ale brednie, staram się u DYD o uprawnienia moderatorskie.

  28. @emux (autor: trepcia | data: 5/11/10 | godz.: 18:57)
    Hahaha, dobry żart! :D:D:D Ty i uprawnienia moderatorskie! <lol> Hahaha. Pomóżcie mi wstać z ziemi, proszę. Hahaha.
    A po co Ci one? Aby pierwszemu sobie dać bana? Hahaha.


  29. heh (autor: Mario2k | data: 5/11/10 | godz.: 19:16)
    Chinole podaja ze karty obu stajni ida leb w leb
    Bedzie ostra gwiazdka tego roku na rynku GPU ;)


  30. @27 (autor: Piontas | data: 5/11/10 | godz.: 19:17)
    ja bym ci zwykłego user nie dał a co dopiero uprawnienia moderatorskie ;p

  31. @29 (autor: Piontas | data: 5/11/10 | godz.: 19:18)
    mam nadzieje że to prawda :)

  32. emuX (autor: PCCPU | data: 5/11/10 | godz.: 19:20)
    Za brednie ktore pisales przez caly czas to powinienes 100 000 razy zostac zbanowany az alfabet by Ci sie skonczyl i musial byc nick zmienic na emuGTX emuIntel albo emuCUDA :-D emuCuda to moze jednak bardziej pasuje bo jak zaczynasz wypisywac(nie tylko ty) glupoty to sa takie cuda ze czasami mysle ze wszedlem na forum radia Maryia :-D

  33. emux na prezydenta od razu idz. i zakaż sprzedaży kart ADM w polsce. (autor: cyferluu | data: 5/11/10 | godz.: 19:31)
    jak oni ci dadza modera to ten portal opustoszeje ... a ty stracisz życie na cześć siedzenia po 20 H dziennie i banowanie ludzi którzy napiszą coś złego na Nvidie lub intela a pochwalą nawet słusznie AMD. człowieku i ty masz 28 lat? 4x ban jak 28 latek może być taka tępą dzidą i dac sie zbanować 4 razy o mamo :D

  34. emuX (autor: Piontas | data: 5/11/10 | godz.: 19:32)
    albo ty zyjesz w swoim limbo albo dopalacze Ci już zaczynają szkodzić

  35. cyferluu (autor: Piontas | data: 5/11/10 | godz.: 19:35)
    on tylko dostał 4 razy bana? emuX jesteś moim masterem, mieć tak zryty intelekt, wypisywać wszelkie możliwe głupoty i dostać tylko 4 razy bana? emuX mój mistrzu

  36. 123... (autor: cyferluu | data: 5/11/10 | godz.: 20:14)
    zejdzmy z niego... bo w sumie co on winien? :D

    czy 4 nie wiem tak czytałem wiele razy tutaj.

    bana dostaje sie za nieprzestrzeganie regulaminu wiec jak ktos kto go nie przestrzega ma go pilnować?


  37. Mario2k (autor: morgi | data: 5/11/10 | godz.: 21:13)
    To wtedy jak zwykle Nvidia ma bogatsza oferte no i OC w tych kartach nie jest od parady, ale od wyczynu wydajnosciowego, jak zwykle architektura gora.

  38. @morgi (autor: trepcia | data: 5/11/10 | godz.: 21:14)
    Architekrura czego? Bo chyba nie układu Fermi.

  39. morgi (autor: Mario2k | data: 5/11/10 | godz.: 21:40)
    heh , dobry jestes , pewniakiem podstawiony przez redakcje :)

  40. Tak nvidia (autor: PCCPU | data: 5/11/10 | godz.: 21:53)
    gora w projektowaniu przerosnietych bubli z doczepionym bogatym softem by zakryc i maskowac buble GPU. A OC no cuz mozna podkrecic i wyzylowac uklad by byc chodz kilka procent wydajniejszym ale ze chlodzic to trzeba ciecza a najlepiej azotem to juz nie istotne bo grunt to szybszy bublo-kastrat

  41. @ PCCPU (autor: morgi | | data: 5/11/10 | godz.: 22:44)
    Przerośnięte może i są, nie mieszczą się zwyczajnie na 40nm, ale ukazanie mocy Fermi to kwestia czasu, kilku miesięcy. Architektura jest bardzo dobra, co wykazują testy teselacji, fizyki, obliczeń równoległych i ogólnej wydajności. Obecnie musieli przyciąć sporo mocy, ale po przejściu na niższy proces, cel zostanie osiągnięty. Pytanie nasuwa się wszakże jedno - czy do tego czasu AMD nie wyskubie małymi kroczkami całego tortu.

  42. @morgi l (autor: rainy | data: 5/11/10 | godz.: 23:05)
    Sęk w tym, że 28nm nie będzie dostępne dla AMD jak i Nvidii przez więcej niż kilka miesięcy.
    Mówi się o II połowie 2011 a precyzyjniej IV kwartale.

    Mamy również element rywalizacji pomiędzy wykonawcami (TSMC i GlobalFoundries).

    Jeżeli GF będzie pierwsze, to oczywiście da to AMD przewagę (póki co, szef Nvidii odżegnywał się od możliwości korzystania z ich linii produkcyjnych).


  43. Ej, ej! (autor: BeHQ | data: 5/11/10 | godz.: 23:32)
    Miałem napisać opryskliwy komentarz do wszystkich "snafcuf" najlepszych niusów na rynku, które to wyczytaliście z niusów na portalach i tutaj serwujecie. 28nm, 16,10, -50, a nawet -1000nm nie zmienią niczego w Waszym życiu. Trzeba pracować, prowadzić firmę, jeść, srać i dawać walić się w dupsko kolejnym wieścią od korporacji, które na Nas czekają. Haj-Tech! Qrwa! Przeczytajcie uważnie o co walczycie i w czyim imieniu! OK?
    Powiedzcie dość!! Wszyscy razem płacimy za ""ICH"" przepychanki marketingowe!! W zamian dostajemy kolejną opinie do napisania. Wole się dobrze wypróżnić, niż wierzyć każdej z tych firm!
    No ale coś trzeb kupić, żeby być modnym... . Chyba wskoczę na allegro i nabędę Ati9800. To była pozycja! Zero bełkotu marketingowego, sama moc!


  44. Morgi I (autor: PCCPU | data: 6/11/10 | godz.: 01:00)
    Ja to wiem tyle ze te moje komentaze sa skierowane do tych morgi bez (I) i innych jego pochodnych czy mu podobnych ;-) Ale cicho sza bo wszystko sie wyda :-D

  45. @rainy (autor: arn2 | data: 6/11/10 | godz.: 06:11)
    Czyli wychodzi na to ,że:
    *jeśli GF wypuści 28nm jako pierwsze to AMD jeszcze bardziej wysunie się na prowadzenie , a jak TSMC będzie pierwsze to AMD i NV będą mieć równe szanse
    * AMD ma zamiar produkować zarówno u GF jak i u TMSC co da mu większą niezależność i pewnie też większe możliwości produkcyjne (nie będzie ograniczone przez jednego producenta)

    Zobaczymy jak za kila miesięcy NV i Amd będą sobie radzić z 28nm ,bo w teorii Amd wychodzi na duży +


  46. BeHQ (autor: morgi | data: 6/11/10 | godz.: 10:46)
    Takie zycie, pogodzic sie trzeba i tyrac w niewiadomym z grubsza celu, albo cieszyc sie z byle czego. Wolny rynek nikt nikomu nie dyktuje co ma robic, prawie sa wyjatki jak socjalistyczna EU i demoludy.
    Co do architektury, to Nvidia ma prawie zawsze lepsza w historii i teraz, do tego do przodu ze wsparciem i technologiami. Zamiast czekac na ciagle latanie mozna miec ogolnie wszystko na swoim miejscu czyli wysoka wydajnosc w najnowszym api, teselacja, geometria, fizyka i gpgpu, podkrecanie ktore cos daje i najwazniejsze grafike o najlepszej jakosci obrazu, bez kantow i manipulacji.


  47. @morgi (autor: trepcia | data: 6/11/10 | godz.: 11:44)
    "najwazniejsze grafike o najlepszej jakosci obrazu, bez kantow i manipulacji."

    Cieszę się, że tak samo jak ja (i zresztą wolny rynek) uważa, że to AMD ma lepszą grafikę bez manipulacji :-) A ta minimalna NVidia ze swoją oFermą traci, traci, traci udziały w rynku. Zwłaszcza w mobile, gdzie jest jej totalny pogrom. Te gnioty NVidii nie są w stanie nadążyć za technologią i dopracowaniem mobilnych rozwiązań AMD.

    Ahh... trollowanie z rana jak śmietana.


  48. up^ (autor: bananowy song | data: 6/11/10 | godz.: 11:52)
    co do tej jakości obrazu to bym szczególnie się czepił...
    Żyłowanie wydajności w grach o 10%, 15%, 20% za pomocą sterowników kosztem jakości kłóci mi się z tym stwierdzeniem.

    Kolejna sprawa to ta "lepsza" architektura. Fajnie, że stworzyli molocha, który żłopie prądu za trzech i ma powierzchnie za trzech. Jak dla mnie to jest nieudana architektura. Dobry inżynier zawsze patrzy na koszty produkcji oraz inne elementy składające się na ostateczny wizerunek chipu.

    Poza tym fizyka jest przereklamowana i nawet produkty nV doznają ogromych spadków fps po właczeniu physx a jakość gry nie rośnie znacząco.

    Teslacja - kolejny chwyt marketingowy wymuszony na inżynierach (niestety AMD już podąża tą drogą) - nie ma gier, w których jakość obrazu by wzrosła po jej uaktywnieniu.

    Podsumowując AMD tworzy chipy skrojone w zależnie od sytuacji, na teraz, bardziej energooszczędne. Co z tego, że coraz więcej teslacji będzie w grach, skoro za rok kupię sobię kartę za 300 stuwy i będzie lepsza niż ta teraz za 1000?


  49. ... (autor: cyferluu | data: 6/11/10 | godz.: 12:55)
    racji jako takiej nie ma w ogóle nikt. :D szczątkowo Każdy ma rację. można zbic platforme na lata ale ogromnym kosztem finansowym. mozna do procesora za 3000zł dodać 2 karty graficzne za drugie 3000zł ale po co? jak za 2000zł kupisz bardzo dobry sprzęt. co najwyżej wystarczy na 2 zamiast 3 lat lecz 4000zł w kieszeni.

    co do architektóry fermi to tak jakby zrobić porshe 911 o ładowności mercedesa sprintera i spalaniu hammera. można ale po co?


  50. NV rulesss (autor: Jarek84 | data: 6/11/10 | godz.: 13:02)
    W Caymanach nie bedzie takich słitaśnych binokli jak nowy projekt GTx580binokle :D

    http://3.bp.blogspot.com/...1600/green+glasses.JPG


  51. trepcia (autor: morgi | data: 6/11/10 | godz.: 14:59)
    O ile dobrze widzialem to traca wszyscy Intel rosnie, zwlaszcza w mobilnych gdzie kupuje sie z sensem, bo unika palnikow.
    Jarek84
    Pytanie tylko ile minimalni wydadza na support w grach, ostatnio zblaznili sie medal of honor, bo dali za malo wiec gra dala pupy.


  52. AMD (autor: PCCPU | data: 6/11/10 | godz.: 15:26)
    tez moglo wlepic 3 miliardy tranzystorow i miec znacznie wydajniejsze GPU od konkurencji. Ale po co? I jakim kosztem? nVidia zrobi wszystko by ich GPU bylo wydajniejsze chodzby mialo miec 5 miliardow tranzystorow i pobierac 800W energi ale wazne ze 10% szybsze. A to nie tedy droga
    i AMD dobrze o Tym wie. Z Caymanem jest troche inna sprawa bo nadal dostepne jest tylko 40 nm i pewnie wielki bedzie.


  53. @morgi (autor: trepcia | data: 6/11/10 | godz.: 15:48)
    My rozmawiamy o kartach graficznych AMD i NVidia a nie o chłamowych zbuczkach made by Intel.
    W przypadku PRAWDZIWYCH kart AMD jest bezwzględne i gniecie minimalną NVidię na każdym kroku. Ta zbłaźniona, palnikowata oFerma nie ma racji bytu, gdy na rynku jest prawdziwy młot AMD - wydajny i tani w produkcji. Bez zbędnych dodatków, sama potrzebna treść o czym świadoma część kupujących wie i wybiera to, co najlepsze, czyli AMD. Owszem, można kupić tanio i mieć zbuczka Intela niczym starego diesla a można wydać więcej i mieć jakość, jaką reprezentuje AMD, czyli najnowocześniejszego diesla CR z potrójny wtryskiem ON.

    Zaraz się zrzygam...


  54. morgi przestań (autor: cana | data: 6/11/10 | godz.: 15:53)
    możesz już przestać kopulować werbalnie?
    albo choć zmienić miejsce upubliczniania swych mocno perwersyjnych miłosnych uniesień?


  55. fajnie byc chinczykiem ;) (autor: Jarek84 | data: 6/11/10 | godz.: 16:13)
    oni juz sie bawia Caymanem PRO...

  56. sorry (autor: Jarek84 | data: 6/11/10 | godz.: 16:14)
    zapomnialem o linku w 55

    http://i56.tinypic.com/33xvno0.jpg


  57. trepcia (autor: morgi | data: 6/11/10 | godz.: 17:39)
    To szukuj sobie nowe slowo na apu, bo tam tez nie ma prawdziwej karty, tam podobno jest odpowiedz na rosnacy udzial Intela na rynku gpu, ale to jeszcze miesiace przed nami dlugie, bo zimowe itd. ;)
    PCCPU
    Nie wlepilo lat, jak poprawia obraz w grach taki jak trzeba wowczas bedzie pomiar wydajnosci, bo jak dasz high quality na zlomati to wyglada tak obraz na default u Nvidii, dziwne nie.


  58. Oczywiście :)))))))) (autor: AmigaPPC | data: 6/11/10 | godz.: 17:51)
    [ http://www.techpowerup.com/reviews/HQV/HQV_2.0/ ]

  59. @AmigaPPC (autor: rainy | data: 6/11/10 | godz.: 18:22)
    Po co psujesz samopoczucie morginalnemu?
    Jemu się tak dobrze żyje w świecie stereotypów (choć i tak potrzebuje dodatkowego wsparcia).


  60. Tak jasne (autor: PCCPU | data: 6/11/10 | godz.: 19:10)
    Jak bublo-zlom od nVidii moze miec jakakolwiek jakosc grafiki :-D Same buble w obrazie tak jak w GPU. A tak swoja droga moglbys podac jakis dowod bo mam dobry humor i mam ochote sie posmiac. Przyklady morgi przyklady i linki :-)

  61. Tak jasne (autor: PCCPU | data: 6/11/10 | godz.: 19:10)
    Jak bublo-zlom od nVidii moze miec jakakolwiek jakosc grafiki :-D Same buble w obrazie tak jak w GPU. A tak swoja droga moglbys podac jakis dowod bo mam dobry humor i mam ochote sie posmiac. Przyklady morgi przyklady i linki :-)

  62. rainy (autor: morgi | data: 6/11/10 | godz.: 19:32)
    Czy ja musze powtarzac sie w grach, a tu masz przyklady lipy od zlomatich pusc se filmik przejrzyc na oczy, na Nvidii masz plynnosc i gladkie tekstury, a radeonki stare artefakta migotanie podobnie na filteringu dalej widac kola wyraznie coz jakosc konsolowa juz nie mowie o mgle zamiast wygladzania
    http://www.tweakpc.de/...n_hd_6870_hd_6850/s09.php
    O dekodowaniu hd to juz szkoda nawijac, przeterminowana sprawa, proce daja rade, a bedzie inny epoka od Sandy Bridge.


  63. . (autor: morgi | | data: 6/11/10 | godz.: 20:30)
    .

  64. . (autor: marsec | data: 6/11/10 | godz.: 21:58)
    .

  65. Morgi ma rację (autor: wukilah | data: 6/11/10 | godz.: 22:12)
    a pieski od AMD ujadają, aż miło...

  66. @morgi (autor: trepcia | data: 6/11/10 | godz.: 22:30)
    W APU AMD będzie mieć prawdziwe zintegrowane grafiki a nie zbuczki made by Intel. Cóż mogą niebiescy wiedzieć jak się projektuje prawdziwe grafiki? Procki to oni sobie mogą trzaskać a przy grafice to jedynie ślinić się na kunszt technologii serwowany przez AMD.

  67. @wukilah (autor: trepcia | data: 6/11/10 | godz.: 22:31)
    Uderz w stół a nożyce się odezwą, nie? Jeśli nie masz nic do dodania do trolowej gadki między mną a morgim to się nie odzywaj.

  68. Ta ta jasne morgi (autor: PCCPU | data: 7/11/10 | godz.: 00:06)
    a swistak siedzi i zawija w sreberka. Pro nVidiowski portal moze sobie pisac i pokazywac co chce. Zreszta w ten sposob to wszystko mozna udowodnic nawet ze nVidia ma buble w grafice czego udowadniac nie trzeba :-D A to ze G100 to bubel-tamdeta to wszyscy wiedza doskonale bo AMD ma 90% w rynku GPU i nic tego nie zmieni a jest to niepodwazalny dowod jakosci energooszczednosci i wydajnosci :-)

  69. Natomiast mozesz miec (autor: PCCPU | data: 7/11/10 | godz.: 00:15)
    nadzieje ze te twoje pseudo dowody podciagna moze choc o 1% udzial w GPU nVidii w co szczerze watpie. Swoja droga ciekawe ze wiele innych serwisow IT jest innego zdania po przeprowadzeniu zetelnych testow :-D Jak widac po tym psa ujadanie i skomlenie a karawana jedzie dalej i rosnie w sile :-D

  70. @pccpu (autor: trepcia | data: 7/11/10 | godz.: 00:51)
    Maluczkie i minimalne pieski Nvidii i Intela skamlą i ujadają a młot AMD rozdaje karty wśród kart graficznych.
    Ciekawe kiedy intel nauczy się robić dobre GPU i ich zBUGowany Larrabee ujrzy światło dzienne. A może wogóle nie ujrzy? Po co kolejna kompromitacja przed światem.


  71. . (autor: morgi | | data: 7/11/10 | godz.: 01:10)
    .

  72. historia i przyszłość twojepc (autor: kombajn4 | data: 7/11/10 | godz.: 06:03)
    To mój pierwszy post na tym portalu, aczkolwiek czytam was wszystkich od kilku lat. Mam kilka uwag:
    morgi : kiedyś twoje posty miały sens i dołączałeś linki do zachodnio języcznych artykułów , które na dany temat czytałem z zainteresowaniem
    Sony Vaio: kiedyś w jednym z portali prowadziłem 3 dniową dyskusje (stojąc po stronie AMD) z fanem INTELA. Dostałem puźniuej podziękowania od portalu za rzeczową i interesującą dyskusje. Myśle że naprawde chciałbys celować w coś takiego zamiast marnować się pisząc propagande.
    @ AMD_Master i innych wyznawcóf : Przesada i to gruba, AMD ma dobre (miejscami lebsze) produkty, ale nie warto wczynać krucjaty za każdym razem jak pojawia się jakaś nowość, z którejś z firm.


  73. @Crysis 2 for gtx580 (autor: franc# | data: 7/11/10 | godz.: 08:09)
    kto wierzy w to, że crytek robi coś specjalnie dla NV (za te niby 2mln$) jest nieźle naiwny. Crytek potwierdził kilkakrotnie, oficjalnie, że celem Crysis 2 są... KONSOLE!. Na PC Crysis nie zrobił furory i teraz Cevat olewa PC. Naturalnie oleje również NV i AMD i ich kase, bo na konsolach zarobić można znacznie więcej. I już to widze, że bym robił development w swojej firmie żeby uszczęśliwić na palcach liczonych posiadaczy gtx580 - LOL.
    Powiedzmy sobie szczerze: dane z niektórych portali śmierdzą na odległość - ploty, pobożne życzenia i pomówienia.
    Niech żyje konkurencja!


  74. franc# (autor: Markizy | data: 7/11/10 | godz.: 08:58)
    Crysis 2 nie będzie na obecne konsole, jak coś to na nadchodzące, bo tak to by się cofnęli po przed 1, a tedy to by już nic nie sprzedali jak by wyszło to na jaw. Tym bardziej że obecne konsole mają już koło 4-5 lat wiec nadchodzi czas na zmiany. I prędzej przygotują grę pod nową generacje konsol, niż pod starą. Ale to tylko moje zdanie.

  75. . (autor: wukilah | data: 7/11/10 | godz.: 09:38)
    .

  76. @up (autor: Vitorek | data: 7/11/10 | godz.: 10:41)
    przynajmniej nie pluje jadem... :>

  77. Markizy (autor: Mario2k | data: 7/11/10 | godz.: 11:26)
    Brednie , brednie piszesz kolego

    Zapewniam Cie ze Crysis 2 bedzie w wersjach na obecne konsole PS3 i XKloca360

    Nowych konsol nie mozna sie spodziewac wczesniej niz w drugiej polowie 2012 roku przy czy jest calkiem duza szansa ze tego nie doczekamy
    big boom............


  78. kombajn4 (autor: morgi | data: 7/11/10 | godz.: 11:35)
    Linki sa tam gdzie byly licze na rewanze, ale to jak rywalizacja naukowaca z kaznodzieja, licz na dowody tylko z jednej strony.

  79. @wukilah (autor: trepcia | data: 7/11/10 | godz.: 11:43)
    Nawet mnie nie znasz a oceniasz :-) Za młody jesteś stażem na tym portalu by cokolwiek móc o mnie powiedzieć więc lepiej będzie, jeśli zamilczysz.

  80. morgi zły przykład :D (autor: cyferluu | data: 7/11/10 | godz.: 11:46)
    to bardziej jak rywalizacja fana AMD z fanem NVIDIi :P

  81. @morgi (autor: trepcia | data: 7/11/10 | godz.: 11:48)
    "licz na dowody tylko z jednej strony"

    Masz rację, z ujadających i kłamiących piesków Intela nie można liczyć na fakty. Same papierki i rewelacje rodem z faktu.


  82. . (autor: trepcia | data: 7/11/10 | godz.: 11:50)
    .

  83. @wukilah (autor: bananowy song | data: 7/11/10 | godz.: 12:22)
    Ty nie prezentujesz niczego poza czystym chamstwem. Rzucisz tylko jakiś tekst (maksymalnie 1 zdanie) które zupełnie nic nie wnosi do tematu i jesteś z siebie zadowolony...

  84. @up (autor: wukilah | data: 7/11/10 | godz.: 12:49)
    Jedno zdanie wystarczy, by podsumować poziom, jaki reprezentujecie.

  85. @wukilah (autor: trepcia | data: 7/11/10 | godz.: 13:05)
    W przeciwieństwie do Ciebie ja wiem, co robie i jaki mam zlew z tego portalu. Mówiłem Ci, jesteś dziecko za młode stażem na tym portalu by móc wydawać o mnie jakiekolwiek opinie.
    Znałbyś mnie lepiej to wiedział być, że już witki mi opadły przez niereformalnego morgiego i piszę teraz zupełnie jak on.

    A więc ujadaj dalej piesku :-)


  86. @morgi (autor: PCCPU | data: 7/11/10 | godz.: 13:15)
    Ty naukowcem? Buhahaha! Na 1 000 000 glupot ktore wypisujesz 1000 kinkow z glupotami chodzby do jakiegos forum i utozsamiasz sie znaukowcem? :-D Jesli ty jestes naukowcem to Leonardo Da'winci XXIw :-D Nie ma to jak naukowy obiektywizm w Twoim wydaniu ;-)

  87. @morgi (autor: PCCPU | data: 7/11/10 | godz.: 13:15)
    Ty naukowcem? Buhahaha! Na 1 000 000 glupot ktore wypisujesz 1000 kinkow z glupotami chodzby do jakiegos forum i utozsamiasz sie znaukowcem? :-D Jesli ty jestes naukowcem to Leonardo Da'winci XXIw :-D Nie ma to jak naukowy obiektywizm w Twoim wydaniu ;-)

  88. @morgi (autor: PCCPU | data: 7/11/10 | godz.: 13:15)
    Ty naukowcem? Buhahaha! Na 1 000 000 glupot ktore wypisujesz 1000 kinkow z glupotami chodzby do jakiegos forum i utozsamiasz sie znaukowcem? :-D Jesli ty jestes naukowcem to Leonardo Da'winci XXIw :-D Nie ma to jak naukowy obiektywizm w Twoim wydaniu ;-)

  89. Galeria zdjęć Radeona HD 6970 (autor: arco2006 | data: 7/11/10 | godz.: 14:18)
    już pomału są fotki HD6970 :) i GTX580 na dniach będzie - walka - wydajność/cena. :)
    http://nvision.pl/...970--News-18337-ndetails.html


  90. i jeszcze tu na zagranicznej. (autor: arco2006 | data: 7/11/10 | godz.: 14:23)
    http://vr-zone.com/...-hd-6970-pictures/10240.html

  91. . (autor: wukilah | data: 7/11/10 | godz.: 18:57)
    .

  92. bardzo ciekawie będzie zapowiadał się rywalizacja (autor: Qjanusz | data: 7/11/10 | godz.: 19:47)
    Od dawna zapowiadany i zaplanowany HD6970, konta sklecony na potrzeby chwili i wyklepany na kolanie GTX580

    Nie mam zamiaru prorokować kwestii wyższości jednej karty nad drugą, bo wróżką (wróżem???) nie jestem i być nie chcę.

    Fakt jest taki, że obie będą żłopały ogromne połacie energii. Wiadomo też że premiery przypadną przed świętami, a więc dla nas oznacza to ucztę chłonięcia testów, porównań i recenzji. I to produktów nie byle jakich, bo chodzi o sam TOP. Konkurencja na najwyższych stołkach.
    Doczekać się już nie mogę :-)


  93. @wukilah (autor: trepcia | data: 7/11/10 | godz.: 20:24)
    Widzę, że poza prostym niczym blat stołu ubliżaniec nic nie potrafisz wnieść do dysputy. Kilka słów na odczep się i dziękujemy, nie? ;-)

  94. @trepcia (autor: wukilah | data: 7/11/10 | godz.: 22:00)
    "prostym niczym blat stołu". Chyba płaskim. Ale czego wymagać od prostaka.

  95. zbliza sie zbliza... ;) (autor: Jarek84 | data: 7/11/10 | godz.: 22:14)
    http://www.fudzilla.com/...yman-radeo-hd6970-specs

    Czyli 24 SIMDY z taka sama ilością TMU na blok jak w pochodnych evergreenow. Poza tym na chinskich portalach gdzie niegdzie przebakuja o 6 teselatorach kolejnej generacji.

    Ciekawa bedzie walka w high-endzie...


  96. trepcia (autor: morgi | data: 7/11/10 | godz.: 22:21)
    Wow z takim argumentem ponizej pasa nie moge dyskutowac, to poza moja liga, moze wpisuje sie w fanowska, zwykle takie tu dostarczaja plus wiazania ust, czy raczej lamanie klawiatury za pisanie oczywistosci.

  97. ... (autor: cyferluu | data: 8/11/10 | godz.: 00:43)
    jarek. żadna mi rewelacja. Ja mogę przebąknąć o 90 teselatorach 3ciej generacji :D poczekajmy na oficjalne testy. poczekajmy na wiecej testów. poczekajmy aż bedziemy mieli w domu obie karty i sami porownamy wydajnosc :D ahhh marzenie.

    Gdyby idac do sklepu po karte można by było sobie przetestować w grach obie karty (np. 580 i 6970) i wybrać tą która spełnia nasze oczekiwania...


  98. @wukilah (autor: trepcia | data: 8/11/10 | godz.: 00:48)
    Wszystko zależy od tego w ilu wymiarowej przestrzeni rozpatruje się dany przedmiot, nie :-)

  99. No to mamy perwsze wyniki 6970 (autor: speed | data: 8/11/10 | godz.: 03:38)
    CPU --4GHz krecony 9650 ex.
    8GB Pamieci
    SSD
    rozdzielczosc 2560x1600 ( tylko ta rozdzielczosc)
    Gry - wiekszosc wojennych CoD wszystkie ,BFBC2, i.t.d
    Porownanie do 480 lekko kreconej (30Mhz ponad referent)
    Najmniejsza roznica w srednich klatkach 38% najwieksza 78% . we wszystkich grach minimalna ilosc FPS jest wieksza o srednio 42-63% . Test z teselecji extrim wydajniejszy jest od 480 o 44%.
    Jak nowy nabytek (ofermy) bedzie taki jak zapowiadaja to bedzie ciekawie.
    Pobor pradu w grach od 220W do 276W.

    Morgi i reszta nawiedzonych ruszcie dupu i robcie cos ciekawego a nie wypisywanie tych bzdetow bo jajca mozna robic do czasu a potem to juz jest nie ciekawe i wychodzi ze z Wami nie ma co dyskutowac .


  100. Speed mówi dobrze (autor: rookie | data: 8/11/10 | godz.: 09:00)
    A z fanbojami tak jak z klientami media-marktu - ''powinni tego zabronić''

  101. @cyferluu (autor: Jarek84 | data: 8/11/10 | godz.: 09:04)
    tylko, że spekulacje chiphella nt bartsów, które Chinczycy mieli już wcześniej, jak najbardziej się sprawdziły, więc dlaczego nie ufać im jeśli chodzi o Caymana? Tym bardziej że i nt GTX580 pewnie sprawdzą się w 100%...
    Mnie najbardziej martwi, że karta ma mieć TDP podobne, bądź troche mniejsze niż GF110, to jak podaje fudzilla w furmarku moze skoczyc do 300W O_o

    speed - skąd masz wyniki?


  102. a i jeszcze jedno (autor: Jarek84 | data: 8/11/10 | godz.: 09:08)
    wiec ze zmiana mojej slabej paczki z C2D 8200 poczekam do drugiego kwartalu pewnie (tym bardziej ze powinny byc juz nowe generacje procesorow obu firm jak i sytuacja na rynku GPU powinna sie wyklarowac)

  103. @DYD (autor: Marek1981 | data: 8/11/10 | godz.: 10:39)
    Może coś zrobisz z wukilah ??

    Nie znalazłem żadnej sensownej wypowiedzi w tym newsie tylko oskarżenia i wyzwiska. Myślę że czasowy ban by mu lekko pomógł.


  104. @speed (autor: Qjanusz | data: 8/11/10 | godz.: 10:41)
    jeżeli potwierdzi się to co piszesz, to bastion nVidii płynie...

  105. ...up (autor: Marek1981 | data: 8/11/10 | godz.: 10:46)
    Dzięki tego typu użyszkodnikom coraz mniej się wypowiadam, zresztą nie tylko ja ale zauważyłem brak wypowiedzi dużej ilości rozsądnych użytkowników tego portalu.

  106. @Marek1981 (autor: Qjanusz | data: 8/11/10 | godz.: 16:50)
    Bastion nVidii to teselacja. GTX480 to potwór w tej dziedzinie. GTX580 m być obcięty sporo z GPGPU.

    Jeżeli wynik testu z teselecji extrim w Caymanie jest większy od 480 o 44%, to jak to byś ujął i co Ci nie pasuje w mojej wypowiedzi?

    Jeżeli nie masz koncepcji napisania czegoś wnoszącego, to bądź konsekwentny w kwestii swojego wypowiadania się...


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.