Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Poniedziałek 12 stycznia 2009 
    

Obniżka cen kart ATI Radeon HD 4800 X2


Autor: Zbyszek | źródło: X-bit Labs/Inne | 08:04
(51)
Firma AMD obniżyła cenę kart graficznych ATI Radeon HD 4870 X2. Sugerowana przez producenta cena kart wynosi teraz 449 USD, wobec dotychczasowej sumy 549 USD. Warto dodać, że jest to pierwsza obniżka od momentu wprowadzenia akceleratorów na rynek. Zmiana bezpośrednio związana jest z pojawieniem się dwuprocesorowych kart GeForce GTX 295, których cena kształtuje się w Europie na poziomie około 450 euro. Konkurencyjny Radeon HD 4870 X2 kosztował dotychczas około 420 euro, jednak po obniżce jest już dostępny w pierwszych sklepach za równowartość 355 euro. O około 50 euro spadła natomiast cena modelu HD 4850 X2, która jest teraz niższa od ceny GeForce GTX 285 i 280.

 

    
K O M E N T A R Z E
    

  1. tyle ze i tak wolę gt 295 (autor: browar | data: 12/01/09 | godz.: 09:57)
    BO JEST SZYBSZA a do tej pory ATI brylowała tylko w tym zę ma najszybszą kartę 2GPU co było zresztą tanim chwytem pod publikę i laury za 1 miejsce nie należały się . Liczy sie wydajność jednego GPU a tu jakoś ATO od dawna stara sie tylko dogonić NV i dobrze .

  2. browar (autor: morgi | data: 12/01/09 | godz.: 11:08)
    Dualik jest nic nie wart, ale fakt ze Nvidia znowu jest najlepsza i amd drzy w posadach o zarobek i stad takie newsy.

  3. @browar (autor: ligand17 | data: 12/01/09 | godz.: 11:13)
    Ja tam wolę kartę, która jest o 2% wolniejsza 10% tańsza i bierze mniej prądu. Ale może jestem nienormalny?

  4. GTX295 jest szybszy od 4870X2? Wg kogo? (autor: KuTeR | data: 12/01/09 | godz.: 11:32)
    Na większości serwisów stwierdzili, że nowy GeForce nie odebrał palmy pierwszeństwa Radeonowi gdyż w bardzo wysokich rozdzielczościach Radeon radzi sobie lepiej a wiadomo, że nikt na takiej karcie nie będzie grał w 1280x1024. Zresztą tak naprawdę to są karty dla prasy i przynoszą one straty. NVIDIA chciała odzyskać prestiż i to się jej nie udało.

  5. @Kuter (autor: agnus | data: 12/01/09 | godz.: 12:03)
    Co Ty farmazonisz kolego, chyba czytasz bencharki gazetek Media Markt skoro twierdzisz że Ati pozostało szybsze.
    Co prawda niewiele ale nV jednak wypuściła szybszą kartę i to ona dzierży palmę wydajności. Inna sprawa że karta AMD jest bardziej opłacalna, jeśli w tym segmencie można mowić o opłacalności w ogóle.

    Podaj przykłady tej "większości" serwisów twierdzących że GTX295 jest wolniejszy od HD4870X2.


  6. @Kuter ma rację (autor: Iras89 | data: 12/01/09 | godz.: 13:36)
    Na nowych sterownikach ATI z AAx4 i x8 gniecie Nvidie w wielu znaczących tytułach. To, że niektórym redakcją nie chciało się przetestować karty na nowych sterach to ich ogromny błąd!!!. Wyniki 4870x2 sięgające 260% wydajności 4870 1GB pokazują jak AMD wzięło się w garść i ma o niebo lepsze skalowanie od NVIDII. W końcu ich taktyką są małe chipy i komentarze typu po co porównywać jedno układową do dwu są bez sensu. Za to ATI oferuje nam ogromną dbałość o rynek middle- end- miejmy na uwadze wypuszczenie gniota 8600GTS za 700zł wolniejszego od poprzednika !!! Karty tego pokroju przeznaczone są do rozdzielczości 2560x1600
    http://www.computerbase.de/..._geforce_gtx_295/14/
    http://pclab.pl/art34932-16.html
    http://pclab.pl/art34932-15.html


  7. Nvidia (autor: Elektron | data: 12/01/09 | godz.: 13:48)
    jest znowu prawie najlepsza, a morgi jest dalej takim samym (wstawić, co ślina na język przyniesie) jak był hehe. Normalnie klapki na oczach, no ale cóż zrobić.
    NV wypuściła kolejny kotlecik, ale fanbojom smakuje jak świeży. Niech tylko wyjdzie nowy radek i niech zrobią z niego X2, to NV będzie musiała do tego GTX'a dodać wiele przypraw, żeby kotlet znowu smakował.


  8. @Iras (autor: agnus | data: 12/01/09 | godz.: 14:01)
    By-zy-du-ra. 2560 na jakich panelach odpalisz? 30"? Kto ma takie kolosy na biurkach? 0,5% populacji Polski? Nawet jeśli brać pod uwagę zachód to osiągnięcie 2560 jest marginalnie pomijalne. A w 1600 czy 1900 pix to karta nVidii jest szybsza i co tutaj się czarować? Przecież to nawet widać na linkach, które podałeś.

    Karty tego pokroju przeznaczone są do hi-endowych zestawów dostępnych na rynku. Dla 24". Jak ktoś chce grać na scianie to ma od tego X-Boxa.

    Kibicuję AMD ale nie naginajmy rzeczywistości dla własnego widzi-misie.


  9. @agnus (autor: Marek1981 | data: 12/01/09 | godz.: 14:05)
    Zanim kogoś oskarżysz to poczytaj testy nie tych z media markt :) Fakt jest taki, że nowa kanapka od nvidii jest o dużo lepsza w niższych rozdzielczościach, w wyższych wydajność się wyrównuje, no może małe wskazanie na gtx295 w grach gdzie nie ma patcha do dx10.1. Co do nowych sterów przetestuje i zobaczę co pomagają:)

  10. @Marek1981 (autor: agnus | data: 12/01/09 | godz.: 14:12)
    Czytam, czytam :) Co do 10.1 to już pisałem na jakimś forum - nVidia musiała sporo dać na mszę że to się nie upowszechniło :) Karty ATI dzięki temu dostają niezłego kopniaka.
    Inna sprawa - zwracam honor Irasowi - że z nowymi sterami produkt Ati zyskuje nawet w 1600 i 1200. Pytanie tylko czy ma to znaczenie przy niegrywalnych FPS i na podstawie jednego tytułu. Poczekajmy jak się sytuacja wyklaruje.


  11. @agnus (autor: ligand17 | data: 12/01/09 | godz.: 14:37)
    Trochę masz rację - te karty są przeznaczone do grania w wysokich rozdzielczościach. 1920x1200 to nawet pojedyncze R4850/GTX260 pociągną. Zostaje 2560x1600. I tutaj znowu jest zonk, bo z jednej strony - jak sam zauważyłeś - takich monitorów nie ma zbyt wiele osób (i właśnie te osoby mogą kupić taką kartę - skoro kogoś stać na monitor za 4K, to stać go będzie i na kartę za 2K), ale z drugiej strony na panelu 2560x1600 można spokojnie ustawić normalne 1280x800, które wygląda super i nie wymaga karty wielordzeniowej - znowu kłania się R4850/GTX260. Ale jeśli ktoś się uprze, to może kupić kartę multi-GPU do grania w najwyższych rozdzielczościach - a tutaj (przy obecnych sterownikach) wydajniejszy jest R4870X2.

  12. ... (autor: Elektron | data: 12/01/09 | godz.: 15:01)
    NV jest droższa aktualnie od radka o 300zł. Biorąc pod uwagę, że takie kominy kupuje się, żeby grać w wysokich rozdziałkach, np 1650x i 1920x na 22" i 24" które są coraz bardziej popularne, grafy reprezentują ten sam poziom opłacalności zakupu. Chociaż chyba jeszcze do nas nie dotarły te 50E obniżki ATI. Kolejne 150zł mniej w Polsce (zamiast minimum 200zł :P), więc wtedy raczej skłaniałbym się bardziej w stronę ATI.

  13. czyli... (autor: jaromir | data: 12/01/09 | godz.: 15:28)
    ... jednak mimo ogromnego wysiłku nVidia nie zrealizowała swoich zapowiedzi odnośnie killera dla 4870 X2. Co się z tą firmą dzieje. Większe zasoby, większe możliwości... dlaczego tego nie wykorzystuje?

  14. @ligand17 (autor: agnus | data: 12/01/09 | godz.: 15:36)
    Zgadza się, rzeczywiście wielogłowy Ati dostaje małego kopniaka z nowymi sterami ale weźmy pod uwagę że GTX295 pracuje na premierowych sterach.. Ciekawa będzie walka teraz. Produkty są dosć zbliżone.

  15. OMG (autor: Wyrzym | data: 12/01/09 | godz.: 16:16)
    Co wy tu w ogole wypisujecie, te karty w niskich rozdzielczosciach walan nie rzadko ponad 100klatek na luzie, jesli wy widzicie roznice pomiedzy 120 klatek a 100 to ja wysiadam. Chyba to logiczne ze karta jest slabsza jesli na najwyzszych trybach jest szybsza, a czy ktos taki bedzie w stanie wlaczyc to juz inna sprawa.
    @Browar: mowisz ze liczy sie wydajnosc jednego GPU to moze pojdzmy dalej twoim tokiem rozumowania i porownajmy wydajnosc kazdej pojedynczej jednoski shaderujacej co? bo przeciez rozne ich maja ilosc, a co z CPU i wieloma rdzeniami? tez bedziemy mierzyc wydajnosc jednego rdzenia? :>


  16. Nic to nie pomoze (autor: morgi | data: 12/01/09 | godz.: 16:20)
    dualiki to deadend, to produkt zbedny i szkodliwy z pkt. widzenia historycznego oparcie produkcji tylko na tym prowadzi do przejecia przez...Nvidie.

  17. ... (autor: Wyrzym | data: 12/01/09 | godz.: 16:55)
    zem to napisal
    " Chyba to logiczne ze karta jest slabsza jesli na najwyzszych trybach jest szybsza
    Mialo byc ze karta jest slabsza jesli w najwyzszych trybach jest wolniejsza ^^


  18. @morgi (autor: antrax | data: 12/01/09 | godz.: 16:59)
    skoro twierdzisz ze dual to deadend to po co je robią i po co robią procesory dwu rdzeniowe czy cztero rdzeniowe, przecież idea jest taka sama?

  19. Zbiorczo (autor: ligand17 | data: 12/01/09 | godz.: 17:00)
    @Elektron: do 1680x1050 i 1920x1200 spokojnie wystarcza R4850 za 1/3 ceny dwurdzeniowca. Dopiero w 2560 mid-end jest zbyt słaby, ale wtedy można ustawić 1280x800 i po problemie.
    @agnus: jasne. Poczekamy - zobaczymy, ale na razie skreślanie którejkolwiek z kart jest głupotą.
    @morgi: nieprawda. Pierwszą dwurdzeniową kartą dla zjadacza chleba było ATi Rage Maxx. I producent jakoś nie został wchłonięty przez nVidię.


  20. antrax (autor: morgi | data: 12/01/09 | godz.: 17:14)
    I tu sie mylisz, idea nie jest ta sama i dlatego to nie dziala na gpu. Wszystkie te propozycje dual GPU sa deadend.

  21. multigpu (autor: power | data: 12/01/09 | godz.: 17:25)
    gdyby mozna było dalej niskim kosztem podnosic wydajnosc jednego gpu to by nie bylo mulitgpu, ale jest inaczej.
    w przyszlosci karty graficzne beda tylko wieloprocesorowe (multigpu) i stawiam na rozwiazanie jakie wprowadza amd male proste gpu zamiast olbrzymich monstrow z miliardami tranzystorow.


  22. @morgi (autor: 7eki | data: 12/01/09 | godz.: 17:43)
    Nvidia nie zdołała stworzyć grafiki szybszej od 4870x2 bo nie mają GDDR5. W dodatku wykorzystali mniejszy bufor pamięci, który nawet pojedynczemu 260 bywał wąskim gardłem. 295 można nazwać małym Epic Failem i dowodem na to, że core216 nie był jedyną żenującą dziecinadą w ich wykonaniu. Nv przez ostatnich 6 miesięcy może powalczyć z ATI tylko ceną. Na tym polu też nie było im do tej pory łatwo i łatwo nie będzie sądząc po owych natychmiastowych obniżkach cen dwurdzeniowców ATI. Co do przyszłości multi gpu... Rozwiązania takie dają konsumentom lepsze możliwości rozbudowy platformy, zdarza się już nawet, że rozwiązania multigpu wykazują ponad 100 procentowy wzrost wydajności przy zastosowaniu drugiego identycznego GPU. Nie martw się. Wszystko zmierza w dobrym kierunku :) BTW nVidia mogłaby wreszcie uaktualnić obsługiwane przez swój sprzęt biblioteki DX. Nawet S3 nie jest tak bardzo w tyle...

  23. pytanie (autor: Marek1981 | data: 12/01/09 | godz.: 18:26)
    dlaczego tak dużo testerów nie zrobili testów w wyższych rozdzielczościach i max detalach??
    Przecież te grafiki są po to tworzone.


  24. ... (autor: kulapeta | data: 12/01/09 | godz.: 18:34)
    W ogólnym rozrachunku i tak ATI zasługuje na większe laury, bo demon od Nvidii miał znokautować/zatrzymać czerwoną torpedę, a tu kicha, co najwyżej jest (narazie) ciut lepszy.

    @liegend17: zgadzam się z Tobą, bo kto kupuje taką kartę do gry w rozdzielczości 1680 czy nawet 1920.
    Do takich wystarczy spokojnie: R4870 lub GTX 280.
    R4850 to jednak trochę za mało, zwłaszcza 1920x1200.
    Co do poboru energii, to GTX pobiera jej mniej.
    --->http://pclab.pl/art34932-18.html

    @7eki: ''Nv przez ostatnich 6 miesięcy może powalczyć z ATI tylko ceną''- nie zgadzam się, bo GTX 280/285 to przecież jednochipowe, najwydajniejsze układ na rynku.


  25. @power (autor: agnus | data: 12/01/09 | godz.: 18:44)
    Może nie multigpu ale na pewno multicore. Architektura architekturą ale bez końca się nie da. Tzn da się ale przestanie to być opłacalne. Wyrokuję że już za 2-3 generacje zaczną kombinować z multicore, jeśli już tego w labach nie robią, bo że na deskach mają to dałbym sobie potoki obciąć.

  26. ligand17 (autor: Elektron | data: 12/01/09 | godz.: 18:48)
    wiem, że do większości gierek styknie na razie 4850, bo mam i testowałem na 24" asusa w 1920x1200. Zmiana rozdziałki na wyższą praktycznie nie robiła karcie różnicy. Nigdy nie podniecałem się grafiką w grach, ale nowy PoP w takiej rozdziałce ładnie się prezentował :)

  27. Agnus (autor: accerian | data: 12/01/09 | godz.: 19:36)
    Chlopie co Ty wypisujesz :) Nie chce byc wredny i nie mily. I nie bede :) poprostu Ci cos wyjasnie.
    Shader=Core :) Grafiki są już multi core. Tak naprawde są 2 drogi rozwoju na ten momęt. Multi Gpu(w tym roznie warjacje typy 3gpu=1master 2slave) i 3D Gpu


  28. accerian (autor: morgi | data: 12/01/09 | godz.: 20:22)
    Mam pomysl, pomysl nad FASN8, albo klastrowymi serwerami, tam sa multicore wg ciebie?

  29. power i cala reszta (autor: morgi | data: 12/01/09 | godz.: 20:25)
    MultiGPU to skonczona technologia, zwlaszcza to widac na konfiguracji 3x i 4xGPU Nvidia sama chciala takie Tri zapodac, ale wynik byl zalosny, bo w wyzszych rozdz. ograniczenia architektur PC sa zbyt potezne.

  30. morgi (autor: Dzban | data: 12/01/09 | godz.: 20:54)
    ograniczeniem są ich spece od driverów którzy spierdolą wydajność najszybszych kart

  31. morgi (autor: Markizy | data: 12/01/09 | godz.: 20:59)
    bo żeby GPU miało lepsze wyniki musi wyrobić za nim CPU.

    Ograniczać wydajność może portowanie (czy jak się to nazywa) gier z konsol na PC.

    MultiGPU to jest jednak przyszłość, bo układy łatwiej się projektuje, wydajność zwiększyć można zwiększając ich ilość. Technologia jeszcze nie dopracowana pod względem programowym (jak i sprzętowym niekiedy), ale z czasem będzie się to zmieniać, i widać w niektórych gierkach skalowanie 100%, a to o czymś świadczy.


  32. @accerian (autor: agnus | data: 12/01/09 | godz.: 21:26)
    Masz racje. Nie pomyslalem o tym :) Niemniej jednak wiec sens robic dual gpu w ogole, hmm? Nie latwiej zintegrowac prawdziwe autonomiczne rdzenie?

  33. @Dzban (autor: antrax | data: 12/01/09 | godz.: 21:26)
    :) ale mnie rozbawiłeś tym komentarzem
    Ale co prawda to prawda


  34. @Elektron (autor: kulapeta | data: 12/01/09 | godz.: 21:44)
    To odpal w rozdzielczości 1920x1200:
    Crysisa, Stalkera, Far Cry 2 o GTA 4 już nawet nie wspomnę.
    Oczywiście da się, ale w jakich ustawieniach?
    Jak mam wydać na grę 100zł i grać w nią na min. detalach, to wolę sobie darować taki tytuł.
    Sorry, ale jak Ktoś mi pisze, że mu prawie wszystkie gry chodzą na R 4850 ( w takiej rozdziałce, do tego jeszcze brakuje-full det.).
    Chyba, że grasz w Mario?


  35. @kulapeta` (autor: agnus | data: 12/01/09 | godz.: 21:52)
    Własnie, dokładnie to samo pomyślałem oglądając benchmarki tych kart w w max rozdzialkach i ustawieniach. Kupuję kartę za 1500-1800zł i mam... 6FPS. Super. Pytanie tylko czy to producenci sprzetu są winni czy programiści? A może kwestia sterowników.. Jak napisał Dzban "spece od driverów".

  36. @kulapeta (autor: Marek1981 | data: 12/01/09 | godz.: 21:54)
    Co do GTA4 to nie mam pojęcia ale w pozostałe gry gram w full detal w rozdzielczości 1920x1080.
    Mam Radosława 4870. Ale nie tylko to się liczy. Jak ktoś ma np GTX280 i 2GB ramu i wł plik wymiany to czemuż tu się dziwować że marudzi??
    Dobrze dograna platforma ma też ogromne znaczenie.


  37. kulapeta (autor: Elektron | data: 12/01/09 | godz.: 23:58)
    kolego, bez nerwów. Odpalałem Pop, Far Cry 2, Death Space, te chodzą super płynnie w 1920x1200 na full detalach, tak przynajmniej pamiętam, bo na 1280x miałem zawsze na max ustawione i nic nie ruszałem oprócz rozdziałki, jak testowałem 24".
    GTA4 i Crisis to już inna bajka. Crisis nawet na małych rodziałkach jest pożeraczem wydajności, a GTA4 ma spierdzieloną optymalizację i można przeczytać o tym wszędzie. Na niczym super płynnie nie chodzi, ale mogę Cię zapewnić, że po tym jak zmieniłem rozdziałkę gra nie zmuliła jeszcze bardziej. Jedyne co zauważyłem, to to, że pod XP troszkę płynniej chodzi niż pod Vistą.


  38. GTA4 (autor: accerian | data: 13/01/09 | godz.: 00:20)
    "Na niczym płynnie nie chodzi" A tu Cie zdziwie q6600@4ghz i śmiga jak dzikie. Przy 1280x1024 na full wszystko gf8800gs324mb zero scin min 29fps max 50. Pamietajcie ze ta gra zostala napisana na Cella ktory posiada o ile sie nie myle 5rdzeni(a moze3)

  39. na full (autor: Elektron | data: 13/01/09 | godz.: 00:56)
    yhy pewnie, tylko, że na full to gra potrzebuje powyżej 512MB na grafie, więc u ciebie nawet nie dałoby się na to przełączyć. Poza tym, to cię zdziwię opinią, że mam w ps3 i na nim GTAIV wygląda dość że gorzej, to na 1080p też nie chodzi super płynnie !!! TAK na PS3!!! Jak się przełączy na 720p to wtedy zaczyna chodzić tak jak powinno. Ale nie ma co MARKETING działa całą parą. Fifa09 na opakowaniu i gdzie się da chwalą FULLHD. Super full HD i jakość obrazu gdzie nawet twarzy zawodnika stojącego 5m dalej, gdy wykopuje się bramkarzem nie widać. Na dodatek tnie na 1080 jak świna! Tak jak bym na starym PC w nowe gry grał. Ale PS3 super Cell i gry w FullHD.

  40. mam pomysł (autor: Elektron | data: 13/01/09 | godz.: 01:00)
    nagraj filmik z włączonym Frapsem, zobaczymy, co dla ciebie jest płynnym obrazem.
    Sprawdzałem na kompie ojca z HD4870 i jakimś C2D na 3Ghz i wcale płynniej nie chodziło niż u mnie, więc mam doskonały dowodzik, że gra jest zwalona.


  41. @morgi (autor: power | data: 13/01/09 | godz.: 02:53)
    napisze to krotko nie masz racji, a twoje wypowiedzi sa jak dzieci z piaskownicy, nie mam zamiaru dyskutowac z toba.

  42. Jeszcze jedna uwaga (autor: Marek1981 | data: 13/01/09 | godz.: 06:46)
    GTX290 jest o jakieś 25% głośniejszy od Radosława 4870x2 pod obciążeniem a ponad 2x w spoczynku. Toż to masakra.
    Jak dla mnie obie odpadają ze względu na generowany hałas, prawie tak głośny jak betoniarka:)


  43. @Elektron (autor: accerian | data: 13/01/09 | godz.: 11:42)
    Widze że czytanie ze zrozumieniem u Ciebie nie jest na najwyższym poziomie. Ja mam Q6600(4rdzenie 65nm) na 4ghz. Po pierwsze uno c2d jak sama nazwa mowi ma 2 rdzenie,po 2 uno:P 4ghz to troszke wiecej niz 3;)Po za tym gta4 nie dziala poprawnie na Ati i o tym wiadomo od kiedy PORT tej gry sie pojawil na Pc(w ps3 jest Nvidia,pewnie na dodatek jakis 8800 zmodowany). Procesor ps3 jest 8 rdzeniowy wiec mojemu prockowi do niego blizej. Plynnie oznacza dla mnie bez scinek + > badz =30fps. Ale skoro potrzebujesz dowodu to nagram Ci to demko,niech bedzie. Kolo 12pm sie pojawi.

  44. ... (autor: Elektron | data: 13/01/09 | godz.: 12:44)
    Dobrze zrozumiałem, co napisałeś, tylko chciałem dać porównanie jakie ja mam u siebie. HD4850 i 5600+ X2 kontra HD4870 i C2D - praktycznie to samo, ale to tylko na oko. Czekam na ten filmik, może skusze się wtedy na jakiegoś 4jajowca - może fenomka II ;)

  45. x2 vs c2d (autor: accerian | data: 13/01/09 | godz.: 13:11)
    Chlopie ... c2d e8400 na 3ghz + 4870 vs x2 5600+ z 4850 to nie to samo. Roznica jest dosc spora. Sprawdz po 3dmarkach grach i innych benchach. Roznica jest dosc spora.

  46. power (autor: morgi | data: 13/01/09 | godz.: 13:54)
    Argumenty prosze, a nie jakies kolokwialne uwagi. Dualiki sa do kwadratu, a moze beda do szescianu i nikt ze zdrowych na umysle testerow i recenzentow nie chwali tego rozwiazania, jako przyszlosciowego w tej obecnej formie, dlaczego bo po latach prac nad tym ciagle cierpi te same meki panskie i nie sa to sprawy wylacznie ze sterownikami, to koncepcja jest zla.

  47. Morgi (autor: Elektron | data: 13/01/09 | godz.: 14:57)
    to wymyśl coś lepszego. np architekturę dla pojedynczego układu która będzie 3x lepsza niż od pojedynczego do sześcianu.

    accerian
    Wiem, że nie to samo, upośledzony nie jestem. Chodzi o to że w GTA gówno za przeproszeniem widać, że to lepsze jest naprawdę lepsze. No to czekam na 0am ;)


  48. @morgi (autor: gindek | data: 13/01/09 | godz.: 22:09)
    ile ci placa za te herezje ?

  49. gindek (autor: morgi | data: 14/01/09 | godz.: 15:15)
    Jakie herezje, czyste fakty, wyprane z mitow, slajdy amd tworza wirtualna rzeczywistosc.

  50. XFX (autor: QAS | data: 14/01/09 | godz.: 15:45)
    nie trzeba jezdzic na Litwe Radki sa juz dostepne np. w sklepie internetowym Komputery24.Org
    Pod adresem sa cenki i dostepne modele
    Http://Www.Komputery24.Org/Index.Php?D=Szukaj&Producent=453&Pg=2


  51. morgi (autor: Dzban | data: 14/01/09 | godz.: 22:50)
    slajdy sprzed premiery Phenoma 2 pokryły się w 100% z wynikami testów z różnych portali

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.