Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Poniedziałek 14 grudnia 2009 
    

Wydajność GeForce GTX 380 i 360 według Nvidii


Autor: Zbyszek | źródło: TechPowerUp | 12:34
(53)
Do sieci przedostały się dziś slajdy przedstawiające wyniki testów wydajności najnowszych kart graficznych Nvidia GeForce GTX 380 oraz GeForce GTX 360, z układami o nazwie kodowej Fermi. Wydajność kart została sprawdzona w grach FarCry 2, Resident Evil 5 oraz Stalker Clear Sky i porównana do obecnych już na rynku GeForce GTX 295 i 285 oraz konkurencyjnych Radeonów HD 5970 i 5870. Jak łatwo zauważyć, wydajność GeForce GTX 360 jest wyraźnie większa od wydajności kart GeForce GTX 295 i Radeon HD 5870, natomiast GeForce GTX 380 jest zauważalnie szybszy od dwuprocesorowego Radeona HD 5970.

W zasadzie jedyną niewiadomą pozostaje specyfikacja testowanych GeForce GTX 380 i 360 - szczególnie interesujący jest fakt, czy obie z kart to konstrukcje jednoprocesorowe, co w praktyce oznaczałoby bardzo wysoką wydajność układów Fermi. Oczywiście należy wziąć pod uwagę, że prezentowane wyniki pochodzą bezpośrednio od producenta.


 


    
K O M E N T A R Z E
    

  1. dlaczego pokazują wydajnośc papierowych kart (autor: bajbusek | data: 14/12/09 | godz.: 12:50)
    w stosunku do rzeczywistych produktów konkurencji ?

    AMD powinno pokazać słupki serii 6000 :)


    Nvidia jest pośmiewiskiem. Szkoda...


  2. wreszcie jakies dane na temat fermi :) (autor: power | data: 14/12/09 | godz.: 12:53)
    Szczerze mowiac jestem zaskoczony tym ze karty z jednym gpu sa az o tyle bardziej wydajne wzgledem karty z 2xgpu.

  3. .:. (autor: Shneider | data: 14/12/09 | godz.: 13:09)
    power - jak bardzo trzyba byc naiwnym aby serio brac te informacje?

    fermi nikt na oczy nie widzial, nv przedstawia ludziom atrapy przy okazji zachwalajac niesamowita wydaajnosc.

    nie zycze nv zle, ale zamiast papierowych bajek niech przedstawia produkt ktory moze zostac poddany wiarygodnym testom, oraz niech bedzie w koncu dostepny, inaczej ceny ATI dalej beda leciec w gore.


  4. 666 (autor: insignis | data: 14/12/09 | godz.: 13:09)
    A ja życzę im jak najlepiej. Niech wyjdzie i zmiecie ATi, po całości - w ten sposób, za pół roku nowy Radeon zmiecie Fermi. Taki cykl jest najzdrowszy dla Nas!
    Stronniczości i fanbojstwu mówię NIE.
    Z plusów, przynajmniej już wiadomo skąd nazewnictwo Geforców 210,215,220,300,315..

    ::bajbusek:: Gdzie tam jest papier? Ja widzę PNG. :-)


  5. wlasciwa droga ;) (autor: mikay | data: 14/12/09 | godz.: 13:10)
    najpierw atrapa, teraz jakies wykresiki. a karty jak nie bylo tak nie ma :)

  6. Excel (autor: Barbarian | data: 14/12/09 | godz.: 13:20)
    Jakiś miłośnik Excela w nvidii miał wielką fantazję i śnił o Fermi. Zobaczył to jego szef i pyta się dlaczego te słupki takie niskie, a on na to, że na tym etapie badań możemy "trochę" zaimprowizować i podciągnął je 5x. Chłopak dostanie dużą premię na zakończenie roku a w 2010 wyleci z roboty.

  7. @Shneider (autor: power | data: 14/12/09 | godz.: 13:29)
    Trudno powiedziec ile jest w tym prawdy, trzeba poczekac do premiery.
    Czesc wykresow (radeon 5870, GF 285 i GF 295)maja takie same same wyniki jak w testach na tomshardware
    http://www.tomshardware.com/...d-5870,2422-12.html
    Biorac pod uwage ze GTX380 ma 512 shaderow, zas GTX285 ma ich 240 to zdjecie wyglada na w miare wiarygodne.
    Jezeli nvidia chciala tylko popsuc swieta dla amd to kij im w oko, bo ja i tak poczekam do premiery i oficjalnych testow zanim zmienie swojego gf 8800gts.


  8. insignis (autor: faf | data: 14/12/09 | godz.: 13:34)
    od kiedy zmiana karty co pol roku jest zdrowa dla nas ?:P
    w pol roku to nawet programisci nie opanuja optymalizacji bo juz sie inna karta pojawi :P

    i kto tu jest fanbojem heh

    gdzie te czasy jak stary dobby monster 3dfx czy Geforce2 GTs trzymaly w szachu wszystko przez przynajmniej dwa lata ? :)


  9. ::faf:: (autor: insignis | data: 14/12/09 | godz.: 13:46)
    Jestem fanbojem hardware'u komputerowego ogólnie pojętego, fakt :-(
    Wtopiłem.
    Dla Nas - dla rynku. Rozwoju technologii Waćpan nie zatrzymasz. Ale możesz mieć wybór!


  10. .:. (autor: Shneider | data: 14/12/09 | godz.: 14:32)
    power - mam coraz wieksze watpliwosci.
    jak mozesz pisac takie rzeczy? :-)

    karty nikt na oczy nie widzial, sa jedynie przypuszczenia co do realnej predkosci. nawet jak sie pojawia inzynierskie wersje, nadal to bedzie tylko namiastka faktow.
    najwiekszym sprawdzianem jak piszesz jest premiera, ale zeby odrazu na nia czekac? :-)
    logicznie podchodzac do tematu, produkt wybiera sie sposrod aktualnie dostepnych.


  11. .:. (autor: Qjanusz | data: 14/12/09 | godz.: 14:33)
    Nawet jeżeli te wykresy są autentyczne (w co absolutnie nie wierzę), to wiadomo że mając na papierze (czy png) logo nV, przedstawiają wydajność kart w najlepszym dla nV benchmarku.

    A mamy tutaj taką sytuację, że różnica TOPu nv i TOPu AMD to ok 10 fpsów. I to w najlepszym przypadku dla nV. Kiepsko. Poczekamy na ceny Fermi i odpowiedź AMD.

    btw: a gdzie są testy DX11???????


  12. ::Qjanusz:: (autor: insignis | data: 14/12/09 | godz.: 14:48)
    Na co komu Directx11? W ile gier ciupałeś, wykorzystujących Directx10/10.1?
    I takzwykły gracz nie zobaczy różnicy (bo są one śmieszne). Dx9 będzie na topie, dopóki nie będzie przełomu na miarę 3DFX. Dlaczego? Bo jak się przekonaliśmy numerek Dx gier nie sprzedaje, a w biznesie rozrywkowym (do którego z całą pewnością należą firmy growe) liczy się jedno - kasa.
    DirectX11, ok fajnie, jest to jakiś asset. Ale absolutnie żaden wyznacznik przy wyborze karty...


  13. Ja w sumie od niedawna "w pełni" korzystam z GF6600... (autor: agnus | data: 14/12/09 | godz.: 14:50)
    ... ;) Właśnie zmieniłem mu chłodzenie na nowe, nic nie terkocze. W 3D pogram i Word chodzi. PS też sprzętowo rysuje pikselki. Żyć nie umierać :)

  14. fermi (autor: mandred | data: 14/12/09 | godz.: 14:53)
    ciekawe jak będzie z kosztami produkcji bo coś mi mówi, że będą takie, że radki nie będą musiały tanieć.

    Najciekawsze jest to kiedy takie coś w ogóle powstanie. Bo najprawdopodobniej zrobiono obliczenie skoro GTX285 ma 240 shaderów i w FarCry2 ma 45 klatek, to GTX380 mając 512 shaderów będzie miał 96 klatek dodajemy ze 2 klatki bo to nowa architektura i mamy 98. Dla niepoznaki po obliczeniu przy Stalkerze odjęli trochę klatek bo jest pisany pod ati i mamy piękne wykresiki.


  15. Nawet jesli to byloby tylko poprawnie (autor: morgi | data: 14/12/09 | godz.: 15:06)
    psiks on i jest wielokrotna przewaga, ale to musi byc cos mocnego, zeby ati z radeonkami mialo kolejny cel do gonienia na 3 lata. Potem Nvidia moze pakowac walizki, w sumie juz mysla duzo o ion i tegra, szukaja kolejne dziury w ktorej mogliby wciskac CUDAcznosc i gry z archaiczna grafika.

  16. @morgi (autor: Barbarian | data: 14/12/09 | godz.: 15:12)
    Piszesz grypsem czy jakimś slangiem? Nic nie rozumiem z Twoich wynurzeń.

  17. @Barbarian (autor: mikay | data: 14/12/09 | godz.: 15:28)
    nie Ty jedyny. czytam i czytam to co morgi naplodzil i jakos tak nie bardzo rozumiem o co chodzi :)

  18. Skoro na slajdach NV (autor: Jarek84 | data: 14/12/09 | godz.: 15:33)
    wydajnosc ATI wyglada tak dobrze (mowie tu np o 5870 w stosunku do GTX295) to moje pytanie brzmi - po co kupować coś szybszego, skoro widac ze w bardzo wysokich trybach taki HD5870 sprawuje sie bardzo dobrze - plus ma DX11, jest cichy i polyka malo pradu. Co do NV to wyglada na to ze jesli naprawdę GF pokaza sie w tym maju, to wyglada na to ze NV bedzie musiala dalej gonic ATI, bo Ci beda mieli juz w zanadrzu nowa architekture do walki z Fermi.

  19. Ciekawe. Nie maja jeszcze finalnej wersji układu, (autor: geordie | data: 14/12/09 | godz.: 15:34)
    a już publikują wyniki. http://www.semiaccurate.com/...mi-a3-silicon-oven/
    Wąska specjalizacja - w fejkach


  20. Tyle w temacie. (autor: agnus | data: 14/12/09 | godz.: 15:46)
    http://img200.imageshack.us/...4442/3long20004.png

  21. ......... (autor: Marek1981 | data: 14/12/09 | godz.: 15:47)
    Jak dla mnie to ściema.
    http://www.tomshardware.com/...d-5870,2422-18.html
    Popatrzyłem na te testy i wyniki 5870 się zgadzają, co do 5970 popatrzcie na wyniki CF 2x 5870 i bija na głowę 380.
    Do tego biorąc pod uwagę fakt iż 380 to pewnie x2 to już tak różowo nie wygląda. Do tego dodać trzeba jeszcze z 2-3mc na wyjście, niespodzianka od AMD ( prawdopodobnie wydajność 5870 może być jeszcze 30% wyższa) i premiera HD6xxx pod koniec nast roku ( liczę już z poślizgiem).
    Pożyjemy zobaczymy....


  22. @Barbarian (autor: sz4rlej | data: 14/12/09 | godz.: 15:55)
    też to zauważyłeś? morgi pisze jak by chlapnął setkę. trzeba się bardzo skupić, żeby coś zrozumieć, albo napić się wódki ;)

  23. lol (autor: Wedrowiec | data: 14/12/09 | godz.: 15:58)
    dobre z virgem :)

  24. przestancie wszyscy marudzic... (autor: psemeq | data: 14/12/09 | godz.: 16:00)
    ATI tez rzucalo glodne kawalki jakie to nowe karty graficzne nie sa wydajne... a i tak kazdy kupi to co bedzie uwazal... jedni wezma ati, inni nvidie a trzeci beda mieli laptopa ze zintegrowana i beda mieli to w dupie...

  25. insignis (autor: Qjanusz | data: 14/12/09 | godz.: 16:06)
    a ciupię sobie powoli w Crysis DX10. W kolejce czeka Clear Sky DX10.1 A jak to skończę to zakupię sobie Dirt2, bo demko bardzo mi się podoba - DX10.

    W DX11 niestety jeszcze nie pogram, bo nV się strasznie ociąga, przez co radki 5XXX są zwyczajowo za drogie.

    A DX11 będzie standardem. Nie dlatego że gracz sobie zobaczy lepsze efekty niż DX9, ale dlatego że developerzy stworzą te efekty mniejszym nakładem pracy.

    I chociażby dlatego właśnie jakieś porównanie z DX11 powinno się pojawić.

    Ciekawe ile jeszcze razy w tym roku nV zapoda nam podobne ściemy.


  26. ::Qjanusz:: (autor: insignis | data: 14/12/09 | godz.: 16:14)
    Dirt 2 nie obsługuje Dx10/10.1 tylko i wyłącznie 9 i 11.
    Ogromna większość gier, w tym najlepszych jest tylko na dziewiątce ce.
    DirectX 11 będzie standardem tylko na pudełkach, może faktycznie wykorzystane lepiej będzie DirectCompute - ale do tego nie trzeba karty z Dx11.
    Właśnie po Twoim przykładzie widać, jak doskonale działa marketing. :-)


  27. morgi jest na klinie - kac męczył po stypie Larrabee, (autor: Qjanusz | data: 14/12/09 | godz.: 16:20)
    ale nie traćcie nadziei. Dojdzie do formy. Jeszcze nie jednemu krwi upuści.

    @psemeq, każda firma która rzuca głodne kawałki mające się nijak do wypuszczonych za chwilę produktów, skazana jest na takie traktowanie. Problem w tym ze od roku AMD wzorowo się wywiązuje z obietnic w GPU. A nV? Ta firma jest w tak niekomfortowej sytuacji, że cokolwiek by nie napisała, to będzie odebrane jako kłamstwo.


  28. insignis (autor: morgi | data: 14/12/09 | godz.: 16:34)
    Faktycznie DX11 to niewypal, narazie w oczach mediow i prezentacjach amd nic wielkiego, troche kotleta w stylu teselacji, ale uwalona wydajnosc koszmarnie, 1:0 dla Nvidii, ktora nie podnosi juz larum o DXy. Compute shader to tylko odpowiedz na CUDA, produkt wtorny, typowe bmw jak w polityce, Microsoft jest konserwatywny, bierze do api tylko to co juz przeszlo testy i dlatego nie ma fizyki jeszcze, potem moze pojawi sie klon psiksa.

  29. @insignis (autor: Qjanusz | data: 14/12/09 | godz.: 16:51)
    "Dirt 2 nie obsługuje Dx10" - masz kolego zaległości widzę. Doucz się, doczytaj i wracaj na forum.

    Co do reszty, to jak widać teselacja potrafiła obronić się i wypromować sama. Bez przepychania na siłę poprzez pakowanie kasy i odwalaniu roboty za developerów gier (Batman i FSAA) Punkt dla AMD.

    Na świecie analitycy prawie jednogłośnie mówią w temacie CUDA vs DirectCompute.

    A to że nV nie podnosi larum... A co oni w takiej sytuacji mogą podnosić, poza takimi które są tematem tego newsa.


  30. To najprawdopodobniej zwykły FAKE jakich wiele. (autor: KuTeR | data: 14/12/09 | godz.: 17:17)
    Całkiem możliwe, że to nie był przeciek kontrolowany - takie slajdy byle frajer może sklecić i zamieścić jako news, a potem cały świat powtórzy taką bzdurę. nVidia na tym skorzysta lub straci. Nie podniecajcie się tak bo nie ma czym. Gdyby mieli działające karty to by zorganizowali konferencję i pokazali je w akcji, żeby popsuć ATi Święta. Skoro nie mogą nawet tego...

  31. Fake czy nie (autor: coolart | data: 14/12/09 | godz.: 19:28)
    to jesli od NV fotki i wyniki to wyniki naszpikowane jak zwykle tak jak sterowniki. NVidi nie wieze bo ona od pocatku oszukiwala na sterownikach wiec nie ma co sie czarowa i zachwycac, tylko czekac na oficjalne testy z portali. Jesli to oficjalne foty to NV dodala tyle staran do sterow by je tak naspikowac by pokazaly jak najwieksze wyniki ktore w realu beda ciezko do uzyskania.l

  32. ... (autor: Aamitoza | data: 14/12/09 | godz.: 20:37)
    o, a czemu nie 3 albo 6 raza szybszy od gtx285, ładniej by to wyglądało do czasu premiery.

  33. przecież są dostępne (autor: Hitman | data: 14/12/09 | godz.: 21:16)
    nowe karty NV tylko że profesjonalne (quatrro ) więc zrobienie takich testów i wydajność niekoniecznie musi być wzięta z sufitu.. a że jest to monstrum pod każdym względem to widać i tu - szkoda że będzie to droga zabawka..

  34. Hehe (autor: dr1zzt | data: 14/12/09 | godz.: 21:23)
    Zrobić inne konto, gadać inaczej a Ci dalej to samo :( nuda....

  35. Qjanusz (autor: Jarek84 | data: 14/12/09 | godz.: 22:26)
    Ignisiowi chodziło pewnie o to, że dirt2 ma 2 typy rendererów na blaszaku DX9 i DX11:

    Np tu pisze jak byk już w pierwszym akapicie.
    http://www.pcgameshardware.com/...risons/Practice/

    A to, że ktoś odpali Dirta2 na Viscie z DX 10.1 rozumie sie samo przez się;)


  36. @Jarek84 (autor: Marek1981 | data: 14/12/09 | godz.: 22:44)
    Z tego co pamiętam nie wszystko w Dirt2 jest w dx11, nawet więcej prawie wszystko jest w 9.0c z dodatkami dx11 (karty z dx10.1 obsługują w trybie emulacji)

    Grałem w demo i powiem że po chwili grafika przestaje być ważna:) Choć nie powiem robi wrażenie ( ost w wyścigach robił na mnie tak pozytywne wrażenie nfs mw).


  37. Marek (autor: Jarek84 | data: 14/12/09 | godz.: 22:55)
    Nie dałoby się napisac gry pod w ShaderModel >= 4.0, gdyz gra nie moflaby zostac sprzedana na PS3. Efekty z DX11 to głównie teselacja na wodzie, flagach i tłumie bodajże plus ambient oclusion gdzieniegdzie. Co do emulacji, to jakoś to słowo mi się źle kojarzy w aspekcie wydajnościowym, a tutaj trzeba powiedziec ze np programisci od NFS powinni sie uczyc od tych z Codemasters;) DX 10.1 to tak naprawdę sprzęt ComputeShader ready stąd też może to mieć np marketingowe znaczenie w nowych kotletach NV.

  38. hitman (autor: Aamitoza | data: 15/12/09 | godz.: 02:04)
    Gdzie są dostępne te quadro? Bo premiera w maju.

  39. @ Aamitoza (autor: Hitman | data: 15/12/09 | godz.: 09:14)
    Masz racje pospieszyłem się z tą dostępnością.. nie mniej sample krążą tu i tam.. więc wcale nie uważam tych wyników za papierowe..

  40. prosze tutaj (autor: ZEFello | data: 15/12/09 | godz.: 09:38)
    http://www.in4.pl/...zwyk%b3e_oszustwo%2c20004.htm

  41. @Hitman (autor: Marek1981 | data: 15/12/09 | godz.: 09:39)
    Mam pytanie, bo widzę mało jarzysz.
    1) Czy gdyby NV miała już gotowe Quadro to już dawno nie pokazaliby nowej grafy ze zmienionym chłodzeniem a nie totalną atrapę.
    2) Czy gdyby krążyły karty profesjonalne to nie byłoby takich przecieków??
    3) Dlaczego NV oficjalnie nie potwierdziła lub zaprzeczyła tym testom??


  42. .:. (autor: Shneider | data: 15/12/09 | godz.: 09:43)
    ZEFello ;-))))

    nawet znalazl sie mlot morgiego, ktos mial wesoly wieczor.


  43. @morgi (autor: rookie | data: 15/12/09 | godz.: 12:23)
    Teraz to już nie wychwalasz nowego DX pod niebiosa bo twoja NV nawet dobrego DX 10.1 nie ma? A jeszcze w 2006 roku wychwalałeś DX10 pod niebiosa wraz z nowym geforcem i co? Vista i NV popsuły zabawę?
    Teraz DX11 jest zły bo AMD go ma? DX11 da więcej od 10 i jestem pewien, że wraz z grami na unreal engine 4, które mają się pojawić pod koniec 2010 roku, stanie się on standardem. W układach nv długo go jeszcze nie zainstalują...


  44. jak już pisałem to ściema: (autor: Marek1981 | data: 15/12/09 | godz.: 12:48)
    http://www.in4.pl/..._wyniki_to_oszustwo,20010.htm

  45. rookie (autor: morgi | data: 15/12/09 | godz.: 14:08)
    W 2006? Skad masz takie dane, zvisle chwalilem lub Nvidie? Nvidie to tylko jako sprzet do gier, jedyna firma, ktora spelnia to kryterium od poczatku do konca i na kazda kieszen bez wiekszych problemow, ale zagalopowales sie z tymi domyslami.

  46. DiRT2 i DX10 (autor: Qjanusz | data: 15/12/09 | godz.: 15:57)
    DiRT2 działa na silniku EGO. Ten z kolei oparty jest na silniku Neon, który zastosowano w pierwszej części i obsługiwał DX10. Tak więc EGO obsługuje wspierane we wcześniejszej wersji DX9 i DX10, oraz dodane dzięki AMD DX11. DX10.1 to abstrakcja dla tego silnika.
    Ludzie się mylą pewnie bo wszędzie są wywlekane zalety DX11 w porównaniu do DX9.

    A tak na prawdę prawdziwą moc DX11 zobaczymy wtedy, jak cała gra będzie pod ten standard napisana. A dlaczego to szybko nie nastąpi.... właśnie, konsole. Prawdziwe maszynki do nabijania kasy komu trzeba, a jednocześnie kula u nogi w świecie rozwoju gier.

    Co do wykresów... podoba mi się ten z Larrabee :-)


  47. Qjanusz (autor: mandred | data: 15/12/09 | godz.: 16:34)
    co do kuli u nogi to całkowita racja. Są obrońcy konsol bo wszystko dział bez martwienia się o wymagania przez lata tylko, że jakim kosztem. Wystarczy porównać np. Risen'a z PC i Xbox 360 to normalnie można pomyśleć, że to w ogóle zupełnie inne gry.
    Za to co kosztuje konsola i 5 gier do niej można mieć komputer na którym będzie się grało we wszystko o wiele dłużej i z o wiele lepszą grafiką niż na konsoli.
    W dodatku jak coś powstało na konsole, a potem zostało przełożone na PC to normalnie nie da się w to grać.


  48. Jasne jasne juz przy okazji dx10 byly bzdety (autor: morgi | data: 15/12/09 | godz.: 20:56)
    'a kiedy pojawi sie gra pisana pod standard' to sa zyczenia zapomnianych fanow, gry pisze sie pod licencje a nie pod standardy i na co komu dx10/11 jak to tylko pic na wode i mlyn na wode, koncert zyczen puste obietnice. Tworcy gier licza kase, a nie mysla co by tu wsadzic do grafiki, jak w Crysis nawsadzali i poszli ze stratami, wole poczekac na gry z pomyslem, a nie podniecac sie marketingiem.

  49. wiemy i rozumiemy morgi (autor: Qjanusz | data: 15/12/09 | godz.: 21:58)
    DX11 nie będzie obsługiwany przez Intela. Jechać trzeba.

  50. Ehh te zagrania zielonych (autor: Marucins | data: 15/12/09 | godz.: 22:06)
    "Do sieci przedostały się "

    Proszę puste dane, nic nie znaczące. Czy NVIDIA bierze nas za idiotów i myśli że wszyscy coś takiego łykną?


  51. **power** (autor: Marucins | data: 15/12/09 | godz.: 22:27)
    "Czesc wykresow (radeon 5870, GF 285 i GF 295)maja takie same same wyniki jak w testach na tomshardware"

    Czy ty jesteś tak łatwowierny? Ludzie którzy robią takie wykresy nie mogą z d.py wymyślać wartości.

    /
    Przez odłożoną premierę tego CZEGOŚ w końcu coś banda musiała dać no to puściła w obieg PNG. A naiwni dalej będą czekać na coś czego tak naprawdę nikt (zwykły użytkownik) na oczy nie widział.

    Jeśli osoba ma zamiar czekać na i9 i inne duperele to niech czeka a jeśli to ma być tylko karta. Wybór jest oczywisty.


  52. Toż to najzwyklejsza (autor: Mieciu76 | data: 16/12/09 | godz.: 09:18)
    PROWOKACJA prasowa . . .

  53. karta.... (autor: djatturo | data: 16/12/09 | godz.: 10:33)
    Wstępna wersja była już pokazywana ( chyba na ECTS ale głowy nie dam bo bywam na wielu podobnych imprezach). Niestety po ok 3 min pracy najzwyczajniej w świecie się spaliła. Panowie przeprosili dziennikarzy, tłumacząc że to jedynie stadium laboratoryjno rozwojowe i wszelkie komentaże zostały wstrzymane do wydania poprawnej wersji karty.. i tyle było jej widać. A teraz ani widu ani słychu, tylko słupki. W słupki nie ma co wierzyć. W słupki wierzyli ci, co oglądali telewizję przed wyborami i czytali że Tusk ma 75% poparcia na prezydenta. Co z tego wyszło - wiadomo ;)

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.