Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Wtorek 19 września 2006 
    

Płonące karty - ciąg dalszy


Autor: Adam | źródło: The Inquirer | 10:14
(30)
Jak już wcześniej informowaliśmy, kolejna generacja kart graficznych będzie bardzo gorąca - dosłownie i w przenośni - głównie za sprawą dużego poboru mocy. Dostępne dotąd informacje mówiły o około 200W w przypadku układu ATI R600 - najnowsze informacje serwisu The Inquirer mówią już o 250W w przypadku układu produkowanego w technologii 80 nm. Dla porównania karty Radeon X1950 XTX zadowalają się około 125W, a GeForce 7950GX2 145W.

Tak duża moc oznacza przede wszystkim rozbudowany system chłodzenia i możliwą konieczność stosowania zewnętrznych zasilaczy. Na pocieszenie można dodać, że dzięki 64 potokom (lub jednostkom Pixel Shader, jak na razie nie jest to jasne) karty te mają oferować nawet dwukrotnie większą wydajność niż dostępne obecnie produkty.

 
    
K O M E N T A R Z E
    

  1. to już nawet smieszne nie jest (autor: nroht | data: 19/09/06 | godz.: 12:21)
    jakas paranoja normalnie...

  2. debile (autor: Kriomag | data: 19/09/06 | godz.: 12:30)
    normalnie niedlugo trzeba bedzie miec reaktor atomowy na podworku aby grafikę zasilic...

  3. Czasu (autor: Movi | data: 19/09/06 | godz.: 12:48)
    Jeszcze troche czasu im zajmie zanim dojdą do tego samego wniosku co Intel - że bardziej niż zegary liczy się efektywność układu, będą robili to co teraz Intel z jądrem Conroe

  4. Otóż to (autor: NimnuL-Redakcja | data: 19/09/06 | godz.: 12:54)
    generalnie to jest jedyna droga rozwoju.

  5. ale i tak (autor: prankster007 | data: 19/09/06 | godz.: 13:10)
    pewnie znajdą nabywców "świrów" , którzy kupią wszystko co najwydajniejsze żeby tylko sie pokazać przed innymi i nie mają co robić

  6. Hej (autor: beef | data: 19/09/06 | godz.: 13:22)
    Fakt, 200W to przegięcie, ale wyluzujcie trochę. Nie zapominajcie, że mówimy tu o high-endowych rozwiązaniach, dostępnych w chwili premiery za > 1k zl. Pasjonaci i tak podkręcali do tej pory karty uzyskując takie pobory mocy (albo większe), ci też pasjonaci kupią tą kartę w chwili premiery. Tymczasem technika nie stoi w miejscu - i tak np GForce 7300Go w laptopie spokojnie ciągnie na baterii, a ma wydajność jak 100-watowe potwory parę lat temu. Nie tak dawno mialem w kompie Radka 9550, który na spokojnie (podkręcony!) dawał sobie radę bez wentylatora a też do ostatnich pod względem wydajności nie należał. Prędzej czy później producenci kart przejdą na 65 nm i dzisiejsze 200W potwory staną się 100W średniakami, a jeszcze później 50W low-endem. Po prostu high-end w pogoni za 3d-markami (efekt marketingowy) idzie na całość, ale nikt nie każe Wam tego kupować.

  7. Movi, Nimnull, (autor: beef | data: 19/09/06 | godz.: 13:31)
    to nie do końca da się porównać, grafika musi przepychać tony pikseli z jednego miejsca w drugie, tu tylko "surowa siła" - wydajność pamięci, megaherce, ilość strumieni - da radę. Intel, wcześniej w laptopach, a teraz w Core2 postawił na cache - co nie musi się sprawdzić w przypadku wybitnie strumieniowego charakteru obróbki danych w kartach graficznych. Predykcja skoków, out of order execution - kolejne optymalizacje procków, też niezbyt dużo zdziałają. Kod shaderów w porównaniu z kodem x86 jest NAPRAWDĘ prymitywny. Programy na 15 instrukcji da się zoptymalizować podczas pisania, wbudowanie tego w proc jest niewarte zachodu. GPU są po prostu maksymalnie wyspecjalizowane - stąd małe pole do "wyrafinowych" usprawnień na tym polu.

  8. Jest jeszcze jedna mozliwosc (autor: NimnuL-Redakcja | data: 19/09/06 | godz.: 13:48)
    optymalizacja gier. Wiadomo przeciez, ze dbrze zrobiony kod potrafi dzialac na relatywnie slabym sprzecie, a kod spartaczony i wykonany niechlujnie zadziala na potworach i to jeszcze niekoniecznie plynnie.

  9. to AMD pierwsza zaczela optymalizowac bloki (autor: black-bird | data: 19/09/06 | godz.: 13:50)
    co do tej miniaturyzacji to przesada nie lepiej podzielic GPU na kilka mniejszych chipow

  10. Old news (autor: Kosiarz | data: 19/09/06 | godz.: 15:38)
    Qrcze nie pamietam co to dokladnie bylo ale jakis ziomal chyba w japonii wymyslil jakies rewelacyjne rozwiazanie GPU, nie pamietam dokladnie o co chodzilo ale podwyzszalo wydajnosc kilkaset razy. Nie wiem czy gdzies na twojepc.pl o tym nie bylo, w kazdym razie projekt nie wszedl w zycie - jak kazdy ktory moze zaklocic monopol gigantow....

  11. bo to pewnie było (autor: nroht | data: 19/09/06 | godz.: 15:38)
    jak z zimną fuzją :)

  12. Nimnull (autor: beef | data: 19/09/06 | godz.: 15:40)
    sugerujesz, żeby teraz wstrzymać postęp w dziedzinie kart, usiąść i zacząć optymalizować enginy? Dwa słowa: REALITY CHECK :) I skąd wniosek, że teraz engine'y są niezoptymalizowane? Masz wiedzę? Dowody? Czy tylko powtarzasz obiegowe opinie dyletantów? Bo widzisz, z mojej wiedzy wynika coś całkowicie innego, a znam się na tym trochę. Nie, żebym był drugim Carmackiem, ale coś niecoś wiem o programowaniu engine'ów graficznych :)

  13. Kosiarz, jasne :DDDDDD (autor: beef | data: 19/09/06 | godz.: 15:45)
    Zrobił obroty kamary na onionach zamiast na kwaternionach, usmażył na masełku, dodał grzybki i ujrzał obraz "jak w realu" :DD Podobno firma Bitboys też miala kiedyś podobny patent - sprawdź w Wikipedii pod Vaporware (lub Hoax). Masz jeszcze jakieś newsy rodem z programu "Nie do wiary"? ;)

  14. Erratum (autor: beef | data: 19/09/06 | godz.: 15:46)
    kamary = kamery

  15. 200 WATT - no ładnie... (autor: Majster | data: 19/09/06 | godz.: 15:58)
    Obecne karty graficzne to już nielada potwory, a i tak są za słabe na obecnie wychodzące gierki. Typowym przykładem jest Call Of Juarez. Zobaczymy jak będzie chulał (tzn. ciął się jak skurczybyk), szumnie zapowiadany Crysis. Ale jak znam EA, to pewnie tę grę spierdzielą na cacy.

    Tak się składa, że Electronic Arts już chyba wykupiło firme Crytek. Zobaczcie co jest podane na tej stronie.

    http://www.gametrailers.com/...hp?fs=1&id=2509

    Spójrzcie na date premiery. Jak EA chce już na początku 2007 roku wydać Crysisa, to na bank wygląda na to, że śpieszą się z premierą. Pewnie mają ustaloną cichą umowe z nVidia. NV wypuści G80, a EA Crysisa.


  16. Beef (autor: Andrius | data: 19/09/06 | godz.: 18:01)
    Ty nie widzisz różnic między optymalizacją silników graficznych?
    Dobrze zoptymalizowany silnik z H-L2: duże przestrzenie, użyte ładne tekstury, brak nadużywania shaderów.
    Źle zoptymalizowany silnik z Doom3: wyłącznie małe sceny (Mars widziany zza okna to nędza), Postaci jakby z plastkiu, bardzo słabej jakości tekstury, nadużywanie shaderów.
    A sam postęp, to nie podnoszenie wydajności kosztem zużycia enegi, to powinien być zapas dla użytkownika.


  17. A i jeszcze (autor: Andrius | data: 19/09/06 | godz.: 18:09)
    odnośnie Carmacka i jego 16-osobowej ekipy. Niby taki z niego guru, ale z tym silnikiem Dooma 3 tak dali ciała i tera powstają na nim takie shity jak Q4 (parody). A przed premierą w zapowiedzi to pisali takie pierdoły, że amerykańscy Marins się na tej grze mieli szkolić. Ja szłem tego Dooma od niechcenia i miałem wrażenie, że gram w jakiegoś klasyka.

  18. --- (autor: Gawd | data: 19/09/06 | godz.: 18:35)
    Ati za wszerlką cenę chce nie wypaść z tronu wydajności, dlatego porywa się na ekstremalne kroki. Tak na marginesie zerknijcie na allegro ile jest uszkodzonych kart Ati a ile NVidii. Czyli takie działania Ati mogą wypaść niestety źle. Dla zwykłych graczy te karty są nieosigalne, więc niech się martwia ci których na nie stać. Jakbym miał sporo kasy to bym jeżdził Ferrari....

  19. mozna inaczej i mniejszym kosztem (autor: wukillah | data: 19/09/06 | godz.: 18:48)
    http://graphics.cs.uni-sb.de/~woop/rpu/rpu.html - ray traycing w czasie rzeczywistym.
    karta ma tylko 66MHz.


  20. W kazda nową grę ... (autor: 7eky | data: 19/09/06 | godz.: 19:32)
    ... MOzna spokojnie pograc w wysokich detalach na radeonie x1800XT albo geforce 7800 GTX. Przecietnemu graczowi wystarczy 7600 GT albo stary radeon x800 na którym w 1024 na 768 z 4 krotnym antyalizaingiem 8 AF przy maksymalnych detalach kazda gierka chodzi zadowalająco(około 30 klatek na s minimum). Jak chcesz miec 200 fps w 2000x1500 to wydawaj kupe siana i męcz sie z hałasem i przegrzewaniem sie grafiki. Niedlugo zoptymalizje sie software na ktorym beda pracowac nowe karty graficzne. Naszczescie z pewnoscia nie zwiekszy to poboru mocy kart graficznych a napewno w znacznym stopniu poprawi grafike i wydajnosć :) (mowa tutaj o kolejnym DX) PoZdRo!

  21. Andrius (autor: Soulburner | data: 19/09/06 | godz.: 19:32)
    a co powiesz na Enemy Territory: Quake Wars? Wykorzystuje engine Doom 3, a spójrz jakie przestrzenie :]

  22. Osobiscie (autor: Poke | data: 19/09/06 | godz.: 20:22)
    juz nie inwestuje w sprzet. Chce jeszcze zmienic obudowe i finito. To by bylo na tyle.

  23. Soulburner (autor: Andrius | data: 19/09/06 | godz.: 22:10)
    No co ty nie powiesz...? A nie przypadkiem stary engine quake 3, tak jak poprzednik ET (RTCW), MoH:AA i SOF2. Jak w te gry sobie wymiatałeś, to Doom3 był tylko proroctwem DI software. Pomyśl stary logicznie RTCW -> RTCW: ET, to prawie jak expansionpack.
    ET jest spoko, w sieci miodzio i za free, ale to nadal q3 engine.
    Masz tu link z listą gier na tym silniku:
    http://pl.wikipedia.org/wiki/Quake_engine
    A Doom3 niech się schowa z tymi cud scenami, gdzie na rozjechanie bosa masz jedną komnatę z głazem po środku (czy tam czymś innym), a sprzęt dławi się z wygenerowaniem 25 grywalnych fps'ów.
    Havok rządzi póki co...


  24. Andrius (autor: beef | data: 19/09/06 | godz.: 22:22)
    Ależ ja widzę różnicę! To oczywiste, że są silniki dobre i slabe. Ale Nimnul napisal: "Jest jeszcze jedna mozliwosc - optymalizacja gier". W sensie, że jest to jakaś alternatywa dla postępu technologicznego kart. Nie wiem, może jestem przewrażliwiony, ale wyczułem w tym sugestię - do tej pory wszyscy jak jeden mąż olewali optymalizację, więc są w tym temacie jakieś ogromne rezerwy, które można wykorzystać. A ja mówię - nieprawda! To, że jakiś engine X jest słaby nie oznacza, że istnieje jakaś ogólna słabizna w tym zakresie, że rozleniwieni mocą kart programiści piszą "z palucha" engine'y w 5 minut. Guzik prawda. Wiodące engine'y stosują techniki optymalizacyjne w takim zaawansowaniu i liczbie, że kilka doktoratów można by z tego napisać (i napisano, spokojna głowa :). W powyższym stwierdzeniu nie ma ANI GRAMA przesady, twardy fakcior i tyle.

    A co do Doom3 i Carmacka. Otóż on nie musi już w życiu stworzyć nic dobrego, żeby być guru. On po prostu STWORZYŁ gry FPP, stworzył wręcz pojęcie Engine'u graficznego, to on jako pierwszy użył w grze większość techik uznawanych teraz jako "przedszkole" real-timeowej grafiki (mip-mapy, drzewo bsp, ba, teksturowanie z korekcją perspektywy!), więc nie musi nic udowadniać :) Poza tym jego decyzja o udostępnieniu kodów do kolejnych Quake'ów to po prostu bomba atomowa wiedzy - bogosławieństwo dla takich kolesi jak ja, co się w tym dłubią. Więc choćby od teraz wszystko dokumentnie partolił - jest guru i basta, sorry :) Hm, Engine Doom3 - coż, postawił 100% na shadery, a olał prekalkulowane light-mapy, okazało się, że jednak jeszcze na to za wcześnie - i wyszło plastikowo. Co nie znaczy, że technicznie silnik jest słaby.


  25. wukillah (autor: beef | data: 19/09/06 | godz.: 22:39)
    Ray-trace'ing w czasie rzeczywistym to NIEPOROZUMIENIE. Twierdzienie, że RT = fotorealistyczna grafika można było wysnuwać za czasów Imagina na Amidze 500 (i to wtedy, gdy ktoś był słabo poinformowany). Współcześnie za pomocą RT to można sobie ładną szklaną kulkę zrobić (choć i tak pewnie efektywniej czym innym), a nie całą scenę! Jest to metoda renderingu o wąskim zakresie zastosowań - prawidłowo renderuje tylko obiekty przezroczyste i lustra o zerowym rozproszeniu. Przyszłość, jeśli już, to Real-timeowa aproksymacja Radiosity na podstawie prekalkulowanych danych, a do tego świetnie nadają się właśnie shadery w "normalnych" kartach.

    Myślisz, że takie shreki, FF, efekty w filmach to RayTrace'ingiem robią? Zdziwię Cię - to właśnie shadery wymyślono na potrzeby efektów do filmów, wcale nie do gier :) RayTrace'ing to jest dobry, żeby studentom zadać napisanie programu, który go wykonuje, ew. jako technika POMOCNICZA względem innych.


  26. zresztą (autor: beef | data: 19/09/06 | godz.: 22:43)
    popatrz na te screeny. Byle demko z nVidii wygląda ładniej, a takie żyleciaste cienie to się robiło stencil-buforem 5 lat temu. I nie ważne, że karta ma tylko 66MHz, gdyby miała 666MHz, wyglądało by toto dokładnie tak samo - to jest właśnie ray-tracing :)

  27. Andrius (autor: Barton | data: 19/09/06 | godz.: 23:28)
    Soulburner mówił o Enemy Territory: Quake Wars, a nie o Wolfenstein - Enemy Territory. :> Zapewniam Cię, że to nie to samo.

  28. No cóż, (autor: sebtar | data: 20/09/06 | godz.: 13:48)
    jak dla mnie widać etap grania na pc zdecydowanie się kończy...

  29. Następny (autor: beef | data: 20/09/06 | godz.: 14:47)
    Tak, jasne, "kończy się". Tak samo, jak już z 5 razy w ciągu ostatnich lat się ostatecznie "kończył" - pierwszy raz bodajże podczas premiery pierwszego PS - odsyłam do artykułów z tamtych lat. A w konsolach to co - inne firmy chipy produkują? Inne technologie zupełnie? Tranzystory z innego krzemu? (z marsa pewnie)

  30. Napisałem że dla mnie się kończy (autor: sebtar | data: 20/09/06 | godz.: 14:55)
    a nie że się kończy całkiem a to chyba jest różnica, nie? Bo sprzęt coraz bardziej kuriozalny a gier które by to uzasadniały wychodzi ze trzy na rok :-P

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.