|
TwojePC.pl © 2001 - 2025
|
 |
A R C H I W A L N A W I A D O M O Ś Ć |
 |
| |
|
Tak sie zastanawiam - gdzie ucieka wydajnosc komputerow i oprogramowania. , kubazzz 16/10/04 00:05 Placze sie tak w moim windołsie ikspe i naszla mnie taka refleksja - dlaczego pomimo gigantycznego wzrostu predkosci komputerow, system operacyjny windows i jego skladniki dziala niezmiennie 'szybko'.
Pamietam czas kiedy moja konfiguracja wygladala tak:
AMD k5 90mhz, 8mb ram simm, hdd samsung 1,08gb z kompresja danych, s3 virge 2mb.
Rok 1996, system windows 95-mocno wymagajacy.
Na tym konfigu chodzil srednio, ale dalo sie pracowac jako tako.
Ale powyzej 16mb ram system wrecz smigal.
Teraz mam Athlona XP 1,5ghz, 512 ram ddr, dysk 60gb bIV - wszysko na kosmicznie wykreconych czestotliwosciach pracuje, przepustowosci magistrali sa o niebo wyzsze, a system windows xp pracuje porownywalnie szybko jak w95 na procesorze p133 i 32mb ram.
Zastanowmy sie - system urosl, dodano troche grafiki, troche wiecej jest procesow aktywnych, ale ... czy to naprawde potrzebuje az tyle mocy obliczeniowej??
Wciaz nie jest tak, ze przy kilku wlaczonych aplikacjach nacisniecie Win-M / Win-D powodowaloby blyskawiczne znikniecie wszystkich okienek do paska. trzeba odczekac te 2-5 sekund.
Kazda najmniejsza aplikacja, chocby to byl zegarek, zabiera ponad 1000KB pamieci systemowej. Nie mowie juz o takich cudach jak netlimiter na moim kompie ktory zabiera 10MB na godzine, a rekord to 350MB. Jak to mozliwe, ze kiedys system pracowal na 16-32 mb pamieci fizycznej i +/- 50 mb pliku wymiany, a teraz u mnie ledwo sobie czasem radzi na 512mb + 768 mb pliku wymiany???
Dlaczego pomimo tego ze procesor ma ~15 razy wyzsze taktowanie, nie mowiac o sysntetycznej wydajnosci, wciaz mozna za pomoca kilku aplikacji spowodowac niemalze jego przegrzanie [i nie mowie tu o celowych testach obciazeniowych]...
Oczywiscie do pewneg stopnia mozna to wyjasnic - wiecej kolorkow, dzwiekow i innych wodotryskow, ale czy to naprawde az tak rownolegle idzie??
Wiadomo - wieksza wydajnosc wychodzi w grach, czy konkretnym uzyciu komputera [obrobka grafiki, wszelkie obliczenia etc], ale sama wydajnosc systemow operacyjnych jest taka sobie. Kiedys mi sie wydawalo, ze komputer 1,5ghz i pamiecia powyzej 128mb to bedzie jakies cuda wianki i laske robil, a tak naprawde to roznica jest minimalna...
wieksze mozliwosci sa, ale chyba nieadekwatne do rozwoju technologii.
czy przypadkiem gdzies nie utracono idei optymalizacji??
Wyjasnienia na koniec:
-nie mam formalnego wyksztalcenia informatycznego
-nie korzystalem z linuxa i innych wynalazkow nie MS [no moze MacOS ale to dawno, wiec sie nei liczy]
-prosze dokladnie czytac co napisalem i nie robic nadinterpretacji:)SM-S908 - odpowiedziałeś sobie sam w tej historii... , Grocal 16/10/04 00:19
... brak optymalizacji, a wszystko z lenistwa... wykorzystujemy niezoptymalizowane funkcje i procedury, do tworzenia jeszcze bardziej niezoptymalizowanych funkcji i procedur myslac, ze szybkosc procesora wszystko zalatwi.
Na palcach jednej reki mozna pewnie policzyc ludzi piszacych programy pod Windows w assemblerze (co jest jak najbardziej mozliwe i widzialem jak niewielkie acz funkcjonalne aplikacje mozna tak pisac).
Aby wykorzystac to, co posiadamy w tym metalowym pudle obok nas trzeba byloby zburzyc wszystko a na zgliszczach zbudowac cos nowego, od poczatku....
Za duzo wstecznej zgodnosci i za duzo bagazu zlych rozwiazan... ot i to moja taka teoria...Na pewno, na razie, w ogóle...
Naprawdę, naprzeciwko, stąd...
Ortografia nie gryzie! - brak optymalizacji to nie lenistwo , exmac 18/10/04 11:08
tyloko oszczędność!! Praca programisty bardzo dużo kosztuje, a szefowie/klienci chcą wyniki na wczoraj. Kożysta się z coraz bardziej rozbudowanych bibliotek standardowych, które sprawdzają miliony niepotrzebnych rzeczy, żeby zapewnić kompatybilność i stabilność w każdej możliwej sytuacji.
- Nie ma co plakac... , Ament 16/10/04 00:46
Sami tego chcielismy i sami napedzalismy, napedzamy i bedziemy napedzac ten niby rozwoj... Trzeba bylo siedziec przy tym AMD K5 a nie latac po sklepach i modernizowac kompa... Gdyby kazdy tak dzialal gralbys teraz w Dooma 3 na tym swoim Virge i zapewniam Cie ze wiele by sie nie roznil od dzisiejszego... Na dowod polecam przejrzec niektore demka z czasow C64, ewentualnie underground demo sceny - tam 64kB to straaasznie duzo pamieci.
pozdr I
-AMENT-
I - no wlasnie , kubazzz 16/10/04 00:49
na tym bazuje. kiedys sam interesowalem sie demo-scena i pamietam jakie cuda widzialem na tamtym konfigu.
5mb zajmowalo demo, komputer przy dzisiejszych to kalkulator wrazenia jak po FarCry na GF6800Ultra:DSM-S908 - no... przesadziłeś deczko... , XTC 18/10/04 11:44
widziałeś demka scenowe z software rendering'iem?
te wyglądające jak namiastka D3 a będące niemal szczytem optymalności i szybkości - chodzą na szybkich maszynach z jakimiś paroma klatkami na sekundę..Linux
- Nie zgodzę się... , pachura 16/10/04 01:23
1. Dzisiejsze systemy operacyjne, gry i aplikacje są o niebo bardziej skomplikowane niż kiedyś. Grę robi się 2-3 lata, budżet dorównuje niekiedy produkcjom filmowym, zatrudnia się profesjonalnych muzyków, grafików, animatorów, lektorów, czasem nawet aktorów i architektów wnętrz... niedawno zrobiłem eksperyment - odpaliłem Quake'a 2. I zdębiałem: to faktycznie tak FATALNIE wyglądało? Rozmyte tekstury, kilka trójkątów na postać, żenujące AI?
2. Nie da się pisać skomplikowanych produktów w assemblerze, tak samo jak nie da się optymalizować produktów pod każdą możliwą konfigurację. Programiści budują kolejne warstwy abstrakcji, takie jak np. OpenGL/DirectX do grafiki, .NET do aplikacji etc. etc. - żeby uprościć sobie życie. Następstwem jest spadek wydajności, ale bez takich frameworków cykl powstawania nowego produktu wynosiłby 5 lat...
3. WindowsXP to bynajmniej nie Win95 z zielonymi okienkami zamiast granatowych. Po prostu są "w środku" o wiele bardziej skomplikowane, w tle chodzi masa procesów, serwery, COM-y, inaczej wygląda subsystem driverów etc. etc. To coś jak z unixowymi X-Windows: zwykle chodzą "średnio", ale dlatego że od początku były przystosowane do pracy zdalnej - coś za coś...
4. Demoscena... większość produkcji bazuje na sztuczkach nie dających się wykorzystać w prawdziwych zastosowaniach (programy 3D/gry). Zero interakcji z użytkownikiem. Zero inteligencji. Jednotorowa fabuła. Kod może być pisany byle jak, bo zwykle koder jest jeden i nikt tego nie będzie rozwijał. Oczywiście jest to bardzo fajne, ale nie można porównywać wydajności/zasobożerności dem z aplikacjami - to kompletnie coś innego. Poza tym, gry już dawno wyprzedziły demoscenę... kiedyś było tak że zapierające dech w piersiach efekty można było zobaczyć tylko w demach. Teraz jest odwrotnie - to gry (np. Doom 3) przełamują bariery technologiczne.- hmm , kubazzz 16/10/04 02:00
ok, w pewnych momentach masz racje, ale zwroc uwage ze podkreslilem iz zdaje sobie sprawe z tego ze obecne aplikacje i windows sa bardziej skomplikowane, ale czy nie powinno to mimo wszystko dzialac szybciej??
PROSTA KOMBINACJA - komputery sa szybsze co najmniej 20x, ale czy oprogramowanie [raczej mi wlasnie nie chodzi o gry] naprawde slusznie zamula ten przyrost wydajnosci??SM-S908
- Hmm... , DJopek 16/10/04 07:42
Ciekawe rzeczy mówisz, 2-5 sekund czekasz na minimalizację programów po naciśnięciu na Win-D??? To stary ale masz coś nie tak :-)
To raz, a dwa to różnica pomiędzy WinXP a Win95 - kolosalna, i xp chodzi o wiele szybciej niż taki 95.... Popatrz na same funkcje systemu, możliwości, przecież win95 to syrenka, a winxp to taki CLS 55 AMG ;)
A co do dem scenowych, co z tego że takie demko zajmuje 64KB jak po uruchomieniu i rozpakowaniu do pamięci zajmuje 100% procka i 300-400MB w pamięci RAM :-) - hehe , Zajkos 16/10/04 08:45
właśnie zrobiłem test na moim p2 300Mhz z WinXP i po wcisnieciu Win-D okna minimalizują się w ciągu ułamka sekundy (w mgnieniu oka)
Co do demek 64KB - one mają w sobie algorytm który na podstawie jakichś fraktali czy czegoś tam generuje tekstury, i to nie na bieżąco, tylko zaraz po uruchomieniu wszystko naraz, dlatego trzeba tak długio czekać. Po tym "rozpakowaniu" demkko zajmuje 200MB-300MB RAMu. Jest to efektowne, ale nie do zastosowania w normalnych aplikacjach.
Ja też mam jakieś dziwne podejrzenia w związku z wydajnością kompów. Np. taki Word, Excel chodizł kiedyś spokojnie na p1 100Mhz. Teraz nowsze wersje tych prgramów, które niczym poważnym sie nie różnią (no może oprócz Spinacza) potrzebują dużó szybszych kompów. Podobnie jest z grami - większośc z nich nie oferująć zauważalnie lepszej grafiki do gier sprzed 2-3 lat potrzebuje 2-3 razy lespzego sprzętu. Z jednej strony jest to niechlujstwo programistów, z drugiej podejrzewam czy nie ma tu miejsca jakiś spisek czy zmowa softwarowców z hardwarowcami. Przecież gdyby programy nie potrzebowały coraz lepszego sprzętu, producenci poszliby z torbami. Zapytacie - jak to możliwe? przecież tyle ludzi pisze prgramy, niemożłiwe żeby wszyscy byli w zmowie. Wystarczy ze taki Microsoft odpowiednio zoptymalizuje najnowsze DX, że w Visual Studio odpowiednio zoptymalizuje bibiloteki i wszystko sie kręci...- Co do ostaniego akapitu... , DJopek 16/10/04 09:06
To przecież np. OfficeXP ma wymagania rzędu Pentium 133 i 64MB ramu... I chodzi na takim sprzęcie bez problemu, dosyć żwawo (sprawdzałem organoleptycznie ;). Jedyna różnica to zajętość miejsca na dysku twardym, ale to raczej nie powinno dziwić ani stwarzać wyjątkowych problemów bo dyski są obecnie bardzo tanie...
- hmm , Czarek 16/10/04 10:07
zapomniales o HDD - one znowu aztak za bardzo nie przyspieszyly, a wsio jest ladowane z nich poczatkowo (i bardzo spuchlo przez te lata) - zaladuj i odpalaj wsio z RAMDysku, to bedzie smigalo (gl. ladowanie)
poownaj sobie realne tranfery (odczyt/zapis) z/do HDD (w MB/s) z innymi przepustowosciami w kompie - teraz jasne? - hmm , Czarek 16/10/04 10:15
aha: z tym Win-D to mocno przesadziles - jesli nie to masz cos skopane - u mnie ulamek sekundy na slabszym konfigu... - No cóż... , JE Jacaw 16/10/04 15:04
...może te wszystkie "wodotryski" tak zamulają system. Np. WinXP z bajerami pracuje chyba ze 2 razy wolniej (chodzi o taką normalną obsługę, okienka itp.) niż z klasycznym wyglądem i bez bajerów.
Zauważ, że najnowsze przyszłe "dziecko" MS'a będzie potrzebowało do pełnej funkcjonalności interfejsu graficznego kart graficznych zgodnych z DirectX 9.0 - dla mnie to już zupełnie przegięcie, aby "pulpit" wymagał DirectX 9.0
Pewnie będzie wyglądał fajnie, ale po co mi to ? Wprawdzie jak zaczynałem zabawę z komputerami (było to za czasów Win95) to bardzo rajcowały mnie nowe ikonki, tła, wskaźniki myszy itd. ale teraz (a nie jestem informatykiem, tylko nieco bardziej zaawansowanym użytkownikiem, który lubi sobie pograć itd.) jak instaluję system, to z miejsca wyłączam wszelkie bajety (efekty menu, jakieś tam przejścia itp.) bo często mnie wkurzają, a poza tym spowalniają otwieranie menu i okien.
Zapewne brak optymalizacji też robi swoje (chociaż najbardziej widać to na przykładzie gier), jednak moim zdaniem to nie tylko wina programistów, ale też różnorodności sprzetu. Zauważ, że niedawno pojawił się też na boardzie namiar na stronę z testami kart graficznych od TNT do najnowszych - był tam podział kart w latach i kiedy w 1999 było do wyboru naprawdę tylko kilka kart, to obecnie mamy chyba ich kilkanaście lub kilkadziesiąt.
Kupując komputer (gdzieś tak koło 1998 r.) miałem w sumie do wyboru w sumie około 3-4 typów procesorów (Pentium II lub III, Celeron i coś z AMD'ka), płyt głównych (BX i coś z VIA) i kart graficznych (Voodoo, TNT i ATI). W tamtych latach to chyba znałem tak pobierznie wszystkie dostępne u nas (oczywiście do zwykłych PC'etów i autalne) płyty główne, procesory i karty graficzne (no może z ATI byłyby problemy, to wówczas była mało popularna u nas). A teraz ? To ja nawet się nie orientuję w produktach jednej firmy lub pod jeden typ procesora tyle tego się namnożyło.
Kurcze, ale się rozpisałem... a miało być krótko. :-)Socjalizm to ustrój, który
bohatersko walczy z problemami
nieznanymi w innych ustrojach - nie zgodze sie stanowczo z jedna teza , kubazzz 16/10/04 18:27
ja mysle, ze teraz wlasnie jest wieksza unifikacja sprzetu.
Ja pamietam jak moja plyta oblugiwala 2 rodzaje pamieci [Simm/dimm], 3 rodzaje kart rozszerzen - PCI/ISA/VLBus, 3 typy proceosorow [AMD, Cyrix, Intel]. Gigantyczne problemy ze sterownikami. Kart graficznych bylo multum, kart dzwiekowych tez [rozmaite klony SB Pro].
Teraz jest latwo - AMD albo Intel. ATI albo NVidia. Kaarty rozszerzen tylko na PCI. Z porotw zostal tylko USB - nie ma LPT, COMow i tych wszystkich pierdol.
Chipsety plyt glownych ida po kolei - nforce1/2/3; Via KT133/266/333/400/600 czasem z dopiskiem A.
Chipsety graficzne sa tylko 2 firm [pomijam matroxa i intela bo to margines].
Rzeczywiscie jest mnogosc wersji - samo Ati ma na rynku kilkanascie procesorow graficznych. Ale w sumie wszystko bazuja na bardzo uniwersalnych zasadach. Wszystko sie trzyma w kupie z DirectX'em.SM-S908 - Hmm... też się nie zgodzę... , JE Jacaw 19/10/04 16:04
...owszem było kiedyś też multum rozwiązań, ale liczyło się tylko kilka i nie było z nimi większego problemu. A teraz niby tylko Intel i AMD, przy czym Intel ma ze 2 podstawki, AMD 3 podstawki. Do tego multum wersji procesorów, a szczególnie AMD ostatnio tu miesza - był artykuł na TwojePC, gdzie procesorów AMD o oznaczeniu 3200+ mamy chyba 4 rodzaje, jeden to XP, a reszta to 64 na różne podstawki, z różnym taktowaniem i różną wielkością pamięci podręcznej. Nie mówiąc już o Sempronach, gdzie te pod Socket A są całkiem innym procesorem niż te pod 7xx (nie pamiętam jak to się tam nazywa).
A karty graficzne ? Niby tylko nVidia i ATI, a samych rodzajów kart jest tyle, że zgłupieć idzie... a dodatkowo producenci jeszcze oznaczeniami kart wprowadzają niezły mętlik, szczególnie przoduje tu ATI i takie rodzynki jak: 8500, 9000, 9100, 9200, 9250, 9500, 9500 Pro, 9550, 9600... co inego sugerują nazwy, a co innego z prawdziwą wydajnością. Oczywiście nVidia nie jest wile lepsza, chociaż moim zdaniem ATI obecnie prowadzi w rankingu "mieszaczy".Socjalizm to ustrój, który
bohatersko walczy z problemami
nieznanymi w innych ustrojach
- wszędzie krzyk o tej "optymalizacji" ... , XTC 16/10/04 19:45
a w/g mnie to wcale nie tu problem...
wszyscy chcą mieć aplikacje jak dla debili - naciśnie guzik i już ma ... i to niezależnie od wersji językowej/konfiguracji/etc itd...
zapomina się, że do takiego Duke'a czy Blood'a to trzeba było samemu skonfigurować kartę muzyczną...
teraz nawet gdy pokoleniu Amigi i Atari (o młodszych nie wspominam nawet) pokazać linuxa - to z lenistwa użytkownika (a nie programisty) powiedzą "eee... nie chce mi się" i zainstalują XP ...
bo taniej i szybciej - dla przykładu - każde g... robi się w modnym ostatnio .NET ...
przypomina mi się wówczas sytuacja gdy kumpel na swoim 486 20MHz bodaj pokazał mi (userowi Atari-8bit) jakiś program muzyczny gdzie opóźnienie przewijania pięciolinii na ekranie w stosunku do słyszanego dźwięku było takie, że jak skończył grać to jeszcze przewijał i przewijał... wyśmiałem go wtedy ... bo w moim małym 8-bitowym środowisku każdy by zlinczował za "tak zabugowany program" ... a tu - nie było to nazwane BŁĘDEM a cechą systemu...
kuriozalne?Linux |
|
|
|
 |
All rights reserved ® Copyright and Design 2001-2025, TwojePC.PL |
 |
|
|
|