Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Poniedziałek 15 listopada 2010 
    

GeForce GTX580 może pobierać tylko 200W


Autor: Wedelek | źródło: Tech Power Up | 11:21
(88)
GeForce GTX580 miał być prawdziwą rewolucją, pobierając znacznie mniej energii elektrycznej niż jego poprzednik i jednocześnie będąc przy tym wydajniejszym. Wszystko to okazało się być prawdą, a w dodatku zmniejszono znacząco temperaturę pracy układu dzięki zastosowaniu wydajniejszego systemu chłodzenia (komora parowa). Okazuje się jednak, że nie wszystko to zostało osiągnięte drogą poprawek architektury GF100, z której wywodzi się GF110. Autorzy GPU-Z dokładnie przyjrzeli się budowie akceleratora i ze zdumieniem odkryli dodatkowy układ, odpowiedzialny za kontrolowanie maksymalnego poboru mocy przez kartę.

Nowy GeForce nie będzie więc mógł pobierać więcej niż 200W, a w przypadku przekroczenia tego limitu zmniejszane są zegary z jakimi pracują najważniejsze elementy. Dzięki temu układ referencyjny może być chłodniejszy, mniej prądożerny i podatny na awarie, ale kosztem wydajności. Z takiego obrotu sprawy nie będą jednak zadowoleni overclockerzy, którzy uwielbiają katować swój sprzęt. Mogą więc oni ominąć niechciane zabezpieczenie, samemu kontrolując TDP. Aby wyłączyć „pomocnika” od Nvidia należy program uruchomić z odpowiednim parametrem. Np. dla GPU-Z jest to „X:gpuz.exe /GTX580OCP”. Na szczęście w przypadku gier żadnego spadku wydajności nie uświadczymy.



 

    
K O M E N T A R Z E
    

  1. KOLEJNY BUBEL nieVidii !!!! (autor: Qjanusz | data: 15/11/10 | godz.: 11:30)
    to było do przewidzenia.
    Temperaturki zamaskowane zastosowaniem jednym z najlepszych konstrukcji schładzaczy kart graficznych, a teraz taki przekręt z TDP

    W piękny sposób spocone czoło sprzedaje kolejne wydania swoich najnowszych dań.

    Dziś w nemu: MacKotlet nVidii
    W daniu na wynos: zgniła śliweczka, wczorajszy kotlecik i ładne opakowanie. Nowa nalepeczka gratis ;-)

    Coś czułem po przeczytaniu testów z labika. Z tym że w ichnym egzemplarzu ten ogranicznik nie działał:
    "Pod obciążeniem nasz miernik poboru energii (Voltcraft Power Logger 3500) wskazał, że najwięcej energii pobierała konfiguracja z zainstalowanym geforce'em GTX 580. Mocno nas to zdziwiło, bo spodziewaliśmy się zupełnie innych wyników. Konsultowaliśmy nawet tę kwestię z przedstawicielami firmy NVIDIA, którzy również byli zaskoczeni naszymi liczbami."

    Ściema w klasycznym wykonaniu zielonych goblinów!!!


  2. LOL (autor: bajbusek | data: 15/11/10 | godz.: 11:30)
    muahahahaha :)

    Szkoda, że nie ma limitera ceny ... wyciągam 1500 zeta z portfela, po czym kładę 750 PLN na ladzie a resztę chowam do portfela... ehhh co za świat ;)


  3. "Samemu kontrolując TDP" - no żesz... (autor: KuTeR | data: 15/11/10 | godz.: 11:34)
    TDP to OCENA, A NIE PRAWDZIWA, ZMIERZONA WIELKOŚĆ i NIE OZNACZA POBORU ENERGII! Thermal Design Power to wartość projektowa, więc nie można jej kontrolować w gotowym produkcie. Kiedy Ci wszyscy pseudo fachowcy przestaną bredzić o tym TDP. Mój procesor ma TDP 65W, a pobiera najwyżej 35W, więc ten parametr jest g... wart!

  4. TDP 350W !!! (autor: Qjanusz | data: 15/11/10 | godz.: 11:34)
    czekamy na GnioTyiXy z multi GPU na laminacie ;-)

    ALE BLAMAŻ...


  5. Jak to się ma (autor: zomb1e | data: 15/11/10 | godz.: 11:40)
    do newsa poniżej "Bardzo dobre OC referencyjnego GeForce GTX580". Skoro jest sprzętowy limit TDP to podkręcanie nie powinno przynosić żadnych korzyści.

  6. taa (autor: Mademan | data: 15/11/10 | godz.: 11:40)
    Wykres malowany w paint i już wszyscy uwierzyli.

  7. fani i trolle invidii (autor: pzgr 40/42 | data: 15/11/10 | godz.: 11:54)
    kolejny raz zostali wydymani bez wazeliny... :)
    Jak teraz sie czujecie...???

    hhehehehhehehehehhehhehhehe


  8. ... (autor: cyferluu | data: 15/11/10 | godz.: 11:54)
    czytałem o tym na zagranicznych servisach kiedy pojawiły sie pierwsze testy i faktycznie pobór energi był zaskakujaco niski lecz po wyłączeniu tegoż ogranicznika karta posiliła sie ponad 300W porcją energi :)

  9. Czyli GTX580 to żadne nowe GF110 (autor: draconewt | data: 15/11/10 | godz.: 12:00)
    tylko stare GF100

  10. żart? (autor: djXone | data: 15/11/10 | godz.: 12:03)
    Nie to już jest kpina! Jak oni tak kombinują to już wiem żeby omijać tą firmę szerokim łukiem!

  11. stare gf100 (autor: Diamond Viper | data: 15/11/10 | godz.: 12:05)
    z tym "czymś" właśnie i to chyba jedyna poprawka (jeśli można to nazwać poprawką w ogóle) jakiej dokonali - poza vapor chamber;) Bardzo sprytne, ale nie każdy jednak da się oszukać;] Taki ogranicznik dobra rzecz, ale nie kosztem wydajności no...

  12. ... (autor: cyferluu | data: 15/11/10 | godz.: 12:05)
    nikt nie napisał,że to stare gf100. zmiany w architekturze są... tylko nic nie dały wiec dodali ograniczniki ot co...

  13. To dobre (autor: antrax | data: 15/11/10 | godz.: 12:08)
    rozwiązanie dlaczego się tego czepiacie? Może deko Nvidia znowu zakpiła z konsumentów ale pomysł ciekawy, teraz jest moda na eko więc Nvidia idzie w tą stronę

    A tak na serio to Śmiech na sali znowu udowodnili że nie potrafią zrobić porządnej karty! Coś mi mówi że chcieli za wszelką cenę wypuścić tą kartę przed AMD. Oby tylko oni nic nie spaprali!


  14. GTX580 (autor: dratom | data: 15/11/10 | godz.: 12:10)
    ma tak potężną moc że inżynierowie nvidii musieli ją ograniczyć sprzętowo żeby nie wyskoczyła komuś z komputera. Nie ma co narzekać w cenie karty dostajemy 3 układy scalone gratis. Taka promocja przed świąteczna. Wszyscy odcinają kupony i czego chcieć więcej.

  15. Niezła porażka. (autor: krzysiek_mil | data: 15/11/10 | godz.: 12:12)
    Jeśli to się potwierdzi, to będzie kolejny argument za tym, żeby poczekać na Caymana i dopiero po serii testów porównawczych wybrać lepszą kartę.

  16. Pryzdałoby się zrobić porównanie GF100 z GF110. (autor: KuTeR | data: 15/11/10 | godz.: 12:21)
    Ograniczyć w 580 jednostki wykonawcze i zegary do poziomu 480 i sprawdzić te rzekome optymalizacje. Najpierw też dobrze by było porównać zdjęcia układów, czy w ogóle się czymś różnią. Coś mi się wydaje, że zwyczajnie opanowali proces produkcji Fermiego, a wmawiają ludziom, że to nowy układ.

  17. każdy przędzie jak potrafi (autor: Qjanusz | data: 15/11/10 | godz.: 12:24)
    AMD montuje na Caymanie totalne nowinki jak driver-MOSFET od Texas Instruments
    http://nvision.pl/...900--News-18386-ndetails.html

    a nVidia... ot takie U14, U15 i U16. Istny geniusz skośnookiego kombinatorka.

    źródełko z ciekawymi komentarzami:
    http://www.techpowerup.com/...ing-using-GPU-Z.html


  18. jak to tylko dotyczy furmarka (autor: Rajq | data: 15/11/10 | godz.: 12:52)
    i OCCT. Sabat Fanbojow AMD jest przerazajacy tutaj. Gdyby bylo tak jak piszecie w kazdej grze byly by spadki, szarpanie i dziwne wyniki z min. fps itd. O tym zaden serwis nie pisal i nie napisze. Bo to sprzetowe spowolnienie zegarow jest tym czym AMD zrobilo w sterowniku jak sie uruchamialo Furmark.exe. Tez zegary zbijalo zeby nie zabic 4870 wtedy. Wystarczylo zmienic exek np. na piana_qjanuszowi_leci_z_pyska.exe i juz zegary byly normalne. Zero sensacji dla myslacych ludzi...

  19. @Qjanusz wez sie z tym (autor: Rajq | data: 15/11/10 | godz.: 13:03)
    DrMos nie osmieszaj. Widac ze jestes zaslepionym fanbojem. Ta "totalnie nowinka" jest juz na mojej starej p45 od MSI a ty tu chcesz motlochowi wcisnac kit ze to cos ultra nowoczesnego. I jeszcze lykasz takie bzdety ze przez brak tego platiku Caymany sa opoznione.

  20. @Rajq (autor: Qjanusz | data: 15/11/10 | godz.: 13:10)
    tylko furmarka i occt?

    Chyba nie do końca. Tyczy się to każdej aplikacji, która obciążą GPU ponad 95%. W tej chwili najbardziej rozpoznawalnymi aplikacjami są właśnie te dwie. Niech trafi się gierka wyciągająca siódme poty z grafiki, a Mr Hyde da po cuglach

    Zresztą jest to sterowane programowo w sterach. Pamiętasz że nVidia wydała stery które pala karty - i to bez dodatkowych układów na laminacie. Aż strach pomyśleć co teraz mogą sprzedać programiści nieVidii swoim klientom.

    Co do 4870, to była taka plota:
    http://www.in4.pl/...e.htm?kbt=N&news_id=16775

    ale na pogłoskach się skończyło i AMD niczego takiego nie wprowadził. Sam osobiście mam wykręconego ponad stan 4870, którego nie raz wygrzewałem Furmarkiem. Bez żadnego obcinania więc nie ściemniaj Panie Teoretyku.


  21. @Rajq #19 (autor: Qjanusz | data: 15/11/10 | godz.: 13:17)
    Doczytaj sobie Panie Teoretyku

    Driverów tych jest bardzo dużo. Chociażby tu masz rozpiskę:
    http://www.onsemi.com/...ons/parametrics.do?id=388

    Natomiast ten montowany na laminacie obok Caymana jest zupełnie nowym układem.

    Tak jakbyś napisał że SB to żadna nowika, bo tata też miał w C64 PROCESOR. Procek prockowi nie równy... Chwytasz Rajq?


  22. @Qjanusz (autor: Rajq | data: 15/11/10 | godz.: 13:19)
    juz zmieniles spiewke? Rzucales miesem a teraz piszesz "chyba nie do konca" To chyba czy nie??? Myslisz ze redaktorzy techpowerup nie sprawidzili gier pod tym katem? Bo to sprzetowe rozwiazanie polaczone jest z wpisami w biosach lub sterach. Gdyby bylo tak jak piszesz - A NIE JEST czyli 350 W w Furmarku to KAZDA gra przekracza 200. Zgodnie z twoim chorym rozumowaniem juz powinien dzialac ogranicznik. A nie dziala.

  23. hmm (autor: Seba78 | data: 15/11/10 | godz.: 13:21)
    a skąd takie oburzenie? zupełnie nie rozumiem. Ważne aby karta była wydajna. jeśli jest wydajna pomimo tego ograniczenia więc w czym rzecz? Gdyby miał by to być jakiś bardzo szemrany sposób to przy każdym teście od razu to wyjdzie. Może się mylę, ale nie sądzę aby to było takie trywialne.

  24. Seba78 (autor: DTOsman | data: 15/11/10 | godz.: 13:31)
    to oczywiste skąd. Fanboystwo AMD kart nowych nie ma, premiera przesunięta, więc jedyne co pozostaje to uczepić się byle czego. Wydajnośc HD5970 to fakt, niższe TDP to fakt, a ze kontrolują pobieranie energii i dbają o zywotnosc karty w przypadku wypalaczy to tylko na plus, widać dbają o klienta i jego cięzko zarobione pieniądze, jak zawsze.

  25. @Rajq (autor: Qjanusz | data: 15/11/10 | godz.: 13:34)
    słowo "chyba" było dla złagodzenia klimatu. Chwytasz słówko "złagodzenia" ?

    nVidia nie opanowała jeszcze do końca swojego przekrętu. Dowód? Proszę bardzo.
    Labik nie uzywa occt i furmarków. Pod obciążeniem (GIERKI) wyszła więc im prawdziwa twarz GTX580

    Przeczytaj sobie:
    http://pclab.pl/art43801-5.html

    wyszło że GTX580 wcale nie bierze mniej prądu od GTX480, a niższa temperaturka to kwestia bardzo wydajnego chłodzenia już w referencie

    GPU dociera do masakrycznych temperatur i co mamy? Zajebiste i wielkie CIACH!!! To się nazywa finezja w ogarnianiu architektury GPU :D


  26. @DTOsman (autor: draconewt | data: 15/11/10 | godz.: 13:36)
    To dlaczego nie zastosowali tego genialnego pomysłu w GTX480?. Zabezpieczenie TDP nie jest na tyle innowacyjne (jest wręcz śmieszne, pokazuje że fermi nigdy nie powinno się ukazać w procesie 40nm) aby GF100 mogło przeskoczyć z seri GTX 4XX na GTX 5XX.

  27. Na stronie Chipa jest to lepiej opisane (autor: dratom | data: 15/11/10 | godz.: 13:41)
    "http://www.chip.pl/...?b_start:int=2&-C="

  28. @Qjanusz (autor: Rajq | data: 15/11/10 | godz.: 13:41)
    z Toba nie da sie polemizowac. Masz swoj swiat zyj sobie w nim. Znow zapodales liste 50 scalakow po pare centow. Oczywiscie na liscie nie ma ani jednego Texas Instrument - tak tego co ma byc na Caymanach. Widocznie jest tak tajny ze nawet TI na swojej stronie go nie ma. Twoja glupote trzeba tepic w zarodku bo jak widac zarazasz nia innych. Dajesz test ze w geirkach 580 pobiera duzo pradu. To gdzie do cholery sie pytam to twoje ograniczenie do 200 W. Piszesz tak chaotycznie ze trudno to czytac. Mam nadzieje ze inni to widza bo niczym nie roznisz sie od fanbojow typu SV... a nie sorrki kolorem

  29. @Seba78 (autor: Qjanusz | data: 15/11/10 | godz.: 13:41)
    Rzecz w tym że nVidia wydając GTX580 zapowiedziała to cudo, jako kartę z GPU w wydajniejszej architekturze w porównaniu do GTX480, mniejszymi temperaturkami i mniejszym poborem prądu.

    Wydajniejsze to prawda. Temteraturki to kwestia zastosowania bardzo zaawansowanego chłodzenia w referencie, a kwestia poboru prądu to bohater niniejszego newsa.

    Przekręt i sprzedanie kotleta GF100 z inną przyprawą i oczywiście inna nalepką. Pięknie to obrazuje odpowiedź nVidii na pytanie labika i kwestię poboru prądu.

    Jeżeli ktoś uważa że wszystko jest ok, a nVidia zachowuje się fair, to jest jego zdanie z którym osobiście się nie zgadzam.


  30. inżynierowie nVidia (autor: DTOsman | data: 15/11/10 | godz.: 13:43)
    to wizjonerzy i ludzie postępowi, wciąz się rozwijają i dodają nowe rozwiązania by ich produkty były jak najlepsze. Jedna karta = 2 GPU konkurencji to mówi wszystko.

    Oczywiscie zwolennicy firemki czyli rzekomej taniej tandety(bo ostatnio tę tandete sprzedają drogo) zawsze będą ujadac, a wydajnośc mówi sama za siebie i produkt sam się broni najwyzszą jakością, dostepną jedynie od nVidii.


  31. @Rajq (autor: Qjanusz | data: 15/11/10 | godz.: 13:46)
    zapodałem listę scalaków na której masz szansę odnaleźć ten, który był na Twojej p45 od MSI

    Co do dalszych wątpliwości:
    "Texas Instruments (dalej: TI) odpowiedzialne jest za dostarczanie komponentu o nazwie driver-MOSFET (DrMOS), który jest nowością do tego stopnia, że nie znajdziemy o nim informacji nawet u samego producenta"

    nie będzie widoczny tym bardziej w katalogach na necie.

    Nie musisz ze mną dyskutować. Ja odpowiadam na Twoje posty, ale widzę że zupełnie bez sensu, bo widzę że szukasz dziury w całym.


  32. @DTOsman #30 (autor: Qjanusz | data: 15/11/10 | godz.: 13:47)
    Amen

    :D


  33. @DTOsman (autor: zomb1e | data: 15/11/10 | godz.: 13:47)
    Zostaw te propagandowe teksty dla specjalistów od promocji w Nvidii.

  34. No ale co? (autor: Seba78 | data: 15/11/10 | godz.: 13:57)
    Karta jest nie wydajna przy tym rozwiązaniu czy ono się wyłącza i pobiera po prostu rzeczywiście więcej prądu? bo trwa tu kłótnia a jakie są fakty?

  35. @Seba78 (autor: zomb1e | data: 15/11/10 | godz.: 14:02)
    Chodzi o to że Nvidia zapowiadała, że GTX580 jest oparty na GF110 czyli na poprawionym GF100. Okazało się że nic nie zostało poprawione skoro trzeba używać zewnętrznych układów do monitorowania poboru energii przez GF110.

  36. @up (autor: Qjanusz | data: 15/11/10 | godz.: 14:08)
    poza tym karty z segmentu TOP często trafiają do rąk maniaków OC, którzy w tym przypadku muszą obejść się smakiem.

    Jeżeli kartę podkręca, to Mr. Hyda szybko zadziała i podetnie zegarki. Tego oczekujesz od totalnego TOPu???


  37. @zombie (autor: DTOsman | data: 15/11/10 | godz.: 14:11)
    oczywiście, że nie trzeba przecież karta ma wyższą wydajność doganiającą HD5970 i to jest fakt. Czyli żadne ograniczniki na wydajność nie wpływają, a mogą uratować kartę w przypadku zbędnych wypalarek. Mistrzowska zagrywka, w wykonaniu mistrzów.

    Nawet jeżeli założymy, ze podczas gry takty są obniżane, to jak widać mimo to wydajnośc jest przeogromna. Ta karta to prawdziwa bestia na smyczy ale jest ona dostatecznie długa by bestia mogła zagryzc konkurencje i tak też się dzieje. Te swieta beda zielone, w domach zabłysną oswietlone choinki, a karty GTX580 na dobre zadomowią się u klientów, którzy wiedzą, że kupując karty u nvidii dokonuje się złotego interesu.


  38. @DTOsman (autor: Qjanusz | data: 15/11/10 | godz.: 14:15)
    "w domach zabłysną oswietlone choinki" - jakoś to kiepsko brzmi w kontekście karty pobierającej 350W...

  39. "wydajność doganiającą HD5970" - do dobre (autor: Qjanusz | data: 15/11/10 | godz.: 14:19)
    gonić, gonić i nie dogonić.... :-)
    http://www.hardocp.com/...d_5970_2gb_performance/2


  40. idealny link (autor: DTOsman | data: 15/11/10 | godz.: 14:25)
    tam gdzie płynność zapewnia HD5970 płynnośc zapewnia i GTX580 ale o ile 22 min fps jest grywalne to 17 fps to kaszana. To jest własnie jakość 2 GPU firemki

  41. dodajmy jeszcze (autor: DTOsman | data: 15/11/10 | godz.: 14:25)
    gorszą teselację, brak psiksa i wady multigupu i mamy obraz GTX580 jako jedynego słusznego wyboru hi-end

  42. @up (autor: Qjanusz | data: 15/11/10 | godz.: 14:38)
    po prostu napisz że hi-end jest tylko jeden, a wszystkie tłumaczenia mówiące inaczej są kłamliwe.

    A takimi argumentami nie ma co dyskutować :-)


  43. @Qjanusz (autor: Rajq | data: 15/11/10 | godz.: 15:03)
    Masz cytat. By NetCop
    "Na temat samego limitera napisałem w recenzji. Działa tylko na Furmark i OCCT ale jeśli chcesz spalić sobie kartę wystarczy, że zmienisz nazwę Furmarkowi na np. burn_me_baby Limiter nie działa na żadną grę ani żadną inną aplikację więc o zjeżdżaniu z taktami nie ma mowy.
    Żadna gra obciążająca GPU w 100% ani obliczenia GPGPU nie są w stanie wyciągnąć takiego poboru jak robi to Furmark.
    Na bazie swoich testów stwierdziłem, że Crysis jest obecnie najbardziej wymagający jeśli chodzi o pobór prądu i na nim od dawna to sprawdzam. Jakież było moje zdziwienie gdy tuż przed premierą NVIDIA pokazywała dziennikarzom pobór prądu z różnych gier i też stwierdzili, że Crysis jest obecnie najbardziej "wciągającą prąd" grą"
    Przepros teraz wszystkich za wciskanie im ciemnoty i za glupie fanbojowanie chyba nawet gorsze niz SV i DTOsman bo u nich nawet da sie posmiac a u ciebie to piana na ustach i krucjata przeciw zlej nV.


  44. @Rajq (autor: Qjanusz | data: 15/11/10 | godz.: 15:15)
    z tego co przytoczyłeś, wychodzi na to samo.
    nVidia w sterach obcina takty powyżej określonego obciążenia GPU, a GF110 wcale nie jest bardziej energooszczędną wersją, która pobiera mniej prądu w porównaniu do bety chipsetu GPU (GF100)

    Dodane zabezpieczenie to próba zmniejszenia kosztów serwisowania najnowszych grzałek. Segment TOP, w którym ogranicza się wydajność. Takiego bubla jeszcze nie było.


  45. w takiej sytuacji (autor: DTOsman | data: 15/11/10 | godz.: 15:21)
    sprawa jest jasna. Skoro GTX580, z ograniczoną wydajnością, gromi karty konkurencji, mistrzostwo inżynierów nVidii jest niezaprzeczalne.

    Dodajmy do tego bardzo dobre oc, które daje ewidentny zysk, któremu owe ograniczenia W niestraszne i mamy produkt na miarę XXII wieku.


  46. @DTOsman (autor: mnemeth | data: 15/11/10 | godz.: 15:28)
    Poziom twojego debilizmu osiągnął punkt wrzenia... lecz się !!!!

  47. ... (autor: mnemeth | data: 15/11/10 | godz.: 15:33)
    w obliczu tego wszystkiego kolejny numerek dla nowego geforce'a to jakaś farsa...

  48. @DTOsman (autor: Qjanusz | data: 15/11/10 | godz.: 15:38)
    sprawa jest jasna.

    Najnowszy GTX580 nie osiąga wydajności poprzedniej rodziny kart konkurencji, a kunszt inżyniera nVidii w maskowaniu niedociągnięć własnej architektury jest niezaprzeczalny.

    Górna półeczka chłodzenia GPU + elektroniczne ograniczenie przez spaleniem/max. wydajnością.

    Lada chwila odpowiedź konkurenta, który i tak posiada najwydajniejszą kartę na świecie.

    bla bla bla... kłamstewko, oszustwo, nowa nalepka "i mamy produkt na miarę XXII wieku."


  49. @DTOsman (autor: draconewt | data: 15/11/10 | godz.: 15:39)
    Mistrzostwem inżynierów Nvidii jest to, że zrobili kartę którą potrafi spalić 3DMark.

  50. @mnemeth (autor: Qjanusz | data: 15/11/10 | godz.: 15:41)
    e tam farsa.
    Ot klasyczny kotlecik i woda na młyn fana :-)

    Klasyka w wykonaniu nieVidii.


  51. a fanboje (autor: Rajq | data: 15/11/10 | godz.: 15:46)
    dalej swoje... wkelejasz im jedno oni drugie. Gdzie masz cos o 3dmarku? analfabetyzm wsteczny...

  52. @up (autor: Qjanusz | data: 15/11/10 | godz.: 15:48)
    a dasz głowę fanboja ze zaraz w sterach nie go będzie jak tylko będzie za dużo zwrotów serwisowych najnowszego kotleciszcza?

    wiesz... pierwszy kroczek jest najtrudniejszy. Dalej idzie jak z górki ;-)


  53. ... (autor: Aamitoza | data: 15/11/10 | godz.: 15:59)
    Zastanawia mnie o co Wy się tak plujecie. W grach ten ogranicznik nie działa i tam GTX580 pobiera w zależności od testu tyle samo, lub mniej od GTX480, więc pod tym względem układ został poprawiony. Nvidia też nigdzie nie kłamała podając TDP 244W, bo karta tej wartości nie przekracza w grach, a w furmarku jak widać dzięki ogranicznikowi także nie przekracza.

    Sam ogranicznik można jak widać wyłączyć, więc dla hardkorowców testujących w furmarku jak znalazł.


  54. Dobra koncepcja (autor: Golem | data: 15/11/10 | godz.: 16:00)
    Bardzo dobra koncepcja tylko beznadziejne wykonanie ze strony NVIDIA.
    Licze ze ATI zrobi cos takiego ze bedzie mozna limitowac karte na pobierana moc, bo poco nam 100 fps jak i tak nie zobaczymy ponad 30fps ?
    A i na pradzie by zaoszczedzil


  55. najwydajniejszą (autor: DTOsman | data: 15/11/10 | godz.: 16:05)
    w DX9, niestety w DX11 i teselacji już GTX480 odstawiał HD5970 na boczny tor. Słabe karty AMD hamują rozwój gier, developerzy nie moga dodawać zbyt zaawansowanych efektów graficznych, by klienci firemki nie mieli pokazu slajdów. Dla nich pozostaje wyłączyc teselacje i psika ciesząc się graficznym półproduktem. Teraz przesuwane premiery, okazuje się że uzysk cienki, TDP wysokie a wydajnośc nie zachwyca i trzeba dopakować zegary do granic mozliwości jak w HD6870. Kiepskie losy firemki w najblizszych miesiącach, a Intel szykuje szykuje flanke SB i firemka wkrótce zniknie

  56. DTOsman (autor: Aamitoza | data: 15/11/10 | godz.: 16:17)
    Co za problem zrobić dwa tryby teselacji? Jeden dla "słabych" radeonów i drugi na "cudownej" nvidia różniły by się tylko factorem. Jeszcze tylko dorzucić fisix i mamy pokaz slajdów na geforcie jak w metro.

  57. @Aamitoza (autor: Qjanusz | data: 15/11/10 | godz.: 16:21)
    "więc dla hardkorowców testujących w furmarku jak znalazł."

    no właśnie problem w tym, że nie.
    Karta jest tak skonstruowana, że wykorzystanie je w 100% naraża ją na wypalenie ze slotu PCIe

    Oczywiście że możesz ja odblokować tak, aby można było z niej wykrzesać 100%, ale jak długo tak podziała? Miesiąc, dwa? Nikt nie wie bo gwarancja tego nie obejmuje.

    Inna sprawa, gdyby odblokowanie dało 100% pewności że wszystko będzie ok.
    Mierzone pobory prądu wykazują że jednak GTX580 pobiera również i więcej niż GTX480. Kiepsko jak na poprawionego GTX480.


    @Golem - a 3D??? Tam powinieneś mieć 120fpsów. A uwierz mi że spokojnie zobaczysz różnicę między 30fps a 60fps

    @DTOsman - rozwój gier hamują przestarzałe konsolki. A psiksa to wyłączają sami developerzy w swoich produkcjach, którzy już nawet nie chcą brać w łapę od nieVidii, po to tylko żeby opóźnić premierę gierki o kilka miechów, aby 20 osób na całym świecie odhaczyło "fizykę tylko dla goblinów"
    I taka jest prawda.


  58. @gtx580 (autor: Mariosti | data: 15/11/10 | godz.: 16:24)
    Trick polega na tym że maksymalne zużycie energii kart graficznych zwykle polega na odczycie mocy na gniazdku sieciowym przy włączonej aplikacji typu furmark. Ponieważ nvidia zastosowała dla tego typu aplikacji ogranicznik zmniejszający te odczyty prawie o połowę, ludziom wydawało się że karta ta jest bardziej energooszczędna i sprawna w porównaniu do gtx480, a okazuje się że tak jednak nie jest.

  59. Qjanusz (autor: Grave | data: 15/11/10 | godz.: 16:31)
    Jeszcze parę postów a się zaplujesz tyle piany toczysz.... Dodam jeszcze że analogiczne zabezpieczenie masz w K-A-Ż-D-Y-M CPU (tak, w każdym, tym od AMD także) i jakoś nikt z tego powodu nie robi burzy w szklance wody bo nie jest tak psychicznie walnięty jak Ty.

    Spróbuj na CPU np. nie założyć chłodzenia albo założyć zbyt mało wydajne - masz jak w banku, że z procesorem nic się nie stanie natomiast zegary zostaną błyskawicznie zbite, żeby chronić procesor przed spaleniem.

    Normalne zabezpieczenie, a dla Ciebie jak zawsze sensacja rodem z faktu. Puknij się w łeb...

    A co do wydajności to, kiedy goni HD 5970 wtedy goni, ale czasami przegonić także potrafi (bo dual GPU nie zawsze dobrze się skalują co jest wiadome od dawna), dowód:

    (a przypominam że to jest porównanie 1GPU Nvidii kontra DWA GPU AMD....)

    http://www.in4.pl/...id=668&rectr_str_numer=15

    http://www.in4.pl/...id=668&rectr_str_numer=13

    i jeszcze tu:

    http://www.in4.pl/...id=668&rectr_str_numer=12

    oraz tu

    http://www.in4.pl/...id=668&rectr_str_numer=11


  60. Qjanusz (autor: Aamitoza | data: 15/11/10 | godz.: 16:34)
    Ludzie podkręcają GTX480 na ponad 800mhz na podbitych napięciach i jakoś działają te karty do dzisiaj, więc taki GTX580 bez ogranicznika podziała spokojnie przez długi czas. Poza tym GTX480 nie ma takiego ogranicznika i jakoś nie było problemu z działaniem karty, a wg testów karty pobierają podobne ilości energii (nie mniej GTX580 w grach pobiera jej trochę mniej).

  61. ja pierdziele (autor: Metal Machine | data: 15/11/10 | godz.: 16:35)
    Psy do budy! jak nie jeden to drugi was powinni pozamykać w pokojach 1.5x1.5 metra i niewypuszczać przez tydzień.

  62. @grave (autor: zeek | data: 15/11/10 | godz.: 16:35)
    jak juz dajesz linka to nie do konkretnych tytulow

    http://www.in4.pl/...id=668&rectr_str_numer=19

    widac tu ze ŁĄCZNIE HD5970 jest niecale 10% szybszy od GTX580


  63. Grave (autor: Aamitoza | data: 15/11/10 | godz.: 16:36)
    Piszesz o czymś zupełnie innym. W CPU masz ogranicznik ale gdy zostanie przekroczona pewna temperatura. Tutaj nie o temperatury chodzi, tylko o pobór energii.

  64. @all (autor: Wedelek | data: 15/11/10 | godz.: 16:55)
    To ja jeszcze nadmienię dla osób mniej interesujących się tematem, że owe "wypalenie" groziło GPU przy dłuotrwałym (np dwugodzinnym) obciążeniu 100% rdzenia, a nie przez typowy test. (5min-10min)
    :)


  65. @Aamitoza (autor: Qjanusz | data: 15/11/10 | godz.: 16:55)
    GTX480 tak.
    Ale trzeba pamiętać że GTX580 projektowany był też pod względem max. zbicia ceny (!!!)

    Kto wie jakim kosztem cenę tę zbito. GTX480 potrafi się kręcić - zgoda. W takim razie po co dodatkowe wydatki na układziki i komplikowanie płytki pod GTX580. Sporo pytań.

    @Grave - ja mam odkurzacz marki Hoover, który zmniejsza obroty po przekroczeniu pewnej temperatury na silniku. Ale napisz mi jak to się ma do najnowszego kotleciszcza nVidii?


  66. Qjanusz (autor: Grave | data: 15/11/10 | godz.: 17:04)
    "ja mam odkurzacz marki Hoover, który zmniejsza obroty po przekroczeniu pewnej temperatury na silniku. Ale napisz mi jak to się ma do najnowszego kotleciszcza nVidii?
    "

    To że i tu i tu jest to zabezpieczenie przed przegrzaniem.


  67. HAHAHAHAHAHAHAHAHAHAHAHA (autor: Lolo64_EX1_rev2.1 | data: 15/11/10 | godz.: 17:06)
    ja sie tylko śmieje. Komentarz zbędny.

  68. @Grave (autor: Qjanusz | data: 15/11/10 | godz.: 17:08)
    a przepraszam czy GTX580 jest sprzedawany z pudełkiem, na którym napisane jest ze 100% wydajności masz zagwarantowane od 0,5 godz - 1 godz w zależności od temperatury otoczenia?

    Chodź z drugiej strony wcale Ci się nie dziwię że zauważasz podobieństwo kart nVidii z odkurzaczami.

    Nie Ty pierwszy:
    http://onegoodmove.org/1gm/images/blower2.jpg

    :-)


  69. @up/edit (autor: Qjanusz | data: 15/11/10 | godz.: 17:09)
    powinieneś napisać:

    jedno i drugie POWINNO posiadać zabezpieczenie przed przegrzaniem :D


  70. .:. (autor: M1ras | data: 15/11/10 | godz.: 17:17)
    Czytam komentarze od pierwszego i ten o numerze @53 to jeden z rozsądniejszych pod tym tematem.

  71. edit (autor: M1ras | data: 15/11/10 | godz.: 17:21)
    Słabo wyszła ta optymalizacja nvidi skoro mószą stosować dodatkowe ograniczniki, ale nie ma cudów (TM) i ograniczeń fizyki nie przeskoczą. 40nm to za duża litografia pod ten czip.

  72. BRAWO NVIDIA!!! (autor: hideox | data: 15/11/10 | godz.: 17:34)
    bardzo podoba mi się ten pomysł z prądem! nareszcie firma myśli też o prądzie! wydajność wydajnością ale liczy się wydajność w stosunku do poboru prądu! prąd drogi zarobki małe a płacić trzeba za prąd. dziękuję nVidia! :)

  73. @M1ras (autor: Qjanusz | data: 15/11/10 | godz.: 17:40)
    czekamy na wprowadzenie HD6970 - tam również powinno być ciekawie :-)

  74. @Qjanusz (autor: arn2 | data: 15/11/10 | godz.: 17:58)
    http://www.youtube.com/...GySE&feature=related

  75. Aamitoza (autor: morgi | data: 15/11/10 | godz.: 18:01)
    Procesory nigdy nie byly do tego stopnia palnikami, a w gpu nie tyle chodzi i prad co upalenie plytki, pamieci i drogich bo najnowszych w branzy regulatorow, wszystko po to zeby wybic z glowy testowanie na upalenie, zapomniec o programikach typu flamemarki i zajac sie testami poboru w kilku znanych gierkach czy syntetykach majacych jakis realny odnosnik do rzeczywistych zastosowan graficznych.

  76. @39 Qjanusz - pierdolic.e hipolicie (autor: globi-wan | data: 15/11/10 | godz.: 18:11)
    1,5fps roznicy . i topowa karta jedno procesorowa kontra topowa karta dwu procesorowa( mikro przyciecia - mialem 4870x2 - nigdy wiecej dwuprocesorowych cudow na jednym pcb)

    pozatym narazie na bazie jedno procesorowej nie ma porwnania.

    druga sprawa jesli chcemy 2 na 2 to skladamy sli nawet z 460 1G i mamy wieksza wydajnosc niz 580 i 5970


  77. co do porownania 480 i 580 (autor: globi-wan | data: 15/11/10 | godz.: 18:17)
    osobiscie mam 480 na 800mhz i max to 93 st podczas gry

    no latem przy 35st w pokoju bylo 95-96.

    ale hula i nic jej nie jest do 100 dobijala w furmarku...

    co do samego chlodzenia to "na oko" przyzwoiciej wyglada chlodzenia 480tki niz 580tki


  78. @Qjanusz (autor: Jolo | data: 15/11/10 | godz.: 18:32)
    Czy Ty w ogóle sam wiesz o co Ci chodzi? Swoje wątpliwej jakości wywody opierasz na, oględnie mówiąc, najbardziej "radykalnych" opiniach i szczerze mówiąc, jeśli Twoim celem było przebicie takich postaci jak morgi czy Sony Vaio to już dawno Ci się to udało i możesz spokojnie przyhamować. Z drugiej strony każda rzeczowa retoryka nie ma z Tobą większego sensu, bo na kontrargumenty reagujesz paniczną zmianą tematu połączoną ze sprowadzeniem problemu do absurdu, płynnie przeskakując od spoconego czoła do komponentów na płytce drukowanej, następnie oszczędzanie energii Ci jednocześnie przeszkadza i się podoba, cichaczem przechodzisz przez koszty serwisowania i naprawy gwarancyjne żeby móc się pomartwić znowu poborem prądu i skończyć wywody mocnym akcentem o braku odpowiednich napisów na pudełkach.
    Nie mam zamiaru z Tobą dyskutować, bo już kiedyś próbowałem i skończyło się jak zwykle, dlatego tylko nieśmiało pytam czy w ogóle wiesz o co Ci chodzi i potrafisz w jednym zdaniu sprecyzować swoje poglądy w tym temacie?


  79. ... (autor: M1ras | data: 15/11/10 | godz.: 18:40)
    @Qjanusz
    Prawda. Tam też może być ciekawie ;-)

    Ja poczekam jednak na kolejną generację GPU wykonanych w 28 nm, może tam temperatury / pobór prądu wrócą do rozsądnych poziomów.


  80. Ten mechanizm ma swój sens wobec (autor: krzysiek_mil | data: 15/11/10 | godz.: 19:52)
    nie najlepszej architektury układu jak na ten wymiar technologiczny.
    Szkoda, że niektórzy ten temat tak przeżywają jakby zależało od tego ich życie. Zarówno Qjanusz jak i fan-boye NV przechodzą samych siebie:)


  81. przyznam że ja tego nie rozumiem w ogóle.. (autor: puppy | data: 15/11/10 | godz.: 19:56)
    jest 200W cap, jest. Z drugiej strony informacja że w przypadku gier żadnego spadku wydajności nie uświadczymy. i teraz pytanie za sto punktów, dlaczego nie? To w końcu jest ten cap, czy może dla gier go nie ma? a może ta plotka/news ma nieść że żadna z gier nie wymaga 95% od karty? prosimy o wybaczenie, ale zawsze myślałem że o ile nie ustawimy sztucznego ograniczenia w grze co do ilości klatek na sekundę, to jednak gry ciągną tyle ile fabryka daje, choćby to był kłejk 3.. proszę jakiegos życzliwego eksperta o odpowiedź ;)

  82. TPC (autor: cyferluu | data: 15/11/10 | godz.: 20:58)
    zróbcie wyczynowy test ... przeciętny maniak gier ( bo kto inny kupuje taka kartę) gra dziennie powiedzmy około 6 h. zróbcie sześcio godzinny test z ogranicznikiem poboru energii i bez ogranicznika poboru energii np. w Crysis :P

  83. swietny przekret (autor: RusH | data: 15/11/10 | godz.: 22:47)
    niezle jajka serwuje NV :)
    dodaja z $2-3 koszt do kazdej karty tylko dla 2 aplikacji? :o


  84. @globi-wan (autor: Qjanusz | data: 15/11/10 | godz.: 22:53)
    co to znaczy "na oko"?
    Wagowo na pewno chodzenie 480 jest zacniejsze niż te z 580.

    Ale prawda jest taka że komora parowa swoją finezją rozkłada na łopatki nawet 10 grubych rurek cieplnych. Tłumacz sobie jak chcesz, ale vapor to już jest niemal najwyższa półka chłodzenia AC.

    @Jolo - nie. Nie wiem o co mi chodzi. Wypisujesz zarzuty o bardzo fajnej konstrukcji. Napisać Tobie że ktoś lubi np kiełbaskę z grilla i lody waniliowe, to pewny lincz z Twojej strony w postaci: "ciepłe dania z jednej strony pasują a z drugiej przeszkadzają, przechodząc płynnie z dania pikantnego do samej słodyczy....."
    Czy ja pytałem Cię o zdanie?
    :-)


    @M1ras - 28nm to jedyny słuszny punkt zaczepienia. Wg mnie potwory pokroju GF100, GF110 a i zapewne HD6900 to jedno wielkie nieporozumienie.
    Chociaż te ostatnie mają szanse jeszcze zaskoczyć.


  85. pamiec macie krotka:))) (autor: speed | data: 17/11/10 | godz.: 00:23)
    a 4870x2 jak dobrze pamietam to po odpaleniu tego programu max dla systemu byl 366W a gry potrafily pociagnac i 500W .Mark bral max 487W

  86. zenada (autor: adriankiller21101986 | data: 17/11/10 | godz.: 01:31)
    moj gtx 480 oc 885-1770-2050 daje to samo co to wiec jak ktos ma 480 to nie oplaca sie zmieniac chyba ze mu zalezy na temperatuze to wtedy polecama ale moadry polak co ma 480 nie przesiadzie sie na 580 bo to sie nie oplacaaaa np tak jak ja czekam na 2x gpu od zielonyh to wtedy tak a takie cos to poprostu poprawiony gtx 480 tak jaki powinnien byc od poczatku a nie robia zamieszanie ze o nowy gtx 580 sraly muchy bedzie wiosna ..... zenada

  87. @86 (autor: globi-wan | data: 17/11/10 | godz.: 10:26)
    885 to tylko na wodzie.a porownywanie wody do ac mija sie z celem..bo 580 na wodzie zrobi ponad 930

  88. @globi-wan (autor: Qjanusz | data: 17/11/10 | godz.: 12:04)
    na wodzie to na pewno zrobi 850 vide EVGA FTW Hydro Copper

    Dalej to tylko teoria, której jeszcze nikt nie sprawdził.
    No chyba że masz dobrego linka.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.