Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Wtorek 1 lutego 2011 
    

Nvida SRAA przeciw AMD MLAA


Autor: Wedelek | źródło: Nvidia | 10:11
(52)
Wygładzanie ostrych krawędzi przedmiotów umieszczanych w wirtualnym świecie gier 3D to sprytny sposób na znaczną poprawę jakości wyświetlanego obrazu jako całości. Niestety popularne MSAA (Multi Sample Antialiasing) w tytułach wykorzystujących silniki deferencyjne nie działa w ogóle lub jest nieefektywne. Aby wyeliminować tę niedogodność wraz z premierą kart graficznych z serii Radeon HD 6000 firma AMD dodała do swoich sterowników funkcję MLAA (Morphological Anti-Aliasing) która operuje na pojedynczym pikselu w procesie post-procesingu. Podobne rozwiązanie postanowiła zaprezentować również Nvidia, dodatkowo je ulepszając.

W ten sposób powstał mechanizm Subpixel Reconstruction Antialiasing, czyli w skrócie SRAA, który powinien zadebiutować już w najbliższych sterownikach firmy z Santa Clara. Sam producent deklaruje że jego SRAA jest znacznie lepszy od MLAA dzięki operacjom na jeszcze niższym szczeblu - subpikselach przy zastosowaniu map głębokości i bufora map. Innymi słowy wygładzaniu poddawane są jedynie krawędzie obrazu wyjściowego, a nie cały obraz jak w przypadku MLAA, a cały proces przebiega w pojedynczym cyklu cieniowania. Dzięki temu podobnie jak w przypadku wykorzystania mechanizmu AMD straty wydajności są relatywnie niskie.


 


    
K O M E N T A R Z E
    

  1. tak to jest jak się nic samemu nie potrafi wymysleć (autor: Qjanusz | data: 1/02/11 | godz.: 10:18)
    tylko zżyna się od lidera.

    Ale w sumie to dobrze. Lepsza jakość w gierkach również dostępna będzie również i na GeForcach. Nikt na tym na pewno nie straci

    :-)


  2. btw... (autor: Qjanusz | data: 1/02/11 | godz.: 10:20)
    nVidia ma farta do polskiego brzmienia swoich wynalazków.

    Można by napisać że firemka SRAA CUDAmi ;-)


  3. Nvidia porządnie to zrobi (autor: pomidor | data: 1/02/11 | godz.: 10:29)
    w porównaniu od ATI. Na Geforce obraz w 320x200 ma lepszą jakość, niż HD na Radeonie :)

  4. Tak sobie patrzę na tego screena i się zastanawiam (autor: AMD_Master | data: 1/02/11 | godz.: 10:35)
    dlaczego aż tyle lat trzeba był czekać na to rozwiązanie, które jest znane od bardzo bardzo dawna?

    Nvidia SRAA CUDAmi - dobre :D


  5. tak jeszcze w kwestii technicznej (autor: Qjanusz | data: 1/02/11 | godz.: 10:38)
    nVidia z gorszą wydajnością swoich kart nie może sobie pozwolić na wygładzenie całego obrazu jak w przypadku AMD, tylko zaczyna cudować z głębokością, ograniczając się do widzianego obiektu.

    Teoretycznie wszystko jest ok, ale wystarczy przypomnieć sobie zamiłowanie nVidii do robienia wszelakiego rodzaju optymalizacji. W takim przypadku bardzo prosto o implementację w stylu jakość (ilość próbek) uzależniona od kąta nachylenia krawędzi w stosunku do ekranu.

    Działania na sub pixelach wydaje się dobrym pomysłem, ale pod warunkiem że gramy w 800x600. Jakie ona ma zastosowanie w 1600x1200, tego nie wie nikt. A już na pewno nikt nie zauważy różnicy.


    Jednym słowem mocno przekombinowali i otworzyli sobie furteczkę do kombinacji, która ogołocona z marketingu, będzie tylko solą w oku klienta.

    A na treść typu "Sam producent deklaruje...", mam sprawdzoną odpowiedź:
    http://twojepc.pl/graph0/news09/19817_3.jpg

    :-)


  6. MLAA buahaha, przecież to nie działa (autor: Sony Vaio | data: 1/02/11 | godz.: 10:56)
    nawet na forach amd mówią by nie włączać "morphological", fajny fjuczer, jest, ale nie można go używać. Po włączeniu gra wygląda jak sraczka, a pulpit jest postrzępiony i ma niewyraźne trzcionki Bravo! Deklasacja rywala!!!!

  7. up zapomniałem dodać, że w trybie morphological (autor: Sony Vaio | data: 1/02/11 | godz.: 11:01)
    zanika również Vertical Synchronisation, jedna wielka kaszana.

  8. @pomidor (autor: lamik91 | data: 1/02/11 | godz.: 11:01)
    I po co wprowadzasz ludzi w błąd debilu ? powinieneś dostać bana za pisanie bzdur kretynie...
    @SV
    Następny przychlast...
    Szkoda że administracja z dupy wzięta i z wami nic nie zrobi...


  9. @lamik, nick pasuje (autor: Sony Vaio | data: 1/02/11 | godz.: 11:04)
    nie masz pojęcia o problemie, to piszesz bzdury. Wejdź na forum amd i poszukaj Morphological, samo amd nakazuje to wyłączać!

    Z resztą, włącz odpal grę i się ciesz.


  10. SRAA (autor: doxent | data: 1/02/11 | godz.: 11:17)
    niemal się popłakałem jak to przeczytałem. Jak widać pewnie mają pełne gacie. Pierw obiecywali CUDA a teraz ...

  11. to normalne (autor: DTOsman | data: 1/02/11 | godz.: 11:19)
    nVidia zawsze robi wszystko lepiej od AMD, więc i SRAA > MLAA

  12. @SV (autor: lamik91 | data: 1/02/11 | godz.: 11:19)
    "Po włączeniu gra wygląda jak sraczka" czyżby ?
    Japę trollu... nie wiem jak taki gnój się może tutaj pokazywać...


  13. MLAA na Radkach w Stalkerze COP i Crysis wygląda super w DX10 (autor: Qjanusz | data: 1/02/11 | godz.: 11:37)
    sprawdzałem te nowinki jakiś czas temu. Bardzo wydajny i nieobciążający sposób na skuteczny AA. Zero problemów.

    ALE ROZUMIEM ŻE ZAKUTE ZIELONE FANBOJSTWO (wiedza czerpana z forów????) wie lepiej, mimo że w blaszaku dumnie wyje GF440MX

    :D


  14. No tak (autor: morgi | data: 1/02/11 | godz.: 11:52)
    zobaczymy jakie zmydlenie obrazu wystepuje straty na wydajnosci i jakosci sa istotne, ale takie techniki to do konsol sie nadaja.

  15. czy morgi ma racje? (autor: cyferluu | data: 1/02/11 | godz.: 12:05)
    nie... no :D zgodzę się... żadna technologia nie wykombinuje z powietrza brakujących pixeli ... tylko... przy 1024x768 morgi masz racje mydlo na maxa... ale w 1080p dodać AA i juz inaczej się scena prezentuję... acz kolwiek AA w tej rozdzielczości jest zbędne :D

  16. @SRAA (autor: Mariosti | data: 1/02/11 | godz.: 12:10)
    Zakładam oczywiście że układ subpikseli będzie konfigurowalny z poziomu sterowników... w innym razie na wielu matrycach to algo będzie tylko pogarszało jakość obrazu...

  17. MLAA w starszych gierkach i mniej dopracowanych graficznie (autor: Arlic | data: 1/02/11 | godz.: 12:13)
    Daje naprawdę widocznego kopa w jakości grafiki, przesiadając się z nvidi na AMD też zauważyłem lepsze kolory, i najbardziej co mnie zdziwiło że oddalone obiekty nie są wyblakłe i zamazane! tylko ostre i kolorowe :D

  18. widać dział R&D (autor: Jarek84 | data: 1/02/11 | godz.: 12:39)
    zamienili u NV na dział inspektora gadgeta i poszukiwanie technologii u konurenta, które można w jakiś sposób zaimplementować u siebie... :E

  19. Qjanusz (autor: Grave | data: 1/02/11 | godz.: 12:53)
    "nVidia z gorszą wydajnością swoich kart nie może sobie pozwolić na wygładzenie całego obrazu"

    Tak... zwłaszcza że Nvidia ma najszybsze GPU. Ale jasneee.... "gorsza wydajność, nie mogą sobie pozwolić" etc.....


  20. @19. (autor: Jarek84 | data: 1/02/11 | godz.: 12:55)
    2560x + full AA i FSAA i nagle NV puchnie :E

  21. ... (autor: bananowy song | data: 1/02/11 | godz.: 12:58)
    może nVidia wejdzie w spółkę z firmą OSRAM? ;)

  22. @Grave (autor: Qjanusz | data: 1/02/11 | godz.: 13:04)
    tyle tylko że te najszybsze GPU to sprzedanych kilkaset sztuk.

    Realna sprzedaż nVidii to praktycznie GTX460, któremu mocy na wyliczenie AA pełnej sceny niestety brakuje. No chyba że wchodzimy w 800x600.

    Niestety optymalizacje, kombinacje i szachrajstwa w sterownikach zawsze dadzą efekt gorszy niż po prostu wydajniejszego PS. Założę się że najnowsze sterowniki będą brylowały... w 3D Smarkach...

    Jeżeli chodzi o benchmarki, to fakt. nVidia jest niekwestionowanym liderem. Jeżeli ktoś kupuje natomiast kartę graficzną z zamiarem odpalania gierek, no to sprawa wygląda zgoła zupełnie inaczej...


  23. Hahaha (autor: MateushGurdi | data: 1/02/11 | godz.: 13:16)
    Nvidia SRAA CUDAmi, a AMD na to wszystko MLAAska xD Maja wypasne nazwy, naprawde :))

    @Qjanusz mialem kiedys GF 440MX :PMimo 35 FPS wyswietlal mi tekstury w grze w odcieniach brazu xD Co najlepsze ze wtedy mi to nie przeszkadzalo, wazne ze gra wogole szla :)


  24. @grave (autor: lamik91 | data: 1/02/11 | godz.: 13:23)
    Ale to AMD ma nadal najszybszą kartę graficzną na świecie :)

  25. Żelazną zasadą w koncernach było kiedyś sprawdzanie ... (autor: zartie | data: 1/02/11 | godz.: 13:31)
    ... czy wprowadzana nazwa produktu, technologii itp. nie ma jakiegoś negatywnego wydźwięku w językach krajów, w których firma działa. Jak widać w nV i ten dział zlikwidowali, został tylko marketing :-D

  26. lamik91 (autor: Grave | data: 1/02/11 | godz.: 13:44)
    Ten HD 5970 też potrafi oberwać od jednoprocesorowego GTX 580....

    Na razie w ramach aktualnej generacji (HD 6xxx i GTX 5xx) Nvidia ma szybsze karty, natomiast jak będzie w starciu dual GPU to zobaczymy po testach HD 6990 i GTX 590, bo tym razem Nvidia nie zamierza pozostać bez odpowiedzi na kartę dual GPU od AMD.

    I w sumie dobrze, bo tak były niekończące się dyskusje - czy duala można porównywać z single - raczej mało sprawiedliwe.

    A tak będzie jasne - GTX 580 przeciwko HD 6970 w kategorii single GPU, GTX 590 przeciwko HD 6990 w dual GPU.

    A kto wygra w tym ostatnim starciu to się dopiero okaże. W sumie AMD ma większe szanse na zachowanie względnie wysokiego taktowania ze względu na lepszą wydajność na wat, więc jeżeli miałbym obstawiać które rozwiązanie typu dual GPU tym razem będzie lepsze to postawiłbym na AMD, zwłaszcza że ostatnio AMD bardzo dopracowało skalowanie w CrossFire.

    Ale do czasu pojawienia się testów to tylko gdybanie.


  27. ??? (autor: Qjanusz | data: 1/02/11 | godz.: 14:09)
    "czy duala można porównywać z single - raczej mało sprawiedliwe. "

    Jedna firma produkuje gorące i wielkie chipy GPU. Druga ma koncept na produkcję mniejszych, oszczędniejszych i bardziej skalarnych GPU. Dwie różne drogi. Dwa różne koncepty, ale cel ten sam.

    Jedna firma ma lepsze osiągi w produkcji najwydajniejszych kart graficznych od drugiej, bo wybrała, jak się okazuje, lepszą drogę.

    Rozumiem że bardziej sprawiedliwe byłoby, gdyby po prostu to nVidia miała najwydajniejsze karty - myślenie typowego fanboja :-/


  28. Qjanusz (autor: Grave | data: 1/02/11 | godz.: 14:23)
    pamiętaj że dual u AMD czy Nvidii jest zwykle tylko jeden (topowy model na szczycie oferty), reszta to karty single GPU, a tu najwydajniejsze GPU = najwydajniejsza karta....

    Zresztą jak pisałem wyżej w poprzednich rozdaniach Nvidia odpuściła wypuszczenie kart typu dual-GPU (w przypadku pierwszego Fermi było to prawdopodobnie niewykonalne), natomiast tym razem będzie już dual vs dual.

    A który koncept TYM RAZEM okaże się lepszy to się okaże w starciu GTX 590 vs HD 6990.

    W kategorii single - Nvidia ma szybsze GPU a więc szybsze karty.


  29. @Grave (autor: Qjanusz | data: 1/02/11 | godz.: 14:33)
    "W kategorii single - Nvidia ma szybsze GPU" - prawda

    AMD ma najszybszą kartę graficzną - prawda.

    "GTX 590 vs HD 6990" i "się okaże" - prawda

    osobiście obstawiam że wydajniejsze będzie GTX 590 (moc gniazdek 2x8 pin i chłodnica od Jelcza swoje musi zrobić)


    Co do SRAA, to oczywiście proceder nie może odbyć się bez papieru ;-)
    Tak więc żeby wszystko układało się w logiczną całość, SRAA jest tylko na papierze.

    MLAA już od jakiegoś czasu jest namacalnym dowodem przewagi konkretu AMD, nad papierowym SRAA(niem) nVidii.


  30. HD6990 vs gtx590 (autor: Arlic | data: 1/02/11 | godz.: 14:54)
    Nvidia się gorzej skaluje i będzie musiała zejść mocno z zegarami, AMD się lepiej skaluje i nie musi zjechać mocno z zegarami.

  31. @Arlic (autor: Promilus | data: 1/02/11 | godz.: 15:08)
    To zobacz skalowanie choćby 460 albo 560 w SLI a potem porównaj do CF bo chyba ostatnio trochę za mało artów czytałeś.

  32. Qjanusz - 2x 8pin? A co powiesz o TYM: (autor: Grave | data: 1/02/11 | godz.: 15:15)
    http://hothardware.com/...deon-HD-5870-4GB-Review/

    8pin + 8 pin + 6 pin i jazda :-DDDDDDD


  33. Promilus (autor: Aamitoza | data: 1/02/11 | godz.: 15:18)
    http://www.computerbase.de/...mancerating_mit_aaaf

    jak widać u AMD wygląda to ciut lepiej. Poza tym skalowanie jest uzależnione jedynie od tego jak bardzo sterownik obciąża CPU, a ostatnimi czasy nvidia ma z tym problemy.


  34. Grave (autor: Aamitoza | data: 1/02/11 | godz.: 15:19)
    8+8+6pin... a i tak pobiera mniej od GTX480 ;]

  35. Amitoza - wiem, ale to Qjanusz uważa że ilość wtyczek (autor: Grave | data: 1/02/11 | godz.: 15:42)
    przekłada się na ilość złopanych watów, nie ja :-D Ja mu pisałem wielokrotnie że tak nie jest, ale nie bardzo dał się przekonać, więc wg jego teorii ten Ares (na podstawie ilości wtyczek sądząc) kasuje wszystkie inne karty pod względem rekordowego poboru energii :D

  36. @Grave (autor: lamik91 | data: 1/02/11 | godz.: 15:47)
    Dobrze ale popatrz na ostatnie karty Nvidii :)

  37. lamik91 - żadna z nich nie miała zestawu 8+8+6 :P (autor: Grave | data: 1/02/11 | godz.: 16:20)
    :-D GTX 590 ma 8 + 8. GTX 580 - 8 + 6 (tak samo jak HD 6970).

  38. @Aamitoza (autor: Promilus | data: 1/02/11 | godz.: 16:24)
    DX9 AMD dziwnym trafem przegrywa skalowanie (ale ma wysoką wydajność bazową). DX10 jest zupełnie niereprezentatywne.
    DX11 wygrywa skalowanie, ale bazowa wydajność nie tak cudowna...
    więc z czym do ludu? :>


  39. Aamitoza (autor: morgi | data: 1/02/11 | godz.: 16:31)
    Nvidia ma problemy? No zobaczymy kiedy minimalni zaczna o ile implementowac swoje app, fizyke w sterowniki, a tak juz sie powoli rozwalaja o swoje fixy.

  40. @Grave (autor: lamik91 | data: 1/02/11 | godz.: 16:34)
    No tak wiem ale chodziło mi o pobór mocy ;D

  41. Promilus (autor: Aamitoza | data: 1/02/11 | godz.: 17:36)
    Jednak w takim wypadku w grach DX11 sterownik mniej obciąża CPU i dzięki temu 2 rdzeniowy radeon może wypaść lepiej od konkurenta od nvidia szczególnie, że nvidia zapewne będzie misiała zejść niżej z zegarami.

    a poza tym to o czym piszesz nie ma najmniejszego znaczenia, bo w większym przekroju gier radeony wypadają trochę lepiej jeżeli chodzi o crossfire.


  42. @Aamitoza (autor: Promilus | data: 1/02/11 | godz.: 18:03)
    Aqrat liczba gier gdzie NIE działa CF albo działa wręcz przeciwnie do zamierzeń jest większa od podobnej listy, ale odnośnie SLI. Tak samo jakoś ciutkę lepiej sprawa wygląda przy 4 GPU, ale bodajże przy 3 jest CF jeszcze górą.

  43. @35 (autor: ditomek | data: 1/02/11 | godz.: 22:26)
    jestem podobnego zdania. Wiecej pinow to przedewszystkim lepsza jakosc zasilania jao takiego. Szczegolnie jesli chodzi o mase. Tu akurat podstawy elektroniki sie klaniają

  44. @32. (autor: Mariosti | data: 2/02/11 | godz.: 01:24)
    Zarzucanie aresowi że jest prawdziwie 5870x2 bez obniżonego taktowania, z potężnym chłodzeniem, kosmiczną ceną i sekcją zasilania pozwalającą na jeszcze dalekie oc takiego potwora, to tak jak narzekanie na te same cechy u evga sr-2 - to jest sprzęt dla ekstremalnych entuzjastów (bo trzeba coś takiego wyróżnić spośród "zwykłych" entuzjastów którym wystarczy 5970, czy np jednoprocesorowe płyty główne).

    @42.
    Obawiam się że argument skalowania 4 gpu nie ma sensu, bo i w cf i w sli 4'te gpu względem 3 daje tak mało że jest to coś tylko i wyłącznie do benchmarków. To co realnie może kogoś interesować to skalowanie 2 gpu, bo tandemy faktycznie można spotkać w wielu komputerach entuzjastów, bardziej zamożnych graczy, lub też graczy którzy starają się najmniejszym kosztem uzyskać największą wydajność i akurat pasuje im takie rozwiązanie... W tym przypadku hd6800/6900 okazały się jeszcze dalej poprawić skalowalność w porównaniu do bardzo dobrych już wyników serii 5x00... faktem jest że w benchmarkach minimalnie lepiej od sli wypadają nowe radeony i o ile nie jest to zbyt istotny argument przy wyborze karty graficznej... to już w przypadku dyskutowania trudności jakie stoją przed gtx590 robi się to bardzo istotne, bo jest to dodatkowa przeszkoda na drodze tej karty do rozprawienia się 6990... Jest to dość ciekawe bo potencjalnie dwa gf110 pracujące w pełni swoich możliwości nie mają żadnego z pokonaniem dwóch caymanów xt, ale ich prądożerstwo, wydzielane ciepło i nieco słabsze skalowanie sli od cf w caymanach powoduje że nie można wykluczyć że 590 będzie tylko równie wydajny co 6990.


  45. @Mariosti (autor: Promilus | data: 2/02/11 | godz.: 07:28)
    Przypominam, że podobne argumenty ze strony fanów AMD wykorzystywane były przed ukazaniem się GTX295 a jakoś karta wyszła i nie śmierdziała spalenizną zaraz po włączeniu.

  46. @Grave (autor: Qjanusz | data: 2/02/11 | godz.: 08:58)
    chyba jako jedyny nie wiesz czym jest seria Ares Asusa.

    Na dzień dobry, tu masz wtyczki referenta 5870:
    http://www.techworks.pl/...870/5870/big/5870_6.jpg

    ile tam mamy???

    Wracając do Aresa, to karta musi mieć doprowadzone tak duże zasilanie, ponieważ są to karty przygotowane na potężne OC z podwyższaniem napięć na GPU i pamięciach włącznie. Potężne OC wymaga wchłaniania równie imponujących mocy.

    Ta seria to absolutny niereferencyjny TOP kosztujący 1200$

    Na prawdę trzeba mieć nieźle naSRAAne w główce żeby takie konstrukcje porównywać z produktami referencyjnymi.

    Ilość wtyczek zasilających ZAWSZE jest uzasadnione max. zapotrzebowaniem poboru mocy.


  47. @Grave (autor: ligand17 | data: 2/02/11 | godz.: 10:11)
    Faktycznie, niezłe monstrum... 8+8+6 to trochę zabójcza kombinacja. Ale z drugiej strony to cudo jest jakie 20% szybsze od Radeona 5970 i prawie 2x szybsze od GTX480.

  48. Qjanusz to teraz weź to swoje zdanie: (autor: Grave | data: 2/02/11 | godz.: 16:28)
    "Wracając do Aresa, to karta musi mieć doprowadzone tak duże zasilanie, ponieważ są to karty przygotowane na potężne OC z podwyższaniem napięć na GPU i pamięciach włącznie. Potężne OC wymaga wchłaniania równie imponujących mocy."

    I zacytuj sobie samemu jak będziesz kolejny raz chciał napisać że Sandy Bridge ma wysokie zapotrzebowanie na energię na podstawie ilości wtyczek zasilających umieszczonych przez producenta mobo.....

    Owszem mas rację - TE WTYCZKI PRZYDAJĄ SIĘ PRZY OC i do tego są!! I tak samo jest w przypadku CPU.


  49. @Grave (autor: ligand17 | data: 2/02/11 | godz.: 18:09)
    - Czy na AMD nie można stosować OC?
    - Można.
    - Czy są dodatkowe wtyczki?
    - Nie ma.
    No to gdzie ta Twoja logika?


  50. @Grave (autor: Qjanusz | data: 3/02/11 | godz.: 09:27)
    płytki pod AMD też oferują imponujące osiągi OC, a dysponują znacznie mniejszą ilością wtyczek i sekcji.

    Twierdzisz że procki AMD są bardziej prądożerne.
    Gdzie tu logika?


  51. ligand17 (autor: Grave | data: 3/02/11 | godz.: 10:27)
    "- Czy na AMD nie można stosować OC?
    - Można.
    - Czy są dodatkowe wtyczki?
    - Nie ma."

    Oczywiście że także SĄ, zależy od modelu płyty (tak samo w przypadku Intela zresztą).

    Qjanusz ---> "płytki pod AMD też oferują imponujące osiągi OC, a dysponują znacznie mniejszą ilością wtyczek i sekcji."

    ilość sekcji to akurat nie przekłada się na pobór mocy, CPU Intela są zasilane niższym napięciem co przekłada się na większe natężenie prądu stąd łatwiej (taniej) zrobić stabilną sekcję wielofazową dla takiego CPU niż z mniejszą liczbą faz.

    Natomiast co do AMD to 8 pinową wtyczkę zasilającą dodatkowo CPU też na ich płytach znajdziesz.....

    "Twierdzisz że procki AMD są bardziej prądożerne.
    Gdzie tu logika?"

    Logika jest taka, że rozbudowana sekcja czy ilość wtyczek NIE ŚWIADCZY O REALNYM POBORZE ENERGII PRZEZ CPU

    A że nie świadczy to masz dowód tu (podawany po 100x ale widać nie dotarło):

    http://www.anandtech.com/...core-i3-2100-tested/21

    IDLE/LOAD

    Intel Core i7 2600K @ 4.4GHz 5W 5W/111W
    Intel Core i7 2600K (3.4GHz) 5W 5W/86W
    AMD Phenom II X4 975 BE (3.6GHz) 14W/96W
    AMD Phenom II X6 1100T (3.3GHz) 20W/109W


  52. @Grave (autor: Qjanusz | data: 3/02/11 | godz.: 11:18)
    rozumiem że większe ilości wtyczek na płycie są również po to, aby lepiej zasilić procka potrzebującego mniejszego woltażu???

    Oczywiście że na płytce pod AMD znajdziesz gniazdo 8 pin. Niestety Intel bardzo często posiada dodatkowe 8 pin i molexa


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.