Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 20 sierpnia 2010 
    

AMD ostatecznie odsyła 3DNow! na emeryturę


Autor: Wedelek | źródło: Tech Connect | 11:43
(74)
3DNow! to rozszerzenie architektury procesorów x86 stworzone przez firmę AMD i wprowadzone przy okazji premiery architektury AMD K6-2, znacznie zwiększające wydajność obliczeń zmiennoprzecinkowych. W chwili debiutu technologia ta zawierała zestaw 21 nowych instrukcji zmiennoprzecinkowych typu SIMD. Był to pierwszy przypadek wprowadzenia tak istotnych zmian w dziedzinie rozwoju układów scalonych przez firmę inną niż Intel. 3DNow! otrzymał później dwa kolejne rozszerzenia i stał się kompatybilny z instrukcjami SSE. Pomimo rewolucyjnych rozwiązań technologia ta nie odniosła wielkiego sukcesu za sprawą Intela, który wolał opracować własne rozwiązanie niż korzystać z tego opracowanego przez konkurenta.

W dwanaście lat od debiutu 3DNow! AMD zdecydowało się porzucić w końcu swoją technologię, a w nowych rozwiązaniach firmy z Sunnyvale nie znajdziemy już więcej dla niej wsparcia. Pozostać ma natomiast wsparcie dla PREFETCH i PREFETCHW.

 
    
K O M E N T A R Z E
    

  1. szczerze??? (autor: Qjanusz | data: 20/08/10 | godz.: 12:15)
    "3DNow" zawsze wyglądał jakoś tak tandetnie i mało profesjonalnie w porównaniu do "MMX"

    Piszę oczywiście o wydźwięku samego napisu/hasełka.
    Sama technologia też jakoś raczej wykorzystywana była raczej symbolicznie.


  2. Tak kończą super wynalazki (autor: pomidor | data: 20/08/10 | godz.: 12:22)
    Podobnie było z nakładaniem 3 tekstur w jednym przejściu lub Trueform u ATI.

  3. te ich 3dnow to była pomyłka (autor: Sony Vaio | data: 20/08/10 | godz.: 12:26)
    przyspieszenia prawie w ogóle, zawsze wolniejsze od SSE, zawsze za konkurencją.

  4. @pomidor (autor: Qjanusz | data: 20/08/10 | godz.: 12:29)
    aj to nie byłbym taki chop do przodu :-)

    Trueform pięknie się odrodził w postaci technologii, która jest teraz wychwalana przez wszelakiej jakości niebieskie ścierwa.

    A poza tym, nie zgodzę się z Tobą. Pamiętam jak na Radku 9800 zacząłem przechodzić Wolfa, po czym dowiedziałem się że wyszła wersja obsługująca Frueform. Ściągnąłem, zainstalowałem i zobaczyłem różnicę. Kumpla (zapalonego posiadacza świeżego, wymuskanego i pięknego FXa) szlag trafił :D


  5. a i pamiętam że 3DNow! miało wsparcie (autor: Qjanusz | data: 20/08/10 | godz.: 12:34)
    dość fajnej gierki wyścigowej (ok roku '97, gierka miała dziwny tytuł, niestety nie pamiętam jaki "POD"??? )

    Tam była różnica w szybkości działania po odpaleniu w trybie wsparcia 3DNow! Sprawdzałem osobiście :-)


  6. tak P.O.D. (autor: Luke Jadi | data: 20/08/10 | godz.: 12:42)
    futurystyczne wyscigi. Ale to było dobre :)

  7. 3dnow (autor: Rajq | data: 20/08/10 | godz.: 13:01)
    wg mnie wcale nie zniknie a tego wzgledu ze one juz od dosc dawna staly sie kompatybilne z Intelowskim SSE. A te napewno zostana. Nawet nowy Buldozer ma miec zestaw SSE 5 czyli tak naprawde 3dnow tez w tym bedzie. Ot marketingowo podczepili sie pod instrukcje dominujace czyli SSE.

  8. @Rajq (autor: rainy | data: 20/08/10 | godz.: 13:18)
    Nie podczepili się, bo ze względu na umowę o wymianie patentów pomiędzy obydwa firmami, mają pełne prawo z nich korzystać.

    Być może nie pamiętasz ale SSE1 nosił w procesorach K7 (Athlon XP) nazwę 3DNow! Professional.


  9. rainy (autor: Rajq | data: 20/08/10 | godz.: 13:25)
    pamietam dobrze a piszac ze sie podczepili nie pisalem tego negatywnie. Moim zdaniem to dobre rozwiazanie. Komatybilnosc z SSE jest i bedzie czyli tak naprawde przetrwa ieda 3dnow. Inna kwestia jest AVX w nowych prockach Intela, ktory daje im duza przewage na rynku korporacyjnym.

  10. @Qjanusz (autor: pomidor | data: 20/08/10 | godz.: 13:31)
    Wyjątki potwierdzają regułę :) Te 3DNow mogli nawet wcześniej usunąć, bo od 3d jest GPU.

  11. @pomidor (autor: Promilus | data: 20/08/10 | godz.: 13:39)
    Serio? to dlaczego teraz TMU:ROP u nv to jakoś 2.5:1 - 2.66:1? Bo nakładają dwie? Hahahah.
    @Sony - richtig, zważywszy że pojawiła się wcześniej i była pierwszą obsługującą float! Przyspieszenie oczywiście było, co widać, bo Athlony K7 z początku SSE wcale nie posiadały tylko 3DNow! właśnie i lały intele gdzie popadło!
    @Rajq - nie, dlatego to się NIE będzie nazywać SSE5 bo NIE zawiera w sobie poprzednich instrukcji (choćby iSSE4), teraz to FMA4, XOP, CVT16 - 3 zestawy instrukcji będących rozwinięciem SSE, ale jednak niekompatybilnych (bo pracują na szerszych rejestrach i większęj ilości argumentów).


  12. te instrukcje (autor: Kris1st | data: 20/08/10 | godz.: 14:14)
    i tak przetrwają, to tylko czysty marketing, tak jak z firmami telekomunikacyjnymi np IDEA na Orange

  13. Promilus (autor: Remedy | data: 20/08/10 | godz.: 15:44)
    To chyba musiałeś przespać okres kiedy były K5 i K6 na rynku. To były procesory dla biedy, dostawały wszędzie od Inteli i to strasznie. Żadne 3DNow! nie pomagało, może dlatego że nikt tego nie implementował w swoich programach/grach. Dopiero kiedy to wszelkie dziadostwo jakim były wtedy procesory AMD prdzerodziło się w Athlona to zaczęło się to jakoś kręcić. Już zapomniałeś, że AMDki miały wtedy Intel rating podawany? Tylko nie jak za czasów P4 rating w górę, wtedy to był rating w dół bo taki 350MHz AMD był deptany przez P2 233MHz. Już najlepszym przykładem były programy 3D np. 3ds max. Jakoś mój serdeczny przyjaciel nie był szczęśliwy kiedy renderowaliśmy tę samą scenę.

  14. @Remedy (autor: Promilus | data: 20/08/10 | godz.: 15:58)
    Nie, nie przespałem. K5 oraz K6 nie miały 3DNow!, zaś K6-2 i K6-III miały dokładnie takie same FPU jak K6 - a skoro były *dość* dobrą alternatywą dla celeronów to *coś* to 3DNow! musiało dawać. Z tego co wiem wszystko na Q3 z tego rozszerzenia korzystało. Jeszcze inna sprawa - jednostki integer w K6 i K5 były nieraz SZYBSZE od Pentium więc pisanie że dostawały wszędzie i strasznie to nadużycie.

  15. @up (autor: Promilus | data: 20/08/10 | godz.: 16:10)
    Długo zajęło, ale...
    http://www.xbitlabs.com/...cpu/display/k6-iii.html
    Dowód na to ILE DAWAŁO 3DNow!


  16. Promilus (autor: Remedy | data: 20/08/10 | godz.: 16:24)
    A ze zrozumieniem czytać nauczyli? K6-III o którym wspominasz wszedł za czasów Pentium III. Procesor wbrew temu co piszesz znacząco różnił się od chociażby wersji K6-II nie mówiąc już o pierwszej. W czasach PII AMD nie miał absolutnie nic do powiedzenia (tak jak mówiłem, może dlatego że rzadko kto implementował 3DNow!), a w czasach PIII było jeszcze gorzej, dopiero na sam koniec kariery PIII AMD się obudziło.

  17. @up (autor: Remedy | data: 20/08/10 | godz.: 16:25)
    After Intel has launched Pentium III, AMD in its turn also introduced its new achievement - K6-III processor.This new processor was supposed to raise AMD from the low-cost systems market and to let it compete with Intelas an equal in a more expensive market. <---- tu masz jeszcze cytat o tym kiedy K6-III wszedł na rynek

  18. @Remedy (autor: Promilus | data: 20/08/10 | godz.: 16:30)
    Taa, różnił się tylko tym że posiadał cache L2 on-die. I niczym innym. A PIII Katmai pojawił się kilka dni PO premierze K6-III.

  19. ... (autor: Deathraw | data: 20/08/10 | godz.: 17:08)
    @Promilus

    3DNow! faktycznie dużo dawało, ale jednak AMD było wtedy w dość ostrej niszy i mało opłacalne było implementowanie tych instrukcji w programach/grach.Pare tytułów wyszło ale można to traktować jako ciekawostkę jak SM 4.1


  20. Wedelek skoro już przeglądasz TCM to wypadałoby dać też to: (autor: Grave | data: 20/08/10 | godz.: 17:27)
    http://www.tcmagazine.com/...-q2-intel-still-rules

    Od razu by skończyły się dyskusje o tym jak dział CPU AMD podobno radzi sobie coraz lepiej, a zwłaszcza że (rzekomo) radzi sobie świetnie w serwerach.

    W desktopach - spadek i kiepskie udziały
    W mobile - zysk, ale jeszcze gorsze udziały
    W serwerach - spadek i wręcz nędzne udziały


  21. prawdopodobnie w 2011r (autor: kosa23 | data: 20/08/10 | godz.: 18:02)

    Intel FMA3
    AMD FMA4
    AMD XOP
    AMD CVT16


  22. @Grave (autor: rainy | data: 20/08/10 | godz.: 18:12)
    Ze smutkiem stwierdzam, że zaczynasz niebezpiecznie się zbliżać poziomem swoich wypowiedzi, do niektórych, twardogłowych wielbicieli Intela.

    27 procent rynku w desktopach to kiepskie udziały?

    W sektorze mobilnym, dziwnym zbiegiem okoliczności (zapewne mającym coś wspólnego z porozumieniem jakie Intel zawarł AMD) zyskują i to pomimo rzekomo kiepskiej oferty.

    Jedynie w serwerach rzeczywiście wyglądają blado.

    Btw, nie wiem co Twoja wypowiedź ma wspólnego z samym newsem.


  23. ... (autor: kosa23 | data: 20/08/10 | godz.: 18:23)
    Socket AM3r2 (938pin, DDR3 Support&#8212;retain compatiblity with previous Socket AM3)

  24. ... (autor: kosa23 | data: 20/08/10 | godz.: 18:25)
    A single Bulldozer module consists of the following:
    1024kB L2 cache inside each module (shared between module cores)
    Two independent integer cores (each consist of 2ALU and 2AGU and capable of 4 independent arithmetic or memory operations per clock)
    Two 128-Bit Floating Point Units per Module that can be combined into One 256-Bit Wide Floating Point Unit (with fused multiply-add (FMA) capability and flexible configuration to work with up to Four 64-bit wide FP data or One 128-bit wide SSE FP data per clock)


  25. rainy (autor: Grave | data: 20/08/10 | godz.: 18:30)
    Tyle ma wspólnego że Wedelek takiego newsa nie dał a jest to na pewno istotny news. Skoro daje newsa o tym że Nvidia zanotowała straty to powinien i taki dać.

    Tak 27% to kiepskie udziały, może niezłe jak na AMD ale słabe względem Intela.

    W mobile zyskują bo przy takiej biedzie jaka była w przypadku Pumy to już mogło być tylko lepiej. Zobaczymy jak daleko zajdą z tym wzrostem. Zresztą i tak <15% to bardzo marny wynik.

    Wypadają blado we wszystkich segmentach, a SZCZEGÓLNIE ŹLE w mobile i serwerach.

    A co do twardogłowych wielbicieli to kieruj takie określenia do tych którzy podniecają się tym że AMD ma ~1% przewagi nad Nvidią w udziałach rynku GPU i na tej podstawie wieszczą jak to Nvidia spada w przepaść.

    Jeżeli ten 1% straty to powody do takiej tragedii dla Nvidii to KILKADZIESIĄT % (!!) straty AMD względem Intela jest znacznie gorsze.

    Jakby Nvidia miała 27% udziałów w GPU a AMD - 73% to założe się że "beton" fanbojowy AMD piałby z zachwytu jak to AMD "gniecie" Nvidię i jak to Nvidia jest na samym dnie.

    Ale.... jak to AMD ma 27% udziałów w CPU względem Intela to.... cóż przecież to "całkiem niezły wynik", AMD się stara, AMD walczy i ogólnie jest bardzo dobrze etc


  26. @Grave (autor: Promilus | data: 20/08/10 | godz.: 19:20)
    Porównując środki jakie ma intel, a jakie ma AMD, ilość fabryk które dla nich produkują to JEST całkiem dobrze. Jeszcze te obniżki teraz i nadal oferta AMD będzie bardzo interesująca przeciętnego zjadacza... eee, komputerowego konsumenta ;)

  27. Grave (autor: Aamitoza | data: 20/08/10 | godz.: 19:25)
    Tak, gdyby nvidia miała 27%, a AMD 73%, to piali by z zachwytu, bo AMD jest firmą co najwyżej porównywalną do nvidia, a intel jest conajmniej 20x wiekszy od AMD. No ale tak sobie to tłumacz. Więc przy takich różnicach w wielkości firmy, to nawet 15% było by dobrym wynikiem - jak wiadomo duży może więcej.

  28. Taaa (autor: morgi | data: 20/08/10 | godz.: 20:46)
    nuuuda lata leca i dalej to samo, ciagle te same liczby, hokus pokus i nic sie nie zmienilo.

  29. @Grave (autor: rainy | data: 20/08/10 | godz.: 21:21)
    Mam wrażenie, że nie dociera do Ciebie różnica w wielkości/możliwościach finansowych pomiędzy Intelem a AMD.

    W swoim najlepszym okresie (koniec 2005 roku i początek 2006) AMD miało około 25 procent rynku - teraz mają 19, co jak widać nie jest dramatyczną różnicą (i to po zapaści spowodowanej przez zakup ATI i Core 2).

    Wojenki pomiędzy wielbicielami AMD i Nvidii (i vice-versa) osobiście mnie nie interesują.


  30. @morgi (autor: ditomek | data: 20/08/10 | godz.: 21:39)
    widać jak niewiele wiesz o prockach. przez ile "generacji" procesorów intel powielał rozwiązania zapoczątkowane przez PIII? Znowu głowa w piasek czy może masz jednak odwagę bronic pierdół które piszesz?

  31. rainy (autor: Grave | data: 20/08/10 | godz.: 21:57)
    Różnica w wielkości, możliwościach i budżecie jest kolosalna to oczywiste.

    Ale też dlatego trzeba mieć świadomość jak jest i pisać jak jest. Gdyby ktoś czytał tylko komentarze tutaj na TPC to doszedłby szybko do (kompletnie nieadekwatnego do rzeczywistości) wniosku, że AMD walczy jak równy z równym z Intelem, że ma się coraz lepiej i coraz bardziej zagraża Intelowi, że w ogóle to AMD ma doskonałe produkty i tylko idioci wybierają Intela.

    Taki tu obrazek AMD i Intela jest kreowany przez grupkę fanatyków których "nikt nie przekona że czarne jest czarne a białe jest białe" żeby zacytować klasyka.

    Cieszmy się z konkurencji, z możliwości wyboru, ok. Ale też bez przesady, Intel aktualnie ma lepsze procesory we wszystkich segmentach rynku i te lepsze procesory znacznie lepiej się sprzedają od procesorów AMD takie są fakty.

    A że na AMD można złożyć całkiem niezły komputer wystarczający dla większości użytkowników za relatywnie niewielkie pieniądze to inna sprawa - jak najbardziej prawda. Ale... no właśnie ale to tylko tyle....


  32. AMD niezagraża? (autor: kosa23 | data: 20/08/10 | godz.: 22:08)
    to dlaczego intel oszukiwał?

  33. intel to... (autor: kosa23 | data: 20/08/10 | godz.: 22:13)
    kolos na glinianych nogach.

  34. ... (autor: Aamitoza | data: 20/08/10 | godz.: 22:36)
    "Intel aktualnie ma lepsze procesory we wszystkich segmentach rynku" Bullshit.

    Lepsze to ma, ale tylko w najwyższym segmencie. (bo i konkurencji specjalnie nie ma). W niższych segmentach mają bardzo dobrą ofertę któa nie odstaje od tej intela (przynajmniej w cenach do 500zł).


  35. Aamitoza (autor: Grave | data: 20/08/10 | godz.: 22:58)
    Piszę "we wszystkich segmentach" czyli - mobile, serwer, desktop - we wszystkich 3 Intel dominuje z gigantyczną przewagą nad AMD.

    AMD walczy głównie ceną. Ale to trochę za mało żeby zagrozić choćby w minimalnym stopniu Intelowi.

    Tym bardziej że Intel poza lepszymi CPU ma jeszcze jeden bardzo mocny atut - lepszą MARKĘ, wypracowaną przez lata.

    I tego atutu AMD nie jest w stanie Intelowi wytrącić.

    Dlatego żeby AMD w ogóle się liczyło nie tylko musi mieć równie dobre produkty co Intel, musi mieć ZNACZNIE LEPSZE żeby w ogóle myśleć o jakiejkolwiek rywalizacji.

    Bo Intel po swojej stronie dodatkowo ma właśnie markę. A jak do tego ma lepsze CPU to wyniki udziałów są takie jakie są - miażdżąco niekorzystne dla AMD.

    kosa23 ---->

    Z perspektywy Intela jako firmy jeżeli można mocniej dokopać przeciwnikowi to czemu nie? Intel zawsze miał dominującą pozycję, a chciał dowalić AMD jeszcze mocniej i to zrobił.


  36. ... (autor: Xymeon_x | data: 20/08/10 | godz.: 23:07)
    QJanusz niczym się nie różnisz od SonyVaio kompletnie niczym... no może on nie jest chamem. Podpalasz się jak by twoje życie zależało od poziomu sprzedaży AMD/ATI hehe Ja mam procek AMD i kartę NV i jak byś nie patrzył jestem ścierwem zielonym hehe... co i rusz to "ścierwujesz" mógłbyś dostać bana na miesiąc to byś ochłonął o ile przeżyłbyś miesiąc bez ujawniania zakłamanej prawdy na TwojePC.

  37. ale to świadczy o słabości. (autor: kosa23 | data: 20/08/10 | godz.: 23:14)
    żadne dokopanie.

    Jeżeli czuje się mocny, to po co brać koksy?


  38. mocny musi oszykiwać... (autor: kosa23 | data: 20/08/10 | godz.: 23:16)
    żeby dokopać. HAHAA

  39. @grave (autor: kosa23 | data: 20/08/10 | godz.: 23:26)
    masz okres?

  40. ... (autor: krzysiozboj | data: 20/08/10 | godz.: 23:30)
    a kiedyś to był taki fajny portal, aż miło czytało się komentarze pod newsami

  41. słusznie zrobili (autor: Lolo64_EX1 | data: 20/08/10 | godz.: 23:47)
    Jak nie ma potrzeby ciągnięcia danej technologi, nalezy ją wyeliminowac i w to miejsce zaimplementować nowe rozszerzenia. Oni mają łeb na karku.

  42. @Grave (autor: rainy | data: 20/08/10 | godz.: 23:51)
    Czy mam przez to rozumieć, że oszustwa/przekręty Intela, to były zwykłe, "naturalne" działania, mające na celu umocnienie ich pozycji względem AMD?

    Jeżeli tak, to w tym względzie mocno się różnimy.


  43. kosa23 (autor: Grave | data: 20/08/10 | godz.: 23:53)
    Nie musi oszukiwać, ale może (dopóki się nie doigra procesu). AMD też może (analogicznie również do procesu sądowego).

    Poza tym ile się jeszcze będziesz podniecał czasami Pentium 4 które już dawno minęły?

    AMD wytoczyło proces do czego każdy ma prawo, proces się zakończył obie strony ustaliły warunki ugody, AMD się zamknęło i causa finita.

    Nie zmienia to w niczym faktu, że począwszy od Core2 (premiera 4 lata temu) to Intel ma lepsze procesory tak w mobile, w serwerach jak i desktopach, które znacznie lepiej się sprzedają niż CPU AMD.

    AMD walczy opłacalnością, mając gorszą architekturę obniżają cenę tak bardzo żeby w końcu trafić na taki model Intela z którym CPU AMD będzie w stanie wygrać.

    Ale wyniki sprzedaży (globalne) pokazują że klienci ciągle wolą drożej ale lepiej niż tanio ale słabo.


  44. @Grave (autor: Sandacz | data: 21/08/10 | godz.: 07:25)
    Grave - skończ już Waść - wstydu SOBIE oszczędź, bo znów wychodzi z Ciebie maniera pisania nie na temat (news o 3D Now! a ty oczywiście ni z gruchy ni z pietruchy udziały w rynku) byleby zaistniec i móc produkować elaboraty.

  45. @Grave (autor: Wedelek | data: 21/08/10 | godz.: 09:26)
    Najpierw cofnę się daleko w tył do postu 20-go i 25-go
    http://twojepc.pl/news22039.html
    Polecam najpierw poczytać co umieszczam, a co nie, bo staram się pisać o wszystkim co najciekawsze. Oczywiście pewien dobór musi być i w tym wypadku jest to tylko i wyłącznie sprawa newsmana. Chociażby z tego powodu, że ktoś wyboru musi dokonać szybko, a zadowolić wszystkich jest trudno...

    Ponadto nie mam w zwyczaju faworyzować kogokolwiek. Przykład? Piszę o fatalnej architekturze Fermi i jednocześnie chwalę za GTX 460, doceniam procesory Intela i ganię ich praktyki monopolistyczne, itd...


  46. Sandacz (autor: Grave | data: 21/08/10 | godz.: 11:39)
    Powiedz to fanatykom AMD którzy też piszą nie na temat tyle że wychwalają AMD a jadą po Intelu i Nvidii. Tylko że w takich przypadkach jakoś nie reagujesz i Ci nie przeszkadza...:>

    Jasne że taka wiadomość jaką wkleiłem z TCM psuje wyidealizowany obrazek AMD, ale warto czasami zderzyć pobożne życzenia i fanbojowskie mity z rzeczywistością, bo inaczej znowu będę czytał jak to AMD rządzi w serwerach, albo jak to Intel wprowadza 980X bo... "przestraszył" się Thubana i inne podobne bzdury.


  47. Wedelek (autor: morgi | data: 21/08/10 | godz.: 12:48)
    A to dobre, odkad Fermi ma fatalna architekture. Na froncie graficznym troche cierpi gf100 przez dodatki gpgpu - tutaj nie ma konkurencji, ale wykrojone z tego gf104 juz daje niezly wycisk, co innego opoznienia, ktore sa suma potkniec fabu i Nvidii.

  48. @morgi (autor: Promilus | data: 21/08/10 | godz.: 13:23)
    Ma fatalną do grania. Nie tak fatalną jak GF FX5xxx, ale jednak. Skupili się na GPGPU, a to nie esencja gier raczej. Niby polymorph engine, 16 tesselatorów i 4 rasteryzatory (?) ale gdzie to niby widać? Gdzie ta super przewaga?

  49. Promilus (autor: Grave | data: 21/08/10 | godz.: 13:32)
    Po prostu sporo tranzystorów wpakowali w inne niż gry zastosowania, widocznie uznali że taki układ będzie bardziej uniwersalny i per saldo lepszy.

    Jestem przekonany, że Nvidia mogła te 3 mld tranzystorów wpakować w ROP-y TMU i SPU i stworzyć wydajnościowego potwora który zmiótłby Radeona w każdym teście.

    Ale.. postanowili zrobić inaczej. Może w dłuższej perspektywie coś z tego wyjdzie, aczkolwiek do czasu pojawienia się 28nm procesu technologicznego raczej na żaden przełom nie ma co liczyć (także ze strony ATI).


  50. W sumie.... (autor: Grave | data: 21/08/10 | godz.: 13:36)
    wyszedł im najwydajniejszy GPU na rynku więc pod tym względem wszystko się udało. Natomiast przegrali przez proces technologiczny. Ten układ był po prostu zbyt ambitnym projektem jak na możliwości 40nm procesu TSMC.

    Ale Nvidia nie pierwszy raz w ten sposób gra. To już któraś generacja w której władowują ogromną ilość tranzystorów tworząc układ który ledwo co może być wyprodukowany przy obecnej technologii (wcześniej G80 w 90nm i GT200 w 65nm - podobnie było).


  51. @Grave (autor: Promilus | data: 21/08/10 | godz.: 14:29)
    Tak, stworzyli układ który jest raptem 20% szybszy (bardzo średnio - uwzględniając stone giant i unigine heaven) od układu konkurencji, będąc ponad 50% większym (tj. droższym w produkcji) i zużywającym więcej energii (ciut) niż podwójny układ konkurencji. Ja widzę fail (GF100, żeby nie było)...ty widzisz coś innego?

  52. @morgi (autor: Wedelek | data: 21/08/10 | godz.: 14:32)
    Ano jest to obecnie niezbyt udana architektura. Powodem takiego stanu rzeczy jest jak napisał Grave zbytnia ambicja Nvidia. Chcieli zrobić potworka do wszystkiego, zapominając że nie zawsze, albo raczej rzadko da się stworzyć układ unirwersalny i olali ograniczenia procesu. To się zemściło. Fermi jest złe bo: grzeje się dużo bardziej niż konkurencja, a co za tym idzie wymaga bardziej wydajnych i zazwyczaj głośniejszych systemów chłodzenia i ma zbyt duży apetyt na prąd. Dodatkowo skalowanie się wydajności w górę po dodaniu kolejnych elementów nie powala. Do tego większy chip to większe koszty produkcji i uzysk, a co za tym idzie Fermi jest sporo droższe w produkcji od Cypress i jego pochodnych, więc możliwości cięcia jego ceny są bardziej ograniczone niż w przypadku konkurencji. Oczywiście Fermi w 28nm po przeróbce może być nawet i świetnym układem, ale tego nikt nie wie, a na razie nie jest to zbyt dobra architektura. Ratuje ją w zasdzie głównie GTX460 a dołuje GTX465. Inna sprawa, że obecny stosunek wydajności do ceny jest bardzo dobry.

  53. Promilus (autor: Grave | data: 21/08/10 | godz.: 14:45)
    Tak w grach tylko 10-20%, bo ich celem nie były tylko gry. Jak pisałem wyżej - to była kwestia decyzji do jakich zastosowań Nvidia przeznaczy ten układ. Chcieli mieć uniwersalne GPU.

    Gdyby te same 3mld tranzystorów wpakowali tylko w jednostki obliczeniowe użyteczne w grach to Radeon zostałby zmiażdżony w każdym teście.

    To nie jest tak, że ATI opracowało super wydajną architekturę nieosiągalną dla Nvidii. Nvidia świadomie poświęciła część wydajność w grach na rzecz zastosowań GPGPU.

    ATI poszło najprostszą możliwą drogą - Cypress = 2x RV780, nawet jak się popatrzy na schemat to wygląda to tak jak sklejone w jeden kawałek dwa układy poprzedniej generacji.

    Bardzo jestem ciekaw co ATI zaprezentuje w kolejnej generacji, czy znowu dostaniemy "2x więcej tego samego" czy też może przeprojektują układ.

    A jeżeli przeprojektują to już tu jest ryzyko że coś się może nie udać.

    To co zrobiło ATI czyli podwojenie wszystkich jednostek było najmniej ryzykownym posunięciem już nieraz przerabianym (choćby Radeon X800 XT PE = 2x 9800XT + OC).

    Wcześniej czy później będą musieli zrobić to co Nvidia - wprowadzić układ zupełnie nowy. Bardzo jestem ciekaw jak im to wyjdzie.

    Na razie HD 6xxx czyli odpicowane HD 5xxx w sumie nie spodziewam się niczego ciekawego. Ciekawie się zrobi dopiero w kolejnym rozdaniu.


  54. @Grave (autor: GULIwer | data: 21/08/10 | godz.: 14:46)
    No właśnie marka, żebym to raz spotkał się z sytuacją gdzie osoba która miała do wyboru zestaw tańszy i szybszy od AMD i droższy i wolniejszy od Intela, wybierała tego ostatniego bo to Intel, bo usłyszała, że znajomy znajomego jego koleżanki kupił AMD i mu się wiesza. Dużo jeszcze wody w Wiśle upłynie nim AMD zyska taką renomę jaką ma obecnie Intel

  55. Wedelek (autor: morgi | data: 21/08/10 | godz.: 14:58)
    No ciekawy poglad wyglosilo amd nt. ECC:
    'According to Patricia Harrell, the need for ECC is mitigated by testing done in AMD's labs prior to shipping boards but equally as important, she claims that should AMD incorporate ECC support it would "lose performance per watt benefit". Harrell adds that it is a "reasonable assumption" that enabling ECC results in a higher power draw, a claim that is borne out by looking at published research papers. Meanwhile Nvidia claims that ECC is not only vital but has "negligible impact" on power usage.'


  56. GULIwer (autor: Grave | data: 21/08/10 | godz.: 15:37)
    AMD NIGDY nie zyska takiej renomy czy nie będzie miało tak dobrej marki jak Intel.

    To tak jak Skoda nigdy nie będzie marką z taką renomą jak Mercedes, czegokolwiek skoda by nie wypuściła na rynek.

    Czy np. Citroen vs Audi. U Citroena za znacznie mniejsze pieniądze można mieć znacznie lepsze wyposażenie i mocniejszy silnik i naprawdę DOBRY (!) szybki samochód doskonale wyposażony, ale.... "to nie jest audi" i już.... Tak to po prostu jest :)

    I dla człowieka który w życiu skody czy citroena nie miał i nimi nie jeździł i tak to będzie badziew z uwagi na markę. Nie spróbuje nawet i już.

    Podobnie na ludzi działa napis "made in China". Nie ważne że najbardziej renomowane firmy mają fabryki w Chinach tylko z uwagi na koszty i że w takich warunkach produkowane towary są znakomitej jakości o ile tylko firma o tą jakość dba.

    A dla wielu ciągle "made in china" kojarzy się z chińskimi podkoszulkami i zabawkami dla dzieci.

    Z tąd się bierze chwalenie się przykładowo producentów zasilaczy czy płyt że ich kondensatory są "made in Japan" tak jakby to miało jakieś znaczenie.

    Przyzwyczajeń i stereotypów nie zmienisz.


  57. poprawka (autor: Grave | data: 21/08/10 | godz.: 15:38)
    "stąd" powinno być :)

  58. @Grave (autor: rainy | data: 21/08/10 | godz.: 15:44)
    Czasami jesteś wręcz rozczulający, w swym cokolwiek ślepym uwielbieniu dla Nvidii.

    Jakoś GTX 285 (skonstruowany głównie pod kątem gier) nie miażdzył (kolejny dowód na Twoją przesadę) HD 4890, pomimo około 50 procent więcej tranzystorów.

    Może przyjmij do wiadomości, że inżynierowie Nvidii nie są tak wielcy, jak Ci się wydaje.

    Dla uzyskania wysokiej wydajności potrzebują wielkich chipów z ogromną ilością tranzystorów.

    Ciekawe co byś powiedział, gdyby to Intel wypuszczał CPU wydajniejsze o 15-20 procent, ale za to o 50 procent większej powierzchni i dużo wyższym poborze mocy.


  59. @morgi (autor: Promilus | data: 21/08/10 | godz.: 15:47)
    Tylko nvidia nie ma sprzętowego ECC, ma tylko programowy.

  60. @up (autor: Promilus | data: 21/08/10 | godz.: 15:48)
    czyt. poszła po najmniejszej linii oporu i wiedząc że AMD ma rację postanowiła rozwiązać problem w niezbyt udany sposób.

  61. Grave (autor: Dzban | data: 21/08/10 | godz.: 16:02)
    To ja odniosę siedo Fermi. GF 100 jest wielki gorący i nie dający się wyprodukować jest juz pełny GF100 na rynku? Nie ma. Jest tego trochę na rynku profesjonalnym ale ja piszę o rynku desktop i kartach GPU do gier. Po obcięciu ficzerów do GPGPU GF 104 dalej jest większy i mniej wydajny od pełnego rdzenia Cypress od AMD. I twierdzę że jest to spierniczona karta. A ty swoje że gdyby mogła to nvidia by zrobiła "potwora" który by prześcignął AMD. Zrobili układ GF100 i GTX 480 kartę droga głośną i niewiele wydajniejszą od ukłądu AMD. Jak widać nie mogli skoro nie zrobili. Zepsuli projekt nie dopilnowali zgodności z procesem TSMC a jak wiadomo AMD wcześniej przetestowało 40nm proces TSMC i zmodyfikowało pod niego układy.
    Nvidia zrobiłą wiele błędów i teraz ma dlatego produkt taki a nie inny. Mimo wszystko taki GTX 460 jest szybką i opłacalną kartą ale o reszcie oferty nie można tego powiedzieć. Lata odgrzewania starych kart sie zemściły. Już ich nie produkuja a nie mają czym zastąpić bo Fermi ma kolosalne opóźnienie.

    I w tej kwestii nie udowadniaj że czarne jest białe a białe jest czarne bo każdy wie jak jest.(nieliczne wyjątki nie wiedzą)


  62. @Grave (autor: Promilus | data: 21/08/10 | godz.: 16:57)
    Gówno prawda. Porównaj Gt200 (1.4mld tranzystorów) z RV790 (959mln) - jest blisko 50%? No jest...46% około. A czy jest to totalna miazga z radeona? Ano nie. Znakomity konkurent, obecnie dla GTX275. A do tego tańszy...szkoda ze go prawie w sklepach już nie ma. Jak zatem widzisz ładowanie w architekturę stricte do gier 50% więcej tranzystorów od konkurencji NADAL nie daje pełnego zwycięstwa. Zrozum, nvidia MUSI ze względu na presję AMD na rynku kart do gier inwestować w mobile i ultra mobile jak również w HPC. Po prostu nagle zrobiło się zbyt ciasno w desktopach, nie dlatego że AMD urosło, a dlatego że nvidia urosła.

  63. rainy (autor: Grave | data: 21/08/10 | godz.: 17:05)
    Nie miażdżył bo ATI podbiło napięcia i podkręciło swój układ. Dysponując 30% wyższym zegarem i tak ATI nie było w stanie pokonać GTX 285, dopiero podbicie taktowania do 1GHz skutkowało wygraną ATI w większości testów, tylko... że to już jest zegar 55% wyższy od GTX 285 ....

    Inaczej mówiąc zegar w zegar układ ATI był o ponad połowę wolniejszy.

    Gdyby teraz Nvidia w Fermi wpakowała najwięcej ile się dało (w ramach "budżetu" 3mld tranzystorów) w jednostki obliczeniowe zamiast 10-20% szybszej karty mieliby przynajmniej 50% szybszą kartę.

    Tylko im nie zależało wyłącznie na grach....

    Dzban --->

    Bzdura AMD też miało duże problemy z uzyskiem sprawnych układów Cypress od TSMC. Mniejsze niż Nvidia bo mieli mniejszy układ.

    Proces TSMC nie nadawał się do tak dużych chipów jak opracowała Nvidia, był po prostu zbyt mało dopracowany.

    Gdyby Nvidia opracowała układ który ma wady uniemożliwiające wyprodukowanie go wówczas z taśm TSMC nie zszedłby ANI JEDEN w pełni sprawny układ.

    Tymczasem pełen Fermi został nie dawno przetestowany,okazuje się że jak najbardziej JEST MOZLIWE wyprodukowanie czegoś takiego, a więc projekt był dobry.

    A że uzysk taki a nie inny to już zażalenia do wykonawcy (TSMC).


  64. @Grave (autor: Promilus | data: 21/08/10 | godz.: 17:31)
    Nie opowiadaj bajek - shadery w GT200 to 1.4GHz wzwyż...w G92 to 1.5GHz wzwyż. Takie sranie w banie jak się nie wie że shadery są u nv wyżej taktowane. Więc sorry bardzo ale nie pierdol o tym, że układ 16RBE/40TMU potrzebował 55% wyższego zegara by zrównać się z 2x obszerniejszym układem NV (32rop/80tmu) z dodatkowo nadal szybszymi shaderami...mając ciągle mniejszą powierzchnię i mniej tranzystorów. Zegar w zegar? TMU w TMU? I co jeszcze wymyślisz jeśli chodzi o GPU? Problemy Cypressa w TSMC? Nie większe niż intela w 32nm teraz... pamiętaj że pojawiły się w październiku i były dostępne po premierze, słabo ale były. W przypadku nv pół roku później, po premierze niemal zerowa dostępność i nadal brak pełnego Fermi - gdzieś tam tylko przez jeden portal się przewinął. Czemu chcesz za wszelką cenę zgnoić AMD? Ma lepszą architekturę per transistor/per mm2/per W - miało także w czasach RV770 i 790. No dobra, może nie koniecznie per watt. Jeśli naprawdę chcesz się wykazać to nie szukaj daremnych tłumaczeń dla NV.

  65. @Grave (autor: rainy | data: 21/08/10 | godz.: 17:45)
    Sorry, ale ten argument z zegarami jest dość słabowity.
    Kto broni Nvidii stosować wyższe zegary jak chodzi o rdzeń?

    Jeżeli tego nie robią , to ze względu na stopień złożoności ich chipów i co za tym idzie, zbyt wysokie TDP w takim przypadku.

    Btw, przypominam Ci, że w kartach Nvdii dawne shadery (obecnie stream processors), są taktowane dużo wyżej niż w kartach AMD.


  66. Taaa (autor: morgi | data: 21/08/10 | godz.: 20:25)
    Jednak w stwierdzeniu padlo perf./watt, sadzac po stwierdzeniu Nvdii, ze power duzo nie rosnie to performance zapewne spada i to wyraznie.

  67. @ Grave (autor: Sandacz | data: 21/08/10 | godz.: 22:25)
    Grave - dla mnie fanatyk to ktoś taki co musi puścić bąka nawet wtedy kiedy jego kiszki nie mają na to ochoty - niestety u wyznawców Intela CZUJĘ to wyraźnie bo zawsze to oni pierwsi wytaczają ten smród (casus: news np. nie dotyczy AMD a oni i tak swoje). Poproś Morgich, soniaków itp. o umiar a nie będziesz musiał przez nich później męczyć klawiatury (i nas) i próbować wszystkim wmawiać że to nie kloaka a perfumy.

  68. rainy (autor: Grave | data: 22/08/10 | godz.: 01:28)
    Shadery u Nvidii taktowane są 2x wyżej, za to shadery u ATI mogą przerabiać do 5 instrukcji naraz w ramach jednego shadera. Dwie różne koncepcje i trudno tu porównywać tylko taktowanie.

    A dalej to już zależy od gry. Są takie w których architektura ATI rozwija skrzydła (np. DIRT/GRID), a są i takie które "bardziej leżą" architekturze Nvidii (np. Far Cry 2).

    Tymniemniej gdyby Nvidia poszła po linii najmniejszego oporu tak jak ATI i po prostu dołożyła tyle jednostek obliczeniowych ile się tylko zmieści w ramach danego procesu to obecnie miałaby o wiele szybszą kartę.

    GTX 285 był szybszy od HD 4890, Fermi jest szybsze od Cypressa, ale... mogło być o wiele szybsze gdyby Nvidia ukierunkowała prace nad tym układem pod kątem gier tak jak w poprzednich swoich GPU.

    Tak byłby układ kilkadziesiąt % mocniejszy od Cypressa i powtórzyłaby się historia z poprzedniego rozdania.

    Ale Nvidia poszła inną drogą chcąc za jednym zamachem wygrać w grach z Cypressem oraz zwiększyć znacząco przydatność i wydajność swojego GPU w zastosowaniach GPGPU.

    I właściwie wszystko się udało natomiast nawalił proces technologiczny.

    W efekcie Fermi jest szybszy od Cypressa, ale zwycięstwo to zostało okupione zbyt wysokim kosztem niż powinno, lista "skutków ubocznych" jest zdecydowanie za długa.


  69. @ 68 (autor: Sandacz | data: 22/08/10 | godz.: 07:24)
    "W efekcie Fermi jest szybszy od Cypressa, ale zwycięstwo to zostało okupione zbyt wysokim kosztem niż powinno, lista "skutków ubocznych" jest zdecydowanie za długa." - widzisz Grave na koniec trafne podsumowanie w jednym (nawet niezbyt rozbudowanym) zdaniu- więc po co było wzceśniej pisać 10000 słów?

  70. @Grave (autor: Promilus | data: 22/08/10 | godz.: 07:32)
    "Shadery u Nvidii taktowane są 2x wyżej, za to shadery u ATI mogą przerabiać do 5 instrukcji naraz w ramach jednego shadera. Dwie różne koncepcje i trudno tu porównywać tylko taktowanie" Oh serio? Ale ty porównałeś...to może jeszcze ilość sprawdzimy? 320 vs 480? 50% więcej u GTX480.
    "GTX 285 był szybszy od HD 4890, Fermi jest szybsze od Cypressa, ale... mogło być o wiele szybsze gdyby Nvidia ukierunkowała prace nad tym układem pod kątem gier tak jak w poprzednich swoich GPU"
    Jeśli byłoby to byłoby minimalnie szybsze od tego co jest teraz. Zrozum - spartolili sprawę bo to się NIE skalowało im tak ładnie jak sądzili że będzie. Najlepiej rozwiniętą do gier architekturą nv obecnie posiada GF104, ale nie oznacza to że skroili całkowicie GPGPU bo skroili je tylko marginalnie. Zwiększenie jednostek w GF100 byłoby bezsensowne bo ni chu chu się to tam nie skaluje, a zapotrzebowanie na ampery rośnie. Naprawdę, wymyśl coś lepszego!
    "I właściwie wszystko się udało natomiast nawalił proces technologiczny. "
    Jasne, winy szukać zupełnie gdzie indziej. Kto im kazał robić ryzykowne rewolucje? Wysoko skaczesz, z większej wysokości spadasz...


  71. ... (autor: krzysiozboj | data: 22/08/10 | godz.: 12:34)
    @63
    cyt

    "Tymczasem pełen Fermi został nie dawno przetestowany,okazuje się że jak najbardziej JEST MOZLIWE wyprodukowanie czegoś takiego, a więc projekt był dobry. "
    Nie był dobry, możliwy do zrealizowania ale to nie to samo co dobry.
    Odpowiem Ci jak inżynier - masz dostępne środki/możliwości przy podejmowaniu się czegoś/realizowaniu jakiegoś projektu. Korzystasz z nich i tylko z nich oraz zakładasz że to co zaprojektujesz jest możliwe do realizacji w oparciu o to co dostępne na rynku i może być wdrożone do produkcji. Inaczej można mówić o jakichś ciekawostkach a nie projekcie w sensie produktu.
    @67
    to samo jest po stronie fanów AMD, czasem może mniej skrajnie/demagogicznie ale za to o wiele więcej chamstwa i prostactwa
    @68
    nie wszystko się udało tylko "prawie wszystko" a to "prawie" czasem robi sporą różnicę ;)

    A swoją drogą ciekawe czasy nastają - w GPU będzie trzeba trzymać kciuki za NVIDIĘ by rynek zdrowy był ;) Pewnie coś przeprojektują, poprawią i znów będą na topie, ATI też nie błyszczało od początku z tym co poprzedzało R5xxx a była to chyba ta sama architektura dopieszczana z czasem.


  72. Trzymac kciuki za faby, jesli (autor: morgi | data: 22/08/10 | godz.: 19:06)
    takie denne opoznienia i procesy, to gpu bedzie marginalna fabryka kotletow i wszelkiej masci rebrandow, a nowy proces beda jak igrzyska dla etuzjastow, po czym przeskocza wszyscy na powrot na zapasy procesorowe.

  73. żeście sie rozpisali..:P (autor: Diamond Viper | data: 24/08/10 | godz.: 10:22)
    Też przyznam, że wolałem MMX-a - sam miałem 233kę z MMX od tego 3D Now - aczkolwiek nie mówię, że nigdy nie korzystałem:) Po prostu im nie wyszło, jakby to dopracowali bardziej kto wie - a tak - poszło do lamusa.. jak niektóre rzeczy zresztą

  74. @diamond viper (autor: Promilus | data: 24/08/10 | godz.: 20:11)
    jak mmx na przykład...

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.