Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Czwartek 29 października 2009 
    

W sklepach drożeją Radeony HD 5850


Autor: Zbyszek | źródło: Fudzilla | 14:46
(104)
Jak donoszą redaktorzy z serwisu Fudzilla, w sklepach na terenie Europy Zachodniej oraz Ameryki Północnej drożeją karty ATI Radeon HD 5850. Aktualnie cena kart jest przeciętnie o 15 USD wyższa, niż jeszcze kilkanaście dni temu. Zdaniem komentatorów wzrost cen jest efektem aktualnej sytuacji rynkowej - w sklepach znajdują się coraz mniejsze ilości kart GeForce GTX, które zostały już wycofane produkcji, nadal nie ma w nich natomiast kart z układami Fermi, które nie miały jeszcze swojej premiery. W tej sytuacji coraz częściej jedynym wyborem dla klientów zdecydowanych na zakup pozostają karty ATI Radeon HD z serii 5800.

Niestety, te trafiają na rynek w niewystarczającej ilości, co prowadzi do wzrostu ich cen u sprzedawców. Zdaniem analityków spadek cen kart do właściwego poziomu możliwy jest dopiero pod koniec bieżącego roku.


 
    
K O M E N T A R Z E
    

  1. No jak nV nie zrobi nic w tej sprawie do świąt (autor: Mcmumin | data: 29/10/09 | godz.: 14:55)
    to będą jaja...

  2. No i miazdzenie nvidii przez amd sie konczy. (autor: dr1zzt | data: 29/10/09 | godz.: 15:01)
    Brak kart = brak kasy ze sprzedazy=brak kasy na nowe konstrukcje. Niestety mam przeczucie ze nvidia mocno przywali gt300, wbrew temu co sie obecnie uwaza ogladajac atrapy, i ati spadnie znow na swoje ilestam procent rynku..

  3. dr1zzt (autor: Elektron | data: 29/10/09 | godz.: 15:44)
    pieprzysz znowu jak potłuczony. AMD wypuszcza tyle sprzętu na ile pozwalają fabryki. Jeśli wyjdzie Fermi, to tak samo będzie pustka w sklepach, a nawet i kilka razy większa niż w przypadku AMD. Dlaczego? Bo uzysk będzie o wiele mniejszy. Do czasu aż będzie można kupić "nie atrapę" NV, to AMD zdąży już sprzedać HOHO i jeszcze trochę graf.

  4. Poza tym (autor: Michał1988 | data: 29/10/09 | godz.: 16:12)
    NV tak samo jak AMD zamawia chipy u TSMC, jeśli jest problem z problem z produkcją Radeonów, to lepiej nie myśleć o problemach z GT300...

  5. @dr1zzt (autor: rainy | data: 29/10/09 | godz.: 16:32)
    Jak słusznie zauważył (choć mało subtelnie) Elektron, czasami zadziwia brak logiki w twoich postach.

    Nowe chipy Nvidii, są z całą pewnością powierzchniowo dużo większe, co oznacza automatycznie wyraźnie gorszy uzysk z wafla (i większe prawdopodobieństwo wystąpienia defektów).


  6. czy nvidia wypusci tylko G300? (autor: komisarz | data: 29/10/09 | godz.: 16:36)
    czy moze tez inne karty, oparte na mniejszym chipie?

  7. ... (autor: Saturn64 | data: 29/10/09 | godz.: 16:39)
    Jeszcze trochę a dowiemy się, że Nvidia przestała dotować starą generację kart GTX2xx a zaoszczędzonymi w ten sposób pieniędzmi podkupuje słabą produkcję GPU swojego konkurenta w fabrykach TSMC :) A jak przyjdzie pora na Telesfora to od razu będą mieli dobry uzysk z produkcji :)

  8. komisarz (autor: Michał1988 | data: 29/10/09 | godz.: 16:43)
    Wypuści, ale znając życie to pewnie dużo później niż topowe modele. Jak na razie zapowiedzieli tylko trzy karty z najwyższego segmentu cenowego: http://www.benchmark.pl/..._na_poczatek-23914.html

  9. elektron, rainy (autor: dr1zzt | data: 29/10/09 | godz.: 16:44)
    A znaczenie slowa "przeczucie" znacie? :) Poczekamy zobaczymy.

    "to tak samo będzie pustka w sklepach, a nawet i kilka razy większa niż w przypadku AMD."
    Tu dopiero jest pieprzenie, logicznie doskonale:)


  10. cd.. (autor: dr1zzt | data: 29/10/09 | godz.: 16:46)
    ...do tego "przywali" mialem na mysli "power" kart a nie ile sie czego sprzeda. No ale fani amd patrza tylko na liczby...coraz odwazniej :)

  11. dr1zzt (autor: Michał1988 | data: 29/10/09 | godz.: 16:55)
    Jak widzę specyfikację tego "potwora" NV, to też mi się wydaje, że będzie miał ogromnego "powera" :-) tyle, że puki co ni widu ni słychu o nim :-)

  12. pojawiaja sie pierwsze testy HD5970 (autor: power | data: 29/10/09 | godz.: 17:20)
    http://www.frazpc.pl/...0_wyniki_pierwszych_testow

  13. @dr1zzt (autor: rainy | data: 29/10/09 | godz.: 17:32)
    Coś mi się wydaje, iż pisałeś, że jeśli chodzi o karty graficzne to preferujesz ATI.

    Ponieważ jest to od dłuższego czasu część składowa AMD to ty również jesteś fanem tej firmy :)


  14. @komisarz (autor: trepcia | data: 29/10/09 | godz.: 17:33)
    Wypuści. Ktoś wysoko postawiony u NVidii (chyba nawet ich CEO) wypowiadał się kiedyś, że G300 jest układem, który bardzo dobrze "skaluje" się do mniejszych, prostszych układów, cokolwiek to miałoby znaczyć ;-)

  15. @dr1zzt (autor: Wyrzym | data: 29/10/09 | godz.: 18:39)
    No mnie az boli jak widze takie posty jak twoje :D
    "Brak kart = brak kasy ze sprzedazy=brak kasy na nowe konstrukcje. "

    To zdanie jest o AMD? dziwne, wyglada jakby bylo pisane o Nvidi ^^

    Swoja droga, postaraj sie ruszyc glowa przez pare sekund i powiedz mi ktora fabryka bedzie produkowala uklady dla Nvidi, a ktora to robi wlasnie dla AMD :)


  16. rainy (autor: dr1zzt | data: 29/10/09 | godz.: 18:40)
    Owszem, wole karty ati, a wspolczesnego amd jako calosci nie lubie i juz:>
    A co jezeli nvidia zrobi faktycznie rewelacyjna karte, pomimo tego co sie przypuszcza? Chodzi mi o te glupie komentarze niektorych.. a jezeli to jest cisza przed burza?


  17. ............. (autor: Marek1981 | data: 29/10/09 | godz.: 18:53)
    Cieńko to widzę.
    AMD rozbuja się do końca roku z produkcją nowych kart ( sprawność wzrasta ) i będzie kosić kupę kasy przez głupotę Nvidii. Qrna a planowałem kupić sobie jakiegoś radeonka. Gdyby nie zaprzestali zamawiać chipów do gtx 260/275 i 285 prawdopodobnie ceny by nie wzrastały.
    @komisarz i dr1zzt - czasami nie rozumiem zakłamania. Co z tego że G100 będzie miało power jak będzie drogi w produkcji (skomplikowany i w dodatku mały uzysk - plotki są że w granicach 3%) , bardzo drogi i mało dostępny dla użytkownika końcowego. Efekt to taki że AMD i tak na tym dużo zarobi!!!
    Patrząc jeszcze bardziej logicznie na te firmy to zaobserwujemy ogromną przewagę w infrastrukturze i zasobach po stronie Nvidii, co wiąże się także z dużym zapotrzebowaniem na utrzymanie tego. Dlatego może przyjść nieciekawy okres dla tej firmy i dla nas jako konsumentów. Monopol nie jest wskazany, patrz rynek procesorów.


  18. @dr1zzt (autor: rainy | data: 29/10/09 | godz.: 18:58)
    Przypuszczam, iż pojedyńczy Fermi będzie szybszy od 5870, choć widać, że Nvidia nastawiła się raczej na inne wykorzystywanie tych kart.

    Pozostaje otwartym pytanie o ile i przy jakim poborze mocy (i rzecz jasna cena).


  19. Może nVidia wyda coś "ala-radek 4850" rok temu ! (autor: PRZYGŁUP morgi | data: 29/10/09 | godz.: 19:08)
    Opanują proces i będzie hit, a może cisza przed burzą, bo przecież coś robić muszą skoro firma jeszcze nie padła.

  20. Ja nie wiem (autor: Wyrzym | data: 29/10/09 | godz.: 19:11)
    czy jest tu ktos kto watpi w to ze Fermi bedzie szybszy od 5870, bo z pewnoscia bedzie, Nvidia sie o to postara chocy nawet za cene 2x wiekszej powierzchni chipa :] ale to bedzie nowy, dla Nvidi (nie liczac tego budrzetowca co wydali ostatnio), proces technologiczny, calkiem nowa architektura GPU i jeszcze nieznany termin wydania tego, co za tym idzie moze byc ciezko z uzyskiem, co za tym idzie cena i dostepnoscia karty, tak dr1zzt to jest logiczne myslenie (nie podparte oczywiscie faktami bo niby jak?), nie rozumiesz tego bo twoj mozg dziala na innych falach "omg, jestem super fajny bo biadole jak sie da i pisza o mnie w kazdym temacie" ^^

  21. @Marek1981 (autor: Saturn64 | data: 29/10/09 | godz.: 19:13)
    Wcale nie jest tak różowo dla ATI jak piszesz.. Szansą dla nich jest właśnie sprzedaż dużych ilości GPU w tym momencie przy braku konkurencji ze strony Nvidii, natomiast nie mogą zapełnić rynku swoimi GPU. Problemy z produkcją sa na rękę Nvidii, gdyż każdy chcący teraz złożyć komputer jeszcze troche poczeka ze względu na spore koszty zakupu nowych kart i brak dostępności. Wówczas znowu NV będzie na czele zestawień sprzedaży no chyba, że FERMI okaże się niewypałem, w co jednak nikt nie wierzy. Jeśli Nvidia nie ma jeszcze gotowego FERMI albo nadal go testują to mogą jeszcze 2 miesiące spać spokojnie. W tym czasie TSMC powinna w pełni opanować proces 40nm z którym mają problemy od prawie pół roku.

  22. @Saturn64 (autor: Marek1981 | data: 29/10/09 | godz.: 19:20)
    Nie myślisz logicznie!!! Co z tego że naprzykład G100 będzie o 20% wydajniejsze jak będzie 50% droższe i dostępny jak się uda:) Dostępność kart może poprawić się po 3-4 mc a to będzie luty- marzec!!! Dodaj następną generację od AMD (3 kwartał) i będą dostępne już jakieś przecieki o wydajności.

    Wiem co piszę i wcale nie jestem szczęśliwy z takiego obrotu sprawy. Karty będą droższe jak przewidywałem.


  23. ... i tak będziemy się kręcić w kółko.... (autor: PRZYGŁUP morgi | data: 29/10/09 | godz.: 19:32)
    .. i gdybać, tak jak teraz.... w kółko.... co będzie, jak będzie.....gdy nie będzie......nie ma.....jest teraz......

  24. a w polsce i tak jest i bedzie drogo.... (autor: PRZYGŁUP morgi | data: 29/10/09 | godz.: 19:34)
    jak euro będą liczyć jak dolara... udając że jest pseudo-kryzys....

  25. @all (autor: 3men | data: 29/10/09 | godz.: 19:42)
    kazdy na miejscu ati/amd postepowałby podobnie - jest koniunktura i wykorzystują moment jak tylko mogą (i potrafią) - generalnie, z treści większości postów mozna wywnioskować ze jedynym słusznym wyborem jest bądź duet intel+nv lub amd/ati, nie wazna jest wydajność i jej stosunek do ceny jak i dostępność. Jaki by FERMI nie był wydajny, to na chwilę obecną go nie ma i jeszcze przez jakis czas nie będzie. Abstrahując od "funboystwa" obojga rodzaju, miejmy nadzieję, że będzie przełomem ja pierwszy gf i wytyczy nowe drogi dla kolejnych generacjo kart graficznych, a amd/ati postapiło jak nakazywała logika - nv nie ma kart więc po co opracowywać nową architekturę skoro ma się sprawdzoną i wystarczy pomnożyć ja przez "x" aby zarobić i mież (chwilową) przewagę.

  26. ... (autor: trepcia | data: 29/10/09 | godz.: 19:57)
    Ludzie, nawet jak NVidia pokaże światu gotowe fermi to upłynie jeszcze wiele wody w kiblu zanim TSMC naprodukuje tyle układów G300 aby oni (czyt. NV) mogli spokojnie wypuścić to na rynek.
    Po drugie ATI i NV mają dokładnie tą samą linię produkcji u TSMC, skoro ATI obciąża ją na powiedzmy 95% to NV pozostaje 5%. Oczywiście jak wyjdzie Fermi to te proporcje ulegną zmianie ale nawet jeśli będą 50/50 to rynek i tak zawojuje układ, który jest mniejszy i który ma większy uzysk z wafla. Tego się nie przeskoczy.


  27. @Marek1981 (autor: Saturn64 | data: 29/10/09 | godz.: 20:11)
    ...to z tego, że ludzie ją kupią. Chyba nie uważasz, że Polska właśnie jest pępkiem świata i jak u nas nie kupimy to Nvidie przyciśnie bieda. Niestety ale największym rynkiem zbytu jest nadal Ameryka Północna i Europa Zachodnia. Tam nędzne 200-400$ przy ich zarobkach to pryszcz na d...
    Jeśli nawet okaże się, że FERMI jest porównywalny z dwu układowym 5970 to zapewne będzie pobierał mniej pradu i będzie miał jeden chip a nie dwa. Więc kto na nim zarobi więcej?. To samo w mniejszych wariantach. ATI 5850/5870 równiez ma chip 334mm2. Nie wiadomo przy jakiej powerzchni układu FERMI-kastrat będzie wydajniejszy (możliwe, że przy 300mm2?) i znowu ATI będzie stratne. Proces technologiczny niebawem zostanie dopracowany dla jednej i drugiej firmy. Więc bez obaw.


  28. @trepcia (autor: rainy | data: 29/10/09 | godz.: 20:18)
    To chyba nie do końca tak - z tego co mi wiadomo, AMD płaci TSMC za w pełni sprawne układy, natomiast Nvidia kupuje całe wafle (niezależnie od ilości dobrych chipów).

    Wygląda na to, że AMD zamówiło zbyt mało układów (być może z powodu wcześniejszych zamówień Nvidii).


  29. @Saturn64 (autor: rainy | data: 29/10/09 | godz.: 20:25)
    Jestem gotów się z tobą założyć, że najsilniejszy Fermi będzie dużo większy niż 5870/50 - zapewne będzie to podobna różnica jak pomiędzy GTX285 a 4870 (czyli jakieś 540 mm2).

    Natomiast dwurdzeniowy nie pojawi się w tym roku.


  30. @rainy (autor: trepcia | data: 29/10/09 | godz.: 20:33)
    No i wyjaśniło się, skąd NVidia miała tyle układów do swoich breloczków :D

  31. @rainy (autor: Saturn64 | data: 29/10/09 | godz.: 21:00)
    Z zapowiedzi Nvidii wynika, że FERMI ma być od 60-80% wydajniejszy do GTX285. Dziś wiemy, że Radeon HD5870 jest szybszy od GTX285 o jakieś 25%. Czyli wychodzi z tego, że FERMI powinno być jeszcze o ok 50% szybsze od HD5870. Porównywalne z HD5970 tj kartą złożona z dwóch układów. Nie wiemy jeszcze jaka będzie powierzchnia Fermiego (różne źródła podają od 430-495mm2) jednak tak czy inaczej, wyprodukowanie 2 układów 340mm2 powinno byc droższe niż jednego (495mm2). Jeden układ powinien również pobierać mniej energii a konstrukcja karty powinna być o wiele prostsza.

  32. K.D. (autor: KAZDAN63 | data: 29/10/09 | godz.: 21:02)
    JA KUPIŁEM ATI RADEON ASUS EAH5770 ZA 614,15PLN (595,24+18,91) . CENA DZISIAJ 689,68PLN (670,77+18,91) I BRAK . NVIDII TEŻ UKŁADY BĘDZIE PRODUKAWAĆ TSMC !!! PORZUĆCIE WSZELKĄ NADZIEJĘ , ... (DANTE).

  33. @KAZDAN63 (autor: Saturn64 | data: 29/10/09 | godz.: 21:08)
    ...:) siejesz proroctwa jak by całkowicie zaprzestali produkcji i karty graficzne miały zniknać z rynku. Zapewniem, że za miesiąc lub dwa wszystko wróci do normy.

  34. Saturn64 (autor: Michał1988 | data: 29/10/09 | godz.: 21:11)
    Ale zauważ, że większy chip to większe ryzyko wystąpienia defektów podczas produkcji. AMD będzie mieć sporo większy uzysk RV870 niż NV Fermi, więc produkcja tych pierwszych będzie tańsza. A poza tym będzie ich sporo więcej, nie tylko dlatego, że będą miały większy uzysk, ale też z powodu tego, że więcej ich się mieści na waflu. Owszem, PCB HD5970 będzie bardziej skomplikowane, więc i droższe, ale na samych chipach AMD sporo zaoszczędzi.

  35. PS. (autor: Michał1988 | data: 29/10/09 | godz.: 21:13)
    Gdzieś przypadkiem doczytałem, że ryzyko defektu rośnie proporcjonalnie do kwadratu powierzchni... Czy to jest prawda?

  36. @Michał1988 (autor: Saturn64 | data: 29/10/09 | godz.: 21:19)
    Po części masz rację ale też nie do końca.
    1. Zgadzam się, że wiekszy chip to większa możliwość wystąpienia błędów. Jednak uszkodzone chipy są kastrowane i będą również wchodzić na rynek w postaci kastratów. Z tego co zapewniała NV, Cięcie Fermiego jest bardzo proste i powinno wychodzić wiele wariantów.
    2. Gdyby produkcja Fermiego szła już dzisiaj to napewno straty Nvidii były by ogromne zakładając nie do końca opanowany proces technologiczny. Ale z czasem (zakładam ok 2-3-4 miesięcy powinien być już na tyle opanowany, że nawet układy 500mm2 powinny być produkowane w ilości ok 70-90% sprawnych.
    3. O sprawności produkcji danego chipu nie świadczy tylko i wyłącznie jego wielkość i ilośc tranzystorów, a jeszcze ogromny wpływ na to ma udana optymalizacja architektury układu.


  37. @Saturn64 (autor: rainy | data: 29/10/09 | godz.: 21:24)
    Chyba się nie mylę, że jesteś wielbicielem Nvidii - cokolwiek naciągasz.

    Nawet jeżeli przyjąć za dobrą monetę ich zapewnienia o wydajności Fermi, to byłoby 35-55 procent (u ciebie jest już 50).

    AMD poza tym szlifuje sterowniki co powiększy przewagę 5870 nad GTX285.

    Co do powierzchni to chyba raczysz sobie żartować - 430 mm2?

    Ponad dwukrotny wzrost liczby tranzystorów i układ mniejszy od GTX285.

    Sorry, ale takie cuda się nie zdarzają.

    5870 jest większy (pomimo 40nm) od 4870 o ponad 70 mm2 - u Nvidii skończy się podobnie.


  38. Saturn64 (autor: Michał1988 | data: 29/10/09 | godz.: 21:33)
    Zgadzam się z Tobą.
    A jeśli chodzi o podwójne Radeony, to zastanawia mnie jedno: czy w HD5970 będzie wreszcie Sideport. Z tego co pamiętam to miał go już mieć HD4870X2, lecz z powodu kosztów produkcji został on jednak wycofany. Patrząc na to, że pojedynczy RV870 jest chipem znacznie bardziej wydajnym niż RV770, to może się okazać, że do komunikacji między rdzeniami Hemlocka (?) może już nie wystarczyć samo PCI-E i mostek Crossfire (tym drugim były chyba połączone oba rdzenie we wcześniejszych "bliźniakach" ), więc w razie braku Sideportu wydajność jego może być zabita.


  39. @Rainy (autor: Saturn64 | data: 29/10/09 | godz.: 21:35)
    1. Nie jestem wielbicielem, żadnej z tych firm. Kupuję w danym momencie lepszą na rynku.
    2. Na razie nikt nie wie jaka jest wydajna nowa karta NV. Nie mam innych źródeł, które to potwierdzają czy też zaprzeczają. Skomentowałem to co podają oficjalne źródła NV czyli 60%-80%.
    3. Może i szlifiuje (na razie nie odskoczyło). Po za tym NV nie siedzi z założonymi rękami i rónież szlifuje.
    4. Nie żartuje. 430mm2 jest całkiem realne. Racz zauważyć, że GTX285 jest wykonany w technologii 55nm. " TSMC zamierza wprowadzić dwie wersje tego procesu, 40G, ogólnego przeznaczenia, oraz 40LP, zoptymalizowaną na niski pobór mocy. Nowa technologia pozwoli na 2,65 razy większe upakowania tranzystorów w stosunku do 65nm"
    5. Oj czasem cuda się zdarzaja ;)


  40. @saturn64 (autor: trepcia | data: 29/10/09 | godz.: 21:36)
    Nie wiem jaką stosujesz matematyką ale BARDZO chciałbym wiedzieć, skąd Ci wyszło 50%! Proszę, uświadom mnie, szarego człowieczka jak Ci się to udało wyliczyć. A może lepiej cofnij się do podstawówki bo musiałeś wiele lekcji z matematyki przewagarować.
    Nawet najbardziej optymistyczny wariant podawany przez NVidię nie zbliża się do 50%.

    A tak pozatym, zapewnieniom o wydajności i tak nie wierzę (a'ka wydajność Phenoma jak debiutował). Produceni zawsze dodają od siebie.


  41. Ale patrząc na to (autor: Michał1988 | data: 29/10/09 | godz.: 21:37)
    że w AMD już w trzeciej generacji kart topowym modelem jest karta dwuchipowa, więc musi im się bardziej opłacać taki interes, niż produkcja jednego, kolosalnego rdzenia.

  42. @trepcia (autor: Saturn64 | data: 29/10/09 | godz.: 21:40)
    Zawsze byłeś szarym człowieczkiem, pamiętam jak siedziałeś w oślej ławce w podstawówce.

  43. ....... (autor: Marek1981 | data: 29/10/09 | godz.: 21:44)
    @Saturn64 - widzę, że nadal nie rozumiesz co ja piszę!!!
    G100 gdyby było 30% wydajniejszy i 50% droższy, to NV i tak by na nim dużo nie zarabiała!!!
    1) Duży chip do słaby uzysk z 1 wafla.
    2) Duży chip w nowej technologii to słabszy uzysk (nieszczęsne 3%)
    3) Duży chip to dużo żmudniejsze pracy nad doszlifowaniem nowego procesu technologicznego
    4) Słaby uzysk daje dużo większy koszt produkcji np
    niech gt300 ma uzysk 3% i jest 10% większy od rv 880 (uzysk na poziomie 30%).
    chip 10% większy + uzysk 1/10 to ok 15x większy koszt produkcji!!!
    Teraz różnice są nawet większe......

    To tylko wróży słabą dostępność G100 i mały zarobek na jednym chipie.


  44. @... (autor: Saturn64 | data: 29/10/09 | godz.: 21:45)
    http://nvision.pl/...na!--News-14784-ndetails.html

    "NVIDIA odsłoniła karty - jej nowy układ będzie prawdopodobnie od 60 do 80% szybszy od GeForce GTX 285, co zapewni mu bezpieczną przewagę nad RADEON-em HD 5870"

    Raz już się wypowiadałem na ten temat. Są to dane NV. Jeśli porównują go do własnego produktu to jakieś ziarnko prawdy musi w tym być. Dowiemy się po oficjalnych testach po premierz czy nie był to czasem blef typu jeżopodobnego.


  45. @Saturn64 (autor: rainy | data: 29/10/09 | godz.: 21:52)
    5870/50 są w sprzedaży od miesiąca i ich użytkownicy mogą zgłaszać problemy/usterki w sterownikach a u Nvdii takiej opcji póki co nie ma.

    430 mm2 jest kompletnie nierealistyczne.

    GTX285 ma 470 mm2 a 4870 263 mm2 - a przeprojektowany 4870 jakim jest 4890 - 282 (to również 55nm).

    Nie da się ukryć, że jest to różnica bardzo wyraźna.

    Ponieważ w Cypress jak i Fermi wzrost liczby tranzystorów względem poprzedniej generacji jest porównywalny to i różnica w wielkości układów będzie zachowana.


  46. @saturn64 (autor: trepcia | data: 29/10/09 | godz.: 21:53)
    No tak, jak się nie ma nic mądrego do powiedzenia na temat braków w podstawach matematyki to się pierdoły pisze :-)

    "NVIDIA odsłoniła karty - jej nowy układ będzie prawdopodobnie od 60 do 80% szybszy od GeForce GTX 285, co zapewni mu bezpieczną przewagę nad RADEON-em HD 5870"
    W jakich zastosowaniach? Informacja nic nie mówi tylko tyle, że będzie szybszy o 60-80% ale w czym? W rozkręcaniu wentylatora? W topieniu PCB? A może w zaparzaniu herbaty?
    Takie oficjalne dane to sobie można... wiecie co :-)


  47. ... (autor: Saturn64 | data: 29/10/09 | godz.: 21:55)
    @Marek1981 - Widzę, że także nie jesteś w temacie.

    G100 gdyby było 30% wydajniejsze i 50% droższe to i tak na nim zarobią. Znajdą się tacy co je kupią.
    1. Uzysk niewiele się będzie różnił od ATI (Narazie produkcja jest w dopracowaniu nie jest to własna produkcja tylko zlecona w tym samym zakładzie w którym produkowane są układy ATI) To na nich właśnie uczy się TSMC panować nad procesem 40nm.
    2. Uzysk 3% to plotki ze strony ATI nigdzie nie potwierdzone i to z okresu początku września. Teraz mamy już Listopad.
    3. Nvidia nie produkuje jeszcze układu więc nie ponosi strat z tego tyułu.
    4. Duży chip nie koniecznie musi być problemem w podukcji (może mieć prosta architekturę łatwą do skontrolowania i do przbadania). Temat dyskusyjny.
    5. Porażka Nvidii było by gdyby okazało się. że jej produkty są takie same wydajnościowo jak układy ATI a większe gabarytowo i droższe w produkcji, ale z zapowiedzi, które słyszeliśmy na to się raczej nie zanosi.


  48. @trepcia (autor: Saturn64 | data: 29/10/09 | godz.: 22:01)
    Skoro używasz swojej karty tylko do rozkręcania wentylatora, topienia PCB i do zaparzenia herbaty to może nie wypowiadaj sie na te tematy. Do póki nie mamy innych danych te należy traktować poważnie.

    @Marek1981
    Intel również ma procesory o ok 10-20% szybsze od AMD a ceny o 100% wyższe i jeszcze na tym zarabia :)


  49. @Saturn64 (autor: rainy | data: 29/10/09 | godz.: 22:02)
    Producenci sprzetu, na ogół zawyżają (w celach marketingowych) wydajność swoich nadchodzących produktów.

    Niespodzianki w rodzaju 4870/50 (wydajność znacznie lepsza niż się spodziewano) należą generalnie do rzadkości.


  50. @Saturn64 (autor: Marek1981 | data: 29/10/09 | godz.: 22:04)
    Nadal nic nie kumasz. To że teraz masz 30% przewagi hd5870 nad 285 nie znaczy, że ona zostanie na tym poziomie.
    AMD dopracuje sterowniki i ....odblokuje jego ukrytą moc. Odsyłam do linka:
    http://www.in4.pl/...id=566&rectr_str_numer=20


  51. @saturn64 (autor: trepcia | data: 29/10/09 | godz.: 22:05)
    Żebyś Ty chociaż w połowie używał komputera do takich zastosowań, jak ja...

    Te dane zostały napisane przez wpadką z atrapą NV. Niech pokażą chociaż jeden działający układ to zacznę poważniej podchodzić do tego, co piszą.

    Już policzyłeś ile to jest %? Czy uważasz, że rozejdzie Ci się to po łapkach?


  52. @Saturn64 (autor: Marek1981 | data: 29/10/09 | godz.: 22:08)
    Tak Intel zarabia i to sporo przez takie marże, naginanie prawa, manipulacje testami oraz wymuszenia!!!
    W dodatku Intel ma 80% rynku i nikt na razie nie jest mu wstanie podskoczyć. AMD podskoczyło prockami athlon, athlon xp,athlon barton i athlon64 które były lepszymi i tańszymi produktami a sprzedawały się tak samo jak dziś (udział ok 19%)


  53. Zacznijmy od tego, że (autor: Michał_72 | data: 29/10/09 | godz.: 22:18)
    jeżeli cip NV, młodszy o pół roku od 5870, nie będzie od niego sporo szybszy- to znaczy że NV dała ciała po całości.
    Zagadka- czy przypadkiem opóźnienie Fermiego nie wzieło się stąd, że procek ATI okazał się lepszy niż przypuszczali zieloni ( nie tylko w kwestii szybkości ale i poziomu energii oraz .. ceny) i musza przy nim jeszcze pomajstrować?


  54. @Marek 1981 (autor: Saturn64 | data: 29/10/09 | godz.: 22:21)
    http://www.nvidia.pl/.../winxp_185.81_beta_pl.html

    Nie odkryłeś ameryki. Sterowniki są poprawiane przez ATI i także przez NVIDIE. Spójrz na każde sterowniki NV (porzednie) a w każdych znajdziesz jakieś optymalizacje w wydajności)


  55. @trepcia (autor: Saturn64 | data: 29/10/09 | godz.: 22:38)
    "Żebyś Ty chociaż w połowie używał komputera do takich zastosowań, jak ja..."
    Mam nadzieje, że kawy w nim nie zaparzasz? A może gotujesz w nim obiady?


  56. @saturn64 (autor: trepcia | data: 29/10/09 | godz.: 22:47)
    M. in. używam go do połączenia się z internetem i rozmowy na portalach z irracjonalnymi osobami.

  57. @Michal_72 mam podobne podejrzenia, fermi smierdzi mi... (autor: 3men | data: 29/10/09 | godz.: 22:51)
    krzemowym Duke'em 4ever

  58. A niech se zarobią, zasłużyli (autor: pwil2 | data: 29/10/09 | godz.: 22:53)
    Kto się z $$ liczy trochę przeczeka, a reszta pomoże AMD spłacać kredyty i zapewni więcej kasy na inwestycje w projektowanie następnych kart.

  59. @trepcia (autor: Saturn64 | data: 29/10/09 | godz.: 23:05)
    ..to faktycznie do wielu rzeczy używasz komputera... Rozmawiasz z ludzmi na tym samym poziomie.. Sam przecież wyjechałeś z takimi farmazonami.

  60. @saturn64 (autor: trepcia | data: 29/10/09 | godz.: 23:36)
    To nie ja nie znam się na procentach i na swojej niewiedzy przedstawiam fałszywy obraz rzeczywistości minipulując tym opiniami osób to czytających.

    Po drugie widzę, że nie tylko na procentach się nie znasz ale i również nie wiesz, co w języku polskim oznacza skrót "m.in.".


  61. ceny to nie wina ATI (autor: gindek | data: 30/10/09 | godz.: 04:11)
    Mozliwosci produkcyjne co prawa sa nie wystarczajace.
    Dlatego karty te i tak by podrozaly u finalnych odbiorcow, z tym ze kasa nie szla by do kieszenia ATI, a do hurtownikow/sklepikarzy. Zawsze kiedy popyt przewyzsza podarz taka sytuacja ma miejsce. Nie nalezy winic firmy ze ich karty sie genialnie sprzedaja, ze nie maja konkurencji i ze nie chca wpychac kasy do kieszeni hurtownikow.


  62. @trepcia (autor: Saturn64 | data: 30/10/09 | godz.: 07:02)
    Podważasz mi, że nie potrafię liczyć, to może pokaż nam jak Ty to policzysz? W gębie to jest mocny ale argumentów jak do tej pory żadnych nie przedstawiłeś. Nie interesuje mnie w jakie dane wierzysz czy też nie wierzysz. Pokaż inne to się odniesiemy do nich razem. Ja czytałem tylko o takich, które Wam przedstawiłem. Znam skrót między innymi (reszte już poznałem wcześniej pisałeś o wykorzystaniu m. in. do zaparzania herbaty, topienia PCB i rozkręcania wentylatora...) :)

  63. Saturn64 (autor: Markizy | data: 30/10/09 | godz.: 08:15)
    jesli myślisz że Nvidi uda się wykorzystać dopracowany proces 40nm od ATI to jesteś w błędzie. Ile na rynku jest 4770 i dalej nie zapewnił AMD odpowiedniego uzysku, a przecież architektury są bardzo zbliżone. A co dopiero z chipem o całkiem innej architekturze, minie trochę czasem zanim dopracuje się proces do konkretnego chipu, jak zmniejszenie procesu było by takie proste to by GT200 od razu wyszedł w 55nm a nie w 65nm, przecież byłby to czysty zysk, a 55nm było dobrze dopracowane.

    Co do ciecia układów to ATI to obecnie robi a i tak nie ma wystarczającej liczy układów z serii 5xxx, a ciecie fermiego minie się z celem, bo taki duży układ będzie powodować bardzo duży pobór energii, ewentualnie zblokują max 1-2 klastry z niego. Bo dla większej ilości taniej będzie produkować mniejszy układ.


  64. @up (autor: Markizy | data: 30/10/09 | godz.: 08:17)
    http://pclab.pl/news39241.html

    Ciekawe jak można zamawiać układ którego nie ma, ani nie znana jest premiera? No chyba że producenci się zabijają o GF GT220 i pochodne.


  65. saturn (autor: Jarek84 | data: 30/10/09 | godz.: 09:29)
    Jak nie morgi, to jakiś saturn - kuźnia talentów na tym TPC :D matematykę polecam powtórzyć, co już przedmówcy zauważyli - swoja droga chciałbym bardzo zobaczyć te Twoje przeliczenie drogi saturnie odnośnie procentowych różnic miedzy G100 i RV870.

  66. HAHAHA (autor: dr1zzt | data: 30/10/09 | godz.: 09:38)
    "AMD dopracuje sterowniki i ....odblokuje jego ukrytą moc."
    Przez Ciebie rozlalem sobie kawe ze smiechu i splulem monitor..


  67. @saturn64 (autor: trepcia | data: 30/10/09 | godz.: 09:59)
    A co mam tutaj pokazać? Jak się konstruuje układ równań do obliczenia jednej zmiennej? Daj spokuj... to tak jakby miał pokazać, jak się dodaje.
    A wynik to 44% przy założeniu, że fermi będzie wydajniejsze o 80% od GTX285.

    A jakie argumenty mam przedstawiać? Spekulacje i papkę marketingowców? Będą niezależne testy, będzie punkt odniesienia. Mówienie o wydajności fermi to tak samo jak mówienie o wydajności architektury buldozzer u AMD w stosunku do produktów konkurencji. Nie ma na czym oprzeć argumentów.

    @dr1zzt
    Luki w wiedzy rażą. Albo 5870 ma buga w architekturze albo w sterownikach bo dwa 5770 w CF mają większą wydajność niż jeden 5870.


  68. @Jarek84 (autor: Saturn64 | data: 30/10/09 | godz.: 10:01)
    Następny się znalazł mądry... pokaż błąd to się ustosunkuję. Jeśli różnica wydajności pomiędzy GT300 a GTX285 sięga 80%. A różnica w wydajności pomiędzy GTX285 a HD5870 jest 25-30% to jaką masz różnicę pomiędzy GT300 a HD5870? Napisz nam. Nie wiem jak jest w rzeczywistości może to zwykły belf i różnica sięgnie 10% na korzyść Fermiego. Okaże się po premierze i po oficjalnych testach. Podaj inne wyniki to może zaczniemy dyskusję na temat innych proporcji.

  69. dr1zzt (autor: Jarek84 | data: 30/10/09 | godz.: 10:04)
    Tak czytając Twoje posty to się zastanawiam czy Ty potrafisz odpowiedzieć merytorycznie nie "opluwając sobie monitora", bo każdy Twój post wręcz ocieka śliną ;)

  70. @trepcia (autor: Saturn64 | data: 30/10/09 | godz.: 10:07)
    I kłócisz się o 6 %.....

  71. A to ci ciekawostka... (autor: Mcmumin | data: 30/10/09 | godz.: 10:10)
    "Warto jednak pamiętać o tym, że w przypadku nowego GPU, NVIDIA zamierza zastosować nową politykę, w stronę której wyraźnie zmierzała w ostatnich miesiącach. Dla firmy priorytetowymi odbiorcami Fermi będą producenci, którzy zajmują się rynkiem rozwiązań dla profesjonalistów, a więc stacji roboczych oraz serwerów. "
    Czytając między słowami - będzie w cholerę drogo i ciężko dostępne.


  72. saturn (autor: Jarek84 | data: 30/10/09 | godz.: 10:15)
    Wg Twoich danych różnica wynosi ~38,5 % na korzyść (jak to obliczyłem pozostanie moja słodką tajemnicą - no moją i dzieciaków z gimnazjum I bodajże, które maja to na matmie;) )

    Nie neguje, że G100 będzie szybszy od RV870, nabijali ludzi w butelkę swoimi kotletami, ale chyba nie są na tyle głupi, żeby wydawać kilka miesięcy później kartę tylko porównywalną z konkurencja, bądź wolniejsza - czyt. poprawka z FX byłaby dla nich marketingowym samobójstwem. Nie zmienia to faktu, ze obliczenia różnic w wydajności wzięte za przeproszeniem z 4 liter są trochę śmieszne.


  73. @dr1zzt (autor: Marek1981 | data: 30/10/09 | godz.: 10:17)
    To miało być napisane z humorem:)
    Zastanawiające, że 2x 5770 jest wydajniejsze od 5870 (łącząc wszystko mamy =) a tu crossfire (ok 80% sprawności). To zastanawiające bo 5870 powinien być ok 30% jeszcze wydajniejszy....

    Pytanie czy to sztuczny zabieg czy też coś nie tak z chipem lub sterami.


  74. Jarek (autor: dr1zzt | data: 30/10/09 | godz.: 10:18)
    Ati dopracowuje catalysty od n-lat i nadal sa zasyfione/zabugowane, a tu szast prast i zrobi sie transformers? :))

    trepcia: Ciebie nie smieszy wyrazenie "ukryta moc" (patrz transformers:)) ? Bo tylko o to mi chodzilo, nie mam nic do samej karty...
    Szkoda ze fanboje amd wszystko odbieraja jako atak na swoja kochana firme..


  75. dr1zzt (autor: Jarek84 | data: 30/10/09 | godz.: 10:29)
    Miałeś kartę ATI kiedykolwiek? Ja mam zarówno HD3850 jak i Geforce 7600GT. Co jak co ale więcej zdrowia zjadłem upgradeujac stery od NV niż od ATI. Żeby pograć w niektóre gry bez artefaktów musiałem żonglować wersjami detonatorów (np w PREY). Zmieniając Catalysty na nowsze wersje nie zauważyłem takich problemów, co nie znaczy, że inni ich nie mają. Ale pisanie, że ATI robi syfskie stery to już trochę przesada i wygląda jakby ktoś chciał nie wiem podbudować się, że np mając wolnijeszego GT240 ma i tak kartę lepsza od posiadacza HD5850, bo ma lepsze stery. Śmieszne.

  76. ... (autor: trepcia | data: 30/10/09 | godz.: 10:33)
    @dr1zzt
    Mnie śmieszą jedynie niektóre demotywatory :P Jestem starym zgredkiem, hehe.

    @saturn64
    Powinieneś wiedzieć o co się "kłócę". Jeśli przedstawiamy jakieś stanowisko piszemy prawdę. A 44% można jeśli już zaokrąglić do 45% a nie do 50%. Na pudelku i w fakcie i na fudzilli zaokrąglają jak chcą :-) Tu mamy TwojePC.


  77. @Jarek84 @trepcia (autor: Saturn64 | data: 30/10/09 | godz.: 10:34)
    Nieźli z Was matematycy (jednemu pomogła mama drugi może sam wyliczył) Jednak wasze wyniki się dość znacznie rozjechały 38,5% do 44% ??? Akurat ja chodzę do Gimanzjum więc nie dziwcie się, że taką mamy szkołę no ale Wy?

  78. Jarek (autor: dr1zzt | data: 30/10/09 | godz.: 10:48)
    To slabiutko bo moja przygoda z ati zaczela sie od Rage..
    do obecnego 4850. Catalysty wciaz maja szereg problemow (komputer nie sluzy tylko do gier - taka podpowiedz), po co mi piszesz o sterownikach nvidii? I co jest smieszne?


  79. @saturn (autor: Jarek84 | data: 30/10/09 | godz.: 10:55)
    Mam nadzieje ze nie masz teraz informatyki, bo z takimi "forumowymi" znawcami-informatykami muszę się teraz męczyć w pracy. Co do rozjechania wyników, ja obliczałem z danych z Twojego poprzedniego postu przed obliczeniami.

    PS. Moja rada - zacznij się uczyć matmy zamiast przesiadywać na forach i zarażać fanatyzmem.


  80. @saturn64 (autor: trepcia | data: 30/10/09 | godz.: 10:57)
    Widać, że gimnazjum. Popatrz na część swojej wypowiedzi:
    "A różnica w wydajności pomiędzy GTX285 a HD5870 jest 25-30%"
    Ja policzyłem dla 25% a kolega dla 30%. Może lepiej dla Ciebie będzie jak zamilczysz i już nic nie napiszesz na temat podstaw matematyki, bo to wstyd, żeby takie proste problemy poruszać i nie wiedzieć jaki jest wynik. Analfabetyzm wtórny się kłania w polskim szkolnictwie a młodzież nic nie robi aby się temu przeciwstawić. Ciemnota, ciemnota i zacofanie.


  81. dr1zzt (autor: Jarek84 | data: 30/10/09 | godz.: 11:09)
    To, że niektórzy nie zauważają problemów po tej drugiej stronie, bądź są na nie "ślepi". Przy okazji teraźniejsze konfiguracje nie są moimi pierwszymi komputerami (z kart były Rivy128, TNT, Voodoo 1 2, S3 Savage4, Radeon 7500, GeForce 4Ti, Radeon9600, GeForce 8600)

    Myślisz że ten HD3850 służy mi do grania ostatnimi czasy? Nie - nie mam czasu. Dorosłe życie niesie za sobą pewną dozę obowiazków. Hd3850 jest kartą słabą i tego nie ukrywam, jednocześnie nie deprecjonuje z tego powodu chociażby 9600GT czy 9800GT. Gdyby komputer służył mi do grania to już na pewno siedziałby mi w desktopie jakiś HD5850. Chyba należy skończyć to jałową dyskusje bo jest zupełnie nie na temat.


  82. @trepcia (autor: Jarek84 | data: 30/10/09 | godz.: 11:11)
    Widać ze reforma szkolnictwa zbiera "plony";)

  83. No widzisz (autor: dr1zzt | data: 30/10/09 | godz.: 11:53)
    A niektorzy zarabiaja na to dorosle zycie, robiac wlasnie gry, uzywajac narzedzi ktore nie sluza do grania:P
    I brakuje czasu na te doze innych obowiazkow.
    Pokretne nie?
    Ok eot.


  84. dr1zzt (autor: Jarek84 | data: 30/10/09 | godz.: 12:11)
    Wiesz mam kolegów developerów gier i oni pracują czasami na gorszym sprzęcie niż niejeden z gimnazjalistów ma w domu;) Taki urok "polskiej developerki" - nie mam znajomych programistów gier za granicą więc nie wiem jak tam wygląda sprawa. Nawet w największym w Polsce Cd Project Red podczas tworzenia Wiedźmina wachlarz kart na jakich testowano i tworzono tą świetną gierkę był naprawdę szeroki i nie zaczynał się od GTX280 czy chociażby HD4870. To tyle tytułem podsumowania.

    Co do pracy w IT - jest tak absorbująca, jeśli chcesz ją naprawdę solidnie wykonywać - że pod pojęciem obowiązków miałem na myśli tylko pracę jak i podnoszenie kwalifikacji, żeby nie wyskoczyć z obiegu;)


  85. ...... (autor: Marek1981 | data: 30/10/09 | godz.: 12:50)
    Podajecie że G100 ma być 60-80% wydajniejszy od 285. Policzmy zatem.
    Według testów na in... 5878 jest 32% wydajniejszy od 285. Czyli :
    - 1.8/1.32 ~ 1.36 (36% na korzyść fermi)
    -1.6/ 1.32 ~ 1.21 (21%)


    Co do problemów AMD to widać że je mają bo tak już by rynek zalali swoimi produktami:) NV ma większe.......

    Patrząc na to G100 powinien być wydajniejszy od 21 do 36%.
    Dodając spostrzeżenia testera (jest bardzo obiektywny ) iż 5870 powinien być ok 30 wydajniejszy to wtedy mamy nie ciekawą sytuację u NV. Oczywiście to spekulacje z tym 30% ale zobaczymy czy coś AMD ma w rękawie...


  86. Z duzej chmury maly deszczyk (autor: morgi | data: 30/10/09 | godz.: 19:28)
    znowu Nvidia miala racje, ze do konca roku lipnica z fabryka, no i kiepskie zarobki.

  87. ... (autor: trepcia | data: 30/10/09 | godz.: 20:00)
    Znowu morgi i znowu temat zszedł na psy...

  88. co za przygłup... (autor: PRZYGŁUP morgi | data: 31/10/09 | godz.: 01:15)
    ten morgi :D

  89. trepcia (autor: morgi | data: 31/10/09 | godz.: 11:40)
    Oczywiscie, ja mam zawsze obiektywny oglad i jest fakt, potwierdzalny w sklepach, ale lepiej klepac biede i drukowac papiery jak dobrze jest, a nie jest.
    http://www.xbitlabs.com/...Process_Technology.html


  90. @morgi (autor: Drow | data: 31/10/09 | godz.: 16:04)
    dziwnym trafem - sklepy nijak nie potwierdzaja twojego obiektywizmu.
    Ciekawe dlaczego?

    Wyjdz, tam sa drzwi ---->


  91. Drow (autor: morgi | data: 1/11/09 | godz.: 11:30)
    Polskie sklepy mozliwe, bo tutaj karty graficzne >100$ to rarytas i luksus, ale na cale szczescie to takze bastion Nvidia i co przykre czasem zlomu amd.

  92. ... (autor: Michał1988 | data: 1/11/09 | godz.: 13:47)
    Ponieważ mój GF6800GT jest już właściwie obiektem muzealnym, nie zamierzam czekać z zakupem karty. Wybór padł na HD5850, który co prawda podrożał, ale jak się poszuka, to znajdzie się go w cenie poniżej 1k. Na GT300 czekać mi się nie chce - przypadek R600 pokazał co może wyjść z takiego opóźniania premiery kart.

  93. @morgi (autor: Michał1988 | data: 1/11/09 | godz.: 13:56)
    Powiedz mi, czy Ty miałeś kiedykolwiek w łapskach sprzęt AMD lub ATI? Używałeś go, testowałeś, aby stwierdzić, że jest to szrot, złom itp.?
    Znając życie nie odpowiesz pewnie na to pytanie. Tak jak na większość odpowiadasz wybiórczo.


  94. Michał (autor: morgi | data: 1/11/09 | godz.: 22:30)
    Gdybym nie mial w testach phenomka pewnie nie mialbym tej traumy, wszelkie odmiany byly mielone i musze przyznac, ze jak wlozysz k8 czy k10 ni kija roznica, jedno i to samo zachowujac oczywiscie propocje rdzeni, od lat ten sam sprzet.

  95. @morgi (autor: Michał1988 | data: 1/11/09 | godz.: 23:04)
    http://www.benchmark.pl/....-1513/strona/4237.html
    Hmmm luknij na wyniki Athlona 7750 i 5200+, mają taki sam zegar, jednak ten pierwszy jest szybszy. Niby czemu tak jest skoro to ta sama architektura?


  96. @Michał1988 (autor: rainy | data: 1/11/09 | godz.: 23:13)
    Morig to troll lub prowokator (ewentualnie TPC mu płaci za podnoszenie oglądalności/komentowalności).

    Tak czy siak, nie licz na to, iż zmieni swoje komentarze.

    Co do porównywania K10 do K8, tu znajdziesz jeszcze lepszy test (ten sam zegar, taki sam L2):
    http://www.anandtech.com/...lt.aspx?p=96&p2=28


  97. @rainy (autor: Michał1988 | data: 1/11/09 | godz.: 23:19)
    Mnie tylko ciekawi powód tych jego wywodów.

  98. @Michał (autor: mikay | data: 2/11/09 | godz.: 12:32)
    o tym pewnie by mozna by napisac niejedna prace magisterska. to juz taki naczelny troll tpc, z ktorym nie wygrasz. plujesz mu w twarz, a dla niego to deszcz. ten typ juz tak ma :) niewazne czy procki z amd czy grafy ati - to jeden zlom i tyle. liczy sie tylko intel i nvidia, niewazne co pokazuja wyniki :)

  99. K.D. (autor: KAZDAN63 | data: 2/11/09 | godz.: 15:17)
    CHŁOPAKI WY TU PIEPRZYCIE , A W TSMC UZYSK SPRAWNYCH CHIPÓW Z JEDNEGO WAFLA KRZEMOWEGO SPADŁ DO ~40% !!! KTO JESZCZE LICZY NA "TANIE" RADEONY I FERMI NVIDI ? NIECH DA GŁOS PASZCZĄ .

  100. @up (autor: trepcia | data: 2/11/09 | godz.: 18:21)
    Słaby uzysk Fermi zaniża statystykę. To, że NVidia pokazała atrapę nie znaczy, że nie produkuje teraz swoich układów w TSMC.

  101. Michał (autor: morgi | data: 2/11/09 | godz.: 18:47)
    wow do 10 % w takt http://www.hardware.fr/...45-2/athlon-x2-7750.html
    i o >30W wiecej, to wyczyn 'miszcza'.
    http://www.xbitlabs.com/...thlon-x2-7750/power.png


  102. @morgi (autor: rainy | data: 2/11/09 | godz.: 19:54)
    Jak zwykle wybierasz to co ci pasuje - nieudane 65nm i niższy zegar (to odnośnie X2 7750)
    Porównaj X2 6000+ z X2 250 - link powyżej.


  103. .:. (autor: Shneider | data: 3/11/09 | godz.: 01:19)
    morgi - ohh. i7 920 TDP 125W. A nie jest 2x szybszy od Quada 65W

  104. @morgi (autor: Michał1988 | data: 3/11/09 | godz.: 12:55)
    Ehhhh rozmowa z Tobą przypomina rozmowę z botem reklamowym.
    Szkoda się produkować, do Ciebie i tak nic nie dotrze.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.