Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 19 marca 2010 
    

Finalna specyfikacja kart Nvidia GeForce GTX 480 i 470


Autor: Zbyszek | źródło: TechPowerUp | 10:49
(187)
Znana jest już finalna specyfikacja nowych kart graficznych GeForce GTX 480 i GeForce GTX 470 z układami o nazwie kodowej Fermi. Flagowy GeForce GTX 480 wyposażony będzie w 480 procesorów strumieniowych (CUDA cores) oraz 1536 MB pamięci GDDR5 z 384-bitową magistralą. Częstotliwość taktowania układu graficznego i procesorów strumieniowych wyniesie kolejno: 700 i 1400 MHz, pamięci 3698 MHz (przepustowość 173.4 GB/s), natomiast wskaźnik TDP maksymalnie 295W. Tańszy GeForce GTX 470, dysponujący 448 rdzeniami CUDA i 1280 MB pamięci GDDR5 z 320-bitowym interfejsem taktowany będzie zegarami 607 MHz dla układu graficznego, 1215 MHz dla procesorów strumieniowych i 3348 MHz (efektywnie) dla pamięci (przepustowość 130.7 GB/s). Wskaźnik TDP wyniesie maksymalnie 225W. Przedstawione parametry charakteryzują sklepowe wersje kart firmy XFX, których zdjęcia znajdują się w dalszej części aktualności.

Obie karty zaoferują wsparcie dla bibliotek DirectX 11 i trafią na rynek w piątek 26 marca. Sugerowane ceny detaliczne wyniosą 499 USD (GTX 480) oraz 349 USD (GTX 470). Wydajność obu modeli powinna być 10-15% wyższa w porównaniu do kart ATI Radeon HD 5870 i 5850, kosztujących odpowiednio: 399 i 299 USD.


 


    
K O M E N T A R Z E
    

  1. ... (autor: pawel.xxx | data: 19/03/10 | godz.: 11:29)
    ...
    1. TDP układów nie pasuje do ilości wtyczek zasilających.
    2. Ta plotka pojawiła się dwa dni temu
    3. Źródłem finalnej specyfikacji powinna być nvidia a nie VR-Zone.


  2. dzien bez FERMI (autor: Chucky | data: 19/03/10 | godz.: 11:39)
    to dzien stracony... NIE KASOWAC KOMENTARZY!!

  3. ... (autor: lamik91 | data: 19/03/10 | godz.: 11:47)
    Te taktowania mnie zaciekawiły... Czyżby to było max co potrafi TOP fermi ? ;D a no tak chcieli się zmieścić w TDP max 300W

  4. @ pawel (autor: Zbyszek.J | data: 19/03/10 | godz.: 11:49)
    Przedstawione informacje pojawiły się dziś i nie są plotką - przedstawiają parametry kart XFX które zostały wysłane do testów. Identyczne karty pojawią się w sklepach po premierze.

  5. No właśnie (autor: ligand17 | data: 19/03/10 | godz.: 12:04)
    Już się zastanawiałem, co się dzieje - dzień mija, a nowych informacji o Fermi nie ma... A tutaj proszę - w dotychczasowym tempie materiału wystarczyłoby na tydzień - specyfikacja, TDP, zdjęcia, data premiery, ceny, przewidywana wydajność...

  6. Fermi (autor: rookie | data: 19/03/10 | godz.: 12:14)
    Przynajmniej teraz na tych obrazkach jest coś co przypomina finalny produkt a nie kawałek czarnego plastiku jak to miało miejsce w dniach poprzednich... Teraz czekamy na GTX4xx dla segmentu średniego....

  7. zauważcie (autor: Qjanusz | data: 19/03/10 | godz.: 12:22)
    na co niektórych obrazkach cwanie wycinane rurki cieplne, że niby Fermi taki skromny i nie wielki sie wydaje :-)

    W rzeczywistości kaloryferek wystaje mu ponad PCB i układ chłodzenia.


  8. @Qjanusz (autor: Rajq | data: 19/03/10 | godz.: 12:36)
    jakie wycinanie?? Rurki ma 480-ka, a mniejszy brat nie ma, i ma chlodzenie jak Gt200. Dopatrujesz sie kolejnej teorii spiskowej zlej nVidii???

  9. @Qjanusz (autor: Dandysz | data: 19/03/10 | godz.: 12:42)
    Kaloryferek z pipe`ów wystaje tylko w GTX 480, zdjęcia bez wystającego kaloryferka to odziany w skromniejszy system chłodzenia GTX 470. Na różnych serwisach zdjęcia obu kart są często nieprecyzyjnie opisane.
    A propos ciekaw jestem temperatur GTX 480 w stresie - np. 102 stopnie C i ta woń powoli wypalanego PCB ;-) ...ach na samą myśl tęsknie do grilowania.


  10. trzeba uczciwie powiedziec (autor: zeek | data: 19/03/10 | godz.: 13:07)
    ponad pol roku opoznienia i wydajnosc tylko 10% wyzsza to porazka nvidii

    ale najgorszy jest pobor pradu. do tych kart potrzeba mocarnego zasilacza, a chlodzenie bedzie musialo odprowadzic ogromne ilosci ciepla.


  11. ehhhh (autor: skyler | data: 19/03/10 | godz.: 13:19)
    to wasze gdybanie

  12. @Zbyszek.J (autor: pawel.xxx | data: 19/03/10 | godz.: 13:30)
    Te świeże informacje są zbieżne z tym co podano 3 dni temu.
    http://fwd4.me/IIz
    Jak widać plotka zaczęła żyć własnym życiem. I jakoś nikomu z powtarzających plotki nie przyszło do zakutego łba że podane wartosci TDP są nierealne skoro na wcześniej przedstawionych zdjęciach 470 miała dwa gniazda 6 pin a 480 6 i 8 pin.


  13. ... (autor: bezrobotnydarek | data: 19/03/10 | godz.: 13:30)
    Radeon HD5870 TDP 180W
    Fermi TDP 295W
    Fermi o 10% szybszy :)
    Fermi lepszy bo jednoprocesorowy :)
    więc Fermi to dobre rozwiązanie dla osób dla których dwa Radeony HD5870 to zbyt mało :)


  14. @up (autor: Qjanusz | data: 19/03/10 | godz.: 13:31)
    jeżeli 470tki nie będą miały rurek, to sorki.

    @Rajq - dobra nVidia nie jest zła :-)

    @Dandysz - kiepsko wykonane customy HD4870 w okolicach układów zasilania też mają ok 100st. Nikt nie panikuje dopóki na forum nie wyczyta, bo producent celowo wycina monitoring mosfetów. Nic złego z takim PCB się nie dzieje.


  15. @Dandysz (autor: pawel.xxx | data: 19/03/10 | godz.: 13:34)
    "A propos ciekaw jestem temperatur GTX 480 w stresie - np. 102 stopnie C i ta woń powoli wypalanego PCB ;-) ...ach na samą myśl tęsknie do grilowania."

    Przy 102 stopniach laminat się nie wypala.


  16. TDP (autor: Qjanusz | data: 19/03/10 | godz.: 13:51)
    TDP 480tki jest dokładnie takie samo jak HD5970
    Cena prawdopodobnie również.

    Za Radeonem przemawia przewidywalna większa wydajność, dostępność i dojrzałe stery.

    Za Fermi fakt, że jest to jeden GPU.

    Ciekawe jak cię walka rozegra. Na czytanie testów zorganizuje sobie browczyk i jakieś chipsy albo popcorn :-)


  17. ... (autor: trepcia | data: 19/03/10 | godz.: 14:17)
    Fermi - pyrrusowe zwycięstwo. Nie ważne jak, by tylko mieć wydajniejszy układ.

  18. 480 cuda cores 384bit kontroler pamięci i niskie takty (autor: Grave | data: 19/03/10 | godz.: 15:44)
    Ten GPU wyraźnie dopomina się o 28nm proces technologiczny.

    Dla 40nm po prostu ten projekt był zbyt ambitny i Nvidia musiała dokonać cięć.

    Ale ta architektura na pewno posłuży Nvidii przez kolejne ~2 lata więc najważniejsze że już pierwszy produkt z serii został ukończony.

    Dalej może być już tylko lepiej.


  19. Jeżeli będzie najszybszym GPU na rynku (autor: Grave | data: 19/03/10 | godz.: 15:46)
    to już sukces dla Nvidii. A wszystko wskazuje na to, że będzie. o 5 czy 10% ale zawsze.

  20. ... (autor: trepcia | data: 19/03/10 | godz.: 15:47)
    Fermi = Radeon 2900XT

  21. trepcia (autor: Grave | data: 19/03/10 | godz.: 16:13)
    Cechy wspólne na pewno Fermi z R600 ma:

    - duży
    - gorący
    - prądożerny
    - drogi w produkcji
    - opóźniony względem konkurencji o pół roku

    ALE... jest jedno co odróżnia Fermi od R600

    2900XT ledwo radził sobie ze średniakiem od Nvidii (8800GTS) natomiast Fermi wg wstępnych testów, co jak sądze potwierdzi się w ciągu najbliższych tygodni JEST NAJSZYBSZYM GPU NA RYNKU.

    Tymczasem R600 miał co najwyżej przeciętną wydajność, a po włączeniu AA wręcz beznadziejną.


  22. @grave (autor: zeek | data: 19/03/10 | godz.: 16:14)
    po przeniesieniu do 28nm HD5870 tez by sporo zyskal i status quo zostanie zachowany

  23. Grave (autor: morgi | data: 19/03/10 | godz.: 16:19)
    Poza tym r600 to nieudolne sterowniki, nieprzewidywalne zachowanie w grach i zero jakosci obrazu w grach lub utrzymanie jakosci wiazalo sie z wydajnoscia na poziomie starych serii, a to wszystko przez to, ze ati zostalo przejete przez partaczy z amd.

  24. TDP (autor: Rajq | data: 19/03/10 | godz.: 16:24)
    GTX 480 po przycieciu to 250 W. Poprawcie to. Realnie moze wyjdzie kolo 200.

  25. @morgi (autor: trepcia | data: 19/03/10 | godz.: 16:25)
    Piszesz tak, jakby Fermi nie zawiesiło się przy OFICJALNYM pokazie tech-dema. Hipokryto jeden.

  26. Grave (autor: morgi | data: 19/03/10 | godz.: 16:32)
    Pamietaj takze, ze Nvidia zwieksza sporo wielkosci chipow, a graficzne zasoby wyraznie sie nie podwajaja poza CUDA jajami, czyli wiekszosc tych dokladanych tranzorkow leci pod CUDAcznosc, a nie graficzne zastosowanie i to moze byc tragiczne zwienczenie tego 'wynalazku', ale jeszcze finansowo tego nie odczuli w sensie dlugow, wiec festiwal psiksow i podobnych wynalazkow pewnie spokojnie wystarcza na graficzne zlomy konkurencji, ale nie jest to mistrzostwo jak za pierwszym podejsciem w G80.

  27. GTX 480 ULTRA jak za starych czasow (autor: Rajq | data: 19/03/10 | godz.: 16:40)
    GeForce GTX 480 : 480 SP, 700/1401/1848MHz core/shader/mem, 384-bit, 1536MB, 250W TDP, US$499

    GeForce GTX 470 : 448 SP, 607/1215/1674MHz core/shader/mem, 320-bit, 1280MB, 225W TDP, US$349

    * The intended GF100 has 512 SP clocked at 725/1450/1050MHz with 295W TDP. It should still be released in the future but just not now. For this launch, GTX 480 has 480 SP with clocks lowered to 700/1401/1848MHz at 250W TDP.


  28. @Grave (autor: Barbarian | data: 19/03/10 | godz.: 16:44)
    Pisałem kiedyś, że Fermi nie pojawi się w tym roku i chyba miałem rację. To co jest opisywane, to kastrat. Gdzie jest 512 CUDA cores? Gdzie zapowiadane taktowanie? Gdzie pobór mocy? Nvidia w akcie rozpaczy wysyła na rynek odpady z produkcji. Szkoda, że nie robi wszelkich wersji Nx32 CUDA cores, gdzie N=1,...,15. Jestem pewien, że z takiej odpadowej, wykastrowanej produkcji trudno będzie zaspokoić rynek, chociaż już wielu olało Fermi, a po pierwszych niezależnych testach reszta napalonych też sobie odpuści - chyba że doczekamy srogiej zimy z premierą.

  29. Barberian (autor: Grave | data: 19/03/10 | godz.: 16:58)
    512 cores jest tyle, że jeden blok wyłączyli. Taktowania żadnego nie obiecywali więc i w tym względzie niczego dotrzymywać nie muszą.

    Obiecywali natomiast najszybsze i najbardziej zaawansowane GPU jakie kiedykolwiek stworzono i słowa dotrzymali.


  30. Poza tym wcale nie obcięli dużo (autor: Grave | data: 19/03/10 | godz.: 17:04)
    ledwie 10%. Jasne że teraz będziesz bronił, że jak bez 512 to nie Fermi, ale fakt faktem po prostu się myliłeś i tyle.

    Przy obecnym uzysku po prostu Nvidii nie opłacało się włączać wszystkich bloków. Ale tu już ukłony w stronę TSMC i ich procesu technologicznego wątpliwej jakości.


  31. @Grave (autor: Qjanusz | data: 19/03/10 | godz.: 17:10)
    nie bądź dzieckiem

    ten wątpliwej jakości proces, wtłoczył na rynek kilka milionów sztuk układów.

    Co do Fermi, to poczekajmy na testy i na moment, kiedy będą dostępne na rynku.


  32. @Grave (autor: Barbarian | data: 19/03/10 | godz.: 17:14)
    Zobaczymy w praniu czy się myliłem - jeszcze w sklepie tego nie ma i jeśli nie będzie dostępne, to nie można uznać papierowej premiery. Czy będzie najszybsze, to też się okaże - chwilowo nie można potwierdzić pobożnych życzeń nvidii. TSMC z nieudacznictwem nvidii nie ma nic wspólnego.
    Produktu nadal nie ma i ten stan rzeczy jeszcze może potrwać - jest tylko mglista zapowiedź kastrata z odpadów.


  33. Qjanusz (autor: Grave | data: 19/03/10 | godz.: 17:18)
    Wtłoczył ale były to układy znacznie mniejsze i prostsze w budowie od Fermi.

    Gdyby proces był bardziej dopracowany mielibyśmy Fermi odblokowane w 100%, a tak za mało wychodzi układów ze sprawnymi 512 cuda cores to i zdecydowali się przyciąć 10%.


  34. @Grave (autor: Saturn64 | data: 19/03/10 | godz.: 17:18)
    Nie ma sensu bronić nieudanej architektury, która jest mało wydajna. Nikt mi nie powie, że układ większy od Radeona HD5870 o 50% praktycznie we wszystkich parametrach jest od niego o niespełna 10-15% wydajniejszy. To przecież porażka architektury a nie sukces. Przejście tego kolosa 529mm2 do 28nm nic nie zmieni, bo co najwyżej zwiększą trochę taktowanie i mogą dołożyć core cuda do 768 jednostek co znowu zaowocuje rdzeniem o wielkości ponad 500mm2. Taka zmiana maksymalnie może zwiększyć jego wydajność o 50% w co wątpię.

    A tu mam coś dla morgiego niech nacieszy oczy wydajnym cuda.

    http://nvision.pl/...sel--News-16332-ndetails.html


  35. @Grave (autor: Qjanusz | data: 19/03/10 | godz.: 17:32)
    nie ma czegoś takiego jak proces 40nm dla układów z 3 miliardami tranzystorów i 40nm dla układów z 2 miliardami tranzystorów.

    Proces jest jeden i kto ma pojęcie o jego możliwości i słabych punktach, ten potrafi tak zaprojektować chipa, który będzie działał. nVidia jak widać się nie popisała.

    http://nvision.pl/...tow--News-16148-ndetails.html

    nVidia projektuje układy duże i ma z tym problemy. Liczba tranzystorów jest większa od GPU z HD5800 o 40%

    Czy wg Ciebie sukcesem jest naładowanie 40% więcej tranzystorów, po to aby zyskać na wydajności tylko 10% (oby to się tylko potwierdziło!) i mieć opóźnienia półroczne?????


  36. Grave ,28nm pomoze w czym???? zdradz nam tajemnice:)) (autor: speed | data: 19/03/10 | godz.: 17:48)
    Facet rusz glowa a nie tylko palcami.
    Poczytaj sobie testy 5870 z taktami 1000/5200 i co?? i bedzie 5-10% ale dla ATI ,moge sie zalozyc ze wyjdzie taka karta z 2GB pamieci o taktach 1000/5200 .
    To co chce zaserwowac Nvidia w postaci 480 to knot nie karta ,przeliczyli sie i teraz chca cos poscic aby nie bylo ze nie ma 'ofermy'
    3miliardy tranzystorow musza brac odpowiednia ilosc pradu i nie ma zmiluj sie do tego sama budowa chipa nie specjalnie sie sprawdzila i mamy co mamy:))))
    Ja bym tylko chcial aby zrobili zwykly wydajny chip graficzny bez fajerwerkow adla profesjanalistow moga sobie cudowac jak chca, Nikt nie chce placic za cos czego nigdy nie wykorzysta ale chcieli wszytko w jednym i sie przejechali.
    Jedziesz tymi procesami to powiedz nam ile bedzie kosztowal wafel 300mm w 28nm ???
    10-15tys$ a moze wiecej??


  37. @all (autor: Marek1981 | data: 19/03/10 | godz.: 17:58)
    Nie chce mi się wierzyć iż NV sama zrezygnowała z 512 na rzecz 480 procesów strumieniowych a raczej to nadal 512 z zablokowanymi uszkodzonymi jednostkami, co może podnieść sprawność produkcji w dość znacznym stopniu.

  38. Grave (autor: morgi | data: 19/03/10 | godz.: 18:02)
    Mimo wszystko Nvidii udaje sie, a u ati tylko w papierach, no ale fanowie juz nie pamietaja panie dzieju takie oto wybryki tej firemki od ktorej mozna sie tylko nabawic migreny, nerwicy przejsciowej, odciskow na kolanach i hemoroidow, bo zwykle rzucac slowa na wiatr. Krotkie resume o fizyce by ati
    http://www.reghardware.co.uk/...gpu_physics_pitch/
    http://www.reghardware.co.uk/...2/amd_havok_co_op/
    a dzisiaj jest drwina i tylko zaslona dymna przykrywka dla braku kocepcji i samooszukiwania sie ze cos innowacyjnego wnosza
    http://www.xbitlabs.com/...ive_with_New_Tools.html


  39. @morgi (autor: Saturn64 | data: 19/03/10 | godz.: 18:12)
    Fajnie jest powspominać dobre czasy.... teraz nastały ciężkie czasy dla NV. Jeśli NV nie wyciągnie wniosków z projektowania takich kobył (GPU) to wspomnisz moje słowa za 2 lata jak nv będzie już częścią intela, lub zostanie wykupiona przez ATI/AMD. No chyba, że zmienią profil produkcji i przestawią się na wysoko energetyczne piece grzewcze C.O. o wydajności 300W z powierzchni grzewczej 500mm2.

  40. hiehie (autor: morgi | data: 19/03/10 | godz.: 18:19)
    A czym one sie objawiaja?
    ati i ich sprzet to fikcja rozwoju, degrengolada i stawianie gpu jako przystawki, ktora bez ich miernego cpu nie moze sie obyc. Wystarczy spojrzec na to co uczynili ze stream i OpenCL robionym na procu
    http://ati.amd.com/...streamcomputing/opencl.html, kompletna paranoja do niczego sie to nie nadaje bez kompletnej platformy, robienie w balona, ale to sie konczy jak zly sen, czyli radeonki w czape dostana sie pod procesor, a karty robione po lebkach i czesto połatane to nie dla odpowiedzialnych partnerow ale naiwnych fanow, sama taniosc i brak przyszlosci.


  41. @morgi (autor: trepcia | data: 19/03/10 | godz.: 18:32)
    Pierdoły pisać to Ty umiesz :-) ale faktów żadnych.

  42. @Saturn, trepcia i inni (autor: Marek1981 | data: 19/03/10 | godz.: 18:36)
    przestańcie odpowiadać na dyrdymały tego osła a zobaczycie, że sam zamilknie.

  43. @morgi (autor: Subvoice | data: 19/03/10 | godz.: 18:42)
    Cos na temat super dopracowanych sterów nVidii:
    http://www.egielda.com.pl/?str=art&id=5685-13


  44. Nieudana architektura? (autor: Grave | data: 19/03/10 | godz.: 18:44)
    Fermi w założeniu miał być GPU nie tylko do gier. W grach jeżeli pokona Radeona 5870 będzie najszybszym GPU jaki kiedykolwiek stworzono tak jak zapowiadała Nvidia.

    Reszta to skierowanie się ku obliczeniom wykonywanym przez GPU poza grami. To na to poszło sporo tranzystorów. Wydawać się mogło że zmarnowali je, ale moim zdaniem wcale nie - z tego rynku też mogą być realne zyski, a ATI ze swoją architekturą nastawioną głównie na gry jest w lesie w tych zastosowaniach.

    W dłuższej perspektywie może się okazać, że ATI bez poważnej rekonstrukcji swojej architektury się nie obejdzie. Nvidia ma już to za sobą, ATI - przed sobą (a przynajmniej się nie chwalili do tej pory niczym zupełnie nowym).

    Tak więc przyszłość może być różna. Nvidia sporo zaryzykowała ale najgorsze ma już za sobą.

    Zobaczymy jak będzie szło ATI z nową architekturą - idę o zakład że jeżeli tylko zdecydują się na znaczące zmiany spotkają się z tymi samymi trudnościami co Nvidia przy Fermi.


  45. @grave (autor: trepcia | data: 19/03/10 | godz.: 18:53)
    I co masz z pisania tych wszystkich pierduł? Cały Twój 44 post obalają te oto wyniki:
    http://nvision.pl/...sel--News-16332-ndetails.html
    Pisz sobie co chcesz, rzeczywistość jest rzeczywistością. NVidia nareszcie zrobiła coś nie tylko do gier w postaci Fermi. Mam nadzieję, że Fermi będzie mogło nawiązać równorzędną walkę z ATI w programach m.in. ElcomSoft'u ;-)


  46. @Grave (autor: djXone | data: 19/03/10 | godz.: 19:02)
    Piszesz jak by AMD czekalo z zlozonymi rekami i nic teraz nie robilo... mozna sie posmiac z tego co piszecie.

  47. @Grave (autor: Saturn64 | data: 19/03/10 | godz.: 19:08)
    Nie rozumiesz jednego. Po co sprzedawać 99% osobom pełnego fermiego (z 3mld tranzystorami jak będą z tego mieli tylko i wyłącznie uciechę w grach 10% większą wydajność w grach w stosunku do HD5870. A i tak będzie wolniejszy niż HD5970. Jak tylko 1% może skorzysta z tych dodatkowych rozwiązań. Potentaci z branż serwerów i tak kupią ewentualnie TESLE a nie GTX480. Nie rozumiesz, że to ogromne koszty?. Powiedz mi z jakiego programu korzystasz obecnie do którego niezbędne Ci są wodotryski NV? a w których ATI nie istnieje lub nie działa wogóle?.

  48. @Grave (autor: Marek1981 | data: 19/03/10 | godz.: 19:11)
    Mylisz się.... piszesz głupoty i pierdoły że aż głowa boli.
    1) NV najgorsze ma dopiero przed sobą:
    -malejący popyt na ich grafiki
    -wyższe ceny od konkurencji
    - znikome dostawy oFermy na rynek
    - duży koszt produkcji
    - kiepski marketing (ostatnimi czasy)
    - niezadowolenie klientów
    - duża biurokracja w porównaniu do konkurencji
    - na horyzoncie nowa architektura hd6xxx
    - zamknięte standardy (physx, cuda)
    2) dlaczego 99% nabywców ma płacić za coś co i tak nie będzie wykorzystywać, a pozostały 1% będzie uciekał bardziej w stronę rozwiązań profesjonalnych!!!
    3) przyszłość wcale nie jest różowa a raczej czarna
    4) więcej producentów gier optymalizuje gry już także pod radeony, co ciekawe będą uciekać od rozwiązań NV
    5) konsole nowej generacji i wyłączenie z niego NV spowoduje olbrzymią przewagę radeonów (wii, xbox) i łatwiejszą optymalizację pod ich grafiki dp PC
    6) brak kart graficznych dla zwykłych graczy
    7) spore możliwości obniżenia cen radeonów 58XX.

    Totalną masakrę wstrzymuje tylko i wyłącznie brak możliwości produkcyjnej gdyż ostatnio NV zabierała ok 70-80% rynku. Ale to też może się zmienić wraz z wdrożeniem przez GF 28nm.


  49. @morgi (autor: Promilus | data: 19/03/10 | godz.: 19:11)
    Jesteś słabo poinformowany. Intel wcale nie wspiera OpenCL i cieszy się tym, że implementacja AMD działa też na jego prockach. Implementacja CPU OpenCL działa bez zarzutu i efekty są dość konkretne - 2 rdzenie vs 4 rdzenie - niemal liniowe skalowanie wydajności. Ale morguś będzie narzekał mimo to...
    @Grave - w zamysłach może to i miało być porządne GPGPU, ale jakoś brakuje 'pary'. 480SP licząc jak w GT200 3FLOP/Hz to 480*3*1400=2TFLOPS gdy HD5870 ma ich 2.72TFLOPS. Możesz mówić co chcesz, ale w collatzu czy igrargpu o crackerze elcomsoftu hd4870 z 1.2TFLOPS gniotło spokojnie GTX285 z ~1TFLOPS. Oczywiście mowa cały czas o FP32.
    Tu różnica jest nie 20% a 36% na korzyść AMD.


  50. Marek1981 (autor: Grave | data: 19/03/10 | godz.: 19:24)
    Taak, ATI po porażce z HD 2900, mniejszej porażce z HD 3870 i jako takim sukcesie (choć nie w hi-endzie) HD 4870/90 W KOŃCU wypuściło GPU szybsze od konkurencji.

    W tym czasie Nvidia wypuściła 2 generację swoich GPU (G80 i GT200) oba GPU były najszybszymi GPU na rynku

    teraz wypuszczają Fermi także najszybsze GPU na rynku, a Ty wieścisz im czarną przyszłość?


  51. @Grave (autor: Marek1981 | data: 19/03/10 | godz.: 19:40)
    I znowu próbujesz coś pleść 3po3 :) Czy ty jesteś naprawdę ślepy???
    W dobie G80 NV była nie do zdarcia i miała strzelam 80% rynku. Miała dużo dużo szybszej, dużo szybsze, tańsze w produkcji i lepsze rozwiązania za co rynek ukarał ATI. Ta firma została przejęta przez AMD!!!!

    Za to czasy GT200 to nie są czasy dobre dla NV, która pomimo szybszego GPU nie potrafiła wygrać walki z radeonami, przecież one odzyskały dużą część ryku w sprzedaży i były tańsze w produkcji.

    A teraz ma wyjść oferma i na dzień dobry nie będzie najszybszym rozwiązaniem więc bzdury piszesz. Najszybszą kartą nadal będzie 5970 więc po stronie radeonów zostanie nadal najwięcej atutów a w dodatku kto będzie czekał tak długo za grafą?? Kilka tyś zapaleńców kupi a raczej wykupi możliwości produkcyjne NV, a nowych radków sprzedaje się w mln więc???

    Postaraj się być bardziej obiektywny.
    Ze swojej strony dodam tylko, że to nie zdrowa sytuacja dla rynku i tak też było w czasach hd2900. Już nie pamiętacie 8600gts za prawie 1k pln??


  52. @Marek1981 (autor: Promilus | data: 19/03/10 | godz.: 19:52)
    Grave pisał o najszybszym GPU a nie najszybszej karcie.

  53. @Promilus (autor: Marek1981 | data: 19/03/10 | godz.: 20:02)
    Nie ma potwierdzenia, że fermi jest najszybsze. Na razie to tylko spekulacje.
    W dodatku nie można jednoznacznie określić czyje GPU jest najszybsze przy 10% większej wydajności fermi gdyż nie wiadomo ile wzrostu wydajności daje 384bit szyna pamięci.


  54. @Promilus (autor: Marek1981 | data: 19/03/10 | godz.: 20:04)
    A i jeszcze kwestia sterów:
    http://www.in4.pl/..._10.3_-_szybki_test,20646.htm


  55. Grave ,zaprzestajesz odpowiadac jak za dawnych czasow?? :)) (autor: speed | data: 19/03/10 | godz.: 20:09)
    Pitolisz ,jednym slowem, rynek graczy to lekko liczac 0.5miliarda rynek kart profesjonalnych to kilka milionow . Ciezarowke tez kupisz aby dojezdzac do pracy bo kidys tam bedziesz chcial przewiesc 1000kg ladunku???????
    Jestem graczem i wisi mi kto ma szybszy GPU ja chce szybsza karte bo nieznam smialka ktory gra na samym GPU:)))
    Facet pomysl tak zdroworossadkowo a nie pitol jaka to Nvidia super. Ostatnio daje 'ciala' i nikt tego nie zmieni.
    I zacznij wkoncu odpowiadac na pytania a nie pitolic bzdury bez pokrycia.


  56. Marek1981 (autor: Grave | data: 19/03/10 | godz.: 20:14)
    Kontroler pamięci nie jest jakimś niezależnym od GPU "bytem" ale elementem jego budowy i specyfikacji. Zatem jeżeli 384bit szyna daje przyrost wydajności to liczy się to tak samo jak przyrost dzięki jednostkom SPU, TMU czy ROP.

    Nawet gdyby Fermi uzyskało przyrost 10% tylko dzięki kontrolerowi pamięci to liczy się to jako przewaga architektury i tyle.

    A 384bit kontroler dla pamięci GDDR5 daje o 50% wyższą przepustowość pamięci niż 256bit kontroler ATI. Całkiem sporo więcej.


  57. @Grave (autor: Marek1981 | data: 19/03/10 | godz.: 20:19)
    To znaczy jeżeli grafa jest o 30% szybsza dzięki 50% lepszej wydajności pamięci to znaczy że samo gpu jest gorsze.
    tak samo było z 4870, który pomimo słabszego gpu ( w stosunku do 260) nadganiał pamiątkami.


  58. Grave ?czy Ty jestes naprawde taki cienki w tym temacie aby takie banialuki (autor: speed | data: 19/03/10 | godz.: 20:23)
    pisac?? I co z tego ze ma 384 bitowy kontroler jak musza zejsc z opoznieniami aby uzyskac dana przepustowasc i w rzeczywistosci wychodzi 2-5% lepiej a wiesz ile kosztuje to???
    Przestan pieprzyc bo to juz nudne sie staje .Bladego pojecia nie masz naczytasz sie nie potrafiac zrozumiec jak to dziala i wychodza takie kwiatki.
    Architektura Fermi teoretyczna , przy zegarze rdzenia 650Mhz jest prawie 70% wyzsza do 5870 a w praktyce widzisz co masz ,czy slepy jestes ??? i zacznij odpowiadac w koncu :))))


  59. speed (autor: Grave | data: 19/03/10 | godz.: 20:24)
    Problem w tym że karta dual GPU w części gier może być nawet wolniejsza niż pojedynczy GPU z pary ją tworzącej. Cross Fire czy SLI nie zawsze skaluje się idealnie, raz lepiej raz gorzej - nigdy nie wiesz.

    W najlepszym razie 5970 może być kilkadziesiąt % szybszy od Fermi, w najgorszym razie - wolniejszy od karty Nvidii lub niewiele szybszy. Zależy na jaką grę trafisz.

    Przy niemal każdej recenzji karty dual GPU w większej liczbie gier mówione jest jasno i wyraźnie, że taka karta zapewnia nierówną wydajność w grach, zależnie od tego jak w konkretnym przypadku zadziała skalowanie, obciąża w znacznym stopniu CPU.

    Do tego występują mikroprzycięcia których fraps nie pokaże a które są odczuwalne podczas samej gry nawet przy wysokim średnim FPS.

    Powtarzane jest to do znudzenia i ciągle aktualne.

    Dlatego ciągle dla RÓWNEJ i WYSOKIEJ wydajność najważniejszy jest MOCNY POJEDYCZNY GPU, a nie robienie sklejki z kilku słabszych.


  60. ... (autor: trepcia | data: 19/03/10 | godz.: 20:28)
    Najważniejszy jest piecyk koło nóg.

  61. @Grave (autor: Saturn64 | data: 19/03/10 | godz.: 20:42)
    Przeczytaj sobie test sterowników NV

    http://www.egielda.com.pl/?str=art&id=5685-13

    Przytoczę podsumowanie:
    "Podsumowanie
    Zawsze mocną stroną sterowników Nvidii były sterowniki dedykowane dla Windowsa XP, niestety od dłuższego czasu widać tendencję do pogarszania jakości sterowników nawet pod XPka. Piętą achillesową sterowników dla Windowsa Vista/7 zawsze było wysokie obciążenie procesora oraz problemy z zarządzaniem energii. Odnośnie pierwszej kwestii, niestety poprawa nie następuje i wraz z nowymi sterownikami obciążenie w niektórych grach wyraźnie wzrasta. Jedyną mocną stroną sterowników Forceware jest ich elastyczność i możliwość wymuszania AF, AA ,V-sync , Ambient Occlusion oraz oddzielne profile dla każdej aplikacji. Obraz przedstawiany w kwestii jakości sterowników Forceware jest często przekłamany i nie jest tak różowo, jak niektórzy myślą. "


  62. Grave ,Ty tak naprawde?? chlopie jak chcesz pogadac to wysil sie troche (autor: speed | data: 19/03/10 | godz.: 20:43)
    ja w tym siedze juz ponad 25 lat i jak czytam to co napisales to nie wiem czy to juz koniec swiata czy was juz tak pokrecilo.
    4870X2 siedzi w kompie od prawie dwoch lat przetestowana w praktycznie wszstkim ,podaj mi te gry w ktorych ma wydajnosc mniejsza od pojedynczej karty.
    Mikro przycjecia znow sie naczytales , widziales to na oczy czy tylko powtarzasz . Ja sie powtorze ze 90% w necie to zwykle smieci. Za duzo na wlasne oczy widzialem jak ludzie potrafia wydziwiac i miec pretensje ze cos im nie chodzi. Szybki przyklad : dosc popularny serwis IT testy i opisywanie o problemach, napisalem do nich z prozba o podanie konkretnie jakie mieli problemy i czy sprawdzili to na innych platformach .Oczywiscie ze sprawdzili i dupa tnie, robie identyczne testy i nie tnie robie film wysylam i co w odpowiedzi , :)))))))))) moze nie zawsze ale sa problemy:)))))))) rece opadaja i potem pitolisz jak dzieciak .
    Wiecej mialem problemow z 295 jak z radkiem . Dodam ze mi wisi i ATI i Nvidia bo zawsze staralem sie znalezc jak najwiecej bledow u kazdego bo za to mi placili.
    Tak ze nie ma to jak isc do sklepu wykartkowac 4-5tys zl na karcioszki przeteztowac i zabierac glos , Lekcje na wlasnej dupie daja najlepsze efekty:)))))


  63. @speed (autor: trepcia | data: 19/03/10 | godz.: 20:53)
    Aż się ciśnie na usta rozdmuchany "radeon problem". Kiedyś było o tym naprawdę głośno jak to szczeniaki z dostępem do internetu wydziwiają.

  64. ... (autor: kosa23 | data: 19/03/10 | godz.: 21:35)
    gtx 8800(G80) 384 bit; gts 8800(G92)256 bit 512 Mb, a wydajność podobna.

  65. ... (autor: kosa23 | data: 19/03/10 | godz.: 21:44)
    http://www.youtube.com/watch?v=TR_JpKI8iDU
    filmik prezentuje test dwóch kart 5980 vs 295 w grze gta 4. W 54 sek. tego filmiku masz pokazany rezultat.
    ROZDZIELCZOŚĆ 2560X1600
    5890- CPU USAGE- 28%; AVARGE 64 FPS
    295- CPU USAGE- 81%; AVARGE 32 FPS


  66. @kosa23 (autor: Saturn64 | data: 19/03/10 | godz.: 21:58)
    5980? czy 5890? a może jednak 5970? :)

  67. ... (autor: kosa23 | data: 19/03/10 | godz.: 21:59)
    :D 5970 :D

  68. ... (autor: kosa23 | data: 19/03/10 | godz.: 22:07)
    Syntax error

  69. @ALL (autor: AmigaPPC | data: 19/03/10 | godz.: 22:08)
    http://www.techfanatyk.net/...problem-z-problemem/

  70. ja się spodkałem z takim problemem (autor: kosa23 | data: 19/03/10 | godz.: 22:28)
    Karta graficzna - ( myślę nad Ge force 9800 gt 1024 mb ramu, - w lapku mam radeona i nie działa mi literka Ć, musze ją kopiowac i wklejac, dlatego chcę nvidie.)

  71. @up (autor: kosa23 | data: 19/03/10 | godz.: 22:29)
    oczywiście niedawno przeczytałem na pewnym forum

  72. ... (autor: trepcia | data: 19/03/10 | godz.: 22:46)
    Ło Rany Boskie... trzeba być naprawdę ułomnym aby nie umieć sobie ustawić "ć" w PC z Radeonem. Rzecz tak trudna jak to, kiedy na klawiaturze zamiast "z" jest "y".

  73. Te newsy o spermi moglibyście sobie darować (autor: Borat | data: 19/03/10 | godz.: 22:52)
    To dzień jakaś bzdura, a to wykres, a to pudełko a to zdjęcie.

    Znając życie jak ten syf w końcu trafi do sklepów to będzie tylko nic nie wart pożeracz prądu za, który sporo frajerów wybuli 2 tyś złotych :)


  74. Moim zdaniem będzie tak: (autor: Barbarian | data: 19/03/10 | godz.: 22:55)
    1. Zero towaru w sklepach do maja.
    2. Pierwsze testy zweryfikują bajki nvidii.
    3. Turbo suszarka w komputerze.
    4. Rozczarowanie po zakupie u 95% osób.
    5. Padaczka kart na poziomie konsol XBOX
    6. Problemy ze sterami przez cały AD2010
    7. Zasiłki do wymiany po miesiącu.


  75. @trepcia (autor: Promilus | data: 19/03/10 | godz.: 22:57)
    taaa...a to wystarczy tylko zamiast ściągać co popadnie dać 'individual driver package' czy jakoś tak i ściągnąć polskie CCC i zapewniam że od roku z hakiem z 'ć' problemu nie ma.

  76. @UP (autor: Saturn64 | data: 19/03/10 | godz.: 23:06)
    Moim zdaniem będzie tak:
    1. Unia Europejska w ramach oszczędności energii wprowadza zakaz sprzedaży Fermiego na terenie UE jako najbardziej nieefektywnego energetycznie jednordzeniowego układu.
    2. Kalifornia postępuje podobnie z uwagi na deficyt energii elektrycznej.
    3. W reszcie stanów USA wprowadzają zakaz sprzedaży ze względu na zwiększoną liczbę samobójstw z rozpaczy (duży pobór prądu przy małej efektywności w stosunku do HD5870).
    4. W Rosji jest nadmiar kart na półkach sklepowych i ceny ich są niższe niż Radeonów HD5770.
    5. Rosyjscy spece odkrywają unikalne właściwości Fermiego. Na razie nie zdradze o jakie własności chodzi.
    6. Z tego powodu w Polsce kwitnie handel układami Fermi na czarnym rynku.


  77. Barbarian (autor: Grave | data: 20/03/10 | godz.: 00:03)
    1. Wiele może nie będzie, ale z tym "zero" to raczej Ci się nie sprawdzi....
    2. Bez obaw, na pewno będzie to najszybszy GPU na rynku. Nvidia wprowadza swoją kartę jako druga po ATI, więc wie jaką wydajność ma HD 5870 tym samym też wie lepiej niż ktokolwiek inny czy ich nowa karta będzie szybsza.
    3. Najgłośniejsze to są mikre wiatraczki rozpędzane do wysokich prędkości. Rozbudowane układy chłodzenia z dużą powierzchnią odprowadzającą ciepło heat pipe'ami i dużym wentylatorem zazwyczaj odznaczają się bardzo przyzwoitą kulturą pracy. Z tą "suszarką" też mało prawdopodobne że Ci się sprawdzi.
    4. Jak już ktoś kupi to wie co kupuje. Jak się rozczaruję to winić może tylko siebie. Będą testy, każdy będzie mógł poczytać i kupić bądź nie zależnie od własnych oczekiwań.
    5. Tego nie wiemy, ale ten z punktów jeżeli już jest bardziej prawdopodobny niż pozostałe.
    6. Możliwe, ale nie pewne. Okaże się w praniu. Ostatnio bywa z tym istotnie różnie u Nvidii.
    7. Nie widzę związku między włożeniem Fermi do kompa a awarią zasilacza. Jak ktoś ma badziewny zasilacz to jego sprawa. Konfigi tri SLI czy Quad CF żrące pod 1KW jakoś chodzą, a karta z TDP 250W miałaby nie ruszyć?

    Z tym na pewno problemów nie będzie chyba że ktoś zechce to Fermi podłączyć do 300W zasilacza "Super Flower" to wtedy istotnie mu raczej nie ruszy.....


  78. .:. (autor: Shneider | data: 20/03/10 | godz.: 01:39)
    Grave - zadaje to pytanie po raz nty.

    "2. Bez obaw, na pewno będzie to najszybszy GPU na rynku."

    czy Ty jestes wrozka?


  79. @Shneider (autor: Promilus | data: 20/03/10 | godz.: 03:47)
    Nie trzeba być wróżką. Wystarczy umieć szacować, a robi się to tak. GTX285 ma wydajność hd5850. GTX480 ma mieć dokładnie 2x tyle SP, ma mieć 1,5x więcej ROP i nieco bardziej przepustową pamięć. Ma mieć nieco mniej TMU ale za to taktowanych innym zegarem niż rdzeń, zegarem SP najprawdopodobniej. O...i z takiego oto szacowania można 'wywróżyć' z całkiem przyzwoitą dokładnością jakież to Fermi wydajniutkie będzie.

  80. .:. (autor: Shneider | data: 20/03/10 | godz.: 03:58)
    Promilus - oczywiscie to jest ironia? ;-)

    Fermi posiada korekcje bledow, chip nie jest tak wysoko taktowany jak mozna bylo sie przypuszczac, ogromne problemy z uzyskaniem sprawnych chipow do tego sterowniki ktorych jeszcze swiat nie widzial.

    Dodatkowo zaimplementowany DX11 ktorego poprzednie chipy na oczy nie widzialy. Takze wydajnosc jest wciaz zagadka. Dodatkowo reakcja NV jednoznacznie daje znac ze nie ma sie czym chwalic. Inaczej od 6ciu miesiecy krazyly by wykresy, testy, prezentacje, filmy jakie to fermi jest wspaniale.

    Jeszcze tylko 16 dni ;-) I prawda wyjdzie na jaw.


  81. @ morgi (autor: lolo_64xxx | data: 20/03/10 | godz.: 05:14)
    Mów sobie, mów... niech ci ziemia lekką będzie. Dobrze wiesz kto w tej partii wygrał. Masz swój świat, ale nie musisz sie z tym obnosić na TPC. Nie wszyscy mają ochotę wysłuchiwać twojej czczej gadki. Dowiedzenia Panu.

  82. SLI a GTX a Fermi (autor: Marucins | data: 20/03/10 | godz.: 06:37)
    Zastanawiam się czy będzie można złączyć GTX z nowym produktem nVidii w tryb SLI...?

  83. @UP (autor: Saturn64 | data: 20/03/10 | godz.: 07:44)
    Myślę, że na podstawie premiery Fermiego ludzie będą pisali prace mgr przez kolejne dziesięciolecia. Nie pamiętam by kiedykolwiek w historii, ludzi trzymano w napięciu przez ponad pół roku mówiąc o gotowym produkcie i o jego legendarnej szybkości (no może godnym konkurentem powinna być tutaj Larabee (2007-2010 Ale informacje o nim nie pojawiały się dzień w dzień pokazując co innego). W przypadku Fermiego to raz piszą 512 Cuda innym razem 480, 298 TDP innym razem 250, 60% wydajniejszy od HD5870 innym razem 10-15%, premiera w listopadzie innym razem.... W sumie to i tak nic nie wiadomo, skoro do dziś dzień nie ma pewności jaka będzie końcowa specyfikacja (na każdym portalu piszą co innego).

  84. @pawel.xxx (autor: Saturn64 | data: 20/03/10 | godz.: 09:58)
    a co niby nie zgadza się z TDP i ilością wtyczek bo według mnie wszystko jest wporządku?

  85. @pawel.xxx (autor: Saturn64 | data: 20/03/10 | godz.: 10:19)
    Energię dla karty zgodnej z PCI-E 2.0 można dostarczyć poprzez:
    PCI-E 2.0 ----> 150W
    6 Pin --------> 75W
    8 Pin --------> 150W

    Tak więc poprzez w/w gniazda można dla GTX480 dostarczyć max. 375W natomiast dla GTX470 max. 300W.


  86. Shneider (autor: Grave | data: 20/03/10 | godz.: 11:09)
    Wylicza się to dokładnie tak jak podał Promilus, bynajmniej nie ironia.

    "Fermi posiada korekcje bledow"

    Cypress również.

    "chip nie jest tak wysoko taktowany jak mozna bylo sie przypuszczac"

    Jest taktowany wyżej niż jego poprzednik przy 2x większej liczbie tranzystorów, 2x większej liczbie SPU, o połowę większej liczbie ROP.

    A ile kto przypuszczał to już indywidualna kwestia. Nvidia niczego nie obiecywała w kwestii zegara.

    "ogromne problemy z uzyskaniem sprawnych chipow"

    A ATI to oczywiście nie miało żadnych problemów z uzyskaniem sprawnych układów Cypress? Przypomnij sobie.... Ten 40nm proces TSMC można o kant d**y potłuc generalnie.

    "do tego sterowniki ktorych jeszcze swiat nie widzial"

    A co Ci po sterownikach jak nie masz karty? Ci którzy jakieś testy Fermi zrobili (trochę wyników wyciekło do sieci) JAKIEŚ sterowniki na oczy widzieli.

    A jakie sterowniki będą w momencie premiery to już sprawa Nvidii. To że nie wiesz jaką wydajność zapewnią nie znaczy że są kiepskie.

    "Dodatkowo zaimplementowany DX11 ktorego poprzednie chipy na oczy nie widzialy."

    Zawsze kiedyś musi być ten pierwszy raz. Skąd wiesz czy implementacja przez Nvidię DX11 nie jest lepsza od analogicznej wprowadzonej przez ATI? Poprzednie chipy ATI też DX11 na oczy nie widziały.

    "Takze wydajnosc jest wciaz zagadka."

    Co nie znaczy że jest słaba.

    To że nie ma wyników też o niczym nie świadczy. ATI też się nie chwaliło wynikami Cypressa przed premierą, bo takie informacje trzyma się w tajemnicy niezależnie od tego czy chip jest wydajny czy słaby.


  87. .:. (autor: Shneider | data: 20/03/10 | godz.: 11:16)
    Grave - czlowieku. odpowiedz mi na jedno proste pytanie. czy Ty jestes WROZKA.

    dasz sobie reke uciac zakladajac jaka bedzie wydajnosc fermi?

    Fermi co najwyzej moze byc najszybszym GPU pod warunkiem ze nie spartola sterownikow. Ale zakladajac z gory jest conajmniej niepowazne.

    cytuje "2. Bez obaw, na pewno będzie to najszybszy GPU na rynku."

    przeciez to wrozenie z fusow!!!


  88. Shneider (autor: Grave | data: 20/03/10 | godz.: 11:17)
    Nie z fusów tylko ze specyfikacji. Dopóki nie było taktów nie dało się nic wyliczyć. Teraz można.

  89. .:. (autor: Shneider | data: 20/03/10 | godz.: 11:22)
    Grave - "2. Bez obaw, na pewno będzie to najszybszy GPU na rynku." czysty obiektywizm.

  90. grave (autor: zeek | data: 20/03/10 | godz.: 12:07)
    ciezko by bylo zeby ponad pol roku po premierze kart ATI nvidia wydala chip wolniejszy od HD5870

    przez ostatnie pol roku, na chwile obecna i zapowiada sie, ze przez najblizsze pare miesiecy najwydajniejszym ukladem jest CYPRESS


  91. zeek (autor: Grave | data: 20/03/10 | godz.: 12:13)
    Jeżeli GTX 480 pokona HD 5870 to Cypress przestanie być najwydajniejszym GPU....

  92. @Shneider (autor: Promilus | data: 20/03/10 | godz.: 13:11)
    Jeśli zobaczyłbyś specyfikację Cypressa jako nie 32ROP i 80TMU (bliźniaczo do GT200) a 24ROP i 64TMU to czy uznałbyś w świetle wydajności HD4870 (16/40) że będzie to przy podobnych taktach 2x wydajniejsze? A może 10% wydajniejsze? No właśnie... bardzo mądrze uznałbyś że zasadniczo max to różnica w taktowaniu*różnica w ilości jednostek na korzyść nowej karty. Szacowanie to np. koleś mający 180cm i listwa która jest od niego troszkę większa - patrzysz i szacujesz jaką ona może mieć długość, albo stoisz koło laski i widzisz że jest o głowę niższa od ciebie - szacujesz ile ma wzrostu. Ewentualnie znając swoją wagę i patrząc na posturę kolesia co ma ci zamiar przy**** szacujesz ileż może on mieć kg mięśni ;) I jaki będzie rezultat tej walki. To jest szacowanie, nie ma nic wspólnego z pomiarem zasadniczo, ale daje z DUŻYM prawdopodobieństwem wynik z stosunkowo niewielkim odchyleniem od rzeczywistości. Szacować trzeba się nauczyć :) To jak matematyka, bardzo przydatne w życiu (marketowa matematyka => batonik 0,97, 3 bułki po 0,45, masło za 3,29...ile to jest? Ależ bardzo prosto 1zł+1,5+3,30=5,80, teraz odejmujemy grosiki i jest 5,80-19gr=5,61zł, kto chciał liczyć od razu ręka w górę?). Tego cię nikt nie nauczy, tego trzeba nauczyć się samemu.

  93. .:. (autor: Shneider | data: 20/03/10 | godz.: 14:44)
    Promilus - nie musisz mi tego tlumaczyc, doskonale to rozumiem. Ale zapomniales o jednym. GF100 nie wywodzi sie bezposrednio z poprzednikow. To jest nowiutki chip z ktorym jest sporo problemow.

    AMD konta Intel, niby takie same procesory a jednak nie. P4 byly sprzedawane z zegarem 4GHz a dzisiejsze i7 2.6 zjada go bez problemu i doskonale wiesz co bylo problemem.

    SSD mialo byc rewolucja na miare CD w czasach dyskietek, a wyszlo jak wyszlo. wiec z szacowaniami sobie poczekam.

    Fajnie by bylo gdyby GF100 byl nawet i 30% szybszy od 5870.

    "Szacować trzeba się nauczyć" - i tutaj pies pogrzebany, bo nie dasz mi 100% gwarancji ze Twoje czy kogokolwiek innego szacowania beda prawdziwe.


  94. Shneider (autor: Grave | data: 20/03/10 | godz.: 15:36)
    1. Pentium 4 nie były sprzedawane z zegarem 4GHz
    2. SSD jest rewolucją tyle, że ciągle jeszcze zbyt kosztowną aby zyskać szerszą popularność, ale cały czas widać zmiany na lepsze.

    Ceny są coraz bardziej przystępne, pojemności większe, a od wprowadzenia kontrolera SandForce zniknął także problem kiepskiej wydajności przy zapisie/odczycie bardzo małych plików (4KB).


  95. @Grave (autor: rainy | data: 20/03/10 | godz.: 15:41)
    Nie bądź już takim pedantem - najwyżej taktowane Pentium 4 miało 3,8 GHz.

  96. Zresztą nie tylko SSD, ale karty pamięci, pendrive-y (autor: Grave | data: 20/03/10 | godz.: 15:41)
    to jest na pewno rewolucja. To, że na nośniku wielkości paznokcia można zmieścić kilkadziesiąt GB jeszcze nie tak dawno temu wydawało się czymś rodem z filmów Si-Fi.

    Karty pamięci zastąpiły kasety i filmy w kamerach i aparatach. A Pendrive-y wypchnęły dyskietki i wszelkie płyty jako nośnik do przenoszenia danych.


  97. .:. (autor: Shneider | data: 20/03/10 | godz.: 16:54)
    Grave - 3.8GHz zadna roznica. dzisiaj intel nie ma w ofercie zadnego procesora powyzej 3.3GHz po prostu rzeczywistosc zweryfikowala ze nie MHz sa kluczem do sukcesu. A w czasach Prescotta sadzono ze niedlugo beda dobijac do 5GHz i tak w nieskonczonosc.

    Pendrive staly sie rewolucja ktorej sie nie spodziewano, nikt nie wrozyl im swietlanej przyszlosci, nie musiano ich reklamowac, po prostu od czlowieka do czlowieka przechodzila ta nowina jakie to zycie jest prostrze z pendrive ;-)

    SSD sa zupelnym przeciwienstwem popularnosci pendrive. Wrozono im swietlana przyszlosc, szacowano ze niedlugo HDD przestana istniec, a tym czasem producenci HDD potroili pojemnosc na cal a ceny spadly do skandalicznie niskich poziomow. Pierwsze SSD samsunga pojawily sie w 2006 roku, mijaja 4 lata i wciaz QPA.

    Sandforce zapowiada sie ciekawe ale tylko pod wzgledem wydajnosci, bo cena jest 50x wyzsza za 1GB w porownaniu do HDD. wiec jak mozna spodziewac sie rewolucji?

    Larrabe mialbyc oh ah a wyszlo jak wyszlo.

    Swiat LCD pokladal nadzieje w PVA ISP, a wyszlo ze to wlasnie TN + LED podbija swiat.

    Asus EEE mial kosztowac 100 USD i dzieki niskiej cenie mial pomoc krajom rozwijajacym sie. Tymczasem spowodowal rewolucje na rynku laptopow wypierajac sprzety warte ledwie 20%, a sam EEE zaczeto sprzedawac za 300 USD.

    takze spekulacje radze zostawic w sferze czysto teoretycznej.

    Bill Gates: "128kB wystarczy każdemu"

    znajac dokladna wydajnosc GTX470 mozna latwo policzyc wydajnosc GTX480 wg. jego specyfikacji, ale powtarzam ze to jest calkiem nowy chip, wiec co na papierze nie musi miec odzwierciedlenia w rzeczywistosci.

    Trzeba pamietac ze wraz z teselacja TMU ma wiecej do roboty, a ze NV chwali sie ze teselacja jest szybsza nic u ATI oznacza ze wydajnosc nowych TMU jest inna niz u poprzednikow. to samo sie tyczy ROP.

    to nie sa klocki lego, w jednym rozmiarze i kolorach. wiec pytam sie czy mamy na pokladzie wrozke?


  98. @Shneider - broniąc jednak trochę SSD. (autor: Mcmumin | data: 20/03/10 | godz.: 17:35)
    Cofnijmy się do lat 70tych ubiegłego wieku i powiedz mi ile lat potrzebował HDD na podbój rynku.

  99. @Shneider (autor: Promilus | data: 20/03/10 | godz.: 17:40)
    TMU zasadniczo same w sobie nie mają nic wspólnego z tesselacją...jeśli już to SP bo to one mają więcej do roboty - hull shader, domain shader...

  100. 100 (autor: Barbarian | data: 20/03/10 | godz.: 17:44)
    100 postów o karcie, której nie ma

  101. ... (autor: kosa23 | data: 20/03/10 | godz.: 17:50)
    Teselacja, krótko mówiąc dokładniejsza geometria?

  102. ... (autor: kosa23 | data: 20/03/10 | godz.: 17:51)
    było 101, a teraz 102 dalmatyńczyki :D

  103. .:. (autor: Shneider | data: 20/03/10 | godz.: 17:55)
    Mcmumin - HDD od 40lat sie po malutku rozwijaja, tutaj nie ma rewolucji.

    a SSD mialy byc rewolucyjne, a jest jak widac, czyli malymi kroczkami snuja sie do przodu. mi chodzilo o spekulacje co niekotrych ze HDD w najblizszym czasie znikna z rynku.

    Promilus - TMU nie ma znaczenia? no tak, w koncu nalozenie tekstury na siatke 10 trojkatow zajmuje tyle samo co na siatke 100 trojkatow. oczywicie ze maja znaczenie i to nie male.

    Doskonale zdajesz sobie sprawe ze nie moze byc waskich gardel, aby calkosc pracowala optymalnie. Chodzmi mi jedynie o sam fakt ze takie spekulacje dotyczace tak radykalnie zmienionej karty jak GF100 nie maja racji bytu.

    karta moze byc 30% szybsza jak i 30% wolniejsza od konkurencji.


  104. @Shneider (autor: Promilus | data: 20/03/10 | godz.: 19:01)
    transfer niemal niezależny od wielkości pliku i obszaru pamięci, praktycznie stały i na poziomie RAID z 2 szybkich HDD SATA2 z kilka rzędów wielkości mniejszym czasem dostępu to wg Ciebie nie rewolucja? Kup sobie najsłabszy najtańszy SSD i zainstaluj choćby ubunciaka i porównaj czas ładowania się systemu. To niebo a ziemia, a wierz mi są ludzie którzy za takie szybkie ładowanie systemu, aplikacji, pluginów itp. są w stanie zapłacić te kilka(naście) razy więcej za 1GB.
    Poza tym chyba bardzo WYRAŹNIE napisałem, że TMU same w sobie nie mają NIC wspólnego z tesselacją. Nie od wydajności TMU zależy wydajność tesselacji. I to nie TMU są wąskim gardłem a wydajność geometryczna.


  105. .:. (autor: Shneider | data: 20/03/10 | godz.: 19:16)
    Promilus - Nie rozumiem, czy ja mowie w innym jezyku?

    Pamieci holograficzne to tez rewolucja, a jakos nie weszly w zycie codzienne.

    SSD jest szybkie ALE 10000-100000 cykli zapisu dla MLC na komorke to jakby nie bylo jest utrudnienie. A o SLC nie ma co mowic przez cene.

    SSD to rewolucja ktorej nie widac. 400 euro za 100GB to troche za duzo. Fusion IO ma 1.5GB/s ale wersja 320GB kosztuje 50000zl wiec znaczenie tego typu rozwiazan na rynku jest ZEROWE.

    TMU nie ma wplywu? WSZYSTKO ma wplyw. Co z tego jezeli powstanie geometria jak tekstura bedzie powoli liczona. nie wiem do czego teraz chcesz dazyc. cos mi udowodnic? ale co?

    TY blednie zalozyles ze wydajnosc ROP i TMU jest identyczna i zachowuja sie dokladnie tak samo jak w poprzednich kartach a to nie prawda, gdyz jest to okreslenie zbyt ogolnikowe, wiec rownie dobrze moge sobie zaglowac procentami ile to bedzie szybsze.

    Zbyt wiele czynnikow sklada sie na koncowa wydajnosc karty by tak lekka reka sobie ja liczyc.


  106. @Shneider (autor: Promilus | data: 20/03/10 | godz.: 20:17)
    SSD ma się dobrze i jest szeroko dostępne, to że wg twojego mniemania jest niepopularne to już tylko i wyłącznie twój punkt widzenia. Ograniczona ilość cyklów zapisu (+ konieczność czyszczenia danego bloku przed nadpisaniem danych jak to z flashem trzeba) jest wadą, ale nie przeszkodą.
    TMU nie ma wpływu na tesselację, bo to tak jakby twierdzić, że prędkość wiatru na drodze ma wpływ na spalanie mieszanki powietrzno-paliwowej w dieslu. Może ma jakiś wpływ na prędkość pojazdu (na co ten proces spalania ma wpływ dominujący) czy komfort jazdy, ale na proces spalania z całą pewnością nie. Jeśli teraz po tej analogii nadal będziesz uparcie twierdził że TMU wpływa na tesselację to uznam, że nie ma sensu dalej z takim osobnikiem dyskutować. ROP to ROP, TMU to TMU, mówi się że ten procek ma tyle ROP, tyle TMU, ale to bzdura. Ma odpowiednik wydajnościowy takiej ilości ROP i takiej ilości TMU. Jeśli jesteś spostrzegawczy pewnie zauważyłeś że od jakiegoś czasu ilość TMU i ROP jest zawsze podzielna przez 4. Dlaczego? Ano każdy bloczek na schemacie chipu przedstawia sobą wydajność 4ROP lub TMU. Ale tam NIE MA 4ROP ani 4TMU. Jeśli zatem specyfikacja Fermi mówi że ma 48ROP to ma ekwiwalent takiej ilości ROP, może być różnica w ilości próbek do AA obrabianych na 1MHz (jak to miało miejsce w przypadku 16RBE RV670 vs 16RBE RV770), ale wydajność wypełniania pikseli jest taka sama. A odnośnie AA to też już wcześniej o tym pisałem więc proszę cię bardzo nie mów że coś błędnie założyłem. Na stronie nvidii masz coś takiego jak fermi architecture whitepaper - przeczytaj a potem się wypowiedz, dobrze?


  107. .:. (autor: Shneider | data: 20/03/10 | godz.: 20:40)
    Promilus - tworzysz nieporozumienie.

    gdzie napisalem ze TMU ma wplyw na teselacje???
    napisalem ze TMU i ROP maja wplyw na wydajnosc. co jest szokujaco logiczne!!!

    wspomnialem o teselacji gdyz poprzednie chipy jej nie mialy, wiec automatycznie wydajnosc nowych TMU i ROP nie jest dokladnie znana, bo nie bylo poprzednika.

    SSD ma sie dobrze? tak dobrze ze dostepne w sprzedazy OCZ Vertex 2 Pro, corsair, mercury z sandforce nigdzie w PL nie moge kupic.


  108. Shneider (autor: Grave | data: 20/03/10 | godz.: 20:55)
    "gdzie napisalem ze TMU ma wplyw na teselacje???"

    Tu:

    "Trzeba pamietac ze wraz z teselacja TMU ma wiecej do roboty"

    Odnośnie części modeli SSD i nie tylko, to jak w Polsce czegoś nie ma nie znaczy że nie ma tego w ogóle. Ale po to wynaleziono sklepy internetowe żeby z nich korzystać :-)


  109. .:. (autor: Shneider | data: 20/03/10 | godz.: 21:01)
    Grave - umiesz czytac?

    gdzie tam pisze ze TMU ma wplyw na teselacje? pisze ze dodajac teselacje TMU musi obrobic wiecej danych, wiec teselacja swoja droga, a wygenerowanie obrazu swoja droga.

    Dziennie sprzedaje sie setki HDD w PL, a ile SSD? wiec gdzie SSD ma sie dobrze bo napewno nie w PL.


  110. @Shneider (autor: Promilus | data: 20/03/10 | godz.: 21:03)
    Ja nie mogę dostać ww Polsce Coldfire ani paru FPGA Xilinxa, co nie znaczy że są niepopularne.
    "a ze NV chwali sie ze teselacja jest szybsza nic u ATI oznacza ze wydajnosc nowych TMU jest inna niz u poprzednikow. to samo sie tyczy ROP"
    No nie do końca - po prostu jest więcej tesselatorów, AMD ma tylko jeden. I to on nie wyrabia przy smoczku czy kamolach na drodze, a nie TMU czy ROP. Fermi to zasadniczo nacisk na GPGPU, przebudowanie całej struktury pamięci i SP, reszta bajerów ma praktycznie tą samą funkcjonalność jaka była do tej pory (czyt. ROP i TMU). Jedyna różnica to asynchroniczne taktowanie ROP i TMU co przeszkodą nie jest - to właśnie pozwoliło nvidii na ograniczenie dość sporych bloczków TMU do 64 (gdyby miałoby ich być 128 jak przewidywałem DAWNO temu to chip byłby dużo większy...a jeśli jesteś bardzo ciekaw to możesz poszperać i zobaczyć jak moje szacunki do tej pory się sprawdziły odnośnie Fermi :) np. powierzchnia chipu). 16rop/40tmu, 32rop/80tmu, 48rop/128tmu (lub 64TMU i 2x większy zegar)- to ciągle te same proporcje - to jest obecnie optimum. I tesselacja tego nie zmieniła (bo AMD jakoś nie spieszy się z zwiększeniem ilości TMU ponad stosunek 1:2,5 wyjątek stanowi hd4670 ze stosunkiem 1:4 co NIC mu nie daje, bo mógłby mieć i 24TMU, i 16TMu i wielkiej różnicy by nie było).


  111. ... (autor: ElFi | data: 20/03/10 | godz.: 21:06)
    Jeżeli patrzysz przez pryzmat kraju trzeciego świata, w którym większość obywateli za równowartość ceny 40GB SSD musi przeżyć miesiąc to się nie dziw, że jest jak jest.....

  112. ... (autor: ElFi | data: 20/03/10 | godz.: 21:09)
    Up było dla Shneider;)

  113. .:. (autor: Shneider | data: 20/03/10 | godz.: 21:25)
    Promilus - ebay.com 55000 dyskow (2.5" )hdd i ssd z czego tylko 849 SSD.
    na allegro sytuacja bedzie wygladac podobnie.

    Co do samego Fermi to wciaz zapominasz o jednym. Czym innym jest liczenie powierzchni a ocenienie wydajnosci. Teoretycznie Masz racje, praktycznie? Za kilkanascie dni sie okaze. Pamietaj ze sama modyfikacja sterownikow moze miec 10% wplyw na wydajnosc, a co dopiero organizacja samej pracy ukladu.

    Pierwszy Phenom mial miec spora wydajnosc a wyszlo jak wyszlo, kolejna wersja na pozor z drobnymi poprawkami sprawuje sie o wiele lepiej. Dlatego uwazam aktualnie szacowanie wydajnosci za wrozenie z fusow.

    Wracajac do mojej pierwszej uwagi. Grave ZAKLADA z gory ze GF100 bedzie najwydajniejszym GPU. Ja mowie ze moze byc najwydajniejszym GPU ale nie musi. Ledwie 2mce temu Fermi nie potrafilo przejsc dema bez zawieszenia sie.


  114. .:. (autor: Shneider | data: 20/03/10 | godz.: 21:26)
    ElFi - wiec pokaz mi podworko gdzie sprzedaz SSD przekracza 10% sprzedazy HDD.

  115. @Shneider (autor: Promilus | data: 20/03/10 | godz.: 21:33)
    Nie - pierwszy phenom nawet na papierze tej wielkiej wydajności nie miał zatem nie mógł jej też mieć w realu. Fermi też nie ma ZABÓJCZEJ wydajności na papierze, jedynie w teście SAMEJ TESSELACJI gniecie równo nawet Cypressa. Natomiast pod innymi względami wcale tak BARDZO różowo nie ma. Core i7 to też tylko C2Q z drobnymi poprawkami - i też sprawuje się dużo lepiej - wystarczyło zoptymalizować SIMDy, dać lepszą strukturę cache i wreszcie powrócić do HT. Fermi w teorii jest najwydajniejszym GPU, a w praktyce MUSI nim być, inaczej nvidia na polu gpu dla graczy strasznie ucierpi. A co do SSD - wszędzie gdzie prędkość przekłada się nad pojemność.

  116. @Up (autor: AmigaPPC | data: 20/03/10 | godz.: 21:46)
    Licząc od stycznia sprzedałem 208 SSD o różnych parametrach i ponad 3300 klasycznych HDD.

  117. @Up (autor: AmigaPPC | data: 20/03/10 | godz.: 21:47)
    było do @Shneider.

  118. .:. (autor: Shneider | data: 20/03/10 | godz.: 21:47)
    Promilus - widzisz, drobne zmiany i efekt zmienia sie diametralnie. Fermi moze byc ratunkiem dla NV lub kotwica, tego nie wiemy, jednak obecna polityka tajnosci informacji blizej sklania sie ku 2giej opcji.

    co do SSD "prędkość przekłada się nad pojemność" niekoniecznie. wciaz najwazniejsza jest ekonomia.

    moze juz widziales [ http://img15.imageshack.us/img15/6225/wc01o.jpg ] ta maszyna ma 8 dyskow, plus kontroler, kosztuje to w sumie 3,5 tys zl. dajac przestrzen 1,8TB. Z przyzwoitymi parametrami zapisu i odczytu, odciazajac calkowicie CPU. Za te same pieniadze mozna ledwie kupic dwa X-25-E 32GB lub teoretycznie 2x 100GB SSD z sandforce. Albo wydac 50tys zl na fusion io. albo jeszcze lepiej Ramsan-300 za 100 000zl w koncu jest jeszcze szybszy od SSD.

    SSD nie zrobilo rewolucji, nie stanowia konkurencji dla HDD, jedynie stanowia pewnego rodzaju alternatywe.


  119. ze tez wam sie tak chce (autor: sew123 | data: 20/03/10 | godz.: 22:03)
    pitolić te bzdury w kółko :D

  120. Shneider (autor: Grave | data: 20/03/10 | godz.: 22:30)
    Tam gdzie liczy się szybkość, tam gdzie liczy się pobór mocy, w końcu także tam gdzie liczą się małe wymiary i waga SSD NIE MA KONKURENCJI. Są drogą opcją, ale najlepszą dostępną.

    Przede wszystkim mam na myśli laptopy, gdzie SSD po prostu robi miazgę z klasycznych SSD we wszystkich kategoriach ważnych dla mobilnego sprzętu. Dzięki SSD mamy:

    - kilkakrotnie lepszą wydajność
    - dłuższy czas pracy na baterii
    - mniejszą wagę komputera
    - większą odporność na wstrząsy

    System z SSD uruchamia się przynajmniej 2x szybciej niż z klasycznym HDD, zaś czas odpowiedzi na komendy użytkownika już po uruchomieniu jest wyraźnie szybszy (tu daje o sobie znać brak wirujących talerzy i rewelacyjnie krótki czas dostępu).

    Sam nie mam lapka z SSD (jeszcze nie niestety :( ale miałem okazję zapoznać się z takim sprzętem w działaniu i po tym co zobaczyłem wiem, że mój następny notebook będzie już wyposażony w taki dysk.

    A co do Phenoma II to szczerze nie zasłużył sobie nawet na to "II" w nazwie. Dołożyli mu więcej Cache L3 i na tym zmiany się skończyły.

    Reszta to już zasługa tylko procesu technologicznego, ale on z architekturą CPU nie ma nic wspólnego.


  121. @Shneider (autor: ElFi | data: 20/03/10 | godz.: 22:38)
    Odpowiadając miałem na myśli tą słabą dostępność ciekawszych podzespołów, sam się z tym borykam. Ale skoro mnie już wciągnąłeś do dyskusji o SSD to Ci powiem co o tym

    myślę. Słabe przebicie SSD nie wzięło się z jakiejś jego ułomności, tylko z przemyślanego dumpingu cen HDD, co w sumie nie dziwi - każdy chce zarabiać, jednak

    monopoliści mogą sobie pozwolić na dumpingowe ceny w celu hamowania konkurencjji. Zobacz jak staniały HDD od czasu kiedy SSD weszło na rynek? Wspomniany przez Ciebie

    rok 2006, dysk 320GB znanej firmy, ceny z hurtowni(patrzę na faktury): marzec - 470zł, wrzesień - 390zł. Marzec 2007 - 411zł za 400GB, wrzesień 2007 - 404zł za 500GB.

    Jakoś nie chce mi się wierzyć, że tak malały koszty produkcji;) Koniec końców HDD przestanie tanieć i SSD zacznie się przebijać. Co do ceny: nowe zawsze musi zwrócić

    koszty rozwoju(badań), więc na początku jest drogie, ale im więcej się będzie sprzedawać tym szybciej bedzie tanieć. Mamy tu pewną zależność i dopóki będziesz wieścił

    porażkę SSD dopóty ludzie podobni Tobie będą kupować HDD blokując tym samym przebicie SSD. A przyszłość - nie ma co ukrywać - nalezy do SSD. Sam mam 3 SSDki - 2 w

    raidzie jako System na jednym kompie, a trzeci na drugim kompie. Sprawują się wyśmienicie. A co do tematu newsa to wydaje się, że z tą wydajnością jednak nie jest tak

    różowo, bo nVidia by trąbiła na lewo i prawo jak to Fermi miażdży konkurencję. A w kwestii uzysku: nie chciało się nVidi projektować podwójnych przelotek między

    warstwami no i są efekty. Widać pogodzili się z wiekszą wadliwością kosztem przyspieszenia premiery układu - wkrótce się okaże czy to był słuszny wybór. Macie

    wrażenie, że w chwili premiery radeonów 5xxx pierwotny GF100 trafił do kosza?


  122. @Shneider (autor: ElFi | data: 20/03/10 | godz.: 22:51)
    Jeszcze się odniosę do linkowanego zdjęcia - wszystko ładnie dopracowane w kwestii chłodzenia a kontroler (Adaptec 5805) się gotuje..... Ten kontroler wymaga aktywnego nawiewu.

  123. ElFi (autor: Grave | data: 20/03/10 | godz.: 23:08)
    "Macie

    wrażenie, że w chwili premiery radeonów 5xxx pierwotny GF100 trafił do kosza?"

    Takie coś jak nowa architektura GPU czy nawet nowa generacja powstaje na przestrzeni kilku lat a nie m-cy.

    Taki R700 ATI zaczął być opracowywany zanim jeszcze na rynek wszedł R600.

    Analogicznie prace nad Fermi zostały zapewne podjęte przed premierą GTX 280.

    Producent przyjmuje jakieś założenia i na pewnym etapie prac już wiele (albo i nic) zmienić się nie da.

    Nie ma fizycznie takiej opcji żeby po premierze HD 5870 Nvidia zaczęła opracowywać nowy układ i stworzyła go w pół roku!

    Specyfikacja Fermi została już dawno zamknięta i Nvidia w momencie premiery Radeonów serii 5xx nic już nie mogła zrobić.

    Tak samo zresztą wygląda to u ATI.

    Dzięki temu możemy mieć takie piękne zaskoczenia i zwroty akcji jak obecna seria 5xx ATI.

    Ale działa to także w drugą stronę. Specyfikacja następcy HD 5xxx też już jest zamknięta, a ATI o ile Nvidia dobrze chroni swoich tajemnic nie wie z czym "zieloni" wyskoczą po Fermim.

    I jeżeli z czymś lepszym niż ATI założyło projektując HD 6xxx to ATI w momencie wypuszczenia przez Nvidię nowej karty nie będzie mogło i tak w tym projekcie nic zmienić.


  124. Grave znowu tworzysz:)) nic nie jest zamkniete (autor: speed | data: 20/03/10 | godz.: 23:33)
    Porozmawiaj najpierw z kims kto pracuje przy takim chipie i dopiero zabieraj glos.
    Przed pojawieniem sie rewizji 'A' jest kilkanascie chipow inzynieryjnych ktore caly czas sie poprawia . Nawet rewizje 'A' sa poprawiane( dokladaja zmieniaja ) tak aby uzyskac najlepsze parametry. Widze Grave ze nie masz bladego pojecja o tworzeniu tego typu 'wynalazkow' ale szczekaczem jestes pierwszej wody. Facet daj sobie na wstrzymanie na 100% lepiej ci to zrobi.


  125. speed (autor: Grave | data: 20/03/10 | godz.: 23:55)
    Poczytaj sobie na anandzie a propos ostatnich generacji chipów ATI, co kiedy było robione i kiedy można było coś zmienić a kiedy nic (poza taktami).

    Rewizję to już są poprawki gotowego produktu, którego specyfikacja została zamknięta zanim jeszcze pierwszy chip wyszedł z fabryki TSMC.

    To tak jak kolejne bety w oprogramowaniu. Poprawia się jedynie błędy, ale nie dokłada nowych funkcji.


  126. Grave ,porozmawiaj z kims od Nvidia lub ATI (autor: speed | data: 21/03/10 | godz.: 00:20)
    a nie czytaj . Ja nie musze czytac bo na wlasne oczy widzialem jak to sie robi kapujesz??
    glowne zalozenia trzyma sie prawie do konca ale zmian jest bardzo duzo ,bardzo zadko zdarza sie aby to co na papierze wyszlo w 100% na chipie . Fermi jest tego doskonalym przykladem ze papier byl Ok a chip juz nie .


  127. .:. (autor: Shneider | data: 21/03/10 | godz.: 01:24)
    ElFi - Ceny SSD zaleza glownie od samsunga i jego cen kostek. Juz kiedys robilem wyliczenie 1TB SSD na podstawie hurtowej ceny kosci NAND od samsunga. Sa to kwoty praktycznie identyczne z tym co proponuja producenci takich SSD. Wiec dopoki ktos nie wymysli taniej alternatywy dla NAND nie ma co liczyc na obnizenie cen.

    HDD zaczelo b. szybko taniec w momecie wprowadzenia prostopadlego zapisu danych, kiedy to pojawily sie 160GB talerze a pozniej z gorki. wiec tutaj SSD nie ma absolutnie nic do czynienia.

    Co do adapteka, to od samego poczatku chlodzi go 92mm wiatrak na 5V wiec spokojna glowa.


  128. Ogólnie OT ;) (autor: Elektron | data: 21/03/10 | godz.: 02:29)
    Ja tylko dopowiem co nieco w sprawie cen dysków HDD, biorąc pod uwagę ostatnie kilka lat.
    Na początku 2007 kupiłem za 391zł 320GB dysk mający 2 talerze. Na początku 2008 był to także 2-talerzowy 500GB za 384zł. Z tego, co widzę po rachunkach, to nigdy nie zapłaciłem za dysk mniej jak 300zł. Dlaczego? Bo zazwyczaj brałem dość duże i w miarę świeże wypusty modeli.
    Teraz 2-talerzowe kosztują 280zł, ale trzeba wziąć pod uwagę fakt, że wzrosła skala różnic rozmiarowych. Teraz 1 talerz robi różnicę 500GB, a wcześniej tylko 160GB.
    Nie można zapominać też o "zjawisku" zwanym "dyski green", które w latach 160GB i 320GB nie istniały, a które są obecnie często robione w celu uzyskania max pojemności za max małe pieniądze. Przykład: Samsung F2EG 1,5TB - kosztuje 350zł. Co z tego, że jest wolny i strasznie "pierdzi"? Producent nawet umieścił w nim czujnik, że jak będzie niepewnie zamontowany, albo sam będzie produkował duże wibracje, to głowica kalibruje się na odpowiednią prędkość - stąd też takie rozbieżności w czasie wyszukiwania w tym modelu 16ms-34ms. (chip.pl ma 34ms - rotfl) Według mnie to właśnie wprowadzenie odmian "green" dysków zamieszało na rynku. Ile mamy teraz modeli dysku 500GB... toż to istna masakra.
    Nie ma mocnych, tańsze greeny wpłynęły na obniżki cen szybszych o takim samym rozmiarze. Przykład: Seagate Br.11 1,5TB, który jeszcze kilka miesięcy temu kosztował prawie 100zł więcej od Samsunga F2EG (teraz 30zł), a pod względem szybkości działania i kultury głowic miażdży tego Samsunga (wiem, bo mam oba :P) Wcześniej mieliśmy po jednym dysku od każdej firmy i wsio (pomijam jakieś super special sraid niesrajd edition, które kosztowały i kosztują 2x tyle, co normalne). Teraz ludzie praktycznie leją na to, czy to 5400RPM, czy 7200RPM... ma być tani. Szybkie, dobre modele musiały się cenowo dostosować do przeplatających się między nimi "wynalazków".
    Nie zapominajmy też, że ogromnie zwiększył się rynek zbytu dla HDD za sprawą dekoderów/TV/nagrywarek itp. Kto 5 lat temu myślał, że będzie mógł sobie zatrzymać meczyk LM i pójść spokojnie odcedzić kartofelki?


  129. dyski ???? (autor: lolo_64xxx | data: 21/03/10 | godz.: 03:00)
    Teee luzie, my tu dyskutujemy na temat nowych rupli od NV a nie o dyskach twardych, pendrive'ach i patefonach. Ogarnijcie się !

  130. @speed (autor: Promilus | data: 21/03/10 | godz.: 04:01)
    A bawiłeś się kiedyś Eagle, protelem, kicadem? Na ile sposobów można z jednego schematu ideowego zrobić schemat PCB? No właśnie - to są rewizje! Nikt między jedną a drugą rewizją nie dokłada TMU, ROP, SP - jeśli twierdzisz inaczej to TY masz blade pojęcie o projektowaniu. Kolejne rewizje to optymalizacja już samego chipu w oparciu O TĄ SAMĄ specyfikację. Ot tutaj zmienimy prowadzenie zasilania, tam przemodelujemy przelotki...i już można cieszyć się z nieco większego uzysku/większych możliwości oc/większej stabilności itp. itd. A Grave nie wyciągnął tych swoich rewelacji z palca czy ananda (no tak, bezpośrednio może z ananda, ale...) - wywiadu udzielił koleś z AMD i przedstawiał, że zasadniczo to rv770 BYŁO już w 2007 jak dobrze pamiętam - tak, wtedy powstała specyfikacja, to samo jeśli chodzi o hd5k - koleś odpowiedzialny za eyefinity opowiadał o całym procesie projektowym jak mu kazali ciąć chip (m.in. z sideportu, a miał być dodatkowo porównywalną kobyłą z fermi!) i jak eyefinity pod inną roboczą nazwą po cichaczu przepchnął do samego końca fazy projektowej. Jak ktoś zaraz rzuci przykładem rv790 - nawet gdyby to NIE było zaprojektowane razem z rv770 (ekonomicznie nieuzasadnione jest projektowanie przez team chipu, jego premiera i projektowanie poprawionej wersji przez ten team jak można już projektować kolejny zupełnie nowy układ) to i tak w sumie w samym chipie jedyne co jest zrobione to naokoło rv770 dodane kondziołki - ewentualnie optymalizacje które są jak wcześniej napisałem typowe dla kolejnych rewizji.

  131. @Grave (autor: ElFi | data: 21/03/10 | godz.: 11:04)
    Przecież nie mówię, że zaczęli projektować od nowa;) Wydaje mi się, że projektowana wydajność GF100 była słabsza niż w nowych (wtedy) Radkach więc nvidia postanowiła podrasować chipa przez dodanie bloków lub rozszerzenie szyny. W końcu mają ponad półroczne opóźnienie - coś przez ten czas robili chyba? Dlaczego nie ma jeszcze oficjalnej specyfikacji? 5 dni do wydania a jeszcze testują jakie takty chip wytrzyma i ile procesorów uciągnie bez zagotowania się;)

    @Shneider
    Na zdjęciu nie ma żadnego wentylka pod Adaptekiem - stąd moje uwagi. U mnie też 92mm wentylek chłodzi, ale trzy kontrolery naraz;)

    @Promilus
    Zmiana rewizji nie powoduje zmiany ilości TMU czy ROPów, ale zmiany na poziomie tranzystorów (zmiana schematu ideowego jakiegoś fragmentu chipa) jak najbardziej się robi i często dlatego, że to jest konieczne (np: zmiana długości ścieżek powoduje zmianę propagacji sygnałów i wymusza przeprojektowanie bramki i druga ważna sprawa: poprawa zauważonych błędów). Zresztą czemu nie poprawiać schematu, wszak matryce i tak trzeba robić od nowa.


  132. @ElFi (autor: Promilus | data: 21/03/10 | godz.: 11:21)
    "nvidia postanowiła podrasować chipa przez dodanie bloków lub rozszerzenie szyny." niemożliwe, pierwsze próbki fermi były już ładne parę miesięcy PRZED premierą Cypressa, gdyby mieli po premierze przeprojektować chip, przeprojektować maski, sprawdzić co to tsmc im wyprodukowało to opóźnienie nie byłoby półroczne a roczne. Kupę czasu w cyklu produkcyjnym pożerają testy produkcji, testy próbek inżynieryjnych...tego nie przeskoczysz.

  133. W chipach ati z kolei tam maja (autor: morgi | data: 21/03/10 | godz.: 11:44)
    kilka generacji do przodu w papierach, a potem czekaja w kolejce na fabryke. Co z tego jak w papierach maja siano i lipe, tam jest blad u podstaw, czyli wstawiono wadliwy zestaw inzynierow, albo nadzor kaze im zatwiedzac padaki. Niegdys pierwsi w technologiach dzisiaj ostatni i nie chodzi tu o promowanie obcych typu dx10.1 czy 11, ale o wlasne i gdzie to niegdysiejsze sprzetowe truform, jak jest teselacja w dx11 na slabej wydajnosci, a do tylu - w stare serie nie pojedzie.

  134. @morgi (autor: ElFi | data: 21/03/10 | godz.: 12:11)
    Błąd jest jeszcze bardziej podstawowy niż myślisz - po prostu świat jest pełen głupkowatych ludzi - niestety tego błędu nie da się poprawić w nowszej rewizji.

    @Promilus
    Oczywiście nie mam pewności co tam "rasowali" ale coś jednak zmienili i ponownie testowali - chyba nawet testują do tej pory:)


  135. @ElFi (autor: Promilus | data: 21/03/10 | godz.: 12:22)
    IMHO to całe 'rasowanie' polegało na takim przycięciu pełnego układu żeby był rozsądny uzysk a jednocześnie takim taktowaniu żeby była rozsądna wydajność i tdp.

  136. @62 speed (autor: antrax | data: 21/03/10 | godz.: 14:27)
    Dokładnie masz racje zacząłem sam sobie testować różne karty i procesory w domu i doszedłem do wniosku że testy sprzętu w necie muszą być sponsorowane bo co innego u mnie było np: radek 4870 + C2D e6300@3200 i crysis na maxa bez aa 1920x1080 najmniejsze ilość klatek to 22 cały czas płynnie

  137. ElFi (autor: morgi | data: 21/03/10 | godz.: 16:52)
    Rynek to rynek nie podlega ocenie w tym biznesie bo to nie socjologia, a trzeba sie wsluchac w potrzeby ludzi i wykazywac sie takimi umiejetnosciami, zeby klient odebral sygnal, ze ma do czynienia z najlepszym z mozliwych do dostania produktow. Nvidia zwyczajnie stara sie i jej wychodzi najszybsze GPU na globie plus wpakowuje tam pare gadzecikow ktore bez jej kasy niewiele znacza, ale robia roznice. Znacznie wiecej jest glosow chetnych na 'fizyke' czy okularki niz na to co serwuje ati, czyli kotlety tej samej od 3 lat architektury, z kilkoma klateczkami wiecej i kolejnymi dx-ami, ktore ledwo kto moze odroznic i do tego zmuszonym jest ktos wladowac sie w nowe Windows, a to za malo.

  138. @morgi (autor: Promilus | data: 21/03/10 | godz.: 18:12)
    No właśnie...z kolejnymi DXami, zatem DX10 u nvidii jako pierwsze miało zerowe znaczeni :P Taki oto dopracowany produkt nvidia wydała, że względem DX9 było 30% mniej FPS i sypały się stery. Haha. A architektura SP ciągle ta sama...

  139. @morgi (autor: ElFi | data: 21/03/10 | godz.: 18:45)
    Spójrz w kalendarz i powiedz mi jaką masz datę. U mnie jest 21 marca 2010r i "najlepszy z możliwych" produktów nvidi jest nie do dostania (niedostępny), a najszybsze GPU na globie ma ATI.

  140. Promilus (autor: morgi | data: 21/03/10 | godz.: 19:29)
    U ati ta sama, u Nvidii duzo sie zmienia ma korzysc.
    ElFi
    Spogladam i to tylko opoznienie, a nie faktyczna miara, w 40 nm Nvidia nie wydala jeszcze najszybszego GPU na globie, ale to juz na dniach, poprzednio dominacja w 130, 110, 90, 65 i 55 nm z krotkimi epizodami ATi.


  141. @morgi (autor: Promilus | data: 21/03/10 | godz.: 19:42)
    Tak tak, a zgodność z IEEE 754-2008, zgodność z OpenCL (pełna), rozkazy FMA w 1 cyklu...to co? To samo co w HD3k? No jakoś nie sądzę. To TOBIE się wydaje że architektura jest bez zmian, ale wystarczy sobie porównać ficzery czy listę rozkazów by zobaczyć, że to TYLKO pozory.

  142. Promilus (autor: morgi | data: 21/03/10 | godz.: 21:09)
    Zmiany w isa takie, ze w 14 podpunktach sie mieszcza, naprawde tam nic nowego nie robia przy tym, te ich flopsy to flop i zenua, łatanie brakow pod katem OpenCL, bo wczesniejsze serie sa w tym temacie do kosza, albo zero wsparcia albo czesciowe z wydajnoscia do kosza.

  143. Dziwne (autor: shadowxxz | data: 21/03/10 | godz.: 21:49)
    że te łatane radeony w projektach boinc wycierają gforcami podłogę, nie wspominając już nawet o core i7...

  144. Znowu (autor: AmigaPPC | data: 21/03/10 | godz.: 22:15)
    dajecie się podpuścić redakcji, olejcie to zamilknie.

  145. ..... (autor: Marek1981 | data: 21/03/10 | godz.: 23:24)
    @AmigaPPC - masz rację, ja go olewam:)
    @antrax - ja też mam 4870 i na tv fullhd bez zgrzytów hulał na max detali ( nie wiem tylko jakie wygładzanie) a procka nie miałem za fajnego (phenom 8450).


  146. Promilus ,tak skromnie zapytam ,projektowales jakis chip graficzny?? (autor: speed | data: 22/03/10 | godz.: 01:11)
    albo byles w fabryce i widziales jak to sie robi??
    Bo widze ze czepiliscie sie tej specyfikacji jak rzep psiego ogona. Przez pierwsze 1-1,5 roku to trzymane sa tylko glowne zalozenia a reszta sie zmienia jak w kalejdoskopie. Zreszta jak zobaczysz czy pogadasz z kims kto przy tym siedzi ( a nie czyta internet) to pogadamy.


  147. @speed (autor: Promilus | data: 22/03/10 | godz.: 07:12)
    A któż to z twojego otoczenia przy tym siedzi, co?
    http://www.anandtech.com/...oc.aspx?i=3740&p=4
    Proszę bardzo - jak powstawał evergreen.
    Wybrany cytat:
    "You have to understand, changing a chip configuration that late in the game, 1.5 years before launch, screws everything up."
    Łał, znaczy się koleś od AMD który przy projektowaniu Cypressa brał czynny udział nie wie co mówi. Zaiste ciekawe podejście.
    "By the time RV770 came out, 870 was set in stone." czerwiec 2008 dla przypomnienia. Więc sorry, ale właśnie te czytanie internetu (i wypowiedzi pracowników AMD) daje mi takie a nie inne poglądy na ten temat. Udowodnij, że jesteś w stanie w pół roku przeprojektować 3 MILIARDY tranzystorów to będziesz moim bogiem i zacznę ci walić allachy...


  148. widzieliscie jak sie spisuje ATI stream po przepisanieu z CUDA ? (autor: zeek | data: 22/03/10 | godz.: 09:38)
    "Okazuje się jednak, że przepisania z CUDA do ATI Stream to pikuś, przynajmniej dla tych co robią to na serio, a efekty warte są zachodu"


    http://www.brightsideofnews.com/...d-cracking.aspx


  149. hiehie (autor: morgi | data: 22/03/10 | godz.: 11:02)
    Wydajnosc w OpenCL jest zadna serii hd4k i wszelkie testy, ktore nie potwierdzaja mizernej wydajnosci tych serii w gpgpu to lipa, a tu dawno samo ati sie przyznalo, ze spraprali stare karty w tym temacie, w sumie kolejna ich blazenada pt. łatania szrotu
    http://www.xbitlabs.com/...OpenCL_Performance.html


  150. zeek (autor: Markizy | data: 22/03/10 | godz.: 11:19)
    tak wszyscy widzieli, nie musisz wklejać tego do każdego tematu z kartami graficznymi.

  151. @morgi (autor: Promilus | data: 22/03/10 | godz.: 12:11)
    Jesteś lekka lamka :) AMD spaprało HD4k pod względem LDS - nie działa w opencl, niemniej nadal jako potężny kalkulatorek śmiga i da się odpowiednią moc w specyficznych zastosowaniach uzyskać. Taki smallluxgpu renderer RT jakoś daje radę na HD4k więc może zamknij buzię bo masz blade pojęcie o temacie.

  152. .:. (autor: Shneider | data: 22/03/10 | godz.: 12:39)
    Promilus - [ http://twojepc.pl/news20167.html ] "Jeden z partnerów Nvidii poinformował, że długo zapowiadane układy Fermi trafią do produkcji pod koniec lutego"

    pierdolisz jak potluczony, trzymajac sie wersji ze CHIP juz dawno byl ukonczony. NIE. ledwie miesiac temu GF100 zaczelo wyplywac z TSMC.

    Jak myslisz co robili przez ostatnie 6 miesiecy? zmieniali PCB??


  153. @Shneider (autor: Promilus | data: 22/03/10 | godz.: 12:48)
    A w to:
    "TSMC, producent układów kanadyjsko-amerykańskiego giganta jest zadowolone z obecnej ilości sprawnych układów ATI 5800 przy 40 nanometrach, wynoszącej cztery procent." Też wierzysz? Ten sam news...


  154. .:. (autor: Shneider | data: 22/03/10 | godz.: 13:01)
    Promilus - czy to jest teraz istotne? Widzisz, momentami zachowujesz sie identycznie jak morgi. brawo.

  155. @Shneider (autor: Promilus | data: 22/03/10 | godz.: 13:35)
    Podważyłem tylko wiarygodność tego newsa. 4% uzysku HD5800 i TSMC się cieszy? Hueh. Czy zachowuję się jak morgi - nie, po prostu nie przyklejam się do 'jedynej słusznej ideologii' wielbienia danego producenta.

  156. .:. (autor: Shneider | data: 22/03/10 | godz.: 13:40)
    Promilus - mozesz sobie podwazac. fatem jest ze GF100 trafilo niedawno do produkcji. styczen/luty gdzie dopiero w lutym proces byl odpowiednio wydajny.

    Przeczytaj sobie swoj komentarz - 130. stek BZDUR.


  157. @Shneider (autor: Promilus | data: 22/03/10 | godz.: 14:04)
    Udowodnij to, a nie targaj się jak pies na łańcuchu.

  158. Promilus, OK chcesz podpierac sie tym co pisze (autor: speed | data: 22/03/10 | godz.: 14:27)
    to proponuje przeczytac ten artukul tyle razy az cojdziesz do wniosku ze go zrozumiales. Tam pisze dokladnie to co ja mowie dociera to do ciebie. Wyrwane z kontekstu zdanie nie ma najmniejszego sensu.
    Poczytaj sobie fragment odnoszacu sie do zmian (ciec) w ostatnim stadium. Ludziska jak juz chcecie sie podpierac tym co pisze to starajcie sie chociaz zrozumiec to .
    Najpierw czepiliscie sie specyfikacji ,
    a ta to powstaje jak juz ma sie gotowy chip. specyfikacja to nie to samo co ogolne ,glowne zalorzenia. .


  159. Promilus (autor: morgi | data: 22/03/10 | godz.: 14:43)
    Czesciowe wsparcie, czyli emulowane w OpenCL to jak z OpenGL, niezdolnosc do wspolpracy i porazajaco niska wydajnosc, komu bedzie sie chcialo pisac cokolwiek na taki wybrakowany zlom. I brakuje tam znacznie wiecej niz samo elementarne LDS, cale alu jest do smieci. Co do hd5k to podobna historia, tu sa tylko deklaracje i zero wsparcia i softu do obliczen, patrz na twoje lublu czyli folding wypalacz.

  160. @speed (autor: Promilus | data: 22/03/10 | godz.: 15:01)
    "Cypress and Juniper were delivered nearly at the same time. In fact, Juniper was ready a bit earlier and was sampled to developers months before ATI launched the 5000 series."
    Miesiące przed startem HD5k Juniper był już gotowy i sample rozesłane. To jak myślisz kiedy pierwsze próbki z TSMC do użytku wewnętrznego AMD wyszły? Ja nie mam problemu z językiem angielskim, może to Ty coś źle z niego zrozumiałeś. Cięcia cięciami - nie jest nigdzie napisane kiedy ten ostatni etap (projektowy zresztą) się zamknął, ale musiał być zamknięty na WIELE miesięcy przed premierą. Ogólne główne założenia to właśnie ile układ będzie miał TMU, ROP i jakie ficzery oprócz tego ;) Więc jest to właśnie wstępnie założona specyfikacja.
    @morgi - powiedziałem Ci, jak się na czymś nie znasz to lepiej o tym nie gadaj. ALU nie ma tu nic do rzeczy. O F@H już pisałem i nie mam zamiaru się powtarzać, popatrz za to na EWSA Elcomsoftu, popatrz na igrargpu, a może milkyway...I gdzie ta nvidia? No właśnie, w ciemnej d***.


  161. .:. (autor: Shneider | data: 22/03/10 | godz.: 15:09)
    Promilus - starasz sie udowodnic ze rzeczywistosc jest inna. Czy to chip, czy oprogramowanie, czy tez samochod. Zmiany w fazie projwktowania trwaja tak dlugo az produkt nie trafi do fabryki. Czy to jest dla Ciebie zrozumiale?

  162. @Shneider (autor: Promilus | data: 22/03/10 | godz.: 15:23)
    Ah, rozumiem zatem że prezentacja możliwości Fermi która była w ubiegłym roku była przeprowadzona na nieistniejącym jeszcze chipie bo fabryki niby od lutego dopiero produkują GF100? Nie? To o czym pierdolicie?

  163. .:. (autor: Shneider | data: 22/03/10 | godz.: 15:37)
    Promilus - litosci, to juz staje sie zenujace.

    To byl prototyp, ktory przez ostatni czas byl ciety, przerabiany, optymalizowany, znow ciety, przerabiany, optymalizowany itd itd.

    Wiesz co to jest prototyp?


  164. @Shneider (autor: Promilus | data: 22/03/10 | godz.: 15:42)
    Prototypowe to mogło być PCB a nie układ na nim.
    Dalej czekam na rzetelne informacje jakoby w jakikolwiek sposób zmieniona wersja Fermi zaczęła być produkowana w lutym 2010.
    "Zmiany w fazie projwktowania trwaja tak dlugo az produkt nie trafi do fabryki" No niestety, ale te zmiany trzeba zweryfikować, trzeba wyprodukować próbki nowej wersji, trzeba je umieścić na pcb, przebadać, wyciągnąć wnioski i dopiero jak wszystko będzie ok otworzyć produkcję pełną parą. A 40nm TSMC raczej na brak zamówień nie narzeka więc wdrożenie produkcji nowego układu to nie tak że w poniedziałek przyjdzie Jen Hsun z projektem, we wtorek żółci przygotują maski do fotolitografii a w środę już fermi trzaskają.


  165. .:. (autor: Shneider | data: 22/03/10 | godz.: 16:11)
    "Prototypowe to mogło być PCB a nie układ na nim." LoL.

    uklad do stycznia byl caly czas modyfikowany.
    W momecie jak trafila do fabryki, zmiany sie skonczyly.

    "Dalej czekam na rzetelne informacje jakoby w jakikolwiek sposób zmieniona wersja Fermi zaczęła być produkowana w lutym 2010." Ke? a kto pisal ze po lutym 2010 zmiany w chipie byly wprowadzane?


  166. Promilus w ktorym momencie to zdanie ma cos wspolnego (autor: speed | data: 22/03/10 | godz.: 16:13)
    z tym o czym ja pisalem??
    Ja tego niepodwazam. Pisalem ze zmiany nastepuja do momentu wydania finalnego chipa.
    Powiem to drugi raz w tym artykule ktory przytoczyles pisze wyraznie to o czym ja wspomnialem.
    Ty chcesz abym ja zmienil 3 miliardy tranzystorow a w ktorym to momencje gdziekolwiek napisalem ze takie zmiany sie robi?
    Chcesz pogadac to staraj nie wciskac mi czegos czego nie mowilem.
    Najpierw wymysliliscie specyfikacje a teraz juz delikatniej ze to sa zalozenia .Napisalem ze prwawie do konca trzyma sie glowne zalorzenia a kazda zmiana to tok jak zmiana specyfikacji, Zrobia finalna wersje z ktorej beda zadowoleni to napisza ile czego w srodku siedzi ile pradu bierze i. t.d.
    Uklady tez sa prototypowe tak nawiasem:)))
    Ze zrozumieniem angielskiego szczegolnie technicznego po 30 latach nie mam problemu jak rowniez ze zrozumieniem sensu wypowiedzi.:))


  167. @speed (autor: Promilus | data: 22/03/10 | godz.: 16:42)
    Tylko układy prototypowe nazywane są samplami (próbkami) inżynieryjnymi. I tych sampli się produkuje dość trochę, kilka(naście) wafli może. I nie u siebie tylko właśnie u TSMC...w ich fabryce na ich warunkach. A co później można zmienić w samym projekcie? No niewiele. Co najwyżej pociąć laserem niesprawne bloki (jak VS/PS/TMU w G70), zmienić firmware w eepromie, ewentualnie dołożyć tych nieszczęsnych przelotek (via) o których wspomniano w artykule zaprezentowanym parę komentarzy wyżej. Na poważniejsze zmiany NIE ma czasu, a często i nie ma możliwości bo minął czas oddania projektu i trzeba zająć się takim dajmy na to Fermi 2. AMD już pracuje od dłuższego czasu nad kolejnym układem więc nvidia NIE mogła sobie pozwolić na oddelegowanie ekipy do 'poprawiania' Fermi. Zatem jakie zmiany poczyniono? Czy GTX480 jest pełnym Fermi a GTX470 jedyną obciętą wersją, czy też oba są cięte - tego się raczej nie dowiemy, chyba że ktoś z nvidii lub jej partnerów puści parę z ust, niemniej zgodnie z oficjalnymi informacjami dot. ilości cuda cores w chipie (gdy zaprezentowano blokowe schematy chipu) tych jednostek miało być 512 i 64TMU. Tak, bo chip składał się z 4GPC po 16TMU. Teraz mamy ...no właśnie? Jakąś dziwną konfigurację. Niesymetryczną. I bardzo wątpliwe że tych brakujących 4TMU i 32 CUDA Cores w strukturze krzemowej na kartach sklepowych nie będzie.

  168. @Shneider (autor: Promilus | data: 22/03/10 | godz.: 16:46)
    Przeczytaj jeszcze raz to co zacytowałeś i twoją odpowiedź na ten cytat - to się kupy nie trzyma. Pokaż gdzie tam pisze o zmianach po lutym 2010?
    Mamy już ponad połowę marca, skoro pod koniec stycznia skończyli modyfikować chip to w lutym nie mogła ruszyć produkcja bo musieli przetestować czy jest ok, czy modyfikacje które wprowadzili odbiły się korzystnie, jakie częstotliwości chip osiąga, czy uzysk jest jakiego się spodziewano itp. itd. Po tej fazie następuje rewizja rdzenia do wersji produkcyjnej jeśli wszystko poszło gładko i dopiero produkcja.


  169. .:. (autor: Shneider | data: 22/03/10 | godz.: 17:13)
    Promilus - tutaj piszesz o lutym, nie wiadomo po co
    "Dalej czekam na rzetelne informacje jakoby w jakikolwiek sposób zmieniona wersja Fermi zaczęła być produkowana w lutym 2010."

    "lutym nie mogła ruszyć produkcja bo musieli przetestować czy jest ok" - znasz ich harmonogram? wnikasz w szczegoly aby wywinac sie od glupoty ktora palnales.

    nie znam ich terminow, ani procedur testowych, nie wiem ile one trwaja, ale to bez znaczenia. GF100 mogl byc zmieniany do ostatniej chwili, uwzgledniajac czas potrzebny na testy.

    Tutaj nie chodzi o dokladanie ROP czy TMU w czasie 2ch miesiecy, ale o doprowadzeniu projektu do konca. 480 i 470 wychodza z jednego wafla, tyle ze 470 jest bardziej uposledzony i czesc sekscji jest wylaczona, tak samo jak to ma w przypadku PII X3 i X2, lub poprzednich radeonach ktore w prosty sposob mozna bylo modowac.


  170. @Shneider (autor: Promilus | data: 22/03/10 | godz.: 17:23)
    "znasz ich harmonogram? wnikasz w szczegoly aby wywinac sie od glupoty ktora palnales."
    Hueh, i kto to mówi. Najpierw podajesz linka z danymi jakoby produkcja chipów fermi rozpoczęła się w lutym, dodajesz że jeszcze w styczniu układ był modyfikowany i to MNIE zarzucasz palnięcie głupoty? A to ci dobre.
    "F100 mogl byc zmieniany do ostatniej chwili, uwzgledniajac czas potrzebny na testy." - no właśnie nie mógł. Kiedyś w chipie ładnie opisano ile trwa wprowadzenie do produkcji linii procesorów w fabryce intela (były też foty, historia, przedstawiona produkcja itp. itd.) - to nie jest kwestia tygodnia czy dwóch!
    "utaj nie chodzi o dokladanie ROP czy TMU w czasie 2ch miesiecy, ale o doprowadzeniu projektu do konca"
    Tak, czyli sprawdzenie sprawnych układów i pocięcie laserem niesprawnych sekcji i wyrzucenie za bardzo zdezelowanych. Modyfikacjami układu to bym tego nie nazwał, co najwyżej selekcją. Ale by to robić trzeba mieć już fizyczne kości. Potem te kości trzeba jeszcze w obudowę epoksydową/ceramiczna włożyć (jeden proces to dyfundowanie, drugi proces składanie - zobacz stare athlony xp - diffused in Dresden, assembled in Malaysia).
    "PII X3 i X2" - tak, ale one nie są modyfikacją projektu Daneb tylko samego gotowego chipu daneb - jak do tej pory nie znaleziono dowodu na zaprojektowany i wykonany Phenom natywny X2 czy X3.


  171. .:. (autor: Shneider | data: 22/03/10 | godz.: 17:35)
    jedne newsy podaja styczen, inne luty. tak czy inaczej na poczatku 2010 produkcja dopiero ruszyla, a przeciez sample mieli duzo wczesniej, prawda?

    Chcesz udowodnic ze GF100 od chwili inzynierskich sampli nie zostal palcem tkniety, w te bzdury sam chyba nie wierzysz.

    TSMC zatrudnia 23 tysiace pracownikow. wiec wdrozenie, testy, modyfikacje to wlasnie moga byc krotkie okresy czasu, liczone w dniach.


  172. @Shneider (autor: Promilus | data: 22/03/10 | godz.: 17:55)
    "TSMC zatrudnia 23 tysiace pracownikow. wiec wdrozenie, testy, modyfikacje to wlasnie moga byc krotkie okresy czasu, liczone w dniach" TSMC to nie nvidia, oni tylko wytwarzają wafle krzemowe. I wierz mi - nie wpuszczą na swoje podwórko nikogo spoza firmy - chyba że tylko pozwiedzać.
    "hcesz udowodnic ze GF100 od chwili inzynierskich sampli nie zostal palcem tkniety, w te bzdury sam chyba nie wierzysz."
    Ależ z pewnością został, tyle że nie zmodyfikowano nic z jego specyfikacji, nie dodano żadnych ficzerów ciekawych. Jedyne co mogło się zmienić to rewizja rdzenia ;) Optymalizacja już gotowego projektu. I nic więcej.
    BTW 23 tysiące pracowników na ładne parę linii gdzie 40nm to najmniejszy udział...z czego większość to dozór techniczny i pracownicy kontroli jakości - to co oni będą zmieniać linię dla paru wafli testowych nvidii jak mogą masowo trzaskać gotowce AMD? Pamięci flash do SSD i nie tylko, chipsety do telefonów itp. itd.


  173. .:. (autor: Shneider | data: 22/03/10 | godz.: 18:07)
    Promilus - NV wprowadza zmiany, a TSMC ma przygotowac krzem i wykonac prototyp. tutaj nie bede wnika w terminy bo ich nie znam.

    "to co oni będą zmieniać linię dla paru wafli testowych nvidii jak mogą masowo trzaskać gotowce AMD? Pamięci flash do SSD i nie tylko, chipsety do telefonów itp. itd." - a od czego sa umowy?


  174. Promilus .wierzysz w to wszystko co napisales w opdpwiedzi 167? (autor: speed | data: 23/03/10 | godz.: 00:17)
    Jeszcze raz napisze porozmawiaj z kims kto pracuje przy tworzeniu takiej 'zabawki' zapytaj po jakim czasie dostaja w rece prototypy i na ile czasu przed oficjalna premiera,Wtedy zaczniemy dyskutowac dalej . Bo widze ze ja jedno Ty drugie i wkoncu o co ci dokladnie chodzi??? Uwazasz ze chip to TMU i ROP-y pozanimi jest jeszcze doooooozo innych 'wynalazkow wlasnie z ktorymi walcza srednio przez okolo 1.5 lat.

  175. @speed (autor: Promilus | data: 23/03/10 | godz.: 06:51)
    "Uwazasz ze chip to TMU i ROP-y pozanimi jest jeszcze doooooozo innych 'wynalazkow wlasnie z ktorymi walcza srednio przez okolo 1.5 lat."
    Oczywiście że tak, ROP, TMU i SP to razem jakieś 95% powierzchni chipu.


  176. że tak się wetnę w słowo (autor: Qjanusz | data: 23/03/10 | godz.: 12:30)
    nie wiedziałem ze "u nasz w rodzince" są takie spece od projektowania i wdrażania w proces produkcji tak skomplikowanych układów jak CPU i GPU.

    Szacun :-)


  177. @Qjanusz (autor: Promilus | data: 23/03/10 | godz.: 13:31)
    Spece może nie, ale tacy co liznęli temat z pewnością. U nas na polibudzie jedyne co robili to sensory cienkowarstwowe, planarne światłowody i proste układy w strukturze krzemowej. Ale proces powstawania układów był omówiony całkiem szczegółowo. Ale wracając do tematu - kolejny news i potwierdzenie, że to niski uzysk spowodował że Fermi ma 480SP a nie 512 i że obie karty bazują właśnie na ciętym 512SP/64TMU chipie. Czyli żadnych modyfikacji nie wprowadzono. Nawet surround 3D to tylko programowe rozwiązanie (wymaga 2 kart bo Fermi nie ma tyle wyjść TMDS by obsłużyć więcej wyświetlaczy - jak to ma np. Cypress (6) czy Juniper (5)). Więc jest dokładnie jak napisałem, nowe ficzery będą ewentualnie w sofcie (w końcu teoretycznie surround ma śmigać i na gt200), ale w sprzęcie zasadniczo się nic nie zmieniło od pokazu 'jeża' :P

  178. Promilus , juz ostatni raz ,przeczytaj ten fragment (autor: speed | data: 23/03/10 | godz.: 14:47)
    The team met and stuck with Rick Bergman’s compromise: the GPU had to be at least 2x RV770, but the die size had to come down. ATI changed the configuration for Cypress (high end, single GPU RV870) in March of 2008.

    And here’s where the new ATI really showed itself. We had a company that had decided to both 1) not let schedule slip, and 2) stop designing the biggest GPU possible. Yet in order to preserve the second belief, it had to sacrifice the first.

    You have to understand, changing a chip configuration that late in the game, 1.5 years before launch, screws everything up. By the time RV770 came out, 870 was set in stone. Any changes even a year prior to that resets a lot of clocks. You have to go back and redo floorplan and configuration, there’s a lot of adjusting that happens. It takes at least a couple of weeks, sometimes a couple of months. It impacted schedule. And ATI had to work extremely hard to minimize that where possible. The Radeon HD 5870 was around 30 - 45 days late because of this change.

    I jeszcze jedno uczelnia powinna oddac ci kase jak tak uczy.:))


  179. @speed (autor: Promilus | data: 23/03/10 | godz.: 15:17)
    Duh...Kolego. Koleś powiedział dokładnie to o czym pisałem. Jeśli nie zauważyłeś wyraźnie jest napisane że ATI zmieniło konfigurację Cypressa w marcu 2008 (a premiera cypressa to październik 2009) - 1,5r wstecz i ta zmiana już wtedy wpłynęła na opóźnienie premiery o 30-45dni. Później pisze kolo, że takie zmiany 1,5r wstecz wszystko pierd****. W momencie premiery RV770 specyfikacja końcowa i wszystkie ficzery Cypressa były już ustalone. Nawet zmiany ROK przed premierą kosztują kilka tygodni jeśli nie miesięcy. A ty twierdzisz, że nv zaczęła coś zmieniać PÓŁ roku przed premierą. No to powiedz CO oni tam mogli zmienić.

  180. Promilus ,nie mow ze ja powiedzialem bo ja tak nie powiedzialem (autor: speed | data: 23/03/10 | godz.: 16:47)
    Powtorze sie jeszcze raz ze zmiany nastepuja do momentu wydania ostatecznego (produkcujnego ) chipa i niech to do Ciebie dotrze .Co mogli zmienic ano duzo i duzo poprawili(zmienili) bo same symulacje nie daja 100% gwarancji jak dana konstrukcja zachowa sie na krzemie. dlatego maja 1,5 czasu aby pobawic sie tym wynalazkiem ktory ztworzyli na papierze.
    Czy Ty z choinki sie urwales ?aby liczyc ze odpowiedzialny gosc powie ci wprost co zmieniali ??wiedzac ze to bedzie obublikowane?? Nastepnego dnia wylecial by z roboty. Widze ze nie kapujesz sensu jego wypowiedzi i co delikatnie chial powiedziec


  181. @speed (autor: Promilus | data: 23/03/10 | godz.: 17:12)
    "dlatego maja 1,5 czasu aby pobawic sie tym wynalazkiem ktory ztworzyli na papierze. "
    No, ale półtora roku to nie pół roku i poprawki w specyfikacji - a dokładnie jak napisałem w komentarzach między 80 a 180. Poza tym pisze się stworzyli. W trakcie tych poprawek NIE można zrobić by np. ROPy obsługiwały większe AA bo to wymagałoby przeprojektowania ROP a na to czasu nie ma, nie można przeprojektować TMU by filtrowało inaczej tekstury (algorytm filtrowania jest zaszyty w krzemie na stałe -jeszcze - inny algorytm, inny krzem, jasna sprawa). Co można, ano można troszkę poszerzyć możliwości SP i cieszyć się DX10.1 jak to zrobiła nvidia przy okazji przejścia z 65 na 40nm oraz AMD przy okazji przejścia z 65 na 55nm. Ale te zmiany to kosmetyka. GT220 czy 240 to zupełnie nowy kawałek krzemu ale oparty o specyfikację G92 i pochodnych. Ale na to chłopaki z nvidii nie mieli pół roku tylko latka 2 z hakiem. Więc jeszcze raz zapytam, skoro taki doświadczony, co DOKŁADNIE zmienia się jak w kalejdoskopie?


  182. Promilus, przeczytaj ta cala publikacje jeszcze raz (autor: speed | data: 23/03/10 | godz.: 18:11)
    Ty sie podparles tym artykulem tam pisze jak byk o tym co mowie ale Ty widzisz tylko to co chcesz widziec albo po prostu nie rozumiesz co tam pisze. I jeszcze raz napisze od momentu powstania pierwszego chipu (fizycznego powstania) do samego konca robi sie poprawki az uzyska sie to co zakladano albo to na co w danej chwili pozwoli proces technologiczny. Czy sie z gadzasz czy nie Twoja sprawa.

  183. @speed (autor: Promilus | data: 23/03/10 | godz.: 18:31)
    Prześledź dyskusję od początku bo to chyba Ty nie wiesz o czym mowa. Nawet nie chce mi się wnikać czyje to były dokładnie dywagacje:
    - fermi trafiło do produkcji w lutym 2010
    - można sobie zmieniać co się chce w układzie do ostatniego momentu zanim nie trafi do produkcji
    - fermi został przeprojektowany względem oryginalnego zamysłu
    I teraz się spytam - zgadzasz się z tym wszystkim powyżej?
    "do samego konca robi sie poprawki az uzyska sie to co zakladano" No a jakiego typu poprawki nie chcesz powiedzieć, w artykule wbrew temu co napisałeś NIC o tym nie ma.


  184. Promilus ,a czy cokolwiek to zmieni czy ja sie zgadzam czy nie (autor: speed | data: 23/03/10 | godz.: 21:33)
    Wiem ze ostateczna wersja fermi weszla do produkcji bardzo pozno
    co do 'co sie chce' to zalezy jak podejsc do momentu trafi do produkcji.Czy fermi zostal przeprojektowany ?? tez uwazam ze jezeli podojs do tego co bylo na samym poczatku to nastapily spore zmiany.
    Wygadalem sie co do poboru pradu fermi to pojde dalej i powiem ze ATI solidnie zmienilo w drugim podejsciu kontroler pamieci i cache,w nastepnych wersjach byly inne poprawki ale jak sam zauwazyles nawet gosc w rozmowie z anandem slowem nie pisnal:)))
    Rozmowy prywatne powinny zostac prywatne .A to czy bedziesz wiedzial co poprawili to myslisz ze lepiej mleko bedzie smakowalo lub dostaniesz podwyzke??.
    w artukule pisze o tym (nie doslownie) ale jest. Dlatego jak porozmawial bys z kims kto przy tym pracuje mialbys swoje informacje to bys to ladnie poskladal i zobaczyl ze rzeczywiscie delikatnie to gosc podpowiedzial.
    Zeby zakonczyc to , to ja zgadzam sie z tym ze ogolne zalozenia sa dosc rygorystycznie przestrzegane jezeli prototypy to potwierdza tak zostaje jezeli nie to szuka sie przyczyny i jezeli trzeba to sie zmienia.
    Pamietaj ze pierwsze "kamyki' dostaja srednio 1,5 roku przed finalnym produktem.
    Dlatego maja czas aby wszytko dopracowac.
    W przypadku ostatniego chipu ATI mozna powiedziec ze porwali sie z motyka na slonce ale z lekkim poslizgiem udalo sie.
    Nvidia pracuje ponad 3 lata nad chipem ,mogli n.p dojsc po roku do wniosku ze trzeba przeprojektowac chip ?? mogli a czy tak bylo ????
    Wyglada na to ze Ty myslisz ze jak zmienili 2-3 mil tranzystorow (dolozyli czy urwali) to nie zmiana ,ja uwazam ze jest zmiana po to maja te 1,5 roku aby dopracowac wszytko na 'cacy'.Nawet zmiana polozenia na chipie to tez zmiana.
    popraw mnie jezeli zle zrozumialem Twoje intencje, Ty uwazasz ze 1,5 jak z papieru przeszli na krzem to juz nic nie robia ??
    a z tym zgodzic sie nie moge bo robia.


  185. @speed (autor: Promilus | data: 23/03/10 | godz.: 22:13)
    Tu nie chodzi o zmianę w stylu przeniesienie jednego bloku gdzie indziej, dołożenie przelotek i zmianę ilości warstw, tylko o zmiany w samym projekcie. Tego w ostatnich miesiącach z pewnością nie było - inaczej jak wcześniej napisałem pokusiliby się o zwiększenie wyjść TMDS i surround 3d na 1(!!) karcie. Wtedy to byłaby rzeczywista i namacalna konkurencja dla eyefinity.
    "Ty uwazasz ze 1,5 jak z papieru przeszli na krzem to juz nic nie robia " - nie i nigdzie tak nie twierdziłem. AMD z C2 na C3 zmieniło TDP i podkręcalność, intel z C0 na D0 również. To samo można powiedzieć o starszych modelach K8. Ale do diaska nagle z prototypowego Fermi (windsor) nie zrobili finalnego fermi (brisbane). Co najwyżej tak jak z C0 i D0 intela - drobne zmiany i optymalizacje, ale nic wielkiego, nic co zmienia zasadniczą funkcjonalność chipu. I O TO MI WŁAŚNIE CHODZIŁO.


  186. I tym sposobem wyjasnilismy sobie o czym kazdy z nas mowil (autor: speed | data: 23/03/10 | godz.: 23:12)
    Oczywiscie ze zgadzam sie z tym ze po wejsciu w faze produkcji chipa zmiana funkcjonalnosci to typowy stryczek na szyje. ATI dokonala cudu i jej wyszlo ale czy nastepnym razem sie uda??
    lub komu innemu to wyjdzie, tutaj reki nie dam.
    Wiesz ile zajmowal pierwotny chip ATI ?? 417mm kwadratowych, i jak by wyszedl to by mial prawie 15% wieksza wydajnosc od koncowego ale produ potrzebowal by ponad 250W i to 'przestraszylo' ATI :)) Nvidie ponad 300W tez przestraszylo :)) w piatek oficjalnie popatrzymy co im wyszlo.


  187. @speed (autor: Promilus | data: 24/03/10 | godz.: 09:01)
    No i teraz jest wszystko jasne :)
    A co do piątku - też na niego czekam.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.