Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2019
Środa 3 marca 2010 
    

Przecieków dotyczących Fermi cd.


Autor: Wedelek | źródło: Vr-Zone | 08:00
(122)
Niedawno na łamach naszego serwisu mogliście przeczytać o wyglądzie opakowań, które zakryją karty z serii GTX4xx jednego z producentów. Oczywiście chodziło wtedy o potwierdzenie części specyfikacji technicznej, a nie o pokazanie opakowania samego w sobie. Dzisiejszy dzień przyniósł kolejne zdjęcia dotyczące kart o kodowej nazwie GF100, ale tym razem możemy podziwiać płytkę PCB z GPU Fermi na środku. Wersje "sklepowe" układu mogą się nieco różnić od karty zaprezentowanej na zdjęciach ponieważ sfotografowany egzemplarz należy do rewizji A2, natomiast my będziemy mogli kupić A3. Co ciekawe Nvidia planuje w wersji finalnej umieścić na swoich nowych produktach zmodyfikowany układ chłodzenia w stosunku do tego jaki był zamontowany na rewizji A2.

Prezentowany na zdjęciach GTX480 będzie dysponować jak już nam wiadomo 1536MB pamięci typu GDDR5 i 384-bitową szyną składający się z 12-tu kości pamięci. Sam GPU GF100 do najmniejszych nie należy, a jego powierzchnia wynosi 500mm^2. Prawdopodobnie firma z Santa Clara przygotowała 5000 egzemplarzy swoich nowych kart graficznych, które zostaną rozesłane do partnerów na całym świecie. Jeśli informacja jest prawdziwa, to ilość testów nowego produktu Nvidia w dniu premiery może być ograniczona.




Powiększone zdjęcie

 

    
K O M E N T A R Z E
    

  1. hehe, czepne sie (autor: Chucky | data: 3/03/10 | godz.: 08:14)
    niemozliwe, dadza jakies chlodzenie? myslalem ze zostawia takiego golasa ze zdjecia (rev A2) ;D

  2. ale kolos! (autor: marekl | data: 3/03/10 | godz.: 08:36)
    u mnie w obudowie musiał bym z tyłu wycinać dziurę :D

  3. .:. (autor: Shneider | data: 3/03/10 | godz.: 08:43)
    uuuu, normalnie striptease. napiecie rosnie.
    Qffa, czy ktos w koncu uruchomi ta karte i powie ile jest ona warta?


  4. FERMI (autor: Barbarian | data: 3/03/10 | godz.: 08:48)
    Już się zmęczyłem. Nie pamiętam produktu, który byłby tak wspaniale wprowadzany na rynek.

  5. Juz sa testy 470-ki nawet (autor: Rajq | data: 3/03/10 | godz.: 09:00)
    i o ile w Vantage jest poziom radka 5850 (czyli zwyczajnie slabo) o tyle Crysis potrafi zamiesc nawet 5870. Wiec pewnie bedzie wlasnie posrodku.

  6. @Rajq (autor: Barbarian | data: 3/03/10 | godz.: 09:11)
    Podaj link i nie zmyślaj.

  7. @Barbarian (autor: Rajq | data: 3/03/10 | godz.: 09:16)
    a google ci wylaczyli?
    Vantage P16600
    crysis,1920X1200 veryhigh+8x aa,24fps
    crysis,1920X1200 veryhigh+No aa,53fps
    Przeciek jak przeciek nie wiadomo czy wiarygodny.


  8. @Rajq (autor: Barbarian | data: 3/03/10 | godz.: 09:21)
    Nie wiem co to jest google - mam ZX Spectrum z Fermi na pokładzie.

  9. @Rajq (autor: ligand17 | data: 3/03/10 | godz.: 09:25)
    PODH.

  10. kampania pt. fermi (autor: cp_stef | data: 3/03/10 | godz.: 10:23)
    swietnie zrobione ludzie w swiatku gadaja o nieistniejacym produkcie od 6 miesiecy ??

  11. A nie mówiłem: oFerma wygląda jak Voodoo5 6000 (autor: rookie | data: 3/03/10 | godz.: 10:23)
    http://www.techimo.com/...ta/500/7voodoo5-6000.jpg
    A w wersji dwuprocesorowej będzie tak samo wyglądać! Te same problemy z produkcją, tak samo mała dostępność, te same pewnie bugi, bo już od roku gotowe są pudełka na fermi, ale nie ma prokuktu...
    nazwa też podobna: GF100 (Voodoo było VSA-100). I pewnie ta sama porażka:gorące to, pobierające masę prądu...
    Ale dobrze, że będzie jakiś odpowiednik radeonów w mid-high, to ceny serii 5000 spadną :) A wydajniejsza i bardziej energooszczędna seria radków 6000 (podobnie jak następcą dobrej serii 3000 była genialna seria 4000) pozwoli na dobry zakup w dobrych cenach.


  12. uffff (autor: Qjanusz | data: 3/03/10 | godz.: 10:33)
    sekcja zasilania budzi respekt.
    Sam układ to kolos.

    Ciekawe ilu warstwowe jest PCB i ile tak na prawdę kosztuje wytworzenie całej karty.

    Skojarzenia z ostatnimi kartami 3dFXa jak najbardziej słuszne.


  13. @up (autor: Qjanusz | data: 3/03/10 | godz.: 10:35)
    http://www.tweakers.net/ext/i.dsp/968159803.jpg
    http://www.3dfxzone.it/public/files/news3218_8.jpg
    http://www.dvhardware.net/...aphics_cards_pcgh.jpg


  14. Nie wiadomo gdzie się ta karta kończy :)) (autor: Brauni | data: 3/03/10 | godz.: 10:38)
    Złącze dodatkowego zasilania też robi wrażenie ...

  15. Powinni zrobić konkurs dla grafików (autor: yantar | data: 3/03/10 | godz.: 12:08)
    "Co jest dalej po prawej stronie zdjęcia" ;)

  16. może zdjęcie kończy się na 2 złączu zasilającym (autor: Qjanusz | data: 3/03/10 | godz.: 12:27)
    żeby za wcześnie nie zdradzić ich prawdziwej ilości :-)

  17. ... (autor: yantar | data: 3/03/10 | godz.: 12:39)
    Albo kompletnym zasilaczem ;)

  18. tzn (autor: szpak3 | data: 3/03/10 | godz.: 12:56)
    oj, nie było prezentacji możliwości,,,ktoś się spóźnił na samolot, albo go znów zatrzymali i nie dowiózł reszty karty :)

  19. Pierwszy sześciordzeniowiec zaprezentowany (autor: rookie | data: 3/03/10 | godz.: 13:38)
    http://pclab.pl/news41207.html
    Niedługo powinny się pojawić benchmarki pod windą 7.
    AMD przestrzega roadmap. Wynika stąd, że Bulldozer będzie na początku 2011. To dobra wiadomość.


  20. @up (autor: Qjanusz | data: 3/03/10 | godz.: 13:44)
    dokładnie.
    Tak wygląda nieformalna prezentacja produktu, którego jeszcze nie ma.

    Nie plastik w łapie, nie fotka czegoś, co przypomina kartę i benchmark na ekranie w tle.

    Film z działającego i niezawieszającego się produktu.
    nVidia ma bardzo dużo do nadrobienia w tej materii.


  21. Qjanusz (autor: Grave | data: 3/03/10 | godz.: 14:46)
    I gdzie Ty tu widzisz podobieństwa do Voodoo 5 6000?

    Byle Radeon HD 4870X2 czy 5970 ma bardziej rozbudowaną sekcję zasilania niż to Voodoo 5 6000 + znacznie bardziej rozbudowane chłodzenie.

    Więc dlaczego akurat skojarzenia Cię naszły z 3dfx? To już prędzej R600 od ATI się kwalifikuje do takiego porónania, a nie Fermi.


  22. .:. (autor: Shneider | data: 3/03/10 | godz.: 14:53)
    I oto dzielny Grave broni dobrego imienia Fermi. problem w tym ze ta karta niema dobrego imienia, niema nawet zlego. bo? wciaz jest fikcja.

  23. @Grave (autor: Qjanusz | data: 3/03/10 | godz.: 15:17)
    a mam takie "luźne" skojarzenia:

    "Firmie 3dfx zarzucano, że przedstawila specyfikacje najszybszego akceleratora "za wszelka cene""

    http://www.benchmark.pl/..._5500/voodoo5_5500.html

    to powyżej jest najdalej idącym skojarzeniem
    następnie:
    - totalna obsuwa, którą w pełni wykorzystała konkurencja,
    - przewidywana cena Fermi w porównaniu do cen najwyższych Voodoo na tle konkurencji
    - rewolucja przez małe "r" - a to się okaże jak już / jeżeli karta będzie dostępna
    - szok spowodowany wielkością karty 3dFXa jest zbieżny do opinii w necie do Fermi
    - VooDoo 5 6000 nigdy się nie ukazał, tak samo jak nikt nie widział Fermi do tej pory.

    Co do ostatniego, to skojarz jak wyglądała nieoficjalna prezentacja X6 core AMD, a jak Fermi. O Fermi trąbi się od pół roku i nic nie mamy.


  24. Qjanusz (autor: Grave | data: 3/03/10 | godz.: 15:29)
    Na obecnym Cebicie jest co najmniej kilka komputerów wyposażonych w Fermi, AMD z kolei ma kompa wyposażonego w Thubana. To że w pierwszym przypadku nie mamy wybebeszonej płyty głównej niewiele zmienia, zwłaszcza, że dodatkowo masz zdjęcia samego Fermi takie jak w tym newsie.

    Wiesz jakby tak do wszystkiego podejrzliwie podchodzić to ja też mogę powiedzieć że pod wiatraczkiem u AMD mogło być cokolwiek, wcale nie Thuban. I że dopóki nie będzie testów w liczących się serwisach to uznajemy że PHENOM X6 NIE ISTNIEJE, bo... nikt nie miał okazji go przetestować.


  25. dodatkowo (autor: Qjanusz | data: 3/03/10 | godz.: 15:30)
    VSA-100 miał być dobrze skalującym się układem. Z resztą jego nazwa sama to mówi. A wiemy że karta 6000 złożona z czterech kostek powodowała błędy na AGP.

    Fermi również miał być dobrze skalowalnym układem. A się okazało że do wyprodukowania jego uboższej wersji, wymagane jest PRZEPROJEKTOWANIE.

    Po prostu wielkie słowa i obrazek psich kup na chodniku po zimie.


  26. Co do porównania z Fermi to: (autor: Grave | data: 3/03/10 | godz.: 15:33)
    Nvidia pokazała kilka testów syntetycznych jak i rzeczywistych (Far Cry 2) prezentujące wydajność Fermi na CES 2009,

    na obecnym Cebicie doszły do tego kompletne zestawy wyposażone w Fermi, zdjęcia chłodzenia, zdjęcia karty bez chłodzenia, oraz.... zdjęcia pudełek w jakich karta będzie sprzedawana.

    AMD z Thubanem nie pokazało ani samego procesora (jeżeli zakładamy że pod wiatraczkiem mogło się kryć wszystko, a... przecież mogło), ani żadnych wyników jego wydajności. Testów nie ma, zdjęć nie ma, nawet zdjęcia pudełka - też nie ma.

    Układ nie został przetestowany więc nie istnieje, jest fikcją, nikt go na oczy nie widział. (tak tak to wszystko o Phenomie X6 :)


  27. @Grave (autor: Qjanusz | data: 3/03/10 | godz.: 15:36)
    co do X6 mamy film, klip którym już cokolwiek ciężko spekulować. Poza tym AMD nawet w okresie swoich największych wpadek co najwyżej przedstawiali nieprawdziwe słupki wydajności, które nie miały pokrycia z rzeczywistą pracą procków.

    nVidia zdążyła nam zaserwować chyba większy oręż kłamstw, dzięki któremu można śmiało stwierdzić że jej wiarygodność jest równa czarnoskóremu zwolennikowi ideologii Hitlera.


  28. ... (autor: Qjanusz | data: 3/03/10 | godz.: 15:44)
    i jeszcze, Phenom II X6 jest zapowiedziany że wyjdzie za kilka miesięcy, a już mamy klip z samplem

    Fermi miał wyjść w listopadzie a mamy... fotki, domysły, pudełka, specyfikacje i cała masa wpadek, głupstw marketingowych i przeprosiny ze strony nVidii za zagalopowanie się. A jeszcze gotowej karty nikt nie widział. Nawet te fotki które oglądamy teraz są inżynieryjną wersją A2.


  29. Qjanusz (autor: Grave | data: 3/03/10 | godz.: 15:50)
    Sandy Bridge jest zapowiedziany, że wyjdzie w 1Q 2011, a prezentację na IDF miał pół roku temu. W tym wypadku sam pisałeś że to o niczym nie świadczy dodatkowo podpierając się argumentem larabee który został zaprezentowany a nigdy się nie pojawił.

    Więc skoro już tak daleko zaszedłeś to chociaż bądź konsekwentny i w przypadku analogicznej prezentacji AMD także uznaj że dopóki nie ma recenzji wydajności jest tak jakby układu nie było i że nikt go na oczy nie widział (bo nie widział - przesłonięty wiatraczkiem).

    Ja jestem przeciwny takiemu nastawieniu, bo w ten sposób to nawet jak coś zobaczysz na oczy to też będziesz się zastanawiał czy to nie iluzja, jak się pojawią testy to będziesz się zastanawiał czy nie zostały opłacone etc

    Ale to broń obosieczna - można takie myślenie zastosować zarówno do prezentacji Intela czy Nvidii, ale równie dobrze do AMD.


  30. .:. (autor: Shneider | data: 3/03/10 | godz.: 15:50)
    Grave - staczasz sie. nie rozmawiamy o X6. jak wyjdzie to wyjdzie, teraz zdjecia sa tyle warte co nic.

    ale fermi kreuje sie na krola wydajnosci, oplacalnosci, innowacyjnosci itd itd.

    kapisz?


  31. juz po raz ostatni... (autor: Qjanusz | data: 3/03/10 | godz.: 15:53)
    "AMD z Thubanem nie pokazało ani samego procesora (jeżeli zakładamy że pod wiatraczkiem mogło się kryć wszystko, a... przecież mogło)" - co wg Ciebie mogło się kryć na tej płycie:
    http://www.gigabyte.com.tw/...tName=GA-890GPA-UD3H

    co Win7 odczytało jako AMD Engineering Sample, i w menedżerze urządzeń i menedżerze zadań miało ewidentnie 6 rdzeni? Phenom X3 z HT na pokładzie???


  32. Shneider (autor: Grave | data: 3/03/10 | godz.: 15:54)
    Wydajności - raczej TAK. Nvidia uważa że będzie to najszybszy GPU jaki kiedykolwiek stworzono. I moim zdaniem to się sprawdzi.

    Innowacyjności - także na pewno TAK. Architektura jest zupełnie różna od poprzednich nastawiona na przyszłościowe zastosowania (GPGPU, czy wysokowydajna teselacja w przyszłych grach DX11)

    Opłacalności - nie wiem skąd to wziąłeś, ale jeszcze nigdy hi-endowa karta nie była kreowana na króla opłacalności. Więc ta informacja to chyba z sufitu.


  33. Qjanusz (autor: Grave | data: 3/03/10 | godz.: 15:56)
    A skąd wiesz jaki CPU tam był? Mogło być wszystko. Skoro podważyłeś prezentację SB na IFG 2009 (analogiczną!!) to dlaczego nagle podobną prezentacja AMD uważasz za wiarygodna?

  34. IDF 2009 (autor: Grave | data: 3/03/10 | godz.: 15:56)
    j.w.

  35. co do SB to troche się może zagalopowałem (autor: Qjanusz | data: 3/03/10 | godz.: 16:04)
    tu się przyznaję. Ale chciałem zwrócić uwagę na wiarygodność firmy po tym, jak potencjalnych klientów przerobiła w bardzo nieodległej historii.

  36. dot #33 (autor: Qjanusz | data: 3/03/10 | godz.: 16:09)
    bo Intel nie tak dawno również przedstawił analogiczna prezenatację produktu, który nigdy na rynek nie wszedł. Czyli jest niewiarygodny w takich prezentacjach.

  37. A co powiesz o tym: (autor: Grave | data: 3/03/10 | godz.: 16:12)
    http://www.youtube.com/...h6TM&feature=related

    W 2007 AMD zaprezentowało 3GHz "Phenoma FX". Taki procesor nigdy nie ukazał się na rynku....


  38. I jeszcze babka mówi: (autor: Grave | data: 3/03/10 | godz.: 16:16)
    "This is the standard configuration that an enthusiast may buy".

    Po premierze okazało się że ten "standard, you can buy" tyka z zegarem 2,3GHz....:>


  39. .:. (autor: Shneider | data: 3/03/10 | godz.: 16:26)
    Grave - to co uwza NV mnie nie interesuje. licza sie fakty.

  40. @Grave, Shneider (autor: Promilus | data: 3/03/10 | godz.: 16:30)
    To ja wam coś doradzę, dyskutujcie jakie to ładne/brzydkie pudełko, jakie to ładne/brzydkie PCB, ale nie o wydajności - bo tego nie znamy, nie o możliwościach GPGPU bo tego też nie znamy - a znać będziemy po premierze. Może warto poczekać? To samo dotyczy Thubana i Gulftown - na dzień dzisiejszy nie można mówić ileż to gulftown będzie szybszy od thubana - to zweryfikowane zostanie dopiero po premierze obu układów.

  41. .:. (autor: Shneider | data: 3/03/10 | godz.: 16:32)
    Promilus - serio? conajmniej 10x o tym pisalem. fermi to fikcja, jest tak wydajne jak kawalek deski.

  42. kim jest ta babka, (autor: Qjanusz | data: 3/03/10 | godz.: 16:53)
    gdzie ona się znajduje, co to jest
    http://www.uberpulse.com/ który co chwila mryga na ekranie i gdzie są oficjalne zapowiedzi 3GHz Phenoma FX???

    Co to za gniot?

    Piszemy o produktach oficjalnie zapowiedzianych, prezentacjach na targach/konferencjach i totalnej klapie. Masz taki przykład ze strony AMD, to bardzo chętnie go zobaczę.


  43. Ta babka to Leslie Sobon (autor: Grave | data: 3/03/10 | godz.: 17:14)
    "Vice President, Worldwide Product Marketing at AMD"

    Znajduje się na AMD Analyst Day 2007

    Cokolwiek by ona nie mówiła i komukolwiek reprezentuje stanowisko firmy.

    Zaprezentowała procesor który nigdy nie pojawił się na rynku, a przecież to były prezentacje w kontekście zbliżającej się premiery Phenoma.

    Tymczasem starcie z rzeczywistością okazało się dosyć bolesne.


  44. A jak wydajnosc i jakosc dx11 (autor: morgi | data: 3/03/10 | godz.: 17:17)
    bo starocie dx-ow i patche mnie nie interesuja, only full detal & hd.

  45. Qjanusz (autor: Grave | data: 3/03/10 | godz.: 17:21)
    "Piszemy o produktach oficjalnie zapowiedzianych, prezentacjach na targach/konferencjach i totalnej klapie. Masz taki przykład ze strony AMD, to bardzo chętnie go zobaczę."

    R600? Oficjalne zapowiedzi, premiera odwleczona o 7 miesięcy (więcej niż Fermi), demka na Cebicie 2007 i.... totalna klapa po premierze (duże, gorące, niewydajne).


  46. Zresztą porażka K10 (autor: Grave | data: 3/03/10 | godz.: 17:23)
    była nie mniej spektakularna.

  47. Dosłownie "Przeciek Fermi" (autor: Marucins | data: 3/03/10 | godz.: 17:24)
    "Wersje "sklepowe" układu mogą się nieco różnić od karty zaprezentowanej na zdjęciach"

    Już prostują nawet nie skończywszy do końca wypowiedzi :)

    I teraz tak tyle czasu czekaliśmy aby pokazać kolejne c.h.u.j. wie co. nVidia kpi sobie ze wszystkich - kiedy ta karta miała być dostępna, kiedy już ja niby nam pokazywano - a teraz wielkie tajemnice....

    1. Najpierw całość pokazana na pokazie - czytaj atrapa
    2. Potem karton
    3. Teraz PCB
    4. Później chłodzenie
    5. ...i co dalej, może cała karta (już fizyczny produkt)


  48. @Grave (autor: Qjanusz | data: 3/03/10 | godz.: 17:37)
    ale R600 i K10 można było i nadal można kupić w przeciwieństwie do Larrabee.

    Więc dalej proszę o miarodajny przykład, po którym AMD, tak jak Intel byłby niewiarygodny po prezentacji oficjalnie zapowiedzianego produktu i jego niewprowadzeniu na rynek. Bo tak rozumiem było z Larrabee.


  49. O proszę, gratulacje jest.... (autor: Marucins | data: 3/03/10 | godz.: 17:48)
    hehe **Qjanusz ** znalazł rev A1

    http://www.tweakers.net/ext/i.dsp/968159803.jpg

    ps. Larrabee to był niewypał przy którym obecny na rynku ATI miażdżył go bez OC


  50. @Grave (autor: rookie | data: 3/03/10 | godz.: 17:50)
    Przyznaję, że błąd tlb w PI był porażką, ale K10 w rewizji c2 równo kosiło Core2duo, do czego było stworzone. Tak więc nie fanboić, tylko fakty proszę:
    http://www.anandtech.com/...c.aspx?i=3492&p=14
    Grave - zaczynasz fanboić jak morgi, trochę obiektywizmu. Co dobre w intelu to dobre, co złe to złe. Złego też jest dużo i nie zapominaj o tym....


  51. @rookie (autor: Promilus | data: 3/03/10 | godz.: 18:12)
    W którym to miejscu K10 kosiło core 2? Ja tam w tym linku to widzę, ale K10 v2 (phenom 2) który z intelowskimi quadami zbytnio nie potańczył - wszystko widać 'czarno na białym' :]

  52. rookie (autor: Grave | data: 3/03/10 | godz.: 18:16)
    Phenom rozwinął skrzydła dopiero po przesiadce na 45nm i dołożeniu 3x więcej pamięci Cache L3 czyli jako Phenom II.

    Aczkolwiek jeżeli mamy opierać się na faktach, to fakty są takie że wraz z premierą Phenoma II AMD ponownie stało się KONKURENCYJNE względem Intela.

    Aż tyle, albo tylko tyle. O żadnym "koszeniu" nie ma mowy. I też tego koszenia w podanym przez Ciebie przykładzie nie widać.

    Pierwsze miejsca w testach wydajności okupywane są przez CPU Intela, natomiast AMD dzięki bardzo dobremu stosunkowi ceny do wydajności jest w stanie konkurować w niższych segmentach rynku mimo mniej wydajnej architektury.

    Nie jest to szczyt marzeń zwłaszcza po sukcesach jakie odnosiły Athony 64, ale i tak znaczny postęp względem pierwszego Phenoma który był totalną porażką.

    Pozostaje czekać na buldozera i liczyć na to, że AMD odrobiło zadanie domowe.


  53. *okupowane (autor: Grave | data: 3/03/10 | godz.: 18:17)
    j.w.

  54. az milo patrzec jak grave tupie nogami (autor: zeek | data: 3/03/10 | godz.: 18:29)
    hahaha, zenada na kolkach ;]

  55. zeek (autor: Grave | data: 3/03/10 | godz.: 18:32)
    Żebyś się nie zapluł z wrażenia :)

  56. @Grave (autor: Saturn64 | data: 3/03/10 | godz.: 18:41)
    Nie zapomnij o tym, że Intel jako przodownik mający 32nm i procesory nehalem już od 2 lat nadal produkuje 90% procesorów w 45nm a miesiąc temu zaprzestał produkcji procesorów w 65nm. Nie mówiąc już, że jego nowe procesory stanowią tylko 20% całości sprzedanych procesorów. Pamiętaj że 50% rynku to walka AMD X2 z Pentium 5xxx lub nawet celerownem.

  57. @UP (autor: Saturn64 | data: 3/03/10 | godz.: 18:46)
    Dla mnie intel byłby bezdyskusyjnym liderem gdyby produkował wszystkie procesory w 32nm oraz przeszedłby całkowicie na Nehalema zaprzestając produkcji c2d. AMD wtedy byłby bity w każdym segmencie rynku.

  58. @Grave (autor: Saturn64 | data: 3/03/10 | godz.: 18:50)
    Zresztą podobnie jest z NV czy ATI. Żaden producent nie ma takiej przewagi nad drugim by obwołać się całkowitym liderem w wydajności. Bo jedne gry lepiej i tak będą działały na NV a inne na ATI. Podobnie z procesorami. Są zastosowania w których AMD jest lepszy (chociaż jest ich nieporównywalnie mniej) w innych dużo lepszy jest intel (ale tak czy tak rzadko różnice te są na tyle duże (mam na myśli 60-100%) by mówić o deklasacji konkurenji) Ważnym czynnikiem także jest cena.

  59. @Saturn64 (autor: rainy | data: 3/03/10 | godz.: 18:59)
    Nawet gdyby Intel tego bardzo pragnął to jest to niemożliwe: ich moce produkcyjne w 32nm są cały czas zbyt małe.

    Dopiero w 2011 roku (prawdopodobnie około połowy) produkcja w 32nm będzie wyższa niż w 45nm.

    Nie zapominaj, że Nehalem jest bardziej złożonym chipem i z tego powodu Intel również produkuje Core 2.


  60. @Saturn64 (autor: Promilus | data: 3/03/10 | godz.: 19:00)
    AES-NI w i3/i5 ;) Deklasuje konkurencję, czy to phenomki, czy to i7 ;)

  61. :). (autor: Saturn64 | data: 3/03/10 | godz.: 19:08)
    Zobaczcie to:
    http://www.in4.pl/...70_..._na_pudełkach,20528.htm

    AES-NI oczywiście napewno tak jak DX11 u ATI. Może za 2 lata będzie deklasował.


  62. pudelka cd... (autor: abdesign | data: 3/03/10 | godz.: 19:18)
    http://lab501.ro/...480-si-gtx-470-gata-de-lansare - z wszystkich fermi jakie do tej pory widzialem najbardziej podoba mi sie to ze zdjecia nr 6 - przybliżcie sobie :)

  63. Zeby zaspokoic standardowy popyt (autor: morgi | data: 3/03/10 | godz.: 19:57)
    rynku na chipy Intel musi miec na chodzie 4 faby w danym procesie, a w obiegu jest 3 procesy wysokowydajne, jeden na niskonapieciowe i jeden do SoC. Zeby pokryc zwiekszony popyt na 32 nm trzeba liczyc sie z 4 fabami na pelnych obrotach, a takze backup dla mostkow do plyt, a to w planie dla 2011 roku.

  64. ciekawe (autor: scoobydoo19911 | data: 3/03/10 | godz.: 20:28)
    wszyscy piszecie o mega kosztach produkcji, prawdopodbnie nigdy ich nie poznamy a skoro nv pozwala sobie na takie chipy widać stać ich na to. niezauważyliście też braku układu nv i/o który był mobcne od początku serii 8xxx zniknął na krótko razem serią 9xxx i pojawił się znowu w gt200. układ ten był produkowany w przestarzałym procesie i generował dużo ciepła o kosztach produkcji laminatu nie mówiąc. ten wielki układ napewno tani nie jest ale nv dla oszczędności sama kroi wafle i testuje układy więc mają na tym trochę gotówki do przodu.

    co do cenzury to na układzie jest onlogiczna przecież oficjalnej premiery nie było jeszcze,
    cenzura na gniazdach zasilania i gnieździe pci też można zrozumieć przecież na tych elementach mogło się gdzieś logo konkretnego producenta (nie wiadomo czemu ale mogło) a na pclabie są zdjęcia chłodznie tej karty które wygląda dość ciekawie


  65. @abdesing (autor: scoobydoo19911 | data: 3/03/10 | godz.: 20:38)
    No 6 to niezłe śmiechu warte "GIGABYTE ATI 5000 Series models now support DirectX® 11"

  66. litości (autor: igrom | data: 4/03/10 | godz.: 01:23)
    zbanujcie użytkowników grave morgi kosiarz

  67. a ja ma inne pytanie (autor: piobzo | data: 4/03/10 | godz.: 06:19)
    mam nadzieje ze mi wybaczycie ale mam problem i potrzebuje pomocy...
    co może spowodować spadek wydajności procesora? Kumpel ma core 2 duo 1.8Ghz(system pokazuje tylko ze jest to core 2 duo + taktowanie i nic poza tym) ja mam Amd le 1640...w 3d marku, w pc marku i w kilku programach testujących wynik jest bardzo dziwny...a mianowicie wydajność jest o 20-30% niższa.... próbowaliśmy zwiększać ilość ram’u nic to nie daje....jak możliwe ze biurkowa która ma wydajność poniżej amd 3000+ okazuje sie być szybsza? płyta sie pali czy jak?

    to nie jest kontr reklama ale prośba o pomoc


  68. @piobzo (autor: Marek1981 | data: 4/03/10 | godz.: 07:10)
    np ustawienia biosu, przegrzewanie procka, ustawienia oszczędzania energii ( dodatkowe dedykowane programiki)

  69. @piobzo (autor: rookie | data: 4/03/10 | godz.: 09:01)
    Athlon LE jest procesorem jednordzeniowym. To mówi o wszystkim. Kup Athlona II lub Phenoma II x2 to core 2 duo kumpla pozostanie tyle....
    http://www.cpubenchmark.net/cpu_list.php
    w powyższym teście twój proc uzyskuje 706pkt, a dwurdzeniówka Athlon II czy core 2 duo ok 1500 pkt.
    Jak masz windows 7 to kup Athlon II x4 do płyty am2+ a system będzie śmigał pięknie! Jeś.i masz winxp kup Athlona II x2 będź PhenomaIIx2 250 a zobaczysz co to moc :)


  70. @Qjanusz #20 (autor: pawel.xxx | data: 4/03/10 | godz.: 10:28)
    "dokładnie.
    Tak wygląda nieformalna prezentacja produktu, którego jeszcze nie ma.

    Nie plastik w łapie, nie fotka czegoś, co przypomina kartę i benchmark na ekranie w tle.
    Film z działającego i niezawieszającego się produktu."

    A jak intel prezentował w ten sposób larrabee to miałeś obiekcje. Oj kłamczuszku kłamczuszku :)


  71. @Qjanusz (autor: pawel.xxx | data: 4/03/10 | godz.: 10:35)
    ad #25

    "Fermi również miał być dobrze skalowalnym układem. A się okazało że do wyprodukowania jego uboższej wersji, wymagane jest PRZEPROJEKTOWANIE. "

    Przecież to normalne że do niższych segmentów robi się mniejsze układy, zamiast wyłanczać segmenty z dużych. To przeprojektowanie którego się obawiasz powinno się nazywać konfigurowanie.
    AMD też zrobiło tak tak w rdzeniach Redwood i Juniper


  72. @ piobzo (autor: pawel.xxx | data: 4/03/10 | godz.: 10:41)
    a możesz to mi przetłumaczyć na polski?

  73. niezły ubaw z tym Fermi (autor: Qjanusz | data: 4/03/10 | godz.: 10:45)
    czyli to, co można na dzień dzisiejszy zrobić, to porównać wydajność pudełek Fermi do wydajności pudełek Radeonów.

    Nawet rzekome fotki kart są nieprawdziwe, bo sklepowe egzemplarze będą zupełnie inne.

    A Gigabyte to już gola strzelił nieprzeciętnego. Jak wytrysk przed stosunkiem. Nie mógł pokazać Fermi, to pokazał pudełko Fermi z napisem ATI. Świat się kończy :-)


  74. @pawel.xxx (autor: Qjanusz | data: 4/03/10 | godz.: 11:03)
    "A jak intel prezentował w ten sposób larrabee to miałeś obiekcje." - no bo jak nie można mieć obiekcji, jeżeli firma zapowiada, rozdmuchuje, prezentuje, opowiada i się kompletnie z produktu WYCOFUJE. Ty nie miałeś żadnych obiekcji?

    "Przecież to normalne że do niższych segmentów robi się mniejsze układy" - dokładnie. Robi się mniejsze układy jak Redwood, czy Juniper z większego rdzenia, który powinien mieć budowę skalowalną. Fermi właśnie w tym temacie miał być kozakiem, a skończyło się tak jak z VSA-100. Skalowalność szlag trafiła, bo okazuje się że Fermi trzeba PRZEPROJEKTOWAĆ, żeby uzyskać mniejsze i tańsze chipy. I chyba tylko sama nVidia wierzy, że jest to usprawiedliwieniem zaoferowania po raz kolejny śmierdzącego kotleta 8800->9600->gts100->gt200-> gt300


  75. i jeszcze co do wypowiedzi Grave'a w #52 (autor: Qjanusz | data: 4/03/10 | godz.: 11:06)
    @zeek - nie wiem czemu tak piszesz, ale Grave ma rację. Historia Phenoma jaka ja znam jest taka jak napisana w poście #52
    Jeżeli znasz inną, to chętnie sam o niej poczytam.


  76. @Qjanusz (autor: pawel.xxx | data: 4/03/10 | godz.: 11:29)
    "Robi się mniejsze układy jak Redwood, czy Juniper z większego rdzenia, który powinien mieć budowę skalowalną."

    powierzchnia układów w mm^2
    Cypress -334
    Juniper -170
    Redwood - 110

    Z większego rdzenia nie robi się znacznie mniejszych układów dlatego ze jest to nieopłacalne. Lepiej rozbić kilka małych niż w jednym dużym wyłączyć 80% jednostek przetwarzających.
    Skalowalne są przede wszystkim nowoczesne architektury.


  77. @pawel.xxx (autor: Promilus | data: 4/03/10 | godz.: 11:51)
    Tak, a jak spojrzysz na schematy junipera i cypressa to wychodzi że to równo ciachnięty cypress właśnie. W przypadku fermi można ciachnąć na pół i jeszcze raz na pół - więc bez przesady z tym brakiem skalowania ;)

  78. @pawel.xxx (autor: Qjanusz | data: 4/03/10 | godz.: 11:53)
    skalowalne na etapie projektu.

    Sądząc po przedziale czasowym, w ciągu którego zostały zaprezentowane karty na układach Cypress, Juniper i Redwood, śmiem twierdzić że są one skalowalne na etapie projektu czy budowy wew. Juniper jest częścią Cypressa, którą można prosto wykroić. I przeciwnie. Cypress można potraktować jako wielokrotność Junipera, której uzyskanie nie jest trudne.


  79. @Promilus (autor: Qjanusz | data: 4/03/10 | godz.: 11:56)
    "W przypadku fermi można ciachnąć na pół " - i wg Ciebie dlatego nVidia w niższych segmentach będzie oferowała kotleciki, argumentując że Fermi musi zostać PRZEPROJEKTOWANE?

  80. @up (autor: Qjanusz | data: 4/03/10 | godz.: 11:58)
    http://twojepc.pl/news20683.html

    "Opóźnienie kart budżetowych ma się wiązać ze specyficzną architekturą Fermi, która pomimo dużej wydajności w obecnej formie nie nadaje się do budowy kart graficznych dla rynku mainstream i musi zostać przeprojektowana."


  81. ... (autor: Qjanusz | data: 4/03/10 | godz.: 12:02)
    tak czy siak, jest to jedno z wielu podobieństw Fermi do VSA-100 (Voodoo Scalable Architecture), które ciężko jest w jakikolwiek sposób podważyć.

  82. słowo o mainstram Fermi, czyli kotletach (autor: Qjanusz | data: 4/03/10 | godz.: 12:07)
    Vidia w niższych segmentach będzie oferowała kotleciki które, co tu dużo ukrywać, już nie cieszą się zbytnia popularnością:

    http://nvision.pl/...tow--News-16148-ndetails.html

    sorki za komentarz pod komentarzem, ale w temacie słowa same cisną się na klawiaturę.


  83. Wstyd (autor: Marucins | data: 4/03/10 | godz.: 12:32)
    A widzieliście panowie jakie to omyłki widać na opakowaniach mistycznych GTX480 ??

    http://www.egielda.com.pl/...496355b11138d669d.jpg


  84. @up (autor: rookie | data: 4/03/10 | godz.: 12:36)
    nVidia po prostu przyznała się, że takie rzeczy tylko w...ATI :)

  85. @Qjanusz (autor: Promilus | data: 4/03/10 | godz.: 13:17)
    Ja jakoś z tego newsa inaczej to odczytuję. Czy RV770 nie nadawało się do cięcia? Ależ oczywiście że się nadawało, jak R600 zresztą. A to dlaczego produkty typu hd2600 czy 4670 pojawiały się zawsze ładne parę miesięcy po topowych rozwiązaniach - czy to problemy z przegrzewaniem się układu i systemem chłodzenia? Nie. Proszę Cię - zawsze najpierw się top solution pojawia, a potem dopiero budget. Nic w tym dziwnego - nv ma jeszcze sporo kotlecików ze starszej serii do sprzedania by zminimalizować 'straty' na GT200 i spokojnie może to opychać jako mainstream - i tak do DX11 nic poniżej Fermi i hd58xx się nie nadaje. Ale ciąć da się i to nawet łatwiej niż RV770 czy Cypress - więc to nie w tym jest problem.

  86. kolejna fotka (autor: Qjanusz | data: 4/03/10 | godz.: 13:24)
    dobrze tym razem wykonanej atrapy:
    http://www.egielda.com.pl/...c0f81493b00c5b23d.jpg


  87. @Promilus (autor: Qjanusz | data: 4/03/10 | godz.: 13:28)
    no nie wiem czy tak nVidia spokojnie może opychać te swoje kotlety:
    http://nvision.pl/...tow--News-16148-ndetails.html


  88. @Promilus& Qjanusz (autor: pawel.xxx | data: 4/03/10 | godz.: 13:35)
    Przecież nie pisałem że te nowe układy nie są skalowalne. Są skalowalne, tylko że skalowanie na poziomie układu jest nieopłacalne. Skalowanie na poziomie układu można wykorzystać by sprzedać niezupełnie sprawne układy, czego przykładem może być 8530, gtx 470, czy GTX 260. Natomiast włączenie zbyt wielu unishaderów by uzyskać układ o mniejszej wydajności jest nieopłacalne bo fizycznie to nadal ten sam wielki układ z adekwatną do rozmiaru cena produkcji.
    Popularne obecnie skalowanie na poziomie architektury polega na wydzieleniu bloków funkcjonalnych o dużej autonomiczności. Wtedy chcąc dostosować układ do potrzeb wystarczy skonfigurować te bloki na etapie projektu. ARM wykorzystuje opis w Verilog-u. Myślę że AMD, Intel czy Nvidia korzystają z podonych mechanizmów.
    Natomiast nie bardzo wierzę by zwykłe przecięcie rdzenia było możliwe, dlatego że we wszystkich tych architekturach można wydzielić bloki przetwarzające i bloki o analogicznej funkcjonalności do uncore znanych z CPU. Dysfuncja bloków analogicznych do uncore dyskwalifikuje cały układ.

    Qjanusz - przeczytaj dokładnie źródło tego newsa do którego przytoczyłeś link na http://xbitlabs.com . Sens wiadomości oryginalnej jest nieco inny.


    To nic dziwnego że nvidia nie chce sprzedawać gf100 w segmencie mainstream. Tak samo zrobiło AMD i intel.
    Przesunięcie czasowe może być celowe z punktu widzenia nvidii - kasa. Jak pisałem to kwestia opłacalności.
    Patrząc na mainstream-owy rdzeń Juniper który ma wydajność poprzednich generacji kart AMD nvidia do konkurowania z juniperem, potrzebuje układu o wydajności GT200. W tym kontekście kotleciki mogłyby być sensowne gdyby nie to że są w 55nm i mają dużą powierzchnię. GT100 ma ponad dwa razy więcej unishaderów niż GT200 - dlatego maistream-owy rdzeń GT104, o którym wspomina się na xbitbabs by konkurować z juniperem wystarczy by miał połowę cudaproców obecnych w GT100.


  89. @Qjanusz (autor: Promilus | data: 4/03/10 | godz.: 13:40)
    AMD już w 55nm miało nieco większą gęstość upakowania tranzystorów od NV - TSMC jako producent samych układów cudów nie zrobi jak układ jest słabo zoptymalizowany pod względem liczby tranzystorów i powierzchni. On tylko dostaje projekt i go wykonuje. 55nm ma się dobrze i taki GTX275 jeszcze długo będzie znajdował nabywców. Czy to jako GTX275, czy też GTS380 :P

  90. @pawel.xxx (autor: Promilus | data: 4/03/10 | godz.: 13:45)
    Owszem, nigdzie nie pisałem, że np. Juniper to chip Cypress przecięty na pół - tylko zgodnie ze schematem blokowym (nie bez znaczenia tak a nie inaczej rozłożonym) jest to praktycznie połówka cypressa. Tak dokładnie pionowo na pół. I robić maski i do tsmc ;) W przypadku Fermi można dzielić nawet łatwiej - można zrobić fermi oparte o 4gpc, o 2gpc albo i o 1gpc, a w obrębie pojedynczego gpc również ładnie ciąć TMU&SP. Czyli zasadniczo z zaprojektowanego topowego rozwiązania mamy niższą półkę (2GPC 24ROP/32TMU, 24ROP/24TMU itp.) i jeszcze niższą (1GPC 12ROP/16TMU, 12ROP/12TMU...) bez większych nakładów pracy - i to jest skalowalność :]

  91. @Promilus (autor: Qjanusz | data: 4/03/10 | godz.: 13:59)
    GTX275 jest całkiem niezłym układem, zwłaszcza po zaprezentowaniu średniego 5830, ale niestety jest on już na wymarciu. A szkoda

    GTS380, a raczej GTX380 miał premierę tylko i wyłącznie na tym radosnym wykresie
    http://twojepc.pl/graph0/news09/19996_3.png

    po czym ślad wszelki po nim zaginął

    Chyba że piszesz o tym:
    http://www.nvidia.pl/...ct_quadro_fx_380lp_pl.html

    Tak więc GTX275 nie został poddany procesowi odsmażenia, a zapasy jego oryginalnej postaci są na wykończeniu, albo już ich nie ma:
    http://www.komputronik.pl/...YJTIwMjc1/category/1/


  92. @Qjanusz (autor: Promilus | data: 4/03/10 | godz.: 14:06)
    Dobrze napisałeś - jego oryginalnej postaci. Nie łudźmy się :) Wróci, gts380 napisałem ogółem dla picu, któż może rozszyfrować nazewnictwo kotlecików nvidii :P Równie dobrze może być GTS420 a GTX285-> GTS440 :] Chipów wyprodukowali z pewnością odpowiednio więcej niż wyszło kart - więc odsmażanie jest bardzo możliwe.

  93. @Promilus (autor: Qjanusz | data: 4/03/10 | godz.: 15:02)
    szczerze pisząc to w tym przypadku byłbym nawet zadowolony z tego kotleta

    5830 wszedł i nie zachwycił. 4890 zaraz zejdzie i "orzeł" 5830 zostanie sam bez konkurencji. Tu by się nawet kotlet przydał dla równowagi.


  94. Jeszcze chwila jeszcze malutkie spekulanty (autor: morgi | data: 4/03/10 | godz.: 16:40)
    maja ostatnie erekcje, a potem eagle has landed
    http://www.abload.de/...esselation-benchma0m5f.jpg


  95. mlask mlask :-) (autor: Qjanusz | data: 4/03/10 | godz.: 17:14)
    http://techgage.com/...riefing_080408_04_thumb.png

  96. a tu mała wrzutka (autor: Qjanusz | data: 4/03/10 | godz.: 17:33)
    udowadniająca, w jak głębokiej dupie jest nVidia ze swoim mainstreimem i ponoć konkurencyjnymi kotletami:
    http://www.benchmark.pl/...odne_z_DX_11-27209.html


  97. i po co sie tak (autor: kretos | data: 4/03/10 | godz.: 17:45)
    rozpisywac? Jeszcze 3 tygodnie i wszystko bedzie jasne. Wedlug mnie Fermi bedzie wystarczajaco moce, bedzie tez b. drogie i malo dostepne. Po dopracowaniu produkcji wszyscy dostana mniejszych braci Fermiego. I tyle. nV jakos bardzo w plecy nie jest - co prawda udzialy w sprzedazy maleja ale nie znaczaco bo Ati nie znokautowala istniejacych kart nV.

  98. ... (autor: trepcia | data: 4/03/10 | godz.: 18:04)
    Ale się podniecacie ludzie jakimiś wykresikami. Co poniektórzy chyba już zapomnieli jakie pierwszy Phenom był "fenomenalny" na pierwszych slajdach. Demon wydajności i "core killer" ;-) Trochę obiektywizmu i cierpliwości.

  99. hmm (autor: morgi | data: 4/03/10 | godz.: 18:28)
    Pare wnioskow z przeszlosci o ati, dx8 fail to deliver, dx9 fail to show power, dx10 epic fail to abyss, dx11 fail to own tesselation. Wole poczekac na Nvidie oni zmascili tylko raz i tylko przez ostatnie tchnienie 3dfx.

  100. @morgi (autor: Promilus | data: 4/03/10 | godz.: 18:53)
    Co ty wiesz. Za czasów DX8 ssałeś jeszcze mamie pierś. Radeon 8500 to co, ufo? Tyle jeśli chodzi o twoje DX8 fail...DX9 - fail to show power? No bardzo ciekawe - pewnie dlatego odświeżyli serię w formie 9800 i 9600 oraz później jeszcze X300. Co do DX11 i tesselacji - gdzie tam w linku widać różnicę wynikającą z silnika tesselacji? Bo równie dobrze ilość FPS w Heaven może być zależna od wydajności ROP (48 vs 32) czy przepustowości pamięci (384 bit vs 256bit GDDR5). Nawet tak prostych rzeczy nie potrafisz poprawnie zinterpretować, a o historii rozwoju kart graficznych wiesz mniej niż mój 5 letni siostrzeniec. Więc wracaj do rozgrywek intel vs amd, bo amd vs nvidia ci absolutnie nie wychodzi.

  101. ad 67 (autor: piobzo | data: 5/03/10 | godz.: 09:19)
    zle mnie zrozumielisci to nie moj le 1640 przegrywa w testach tylko ten core 2 duo 1.8 i wlasnie to mnie dziwi... ponawiam pytanie co moze byc przyczyna...(bios tez odpada, a plyta niema integry)

  102. @Piobzo (autor: AmigaPPC | data: 5/03/10 | godz.: 09:51)
    Czy zainstalowaliście sterowniki chipsetu?

  103. @piobzo (autor: rookie | data: 5/03/10 | godz.: 09:58)
    Jak intel to już nic nie da rady...Weszły nowe proce nowe podstawki i użytkownicy core 2 są na lodzie... A może to sprawa zainstalowanej visty bo ten system wszystko zabije?...

  104. @piobzo (autor: rookie | data: 5/03/10 | godz.: 10:02)
    Z kolei w aplikacjach korzystających z 1 rdzenia twoje 2.7Ghz będzie szybsze od jego 1.8ghz...może stąd ta róznica....A jaką macie grafę?

  105. Nvidia może mieć kolejną wymówkę (autor: geordie | data: 5/03/10 | godz.: 10:47)
    http://www.semiaccurate.com/...after-taiwan-quake/

  106. @geordie (autor: Qjanusz | data: 5/03/10 | godz.: 11:14)
    oglądałem wczoraj niepokojące informacje o Tajwanie i też od razu o tym pomyślałem.

    A tu proszę, gotowe info w temacie :-)
    Zwyczajowo, tylko nVidia będzie miała pretensje, jak tu:
    http://nvision.pl/...tow--News-16148-ndetails.html


  107. Po trzęsieniu ziemi (autor: rookie | data: 5/03/10 | godz.: 11:17)
    Pojawią się GT400 w limitowanej wersji z 128MBVram na pokładzie :) A reszta (1024MB) w technologii Turbocache :)

  108. hmm (autor: piobzo | data: 5/03/10 | godz.: 11:21)
    aplikacje korzystały zarówno z jednego jak i z dwóch....(przykład: 11tys ptk na athlon 6000+, 6,5 tys na moim le 1640... 4,5 tys na jego core 2 duo 1.8) stery zainstalowane... komp kolegi miał domyślenie viste ale teraz chodzi na xp...
    tu nie chodzi tylko o testy kolega odpala wszystko na minimum... pierwsza część F.e.a.r to jedna wielka textura!..... a o pierwszym stalkerze już nic nie mowie..... halo2 na minimum i tnie niesamowicie... jako tako to mu et tylko chodzi ale tez na min na 800x600... pytam bo chciał wymienić to i owo.... i zastanawialiśmy się czy procek zostawić ale w takim wypadku to chyba tylko twardziela sobie zostawi


  109. @piobzo (autor: Qjanusz | data: 5/03/10 | godz.: 11:47)
    mogą być dwie rzeczy, albo soft, albo sprzęt.
    Jeżeli soft został sprawdzony (vista i XP), to pozostała kwestia sprzętu.
    Jeżeli piszesz bios jest ok (rozumiem że wszystko ustawione tak jak należy, fsb, mem itp) to zdecydowanie coś jest nie tak raczej z samą płytą.

    Uszkodzony proc/pamięć powodowały by błędy a nie tylko kiepska wydajność.

    Stalkera przeszedłem na Athlon Barton XP 3200 i Radeon 9800 pro i to w cale w nie najniższych ustawieniach. A ten C2D jest błyskawicą w porównaniu z Bartkiem.


  110. No to jeszcze jeden link ;) (autor: geordie | data: 5/03/10 | godz.: 13:37)
    http://www.fudzilla.com/content/view/17953/1/
    Komentarze zostawiam Wam


  111. I oryginalny filmik: (autor: geordie | data: 5/03/10 | godz.: 13:42)
    http://www.youtube.com/watch?v=vpdPSZB8A8E

  112. @geordie (autor: Qjanusz | data: 5/03/10 | godz.: 14:10)
    no i ten filmik jest w końcu jakimś potwierdzeniem istnienia Fermi.
    W końcu!

    Niech jego wydajność zostanie potwierdzona, a dobrze będzie się działo.


  113. Promilus (autor: morgi | data: 5/03/10 | godz.: 15:43)
    Wszystko co przed R9k bylo porazka, nikt tego na oczy nie ogladal chyba tylko do 2d, a R9k jak wyszla poprawka do DX9 pokazal kleske, zwlaszcza nie bylo co zbierac z kontaktu z seria GeForce 6600 i do dzisiaj to jedna z wiekszych traumatycznych porazek, jak cala seria Xow, nie ma tam dobrego produktu, bo to kotlety.

  114. heh... (autor: Qjanusz | data: 5/03/10 | godz.: 16:09)
    a propos porażek

    http://pclab.pl/news41236.html

    Kotlety tak skwierczą, że dostają samozapłonu :-(


  115. @morgi: a Geforce na nowych sterach wybuchają!! (autor: rookie | data: 5/03/10 | godz.: 16:38)
    http://pclab.pl/news41236.html
    Nie tylko skotleciały sprzęt się do niczego nie nadaje, ale również mają spieprzone sterowniki co mogą wybuchnąć. nVidia - ta firma to porażka - FAIL!.


  116. @Qjanusz (autor: rookie | data: 5/03/10 | godz.: 16:40)
    I tak ile razy byśmy nie napisali to morgi i tak wie swoje. NVidia to drugi 3dfx, tylko on (morgi) cały czas zaklina rzeczywistość. Morgi FAIL! :)

  117. @morgi (autor: Promilus | data: 5/03/10 | godz.: 18:23)
    Lamerku ;) Przede wszystkim, Radeon 8500 został bardzo dobrze powitany w środowisku graczy i karty oparte o ten układ (czyli 9000, 9100 i 9200) miały dość długi żywot w przeciwieństwie do gniotów nvidii ;)
    Dwa - R300 zaprezentowane w sierpniu 2002, GF 6 kwiecień 2004 - no weź mnie nie rozśmieszaj - patrz ile nvidia musiała zbierać zęby z podłogi żeby pokazać coś konkurencyjnego :P BTW w tym czasie ATI miało też X850, który mimo iż tylko 9.0b rozkładał GF6 na łopatki ^^ Tak samo jeśli chodzi o GF7 i Radeona X1950. Więc jeszcze raz napiszę - zrewiduj swoje poglądy bo robisz z siebie totalne pośmiewisko.


  118. @Promilus (autor: AmigaPPC | data: 5/03/10 | godz.: 23:57)
    Literówka - zamiast zrewiduj powinno być zrewidujcie.
    @Morgi to twór "wielopostaciowy".

    A w temacie GF, na najnowszych sterach do nich wykłada się Drakensang jednak problem nie dotyczy samej grafiki tylko zjebanego Physx, po wywaleniu najnowszego i instalacji starej wersji gra działa.
    To się właśnie nazywa (wg @Morgich) "brak problemów ze sterownikami".

    OFF - temat zanika więc się @Morgi produkują :)))


  119. Promilus (autor: morgi | data: 6/03/10 | godz.: 18:41)
    Odnosnie radeonkow ponizej 9k, to w branzy nie istniala ta firma, rynek w zasadzie osadzal sie na Nvidii i dalej po rowno S3, Matrox i ATi, odnosnie wspierania dx9 to pelne nabyli w koncu 2005 roku, a Nvidia jak podales o 1,5 roku wczesniej i zaden X nie mial szans, bo sterowniki owczesne czesto uniemozliwialy poprawne dzialanie i wyswietlanie detali, nie to co dzisiaj jest tylko kilka nieznosnych baboli, ktore lecza bardzo topornie i z bieda po wielu miesiacach od premiery, patrz GSOD case i teraz 2d perf. case.'HD 5000 series 2D performance to be fixed with Catalyst 10.4 drivers'.

  120. Oj morgi, a ty dalej pieprzysz jak potłuczony :-/ (autor: zartie | data: 6/03/10 | godz.: 20:06)
    O Radeonie 7500 słyszałeś? Architektura 2x3 (2 potoki renderujące z trzema jednostkami teksturującymi w każdym) w niektórych grach przeganiała nawet 8500! O R200 wyżej już napisali, mogę tylko dodać, że miał PS w wersji 1.4, a nVidia w GF4 Ti tylko 1.3 i w niektórych grach były szare plamy zamiast odbić. 9700 zamiotła FX-y pod dywan, skąd nVidia 1,5 roku mogła się jedynie przyglądać poczynaniom ATi. Odnośnie bzdur na temat "pełnego wsparcia" DX9 to ta wersja directx-ów miała 3 odmiany i wcześniejsze karty były z nimi w pełni zgodne. Nie spieszyli się z PS3, bo i tak nie były one wykorzystywane.
    nVidia ma za to na sumieniu kalekie karty z serii MX , szwindle przy FX-ach.
    A teraz najważniejsze: to jakie karty ATi miałeś i jakie problemy z wyświetlaniem obrazu na nich występowały?


  121. @morgi (autor: Promilus | data: 6/03/10 | godz.: 20:58)
    I dlatego radeon 7500 mobile wymiótł wszystko co pokazała nvidia z geforce 2 go włącznie? :P Taaa, nie istniała tylko w twojej biednej potłuczonej główce ta firma. A poza tym miała się całkiem nieźle.
    Co do wspierania DirectX 9, jeśli jesteś debilem to tylko dlatego, że nie rozróżniasz rewizji od wersji - 9.0 to było to co pojawiło się razem z Radeonami 9500 i 9700. I te radeony to W PEŁNI obsługiwały. 9.0b i 9.0c można porównać do DX10.1 - po prostu rozszerzenie istniejącego standardu o parę zasadniczo nierewolucyjnych rozwiązań. Skoro piszesz o problemach z ATI i DX9.0c to dlaczego nie napiszesz o problemach nvidii z DX10.1? Ja wiem - bo jesteś hipokrytą.
    GSoD mamy u AMD ale karta nie pali się, a u nv jak wiatraczek zamiast się rozpędzać to zwalnia...WHQL drivers...super ;) Mistrzowskie stery trzeba przyznać, hahaha. A co do 2D już ci kiedyś dokładnie i z przykładami napisałem, że i GTX285 jest słabszy w 2D niż integra gf7050 więc nv boryka się DOKŁADNIE z tymi samymi problemami :P


  122. @Morgi (autor: AmigaPPC | data: 6/03/10 | godz.: 22:53)
    Poczytajcie sobie - o ile umiecie.
    http://www.techfanatyk.net/...problem-z-problemem/


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.