TwojePC.pl © 2001 - 2024
|
|
Środa 21 maja 2008 |
|
|
|
Specyfikacja GT200 oficjalnie Autor: Zbyszek | źródło: DailyTech | 08:19 |
(67) | Jak donosi serwis DailyTech, znana jest już oficjalna specyfikacja nadchodzących kart graficznych Nvidia z układami GT200. Według redaktorów serwisu prezentowane informacje zostały sprawdzone i potwierdzone u źródła. Chip GT200 ma składać się z 10 klastrów, każdy zawierający 24 zunifikowane jednostki SP (Shader Processor) oraz 8 jednostek TMU (Texture Mapping Unit), co da w sumie 240 jednostek SP oraz 80 jednostek TMU, podczas gdy układy G80/G92 zawierały 8 klastrów składających się z 16 jednostek SP oraz 8 TMU (łącznie 128SP i 64 TMU). Dodatkowo wydajność jednostek SP dzięki usprawnieniom w ich architekturze ma być o około 50% większa w stosunku do wydajności jednostek stosowanych w G80/G92.
Całości dopełniać będzie maksymalnie 512-bitowa magistrala pamięci powiązana z 32 jednostkami ROP. Organizacja tej części układu wygląda identycznie jak w G80 i G92 - szerokość magistrali pamięci związana jest na stałe z liczbą jednostek ROP - pojedyncze jednostki pogrupowane są w czwórki współpracujące z dwiema kośćmi GDDR poprzez 64-bitową magistralę.
Powiększeniu uległa natomiast liczba samych bloków. W GT200 znajduje się ich osiem (8x4 = 32ROP, 8x64-bit = 512-bit), podczas gdy w G80 było ich sześć (24ROP, 384-bit), a w G92 cztery (16ROP, 256-bit).
GeForce GTX 280 zaoferuje pełną liczbę jednostek wykonawczych wbudowanych w chip (240SP, 80TMU, 32ROP) oraz 1GB pamięci GDDR3 z 512-bitowa magistralą. Wersja GTX 260 będzie mieć dezaktywowane dwa klastry, co da łącznie 192 jednostki SP oraz 64 TMU, a także jeden blok z jednostkami ROP, przez co zmniejszeniu ulegnie szrokość magistrali oraz ilość obsługiwanej pamięci (448-bit, 896MB).
Obydwie karty obsługiwać będą DirectX 10, OpenGL 2.1, PureVideo HD, 3-way SLI oraz PCI-Express 2.0. |
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- Czyli będzie szybka (autor: sirpsychol | data: 21/05/08 | godz.: 09:12)
ale bez rewolucji :(
Takie G92/94 po tuningu.
- dezaktywowane bloki w gtx 260 (autor: pavulon | data: 21/05/08 | godz.: 09:16)
ciekawe ile czasu zajmie komuś obmyślenie sposobu na aktywacje tych bloków
- pewnie (autor: mikuś | data: 21/05/08 | godz.: 09:46)
tyle co przy 7900gs, czyli nie da się:/
- lipa i tyle (autor: samsung | data: 21/05/08 | godz.: 09:50)
chyba czeba sie przesionsc na ati. na razie 8800gt styka ale jak tak dalej pujdzie to tylko ati zostanie.
- a co do wtdajności to (autor: mikuś | data: 21/05/08 | godz.: 09:53)
pewnie będzie marna ;-) dane 280tki to "tylko" coś na wzór 8800Gt + 8800gts 512 w sumie:)
- Rzeczywiscie... (autor: Les76 | data: 21/05/08 | godz.: 10:31)
... podniesienie procesorow strumieniowych z 128 na 240 przy 50 procentowo wyzszej wydjanosci przy kazdym, to rzeczywiscie lipa... :] Skeptycznie zapatruje sie tylko na pobor pradu przy tym Goliacie...
- dobra, (autor: mikuś | data: 21/05/08 | godz.: 10:40)
bez ściemniania:P Karta najprawdopodobniej będzie mocna i tyle:) tylko nie wiem czy na tyle żeby zrekompensować TDP szok...
- mikuś (autor: morgi | data: 21/05/08 | godz.: 10:53)
Dane w specyfikacji sa uczciwe, a Nvidia nigdy w tym nie brylowala jak ati. Za to wlaczysz sobie testy i zrobisz wlasny pomiar wydajnosci GT200 to szczeka odpada.
- morgi (autor: mikuś | data: 21/05/08 | godz.: 11:01)
nie podważam wiarygodności tych danych, powiem więcej i to pewnie Cię bardzo ucieszy, chociaż mnie to szczególnie nie obchodzi. GT200 będzie prawdopodobnie najszybszy. Ale mimo wszystko TDP>200W jest dla mnie nie do przyjęcia Mam gdzieś super kartę do której trzeba ponad 50 % wydajności całego mojego zasilacza...
- Nie zapominajmy... (autor: Les76 | data: 21/05/08 | godz.: 11:36)
... ze GT200 bedzie w pelni wspomagal funkcje Hybrid SLI (tak jak i przepracowany G92 na 9800GTX), do czego potrzebna bedzie tylko odpowiednia platyna NVidii (NF720,730,750,780,790)... pomoze nam to na pewno zaoszczedzic rocznie pare (albo i wiecej) kilowatow... :]
- mikuś (autor: morgi | data: 21/05/08 | godz.: 11:38)
Dla ciebie nie, ale ta karta bedzie kolejnym trzesieniem ziemi, tak wielkim skokiem wydajnosciowym, ze ati bedzie zbierac swoje podzespoly przez kolejne 2 lata.
- szkoda, że (autor: andrzejeq | data: 21/05/08 | godz.: 12:10)
nie obsłuży w pełni DX10.1
ten układ zapowiada się na średnio atrakcyjny...
50% bardziej wydajny od 8800GTX -sporo w porównaniu do 9800GTX ale teraz taką, a nawet i wyższą wydajność dają 2x8800GT - zdaje sie, że będą tańsze od 1 GTX280 i wydajność będzie porównywalna albo nawet wyższa w przypadku 88 w SLI. Zaletą GTX280 jest możliwość pracy w 3-Way SLI, ale wątpię, że będzie stać na coś takiego (3 karty + bardzo mocny zasilacz + dobra płyta główna + 4 rdzeniowy procek) wielu użytkowników.
- Ciekawe (autor: antrax | data: 21/05/08 | godz.: 12:47)
jaka będzie cena tej karty i czy będzie konkurencyjna do 4870
- morgi - skąd Ty masz te teksty (autor: Dabrow | data: 21/05/08 | godz.: 12:58)
o trzęsieniu ziemi, o skoku wydajnościowym? Co Ci podają na taką fantazję?
- @Dabrow-CICHO! (autor: XCLONE | data: 21/05/08 | godz.: 13:13)
on jest taki uroczy w tej swojej infantylności i naiwności.. upartości i determinacji.. mmmm.. uwielbiam go czytać.. to jak słuchać LPR, ale traktować ich jak występ kabaretu, a nie formacji mającej aspiracje do "bycia odpowiedzialną" za losy państwa.. :>
--
Pozdr.
Artur S.
- a ja mimo (autor: mikuś | data: 21/05/08 | godz.: 13:32)
tego że gt200 będzie prawdopodobnie szybszy, wciąż trzymam kciuki za ATI i mam nadzieję że rodzina 4xxx nas pozytywnie zaskoczy:)
- @Dabrow (autor: pit808 | data: 21/05/08 | godz.: 14:12)
nie lekceważ @mogriego, on ma kontakt wiesz z kim .... ?? ;)
A tak serio, MORGI to jakiś FANATYK, i z takimi nie da się gadać, ale dobrze, że jest bo pośmiać się można, a czasami a nóż coś mu się uda wywróżyć.
Śmieszy mnie te "wróżenie z fusów" co do kart graficznych, proców i ogólnie wydajności na postawie suchych liczb.
Przecież tak się nie da !!!! Czasami proste rozwiązania są bardziej wydajne niż arcy skomplikowane rozwiązania. Same liczby też nic nie mówią - patrz historia PENTIUM IV.
Wiec pozostaje tylko czekać - i na karte i na testy.
- Te Morqi wsadz sobie te karte nvidii do... (autor: New Member | data: 21/05/08 | godz.: 15:18)
Garczka moze uda sie ugotowac zupe bu ha ha ha . A tak na serio to chyba nvidia sie dogadala z producentami zasilaczy bu ha ha ha ha....Wielki LOL dla nvidii i morqiego :-(
- mikuś pit808 NewMember (autor: morgi | data: 21/05/08 | godz.: 16:11)
Rozumiem, ze narzekacie dla zasady, ze wyjdzie karta, ktora wam przejdzie kolo nosa. Coz droga, ale wydajna, nie podoba sie, coz macie GF8800 dwuletnie, z drugiego rzutu, albo z trzeciej reki. Zupelnie nie rozumiem, co w tym dziwnego, ze po wielu fochach, ze nic nowego mocniejszego nie wpuszczaja, jak teraz wchodzi nowy rzeznik portfeli, zasilaczy i konkurencji dalej toczycie piane niecheci czy nienawisci. Nadchodzi krol, bezapelacyjnie najszybszy, a to ze kosztuje i ma swoje wymagania, to takie jest zycie.
- @margi (autor: pit808 | data: 21/05/08 | godz.: 16:23)
poczytaj co ty gadasz i o czym ??????
TEJ KARTY JESZCZE NIE MA, CENY TEŻ !!!!!!!!!!!!!!!!!!!!! WYDAJNOŚCI NIE ZNASZ, to znaczy my nie znamy, bo Ty znasz, i jest EXTRA ;)
A co do porównywania, to już kiedyś pisałem, że portfel jest podstawowym wyznacznikiem porównań, bo tak to se można SYRENE 105 LUX porównywać z FERRARI. Wiec porównamy karty (jak wyjdą) odpowiednio w danym przedziale cenowym i tyle.
A MAX TOPY to tylko ciekawostka, które nie służą do kupowania, tylko do prężenia mięśni przez firmy.
- pit808 (autor: morgi | data: 21/05/08 | godz.: 16:30)
Dlatego w rankingu oplacalnosci pierwsze 5 kart to GeForcy i dziekuje za uwage, mowie caly czas, ze bedzie wydajnosc za wlasciwa sobie cene.
- widzisz tam gdzieś karte (autor: pit808 | data: 21/05/08 | godz.: 16:42)
o której stękamy tutaj ??????
http://www.tomshardware.com/...m3-0-score,538.html
- nie no chłopaki ja wiem (autor: Dabrow | data: 21/05/08 | godz.: 17:10)
ale chciałem u źródła zapytać, czasem by się przydało coś na ubarwienie rzeczywistości - jeśłi tylko by było legalne ((((-;
- pit808 (autor: morgi | data: 21/05/08 | godz.: 17:49)
Masz tu dane i to, ze jestes pit nie musisz wciskac kit:
http://techreport.com/...topic.php?f=3&t=54603
- sorry koledzy ale musialem (autor: B3T0v3n | data: 21/05/08 | godz.: 17:58)
to jest taki maly cytacik w strone @MORGI "Nie ma mowy o jakiejkolwiek sensownej rozmowie. Mają swoje zdanie na każdy temat i nawet jeśli głoszą nieprzeciętne herezje, to i tak ty się mylisz."
link: http://nonsensopedia.wikia.com/wiki/Emo_(ludzie) mysle ze to bedzie calkowicie tlumaczace jego wypowiedzi
- nooo (autor: Meteor | data: 21/05/08 | godz.: 19:52)
ladnie - 10 klastrow po 24 zunifikowane shadery. Nvidia bedzie miala z czego wycinac na slabsze karty. Mozemy szybko spodziewac sie kart z blokami od 24 do 120 shaderow i odpowiednio obcieta magistrala. Mnie najbardziej interesuja uklady mobilne, szczegolnie ocs co zastapiloby moje Go7600. Wymagania mam skromne - conajmniej 2x wieksza moc chipu przy identycznym TDP i wsparcie dla dekodowania HD :) Oczywiscie cena tez na podobnym poziomie. Jesli nvidia zejdzie do nizszego procesu produkcji to prawdopodobnie takie cudenko pojawi sie na poczatku przyszlego roku.
- cala ta dyskusja jest smiechu warta (autor: power | data: 21/05/08 | godz.: 20:23)
zimno dzis na podworku, deszcz za oknem, chociaz z postow mozna sie posmiac, gdy czytam jak plebs sie kloci.
dawniej byly wojny atari-amiga, konsole-pc, a teraz nvidia-intel-amd.
- czy to aby prawda z tym DX10.1 ?? (autor: Mario2k | data: 21/05/08 | godz.: 20:43)
No jaja jakies sobie NVidia robi czy cus ???
Powszechnie wiadomo ze niektore operacje texturowania i np transparentny AA DX10.1
potrafi szybciej obrobic , wiec skoro brak
kompatybilnosci z DX 10.1 wydajnosci w najnowszych grach pod Viste moze byc zaniozona
- Słuchaj morqi... (autor: New Member | data: 21/05/08 | godz.: 20:47)
Dla mnie najwazniejszy jest stosunek wydajnosci do ceny oraz TDP bo jesli czlowiek musi sie utrzymac to patrzy na to ile to zjada wat , wiec morqi jestes niezyciowy bujasz w oblokach ja juz place 150 pln za prad na 2 misiace :-( am moj knfig to AMD3000+ 1G DDR 1 6600GT . Power , plebs to maszw domu jestem studentem i mam zamir bycc kims wiecej nic ci sie wydaje :-( . Konczac temat morqi na to co napisalem wiekszosc ludzi zwraca uwage przy zakupie karty . Po za tym najwiecj sprzedaje sie kart ze sredniego pulapu cenowego wiec wyluzj, bo latwo jest stworzyc potwora ale kto go kupi?...entujzasci tzn garstka ludzi ha ha ha ha LOL
- @Meteor: z tym wycinaniem będą mieli problem ... (autor: zartie | data: 21/05/08 | godz.: 21:23)
... bo nie da się równo wyciąć 3/4 jednostek :-D
- Poczekamy... (autor: Ceki | data: 21/05/08 | godz.: 22:05)
...zobaczymy czas pokaże, oby zasilacze do tych kart nie zasilały czajników bezprzewodowych lub żelazka :-) jeszcze trochę i potrzebne będą 1200W lub 2000W zasilacze :-) , w ciągu trzech miesięcy zużyję tyle prądu że będę mógł kupić nową kartę :)
- zartie (autor: Meteor | data: 21/05/08 | godz.: 22:05)
ale da sie wycia pojedyncze bloki - po prostu karty beda mialy o n blokow mniej + n ROPow mniej i slabsza szye - nvidia juz to robila z generacja 8
- nie karmic trola (autor: power | data: 22/05/08 | godz.: 00:28)
@New Member nic do Ciebie nie mam, tylko denerwuje mnie, gdy ludzie prowokuja trola, ten z kolei pisze bzdury, a tylko 10% komentarzy pod newsem jest na temat. moj ostry komentarz jest sprzeciwem wobec tego ze czesc osob chce sprowdzic poziom dyskusji na twojepc.pl do tego z onet.pl
- Do tych co maja "problem z pradem" (autor: G.W.B | data: 22/05/08 | godz.: 05:43)
Szybko liczac i zakladajac ze komp. chodzi 8 godzin dziennie 31 dni w miesiacu i pobierajac 600W to miesiecznie raptem wyjdzie 24zl a dam sobie reke obciac ze nie ma tutaj takiego napalenca aby komp ciagnal 600W to nie marudzcie ze tyle pradu co szkoda wam jednego czy dwoch piw ??????? Tagiega marudzacego narodu jakim jestescie to chyba nie ma w naszej galaktyce tylko krytykowac bezpodstawnie i farmazony sadzic potraficie:)))
A karta jaka bedzie taka bedzie wkoncu bedzie co kupic .Tak lubie sobie pograc i mi wisi czy karta czy monitor kosztuja 1-2 tys $ nie po to uczylem sie
- cos ucielo:)) (autor: G.W.B | data: 22/05/08 | godz.: 05:52)
24 lata aby martwic sie czy cos kosztuje 1-2-3-4 tys $ .Oczywiscie nie kazdy chce sie meczyc tyle lat to nich nie marudzi ze glupia karta graficzna do komputera bedzie kosztowac iles tam pieniedzy a jak mu i to nie pasuje to niech wezmie deske i sobie wystruga super duper karte :)))
Pazdrowienia marudy !!
- New Member (autor: morgi | data: 22/05/08 | godz.: 10:05)
Skoro setki tysiecy ludzi stac na karte za 600 ojrosow, to na rachunki za prad, ktore sa smiesznie niskie w takim porownaniu zwlaszcza ich stac. Dla ciebie sa inne priorytety, ale Nvidia masz najwieksza na swiecie rzesze fanow, rzadnych najwyzszej wydajnosci za wszelką cenę. Co jak co, ale teraz tylko ta firma bierze odpowiedzialnosc za rozwoj rynku GPU pod tym aspektem i nie wciska kitu, ze wielkie potwornej wydajnosci chipy sa do bani, bo jak pokaze GT200 wcale nie sa.
- power (autor: morgi | data: 22/05/08 | godz.: 10:13)
Moze cos konstruktywnego i na temat, bo piszesz posta jakby zywcem z onet.pl.
- G.W.B cos ci kalkulator szwankuje ... (autor: Brauni | data: 22/05/08 | godz.: 10:33)
albo masz bardzo tani prąd ...
0.6kW * 8h * 31 = 150kWh
1kWh kosztuje ok 45-55 gr wiec wychodzi 60-70 PLN/miesiąc..
- Tak a propos (autor: antrax | data: 22/05/08 | godz.: 12:12)
cen prądu to tu jest wyjaśnione http://zaklad.energetyczny.w.interia.pl/ceny.html
a co do GT200 to jak wyjdzie to się okaże ile kosztuje i jaki jest stosunek wydajność\cena
- plus (autor: niewidzialny27 | data: 22/05/08 | godz.: 13:19)
do tego stale przesylowe zmienne przesylowe, ktore niewiadomo jakie sa, bo z kazdym rachunkiem sa inne i rachunek wychodzi
- Ktos tu pisal ze placi 150zl na 2 miesiace (autor: morgi | data: 22/05/08 | godz.: 14:07)
za prad, czyli malo. Skonstatuje to wlasnym doswiadczeniem, ze tak srednio w wiekszym miescie to placi sie na taryfach calodobowych spokojnie 2x tyle, a przy ogrzewaniu elektrycznym to obroty licznika trudno zauwazyc, a cyferki z dziesiatymi kWh leca wezykiem.
- Widze ze morqi do ciebie nic nie przemawia.... (autor: New Member | data: 22/05/08 | godz.: 14:18)
Zal mi ciebi bo wyglda na to ze mam nadal podsuwa ci miske pod brode i zmienia pampersa jak malemu dziecku bu ha ha ha . Prad to nie wszystko jak bys mial jeszcze oplacic szkole 400 zl dojezdzac do pracy wyzywisc sie i jeszcze ubrac przy pensji 1000 pln na reke to bys szybko przejrzal na oczy i przestal srac takie banialuki ze co to jest 150 zl jak by ci na wszystko brakowalo LOL . Zagdzam siez toba power ale tu inaczej nie mozna jak ktos sam sie karmi takimi teskstami jak morqi :-(
- ... (autor: Aamitoza | data: 22/05/08 | godz.: 15:02)
roczne utrzymanie takiej karty (gdyby pracowała powiedźmy 12godzin dziennie, a 5 z tego pod obciążeniem) wyniosło by około 300zł, więc w porównaniu do ceny nie tak wiele.
- koszt pradu (autor: Gakudini | data: 22/05/08 | godz.: 15:07)
wzrosl na poczatku roku, ale patrzac po cennikach mozna liczyc po ok 25gr/kwh. wtedy wyjdzie 37zl. Ale GF8800GTS bierze ok100w wiec zuzycie wzrosnie o kolejne 100w czyli 6,2zl. To nie jest koszt przy karcie za 2000 zl :)
- Czyli jednak będzie w końcu prawdziwy next gen (autor: Grave | data: 22/05/08 | godz.: 17:19)
po 2 latach zastoju.
Specyfikacja robi wrażenie, a jeżeli się potwierdzi to GT 280 zrobi totalną miazgę z RV770.
2x wyższa wydajność wypełniania, ponad 2x wyższa wydajność teksturowania, z pewnością także znacznie wyższa wydajność shaderów.
Przy czym o ile u ATI wysoka przepustowość pamięci (czy to dzięki 512 bit szynie w R600 czy dzięki GDDR5 w R700) w praktyce nic nie daje, z racji niewydolności jednostek teksturujących nie będących w stanie wykorzystać takiej przepustowości, o tyle 80TMU w GT280 powinno w końcu pokazać co znaczy 512bit kontroler na karcie która potrafi w pełni z jego potencjału skoryzstać.
Szkoda tylko że na "next gen" od Intela trzeba czekać jeszcze pół roku. Żeby nie można było od razu kupić całego kompa nowej generacji tylko tak zbierać po kawałku :(.
- Grave (autor: Aamitoza | data: 22/05/08 | godz.: 18:11)
Tylko co z tego, ze totalnie highendowa karta robi wrażenie, skoro w segmencie do którego skierowany jest RV770 już karty nvidia wrażenia nie robią?
- Aamitoza (autor: Grave | data: 22/05/08 | godz.: 18:26)
Mając najmocniejszy hi-end mają z czego schodzić i pod tym względem ich pozycja jest lepsza niż ATI.
W razie czego przytną np. połowę jednostek TMU czy połowę ROP-ów a i tak z będzie tego więcej niż w RV770.
Sam RV770 wygląda bardzo obiecująco oferując wg wstępnych testów znacznie wyższą wydajność od poprzednika i nawet wyższą niż GF 9800GTX. Do tego nowoczesny proces, nowoczesne szybkie pamięci i sprawdzony świetny dekoder HD video.
Karta sama w sobie zapowiada się na pewno świetnie.
Z drugiej jednak strony konkurencja też nie przysnęła. I przy całej sympatii do ATI, marnie widzę szanse RV770 w starciu z nową serią Nvidii.
Dodatkowo proces 55nm u ATI w praktyce nie wykazywał swojej wyższości w zakresie poboru energii względem 65nm procesu u Nvidii mimo że powinien.
Nawet więcej - GeForce-y z serii 9 nie dość że pobierają mniej więcej tyle samo energii co Radeony w 55nm to jeszcze znacznie lepiej od tych ostatnich się podkręcają.
Prawdopodobnie proces 55nm nie jest jeszcze przez TSMC dopracowany i stąd Nvidia stawia na stabilny i pewny 65nm dla najwydajniejszych układów.
Z drugiej strony podejrzewam ATI o ustawianie względnie niskiego napięcia dla GPU, które ogranicza mocno ewentualne OC bez v-moda.
- @Grave (autor: rainy | data: 22/05/08 | godz.: 19:21)
Do walki z GT 280 to ATI wystawi RV770 X2 - ten ostatni pojawi się jednak cokolwiek później.
Co do Nehalema: jeżeli nie jest skłonny płacić za high-endową wersję ze 2000 zł (albo nawet więcej) to będziesz musiał poczekać znacznie dłużej - być może nawet do drugiej połowy 2009.
- rainy (autor: Grave | data: 22/05/08 | godz.: 19:44)
Z dotychczasowych przypadków jasno wynika że wydajność kart wieloprocesorowych jest ściśle uzależniona od sterowników i mocno loteryjna.
Tyczy się to zarówno wynalazków Nvidii pokroju 7900GX2, 9800GX2 jak i przede wszystkim ATI - 3870X2 z racji wyjątkowo spapranych sterowników tej ostatniej.
Raz możesz mieć zysk 80% względem pojedynczej karty, innym razem wręcz spadek spowodowany zbyt mocnym obciążeniem CPU, a nawet w grach w których karta trzyma względnie wysoki średni frame rate często zdarzają się nagłe szarpnięcia animacji czemu winna jest właśnie konstrukcja takich kart.
Dlatego ja takim konstrukcjom mówię zdecydowane "nie" bez względu na to czy pochodzą od Nvidii czy ATI. Jak ktoś kupuje kartę za ponad 1000zł i lubi się z nią użerać to proszę bardzo - mnie to nie bawi.
Osobiście byłbym BARDZO mocno (pozytywnie rzecz jasna) zaskoczony gdyby ATI udało się uzyskać przynajmniej 50% wzrost wydajności CF względem pojedynczej karty we wszystkich nowych grach.
Odnośnie Nehalema to ja miałem kasę przygotowaną wcześniej na Phenoma i R600 zakładając że wylądują zgodnie z planem w segmencie hi-end.
AMD pokpiło sprawę, a ja od tego czasu zdążyłem jeszcze sporo kasy dozbierać czekając na Nehalema.
Zatem jak wyjdzie to biorę go w najmocniejszej wersji. Cena zapewne będzie oscylować w okolicach 4000zł.
Szkoda tylko że to dopiero pod koniec roku! Bo tak chcąc teraz się cieszyć GTX 280 musiałbym wziąć jakiegoś taniego C2D pod LGA775 do tego równie tanią płytę będąc świadom że zostaną wymienione za pare miesięcy - jednym słowem - kretynizm.
Modele tańsze będą kompletnie odseparowane z racji innej podstawki, a zatem innych płyt głównych oferujących okrojony kontroler pamięci i zablokowane OC.
Mocno nieczyste zagranie Intela, ale cóż - jak AMD dokopali to sami dyktują warunki :(
- @Grave (autor: rainy | data: 22/05/08 | godz.: 19:59)
Sorry za ten oftopic - jesteś skłonny dać 4000 zł za procesor?
Nie wiem do czego zamierzasz go używać - ale jeżeli do gier do bardzo ci się dziwię.
- rainy (autor: Grave | data: 22/05/08 | godz.: 20:17)
Wpółczesne CPU nie nadążają w grach za wydajnością GPU. Stąd jeżeli już kupować najmocniejsze dostępne GPU to w parze z najmocniejszym CPU.
W przeciwnym razie nowa karta będzie się zwyczajnie marnować.
O SLI nie wspominając gdzie rola CPU dodatkowo wzrasta.
Zawsze też topowy sprzęt ma fatalny wręcz stosunek wydajności do ceny - taki jego już urok.
Raz na 10 lat można sobie taką krótkotrwałą przyjemność zafundować - w końcu głównie po to taki sprzęt jest, bo jego wartość czysto użytkowa kształtuje się znacznie niżej.
Przez kilka ostatnich lat odkładałem kasę korzystając z archaicznego złomu to teraz będę miał frajdę - tylko tyle i aż tyle.
- @Grave (autor: rainy | data: 22/05/08 | godz.: 20:31)
Przyznaję, że nie wiem ile modeli Nehalema Intel chce wprowadzić w tym roku.
Gdyby powiedzmy były ze trzy to moim skromnym zadaniem lepszą opcją jest kupić najtańszy z nich i go podkręcić - zaoszczędzając w ten sposób 1500-2000 zł.
- rainy (autor: Grave | data: 22/05/08 | godz.: 20:35)
W tym roku wejdzie tylko extreme.
Przy czym jak już wspomniałem Intel "brutalnie" rozdzieli platformę hi-end z midle i low-endem poprzez zastosowanie różnych podstawek.
I tak kupując płytę pod mainstreemowego Nehalema nie będę mógł do niej wsadzić modelu hi-endowego.
Na tejże płycie będę miał też 2-kanałowy kontroler pamięci zamiast 3-kanałowego, oraz ZABLOKOWANE OC - zatem takiego procesora nawet nie podkręcę choćby o 1Mhz, bo Intel możliwość podkręcania zarezerwował tylko dla modeli xtreme na innej podstawce.
- oplacalnosc zakupu (autor: power | data: 22/05/08 | godz.: 20:37)
@grave wcale Ci sie nie dziwie ze masz chec kupic nowy procek z 4k. jak ktos ma kase to kupi nowy cpu za 4000pln, bo jaki jest sens posiadania pieniedzy bez mozliwosci ich wydawania.
jedni kupuja drogie samochody inni drogie komputery. ja osobiscie kupuje procki za okolo 200-300$ i je podkrecam, chociaz moge sobie pozwolic na kupno drozszego to nie kupuje, bo nie jest to wedlug mnie oplacalne (bo kazdy cpu i tak podkrecam)
ps.jak znam zycie to nowy cpu intela dla desktopow nie bedzie drozszy niz 1000$ w usa, tyle ze w naszym fajnym kraju jak dolicza vat, clo i marze to wyjdzie okolo 4000pln.
- @Grave (autor: rainy | data: 22/05/08 | godz.: 20:45)
Myślałem, że Intel wprowadzi dwa-trzy modele z najwyższej półki.
Jeżeli jeden to rzeczywiście inna bajka.
Power, jedna drobna uwaga: drogi samochód nie zestarzeje się tak szybko jak drogi procesor.
- power (autor: Grave | data: 22/05/08 | godz.: 20:53)
Tym razem będziesz mieć do wyboru - albo zabulić za model z najwyższej półki, albo.... pogodzić się z relatywnie niską wydajnością taniego modelu, bo OC tanich modeli nie będzie możliwe.
Rainy --->
Fizycznie może samochód się nie zestarzeje, ale jego wartość rynkowa leci na mordę już po pierwszym roku...
- @Grave (autor: rainy | data: 22/05/08 | godz.: 20:59)
To prawda ale twój przyszły procesor po roku bedzie wart 50% lub niewiele więcej.
- nic nie jest pewne (autor: power | data: 22/05/08 | godz.: 22:44)
@grave z obecnych zapowiedzi wynika ze ma byc wersja nehalema triple i quad channel.
co do wydajnosci quad channel to jestem
bardzo sceptycznie nastawiony.
mysle ze to moze byc taki sam cyrk jak w przypadku plyty intel skulltrail? mniejsza wydajnosc w quad channel drogich pamieci fb-dimm z ecc, niz dual channel ddr2 bez ecc.
moze zintegrowany kontroler pamieci cos pomoze, ale trzeba na razie poczekac na oficjalne testy.
co do oc to licze ze firmy produkujace plyty glowne znajda jakis trick/furtke.
z drugiej strony procesory intela nie beda juz tak atrakcyjne wzgledem procesorow amd jezeli nie beda pozwalaly na oc. wystarczy porownac amd i intela o tych samych zegarach, w testach nie ma jakiejs kolosalnej roznicy, jedynie benchmarki pokazuja roznice, w codziennym uzyciu gry, programy, malo kto zauwazy roznice.
- w pr nie zarabia sie kasy za darmo (autor: power | data: 22/05/08 | godz.: 23:02)
test procesorow w grach w wiekszosci testow roznice nie sa wieksze niz 5% w kilku testach jest okolo 10-15% roznicy miedzy tak samo taktowanym procesorem. dopiero oc daje kopa core 2 duo.
http://twojepc.pl/...d=gpu_vs_cpu_gtx&strona=6
jaki jest z tego wniosek firmy takie intel i nvidia, ktore maja znaczny udzial swoich produktow na rynku zadowalaja sie jedynie kilkuprocentowym wyprzedzeniem konkurencji, lub obecnej generacji swoich produktow, gdyz wydanie np: karty graficznej czy procesora wydajniejszego o 50% od obecnych rozwiazan spowoduje stagnacje na rynku i spadek dochodow firmy.
dlatego kolejne produkty daja niewielki przyrost predkosci zazwyczaj srednio nie wiecej jak 15% w wiekszosci zastosowan.
jest to sprytne posuniecie, ktore ma na celu zapobiezenie nasycenia rynku.
- ale sie rozgadaliście :D (autor: ziemoone | data: 22/05/08 | godz.: 23:58)
nie chce mi sie wszystkiego czytac :D ode mnie tyle: szkoda ze nie ma dx 10.1 assasin creed dalej bedzie ze schodkami SIC! p.s. morgi ty sie nigdy nie poddasz :) co za ...
- power (autor: Grave | data: 23/05/08 | godz.: 02:16)
<<wystarczy porownac amd i intela o tych samych zegarach, w testach nie ma jakiejs kolosalnej roznicy, jedynie benchmarki pokazuja roznice, w codziennym uzyciu gry, programy, malo kto zauwazy roznice.>>
Pozwolę sobie nie zgodzić się z tą opinią.
http://www.egielda.com.pl/?str=art&id=3443-7
Poza Lost Planet gdzie Phenom mniej więcej jest zegar w zegar tak samo wydajny jak Core2Quad, różnica na korzyść Intela wynosi ponad 20% a w Fear ponad 60% przy tej samej (2,2GHz) częstotliwości taktowania Phenoma i Core2Quad.
20% różnicy przy tym samym zegarze to sporo, zwłaszcza jeżeli ta różnica przekłada się na 10-15, albo i więcej dodatkowych fps w grach.
Jeżeli któraś z firm musi (a przynajmniej powinna) ratować się OC w celu poprawy sprzedaży swoic procesorów to przede wszystkim AMD, ze względu na dużo mniej wydajną architekturę i związaną z tym niższą wydajność na takt zegara.
Nawet bez OC w tanim segmencie Intel będzie mieć najszybsze procesory zwłaszcza że Nehalem dorzuci kolejne 20-30% przewagi wydajności zegar w zegar względem Phenoma.
A OC swoją drogą nie zniknie, ale będzie dostępne tylko w najdroższych modelach.
<< z obecnych zapowiedzi wynika ze ma byc wersja nehalema triple i quad channel.>>
3 kanałowy kontroler otrzymają najszybsze procesory desktopowe, z kolei 4 kanałowy przypadnie platformom serwerowym. Nie wiem jak Intel rozwiąże kwestie następcy Skulltraila.
<<co do oc to licze ze firmy produkujace plyty glowne znajda jakis trick/furtke.>>
Raczej Intelowi nie podskoczą chyba że sam Intel zmieni zdanie w kwestii OC, jednak ten ostatni mając konkurencję ostawioną na boczny tor może dyktować warunki wg własnego widzimisie i pod kątem jak największego wydojenia kasy z klientów.
A ta blokada głównie zwiększy przychody, więc o ile AMD się nie przebudzi to Intel nie będzie miał żadnych powodów aby z tej dodatkowej kasy zarobionej dzięki blokadzie OC w tanich CPU zrezygnować.
- Troche dziwie sie ze niektorzy twierdza jakoby (autor: morgi | data: 23/05/08 | godz.: 11:41)
r700 na bazie 2 ukladow 770 bedzie godnie walczyc z GT200. Przypominam, ze r680 bylo porazką, pracowalo gorzej niz takze kiepskie 9800GX2, ale nadzieja jak to mowia w fanboyach umiera ostatnia. ati za rok wyda dopiero rywala GT200, dominacja zatem bedzie porownywalna jak przy okazji G80.
- 3870x2 (autor: mcz | data: 23/05/08 | godz.: 13:01)
jestem posiadaczem 3870x2 i nie wiem czemu sie jej czepiacie (pewnie ten kto jej nie ma)
gram w gre CoD4 w 1600x1200x75 (x4AA/16AF)wszystko wlaczone vsync tez, mam 75 FPS, jak sie robi wieksza chryja to spada mi do 60 kilku co nie znaczy ze odczuwa sie jakies zacinanie gry
a co do Nvidi to mam w laptopie i zawsze mam problemy z wyswietlaniem (CoD4 jak sie z jedzie z parametrami to 1024x768 sie pogra ale to nie to co na ati :-) )
- mcz (autor: Grave | data: 23/05/08 | godz.: 13:20)
Montowane w notebookach GPU mają być przede wszystkim energo oszczędne, a dopiero potem szybkie.
Optymalnym połączeniem szybkości i względnie niskiego poboru prądu są GPU serii GF 8 M (8400/8600).
Wydajność wyżej wymienionych odpowiada mniej więcej desktopowym kartom 8500GT/8600. Jak na laptopa to jest naprawdę bardzo dobra wydajnośc, ale nie można takich kart porównywać z dwuprocesorową kartą desktopową z przedziału midle żłopiącą ponad 200W!
Zatem GPU Nvidii nie jest wolniejsze dlatego że Nvidia robi wolniejsze karty od ATI, bo to bzdura. Jest wolniejsze bo jest przeznaczone dla notebooka, gdzie priorytetem jest oczędność energii.
Równie dobrze mógłbym napisać coś w tym stylu "mam w komputerze GeFrce 9800GTX i wszystko mi śmiga, a w laptopie mobility Radeon 3600 - eee to już nie ta wydajność co u Nvidii...;>".
- grave (autor: mcz | data: 23/05/08 | godz.: 14:26)
chodzilo o to ze jak zmieniam monitory , projektory to mi sie wyswietlanie rozsypuje, a nie porownywalem wydajnosci 3G (bo wiem ze byloby nie fer a ten jak sie przyczepil :-) )
- Grave...litosci chlopie nie mow mi o... (autor: New Member | data: 23/05/08 | godz.: 16:15)
energooszczednosci od nvidii bo mi kopara opada to nikt inny jak nvidia ma parzace chipsety na plytach głównych :-( . Nawet intel robi chlodniejsze P.S czyz by nvidia byla przychylna dla potentatów energetycznych a moze wzilea za to gruba koperte bu ha ha ha LOL dla nvidii
- @Meteor: oczywiście, że będą mogli wycinać pojedyncze bloki (autor: zartie | data: 23/05/08 | godz.: 23:52)
Teoretyczna możliwa liczba kart pochodnych zwiększyła się nawet do 10, a uwzględniając dowolność wycinania ROP-ów to nawet więcej. 3/4 było aluzją do pewnej karty klasy "oczko niżej" od topowych modeli :-D
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|