Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Środa 8 listopada 2006 
    

MSI przedstawia GF 8800


Autor: Adam | źródło: HardwareZone | 13:01
(10)
Dziś ma się odbyć oficjalna premiera nowych kart graficznych firmy nVidia bazujących na układzie o kodowej nazwie G80, który korzysta z architektury Unified Shaders i wspiera standard Shader Model 4.0. Firma MSI przedstawiła dwie karty z tym układem: NX8800GTX-T2D768E oraz NX8800GTS-T2D640E. Pierwsza z nich posiada GPU pracujące z prędkością 575 MHz i zawierające 128 uniwersalnych jednostek cieniowania oraz 768 MB pamięci GDDR3 z 384-bitową szyną, taktowanych zegarem 900 MHz DDR. Druga z kart korzysta z układu w wersji GTS, pracującego z prędkością 500 MHz i oferującego 96 uniwersalnych jednostek cieniowania, oraz 640 MB pamięci GDDR3 z 320-bitową szyną, taktowanych zegarem 800 MHz DDR.

 
    
K O M E N T A R Z E
    

  1. obsluguja DX10? (autor: Chucky | data: 8/11/06 | godz.: 13:12)
    bo jak nie - to wielka kupa...

  2. Jasne że tak... (autor: AdamDuzy-Redakcja | data: 8/11/06 | godz.: 13:18)
    było już o tym pisane wiele razy :) Jest Shader Model 4.0, co oznacza DirectX 10. Jest także architektura Unified Shaders. Aha, sądze, że wkrótce będzie też u nas recka... nawet bardzo wkrótce :P (sorry DYD jeśli coś za dużo chlapnąłem ;))) ).

  3. @AdamDuzy (autor: Chucky | data: 8/11/06 | godz.: 13:33)
    sorki za niedoinformowanie, natlok informacji...
    IMO bez sensu testowac GF8 - skoro tak naprawde nie ma ostatecznej wersji Visty(DX10) + ani dopracowanych sterów...


  4. Poczekaj do recki... (autor: AdamDuzy-Redakcja | data: 8/11/06 | godz.: 14:26)
    moim zdaniem te karty są wystarczająco dobre w DX 9, żeby się nimi zajmować teraz. A co będzie w DX 10 to się zobaczy...

  5. Chucky: (autor: Kriomag | data: 8/11/06 | godz.: 15:58)
    hmm, a bez sensu jest uzywac/testowac A64 pod windą 32-bit? :)

  6. @AdamDuzy (autor: Kosiarz | data: 8/11/06 | godz.: 17:20)
    DYD juz wspominal ze ma to cudenko w domu w komentarzach do testu kart ~1000 zl :)

    BTW tak sobie wspominam i wspominam najlepsze platformy do grania i

    Kiedys rzadzil intel wraz z nvidia (TNT i pierwsze GeForce)

    pozniej najlepiej sie spisywaly AMD wraz z ATI (9700 i 9800)

    jeszcze troszke pozniej mielismy praktycznie remis

    a teraz znowu intel ze swoim C2D i nvidia z G80 sa najlepsze...

    Ciekawe czy AMD pokona intela swoim 4x4 a nvidie tym nowym radkiem (nie pamietam jak on sie ma zwac)


  7. A i jeszcze jedno (autor: Kosiarz | data: 8/11/06 | godz.: 17:23)
    Nie wie ktos dlaczego nvidia nie wrzucila na poklad nowych kart GDDR4 ? Jakos niedawno chyba samsung sie chwalil ze juz je moze robic....

  8. ddr4 (autor: komisarz | data: 8/11/06 | godz.: 17:55)
    Zapewne chodzi o cene + mozliwosci produkcyjne samsunga (to ze moze je robic nie znaczy, ze je robi masowo po cenie zlbizonej do ddr3).

  9. obsluguja DX10? (autor: Chucky (autor: RusH | data: 8/11/06 | godz.: 18:43)
    ciezko ciezko
    kazda karta ma wlasne API z funkcjami jakie obsluguje

    DX10 nie jest magicznym zbiorem funkcji jakie sobie M$ wymyslil, jest to zbior funkcji jakie NVIDIA/ATI/inni vendorzy stwierdzili ze BEDA OBSLUGIWAC i chca windziane API pod nie (pisze windziane, bo ta normalna reszta swiata uzywa Opengl z rozszerzeniami)

    wiec to NIE KARTA obsluguje DX10, tylko DX10 jest odpowiedzia na nowe funkcje zawarte w nowych architekturach gpu


    Kosiarz po co im wiekszy zegar jak dali 320bit szyne danych do ramu ? :)


  10. @Chucky (autor: Kosiarz | data: 9/11/06 | godz.: 18:28)
    no jak to po co ?, po to ze teraz ati/amd moze sie chwalic ze gddr4 bylo juz w X1000 a juz napewno z niego nie zrezygnuja we flagowych 600, co automatycznie daje ati spoooora przewage w dodatku przy 512bit szynie :),

    @komisarz
    ati z gddr4 nie odbiega cenowo jakos znacznie od modeli z gddr3 a co do mozliwosci samsunga to nie wiem.

    W KAZDYM BADZ RAZIE NIE ZMIENIA TO FAKTU ZE KARTA BYLABY WYDAJNIEJSZA PRZY GDDR4 :)))

    a nam tylko pozostaje sie zastanawiac czemu tak nie jest :P


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.