TwojePC.pl © 2001 - 2024
|
|
Czwartek 9 lipca 2009 |
|
|
|
Radeon HD 4350 ze złączem PCI-Express x1 Autor: Zbyszek | źródło: TechConnect | 14:52 |
(40) | Firma HIS zaprezentowała kartę graficzną ATI Radeon HD 4350, która do komunikacji z płytą główną nie wykorzystuje powszechnie stosowanego interfejsu PCI-Express x16, ani tym bardziej odchodzącego do lamusa AGP. Akcelerator wyposażony jest w złącze PCI-Express x1 oraz 512 MB pamięci GDDR3 z 64-bitową magistralą, a jego sercem jest układ RV710 z 80 procesorami strumieniowymi. Częstotliwość taktowania chipu wynosi 600 MHz, natomiast pamięci 1600 MHz (efektywnie). Na śledziu znajdują się złącza DVI oraz HDMI i D-Sub. Sprzedaż karty rozpocznie się w ciągu kilku najbliższych tygodni. Dokładna cena nie została jeszcze podana.
|
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- ... (autor: kkk | data: 9/07/09 | godz.: 18:56)
Co wy macie z tym "odchodzącym do lamusa" AGP !?
AGP nigdzie nie odchodzi, odeszło już przynajmniej 4 lata temu !
- Lenin (autor: AZet | data: 9/07/09 | godz.: 20:17)
wiecznie żywy ;)))
- czyli (autor: Macom | data: 9/07/09 | godz.: 21:21)
PCI-Express x 16 to wałek?
- Mam pytanie (autor: ZeXeL | data: 9/07/09 | godz.: 21:25)
Dlaczego na serwisie PClab jest news, że ta karta ma GDDR3 a nie GDDR2?
Kto ma rację? :P
- uuu (autor: Jacek_2004 | data: 9/07/09 | godz.: 22:04)
ale bida :)
- A mnie się podoba (autor: agnus | data: 10/07/09 | godz.: 01:40)
ten accelerator. Ma ładny kolor i wiatraczek. Jacek nie znasz sie.
- Mogli skrocić kartę o połowę (autor: pwil2 | data: 10/07/09 | godz.: 10:10)
i wtedy byłaby to jakna karta dla tych, którzy potrzebują podłączyć kilka monitorów i niczego więcej od karty graficznej.
- pasztet. (autor: doxent | data: 10/07/09 | godz.: 12:44)
zwłaszcza ten wentylatorek. Pamiętam podobne z czasów Radków 9550. Zacierały się one na potęgę a fragmenty plastiku ulegały nawet stopieniu. Mogli dać więcej blachy i zrobić to pasywne.
- a sie zapytam w kwestii technicznej (autor: leonx | data: 10/07/09 | godz.: 12:55)
jest jakis konkretny powod, dla ktorego to zlacze DVI nie mialoby byc umieszczone na tasiemce? D-SUB na plytce pozwoliloby poprawic jakosc obrazu, a przy DVI to chyba wszystko jedno bo transmisja jest cyfrowa...
- ........... (autor: Marek1981 | data: 10/07/09 | godz.: 13:14)
@doxent - za czasów radka 9550 go nie miałem:) mój był pasywny (gigabyte) i się kręcił .... :)
@leonx - DVI jest o wiele lepszym łączem więc wolałbym go mieć podpiętego bezpośrednio a nie po jakieś tasiemce.
- .......,....,...,.. (autor: matrix0123456789 | data: 10/07/09 | godz.: 13:17)
Na ich miejscu wydłużył bym płytę drukowaną (to niebieskie) i wszystkie złącza na niej przypiął.
- Karta (autor: AmigaPPC | data: 10/07/09 | godz.: 13:18)
idealna do nettopów z CPU Intel, które mają najczęściej bidę czyli IntelGMA i złącze PCI-Ex1.
Myślę, że HIS się dobrze w rynek wstrzelił, byle z ceną nie przesadzili.
- Amiga (autor: morgi | data: 10/07/09 | godz.: 15:02)
Po co? Zeby wylo kosztem paru pkt w 3dmarku.
- up... (autor: 5eba | data: 10/07/09 | godz.: 15:45)
dla hdmi zamiast d-sub'a ^^
Takich płyt jest sporo w różnych starszych MC.
- ... (autor: trepcia | data: 10/07/09 | godz.: 15:55)
No tak, morgi ocenia głośność wentylatora po jego wyglądzie. Uff... ale się uśmiałem, pora zjeść obiad.
- qqq (autor: matrix0123456789 | data: 10/07/09 | godz.: 16:55)
Nie karzda płyta ma zintegrowaną grafikę.
- ........... (autor: Marek1981 | data: 10/07/09 | godz.: 17:31)
@AmigaPPC poruszyłeś dobry temat, jakość pseudo grafik intela jest żałosny:))
morgi - umiemy czytać czy nie?? to jest dla takich userów co mają integre intela, dosyć że mało wydajną to jeszcze kiepski obraz i żenujące przekłamania
- Marek (autor: morgi | data: 10/07/09 | godz.: 19:24)
Nie zartuj, bo polowa swiata o tym nie wie i nie sklada reklamacji, oprocz slabej wydajnosci calego rynku igp o reszcie nic nie slychac bylo, ale to pewnie taka fama jak o lepszosci jakosci obrazu u radeonka, wiedza o tym wybrancy..
- @morgi (autor: Promilus | data: 10/07/09 | godz.: 19:54)
Nie wybrańcy, a ci co mieli i jedno i drugie.
- Promilus (autor: morgi | data: 10/07/09 | godz.: 21:09)
Taaa, oczywiscie to mnie zawsze rozwala, bo afera w mediach branzowych wyszlaby dawno, o ati stream i jego felerach tez bylo.
- @morgi (autor: Marek1981 | data: 10/07/09 | godz.: 22:46)
jak zwykle bredzisz!!! kolejna debilna wypowiedź, jak nie potrafisz zaprzeczyć to wynajdujesz inny temat i podczepiasz.
Afera już wyszła dawno (obraz nvidia vs ati) a o intelu nie chcieli pisać dokładniej bo to grafy "do worda" :P
- takie wentylatory (autor: Jacek_2004 | data: 10/07/09 | godz.: 23:43)
były na płytach głównych abit NF-7
- @mogri (autor: Takeya | data: 11/07/09 | godz.: 00:22)
pod grafa ati nieco leciwa juz gierka "penumbra" przynajmniej nie tworzy mi przeklaman grafiki - za to gra wyglada smiesznie na moim lapku z grafa intela - siedze w pokoju, materac stara sie odbijac jakies swiatlo, biale sciany miejscami swieca na rozowo.
pozatym, wytlumacz mi, czemu na grafie intela (intel gma x3100) moge odpalic counter strike source na minimalnych detalach i grac z ~20 fps'ami, skoro to gra z 2004 roku, a w pierwszego unreala czy half life'a nawet tych 20 klatek czasami nie wyciagam? nie musze chyba mowic, ze kumpel z gf 5200 odpala te 2 gierki na full i mu sie nie tna? czyzby intel w miare sobie radzil jedynie z dx9?
a co do karty z newsa - chlodzenie jest bardzo dobrze rozwiazane dla tej karty. na swoje osiagi nie wymaga chlodzenia pamieci, a wentylator mozna latwo zmienic na inny - sam takowy posiadalem w swoim starym gf 6200.
a co do zastosowania - stosunkowo malo plyt glownych posiada zlacze pcie x1 (np. moja nie ma) - a to znaczaco zmniejsza ilosc chetnych...
- "takie"? (autor: piobzo | data: 11/07/09 | godz.: 07:43)
z definiuj "takie"... bo wiesz to ze wentylator jest podobny, czy chlodzenie jest tego samego typu o niczym nie swiadczy. I uwazajcie co piszecie... bo co jak co, ale kolesie z His'a na chlodzeniu sie znaja(pod tym wzgledem jedne z najlepszych produktow).
- ..... (autor: Marek1981 | data: 11/07/09 | godz.: 09:10)
Ja zauważyłem w każdej starszej grze ogromne przekłamania (fifa05,hard truck,unreal,cs,ja2,diablo 1 i 2) co wiąże się z wqrzaniem na maxa.
Nawet na gf2 działało to lepiej, prawie nie było błędów.
- Marek (autor: morgi | data: 11/07/09 | godz.: 11:19)
Jasne bredze, ale przy okazji R600 wyszlo szydlo z wora, obraz jest duzo slabszy na ati w grach, przez slabe teksturowanie, o rozmazywaniu tekstur obrazu w aa tez wspominali. O ile mi wiadomo, kwestia pozostala w serii r7xx. Obraz 2d to kwestia ustawien by default.
- Takeya (autor: morgi | data: 11/07/09 | godz.: 11:36)
Jak odpalac gre na starszych GMA, jak one nie maja pelno sprzetowego T&L, po co w ogole wlaczac gre na takim sprzecie z przeznaczeniem do biur, no chyba tylko zeby zagrac sobie w flashowe gierki i sims, bo nawet na to nie ma zapotrzebowania u doroslych, pracujacych najczesciej siegajacych po GMA. Funkcje wyswietlania obrazu to baza i dekodowanie video np. to juz feature. Z kolei do HD z czystym sumieniem mozna polecic tylko chip Nvidii, z bolem tutaj chyba taki Ion jest dobry, testy potwierdzaja lepszosc zielonych.
http://www.driverheaven.net/...d=552&pageid=18
- morgi (autor: Markizy | data: 11/07/09 | godz.: 12:42)
czemu ładujesz linka sprzed roku ponad ? a dwa to ze u ATI nie działa program do kodowania filmów przy użyciu karty jak należy to nie znaczy że są obecnie na złom. Chłopaki dzielnie poprawiają wszystkie błędy w grach jak i w sterownikach to w czym problem ? żądają od ciebie za to jakiejś zapłaty ekstra ? nie to się odczep od ATI raz na zawsze. Bo to że intel nie ma startu do ATI i Nvidi do inna historia.
A ta karta ma zastosowanie głównie tam gdzie chodzi obsługę wielu monitorów :) każda taka karta pociągnie 2 monitory a to niektórym osobom jest potrzebne.
- Markizy (autor: Dabrow | data: 11/07/09 | godz.: 13:28)
potrzebne - owszem, ale ja np. potrzebuję 2x DVI - mam dosyć vga i już... I sęk w tym że z DVI można łatwo zrobić vga, a w drugą stronę buko...
- Dabrow (autor: Markizy | data: 11/07/09 | godz.: 13:34)
nie dziwie ci się że masz dość VGA, no ale od biedy da się i z nim żyć. Chociaż nie wiem czy teraz przez VGA nie idzie sygnał cyfrowy jak zostanie wykryty monitor który obsługuje taka transmisje.
- @morgi (autor: Promilus | data: 11/07/09 | godz.: 15:28)
Szkoda tylko że żadna karta tak realnie nie ma już osobnej jednostki do T&L, w kartach SM2.0 wzwyż realizowane to było na vertex shaderach (bo też i vertex shadery są rozwinięciem T&L). A tak poza tym co ma słabe teksturowanie do JAKOŚCI obrazu... jeśli teksturowanie jest słabe to sceny z dużą ilością tekstur będą się po prostu długo renderować, czyt. spadnie wydajność...do jakości ma się to nijak. No, ale morguś wszystko wie najlepiej.
- ........ (autor: Marek1981 | data: 11/07/09 | godz.: 15:40)
hehe kolejny obciachowy komentarz morgiego, aż żal po woli to komentować. Zrobię to ost raz.
1 Otóż jak nie z 3mc jakiś przedstawiciel intela rzekł że na ich grafach można pograć w starsze gry....
2 R600 był przekombinowany ale nadal jakość obrazu była lepsza od nvidii:)
- Morgi (autor: zbychter | data: 11/07/09 | godz.: 18:06)
Ty masz depresję, a może cie biją??? AMD też robi procesory, Ati TEŻ robi karty graficzne i musisz sie z tym pogodzic
- Promilus (autor: morgi | data: 12/07/09 | godz.: 15:59)
To co dawniej bylo kojarzone z TCL teraz nazywa sie shader i nazywalo sie i dalej tak ma akceleracja sprzetowa 3D i robiona jest na procu albo gpu. Tak swoja droga od pewnego czasu w sprzecie sa tylko unifed, nie ma juz v i ps. ati maja malo i slabsze jednostki od tekstur wyraznie optymalizuje i manipuluje przy jakosci, anizo jest duzo slabsze.
- Marek (autor: morgi | data: 12/07/09 | godz.: 16:04)
Intel zawsze ostrzegal, ze niektore gry po prostu nie wspolpracuja dobrze z jego sprzetem, albo nie jest wykrywane akcelerowanie T&L na nim. Po pierwsze to nie zalezy developerom, bo z reguly sadza ze GMA mozna sobie olac jako platforme dla swoich gier, a po drugie Intel jest w trakcie przebudowy wydzialu vpu na cos innego, wiec gma ma sluzyc bazowo jako oszczedny kontroler od generowania obrazu.
- @morgi (autor: Promilus | data: 12/07/09 | godz.: 18:15)
Pierdzielisz jak połamany... anizo jest dużo słabsze? Od czego? Co widać? Bo wiesz, tak sobie odpalam CoD4 czy Tiberium Wars raz na HD4670 a raz na 9600GT i różnicy w obrazie zasadniczo nie ma, a nawet jest drobna in plus na radku ze względu na to iż mam CRT 21'' z rozdziałkami full hd ;) Jednak wbudowany RAMDAC sprawdza się nieco lepiej niż NVIO. A jeśli chodzi o manipulacje to ty jesteś w tym specem :]
- Promilius (autor: RuMuN | data: 13/07/09 | godz.: 08:20)
Ostatnie zdanie ;) hahahah :D i hehehe :>
- morgi (autor: Dzban | data: 13/07/09 | godz.: 11:23)
Z tymi rozmazanymi teksturami to był problem r600 bo miał słabą wydajność z AA i zrobili jakieś dziwne tryby AA mniej obciążające Ropy i rozmazywały obraz chociaż w sumie trzeba było się przyglądać i dobrze było to widoczne tylko na screenach. Od serii 4xxx problemu nie ma bo ATI już nie używa tych głupich trybów AA.
Z tym dużo słabszym anizo to też jakaś bzdura.
Wymyśliłeś to na poczekaniu?
A poza tym intel 3100 ma sprzętowe vertexy czy zunifikowane i też jest do dupy w grach nawet starych i słabych graficznie.
- Dzban (autor: morgi | data: 13/07/09 | godz.: 18:48)
To jest to samo w r7xx, wlacz sobie filtry znane z r6xx i bedzie to samo, anizo ati ma duzo slabsze zwlaszcza optymalizuje katowo, bo ma o polowe mniejsza moc teksturowania jak w podobnej cenie Nvidia. amd obralo zla taktyke i ratuje sie obnizkami cen, ale jak zwykle za pozno, bo Nvidia zyskuje dzieki lepszej jakosci w bardzo dobrej cenie i stad takie newsy jak ten
http://online.barrons.com/...4725011233824459.html
- @morgi (autor: Promilus | data: 13/07/09 | godz.: 19:41)
Pokaż mi tą gorszą jakość, proszę pokaż. Co do filtrów w AA to nvidia też takie ma (CSAA) więc nie truj tylko weź się do pracy.
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|