W sieci pojawiły się pierwsze zdjęcia przedstawiające budowę rdzenia nowych procesorów APU o nazwie kodowej Trinity, które trafią na rynek na przełomie marca oraz kwietnia i zastąpią oferowane dotychczas APU Llano z rdzeniami K10.5+. Układy będą wyposażone w dwa moduły Piledriver (ulepszony Bulldozer) z czterema rdzeniami x86 oraz zintegrowany układ graficzny Radeon serii 7000, prawdopodobnie zbudowany w oparciu o architekturę VLIW4. Chipy mają powierzchnię około 240 mm2 i w porównaniu do Llano są nieco węższe, ale za to wyraźnie dłuższe.
W górnej środkowej części rdzenia widzimy dwa moduły Piledriver, każdy z 2MB pamięci podręcznej drugiego poziomu. Po ich lewej stronie umieszczono interfejsy komunikacyjne oraz kontroler PCI-Express, po prawej stronie interfejs dwukanałowej pamięci DDR3 natomiast kontroler pamięci wraz mostkiem północnym znajduje się pomiędzy pamięciami podręcznymi modułów. W dolnej części rdzenia znajduje się układ graficzny.
APU Trinity (autor: Conan Barbarian | data: 6/01/12 | godz.: 20:00) Może być ciekawie.
... (autor: Sauron920925 | data: 6/01/12 | godz.: 20:08) ciekawe kiedy i co wsadzą do nowych konsol
... (autor: Aamitoza | data: 6/01/12 | godz.: 20:41) Cofanie się, czy jak? Widać wyraźnie 6 SIMD, a skoro jest VLIW4 to nie ma 384 procesory strumieniowe. Skoro chcą uzyskać 50% większą moc obliczeniową GPU, to będą musieli wrzucić zegary na poziomie 900-950mhz.
... (autor: Aamitoza | data: 6/01/12 | godz.: 20:41) To ma 384*
hmmm (autor: Mario2k | data: 6/01/12 | godz.: 21:03) Do nowych konsol zawsze wkladano to co najnowsze na rynku albo cos zblizonego wydajnoscia do topowych gpu danego okresu .
na dzien dzisiejszy modyfikowany GPU Tahiti pro
Mario2k (autor: Aamitoza | data: 6/01/12 | godz.: 21:44) Tylko, że wtedy te topowe GPU miały TDP w granicach 100W, a do konsol trafiały i tak wersje okrojone. Więc w konsolach można się spodziewać co najwyżej GPU podobnych do mobilnego topu.
... (autor: Sauron920925 | data: 6/01/12 | godz.: 23:04) No właśnie to mnie zastanawia. W momencie premiery Xboxa 360 czy PS3 to te GPU były dużo mniejsze, prostsze, wydzielały dużo mniej ciepła i pobór energii pewnie był ze 100-150% mniejszy względem obecnych, topowych układów. Do tego trzeba jeszcze dodać CPU i powoli zaczyna mnie zastanawiać czego możemy się spodziewać. Myślę że nadchodzące APU mogą stanowić zapowiedź nadchodzącej nowej generacji konsol. Nie wierzę że wsadzą coś pokroju GTX580...
Sauron (autor: Aamitoza | data: 7/01/12 | godz.: 00:05) Tak jak pisałem - wsadzą układy pokroju rynku mobile. TDP takich układów to 50-75W i więcej w konsolach nie będzie.
w przypadku konsol aktualnej generacji wsadzili mocno okrojone karty topowe. Tyle, że miały one TDP 100W, a i tak zwęzili im szynę, obcieli ROPy do połowy i jedynie shaderów nie poskąpili za bardzo.
Więc Skoro konsole mają wyjśc w przeciągu przyszłego roku więc w 28nm, to nie ma co się spodziewać cudów - będą to układy pokroju mobilnych z końca tego roku.
... (autor: Aamitoza | data: 7/01/12 | godz.: 00:10) Inna sprawa że M$ najbardziej chciał by pewnie od razu wydać układ SOC gpu + CPU w jednym, więc tutaj trzeba by uwzględnić nawet wolniejsze GPU pokroju HD68xx - około 1,5 miliarda tranzystorów na GPU, podobna ilość na CPU i mamy w 3 miliardach tranzystorów 8 rdzeniowego power7 + HD68xx. Oczywiście GPU było by wydajniejsze od 68xx bo zoptymalizowane pod konsole itd.
na chwile obecna (autor: Kosiarz | data: 7/01/12 | godz.: 01:17) co by nie wsadzili to i tak bedzie o niebo wydajniejsze niz poprzednia generacja. popatrzcie na specyfikacje tego co siedzi w konsolach a tego co mamy teraz. Jak beda optymalizowac kod gier tak jak to robia teraz no to mamy spokoj na kilka lat.
@up (autor: Plackator | data: 7/01/12 | godz.: 01:34) Kod nie jest optymalizowany ;)
@12. (autor: Mariosti | data: 7/01/12 | godz.: 04:04) Tylko sam magicznie wyciąga 1000% z gpu... sztuczki graficzne z teksturami itp to też optymalizacje.
@up (autor: Plackator | data: 7/01/12 | godz.: 12:26) Trudno nazwać pre-renderowanie sceny optymalizacja z mojego punktu widzenia, to tak jak by film który jest pre-renderowany nazwać optymalizowanym.
Optymalizacja możemy nazwać raczej renderowanie gry w bardzo niskich rozdzielczościach i później skalowanie ich
@Plackator (autor: Kosiarz | data: 7/01/12 | godz.: 12:39) kombinujesz jak kaczor pod gore. prawda jest taka ze jezeli chodzi o konsole to juz dawno skonczyl im sie zapas mocy a nadal tworza gry ktore wygladaja coraz lepiej. pre-rendery czy inne cuda - co za roznica. Gry wygladaja rewelacyjnie w porownaniu do tego co bylo standardem jak wypuszczali konsole na rynek i to sie liczy. Mozemy tutaj toczyc debate filozoficzna co sie zmienilo a co nie tylko po co...
Prawda jest taka ze jak te same zabiegi zastosuja dla kart pokroju radeonow 7k to beda gry wygladajace jak Avatar. Tyle w temacie.
kosiarz (autor: Aamitoza | data: 7/01/12 | godz.: 12:52) Chyba na screenach :D Bo tylko tam większość prerenderów wygląda świetnie.
@15 (autor: Plackator | data: 7/01/12 | godz.: 13:31) Nie wiem czy gra w rozdzielczości 960x7xx rozciągnięta do 1920x1200 wygląda jak marzenie, bo jak dla mnie wygląda jak rozmazana plama...
Po co szybsza grafika (autor: pomidor | data: 7/01/12 | godz.: 15:13) która będzie czekała na wolny CPU ? To jest niezbilansowany produkt. Może się nada do mielenia seti at home i tym podobnych.
Pozostaje czekać na Ivy Bridge z 2x szybszą grafiką, niskim poborem prądu i łatwym OC CPU do 5.5Ghz.
@15 (autor: Plackator | data: 7/01/12 | godz.: 15:14) poza faktem ze pre-renderowane sceny wyglądają jak doklejone modele 3D do doklejonej sceny, bo zazwyczaj cześć gry jest pre-renderowana.
@pomidor (autor: Conan Barbarian | data: 7/01/12 | godz.: 15:21) "Po co szybsza grafika która będzie czekała na wolny CPU"
Dlaczego szybkie CPU jest sprzedawane (na siłę) z beznadziejnym GPU w przypadku Intela?
Akurat w przypadku domowych zastosowań... (autor: Seba78 | data: 7/01/12 | godz.: 17:21) APU od AMD są korzystniej zbilansowane i w domowych zastosowaniach biją rozwiązania intela na łeb. Moc procesora intela ujawnia się tylko w kilku profesjonalnych zastosowaniach i to tylko dlatego, że programy są pod te procesory zoptymalizowane. Odbijają się niestety lata praktyk monopolistycznych.
Pomidor (autor: Aamitoza | data: 7/01/12 | godz.: 17:30) To intel ma źle zbilansowaną platformę - mocne CPU + słabe GPU.
U AMD masz średnie CPU i średnie GPU.
No właśnie... (autor: losarturos | data: 7/01/12 | godz.: 17:35) Jak masz w procku mocne CPU i za słabe GPU to ewentualnie dokupujesz grafę na pcie i wsadzasz w płytę. A jak masz średnie GPU i za słabe CPU to kupujesz mocniejszy procek i wsadzasz sobie go w d... bo w płycie już masz procka i nie ma placu na następny ;-)
hmm (autor: Seba78 | data: 7/01/12 | godz.: 17:42) U AMD mamy dobry procek i bardzo dobre GPU
W przypadku Intela mamy dobry procek i beznadziejne GPU lub bardzo dobry procek i beznadziejne GPU za kosmiczne pieniądze.
To nie jest dobry bilans do domowych i biznesowych zastosowań. Naprawdę trudno tu o racjonalny argument za platformą intela.
@25 ależ jest: z68 / lucid Virtu i .. nowe Ati 77xx-79xx (autor: AbrahaM | data: 7/01/12 | godz.: 17:58) 2d obsłuży integra z CPU (do czego z nawiązką wystarczy), 3D ATI. Dzięki "Zero Core Power" ATI znajdując się w stanie idle będzie konsumować.. całe 3W. Źródło: http://twojepc.pl/..._radeon_hd_7970&strona=5.
Konfiguracja marzenie dla kogoś, kto szanuje energię i potrzebuje wydajności..
Intel vs AMD (autor: Conan Barbarian | data: 7/01/12 | godz.: 18:02) W przypadku AMD APU mamy zdecydowanie lepsze dopasowanie CPU do GPU.
W przypadku Intela mamy świetne CPU i namiastkę GPU, którą najlepiej zwać zbukiem lub grafiką 2D, aby nie było nadużywania nazwy GPU.
@23 (autor: Plackator | data: 7/01/12 | godz.: 18:38) W przypadku APU, jeżeli masz dokupisz do APU grafike, łączy się nią i uzyskuje dużo większą wydajnosc.
Zresztą AMD idzie w całkiem inne rozwiązanie niż Intel, czyli dokładnie APU, nawet w przypadku serwerów....
heh rece opadaja (autor: Mario2k | data: 7/01/12 | godz.: 19:18) 7970 bierze okolo 3Watty przy wlaczonym screensaverze i mam tu na mysli black nie fajerwerki.
Tak przy okazji kiedy oniz zrobia porzadek z zarzadzaniem energia na kilku monitorach
mam grafe podpieta do Teli ogladam przez 2 godziny film nic nei robiac na kompie a monitor swieci przez ten caly czas daremnie :/ Taki babol od lat mialem nadzieje ze w seri 7xxx naprawia i dupa zbita
@up (autor: Plackator | data: 7/01/12 | godz.: 20:10) yyyy...?
Przecież na prawie każdym systemie operacyjnym możesz wyłączyć monitor po x minutach.
@30. (autor: Mariosti | data: 7/01/12 | godz.: 20:47) Problem w tym że przy podłączeniu przez hdmi wyłączenie wysyłania sygnału do monitora nie skutkuje jego wyłączeniem u mnie np jest wtedy niebieski obraz, na dvi nie ma problemu i faktycznie monitor przechodzi w stan uśpienia.
@29 - mnie też opadają (autor: AbrahaM | data: 7/01/12 | godz.: 22:05) przecież właśnie o tym pisałem, o tym, że praktycznie nieaktywna karta bierze tylko 3W i to jest jej b. silny atut. A jak to powiazać z Virtu i obsługą "2D" przez "to coś" wbudowane w CPU intela, to jest w efekcie bardzo miła kombinacja oszczędności energii i mocy do dyspozycji gdy trzeba..
Intel - jak jest wie ktoś? (autor: Conan Barbarian | data: 7/01/12 | godz.: 22:49) Czy ktoś znalazł oficjalne info lub testy poboru mocy dla Sandy Bitch w przypadku P67?
Chodzi o podstawowe pytanie - czy zbuczek jest aktywny czy nieaktywny?
@up (autor: Plackator | data: 7/01/12 | godz.: 23:23) 2500k na P67 przy prime95 pobiera 148W, a 2500k na H67 przy prime95 pobiera 148W
@Plackator (autor: Conan Barbarian | data: 8/01/12 | godz.: 13:31) czyli wszystko jasne
obawiam się, że procesor graficzny intela nie nadaje się nawet do 2D (autor: Seba78 | data: 8/01/12 | godz.: 14:53) Przecież to nie potrafi poprawnie obsłużyć obrazu z BR o innych problemach nie wspominając. Ten badziew ciągle się wysypuje jeśli chcemy zrobić coś wykraczającego poza standard wyświetlania pulpitu. I jeszcze ta jakość obrazu. Zgroza!
Plackator (autor: Mario2k | data: 8/01/12 | godz.: 20:05) Chyba nie lapiesz problemu ....
Monitor podlaczony po DVI TV podlaczony po HDMI
normalnie screen saver i wylanczanie monitora dziala bez problemu ,ale podczas ogladania filmow na TV monitor chodzi nonstop !!! nie dziala wtedy ani screen saver ani jego calkowite wygaszenie , moge go tylko przycieskiem wylaczyc ale to jest strasznie wnerwiajace .
Z tego co czytam tu i owdzie to wina sterownikow
widac trzeba kolejnych kilku lat zeby to naprawili :/
#Up (autor: Alt-Computer | data: 8/01/12 | godz.: 20:18) chyba jednak to nie w sterowniku problem.
BenQ VW2420H przez DVi i jakiś Samsung przez HDMI.
Monitor wyłącza się podczas oglądania filmu.
Karta 6970 (tryb teatralny).
D O D A J K O M E N T A R Z
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.