Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Środa 22 maja 2013 
    

PlayStation 4 kontra Xbox One


Autor: Wedelek | źródło: Vr-Zone | 08:53
(25)
Wczoraj zakończyła się konferencja Microsoftu, na której poznaliśmy specyfikację konsoli Xbox One i zobaczyliśmy jakie usługi i gry będą dostępne dla następcy Xboksa 360. Pełną relację z konferencji Microsoftu znajdziecie TUTAJ. Xbox One, pod względem specyfikacji technicznej będzie bardzo podobny do PlayStation 4 i nic w tym dziwnego, bo APU dla obu tych produktów będzie produkować firma AMD. Nie oznacza to jednak, że obie konsole będą miały taką samą specyfikację techniczną, bo mimo licznych podobieństw będą występować spore różnice pomiędzy nimi.

Różnice te najlepiej widać w zamieszczonej poniżej tabelce, przygotowanej na podstawie opublikowanych dotychczas danych:


 


    
K O M E N T A R Z E
    

  1. M$ szumnie głosi (autor: ghs | data: 22/05/13 | godz.: 09:05)
    hasła konieczności rozwoju nowych technologii itp itd a tu jak widać z racji oszczędności kilkudziecięciu dolarów na współdzielonych zasobach RAM stanie się hamulcowym postępu w branży gier. taka kotwica jak DDR3 zablokuje rozwój tej branży na kolejne 7 lat

  2. Sony is back! (autor: mcm | data: 22/05/13 | godz.: 09:37)
    Akcje Sony szybują na giełdzie. XBOX ONE to totalna porażka. Szykuje nam się nowy WebTV zamiast konsoli do gier.
    Jeśli chodzi o ram to na pokazanej płycie głównej jest 16 kostek DDR3 czyli będzie szyna 512bit co trochę zmniejszy różnicę między PS4 które ma tylko 256bit a biorąc pod uwagę ceny pamięci to rozwiązanie MS może okazać się lepsze.


  3. eeee tam (autor: franc# | data: 22/05/13 | godz.: 09:41)
    dzis ps3 ma 256ram i 256vram i popatrz na gierki - robia wrażenie. Teraz pomnóż to przez 16.
    Druga sprawa, to dzieki temu ograniczeniu znowu będą musieli optymalizować, a nie to co na PC: oj dołóż ramu... oj zmień grafike.. za mało rdzeni... wymień płyte :-P


  4. @ghs (autor: rookie | data: 22/05/13 | godz.: 09:42)
    Oj nie jest tak zle - 8 rdzeni x86, grafika 2Tera flops DX11.1, 8GB szybkiej DDR3 2133 (czyli prawie dwa razy szybciej od uzywanych obecnie ddr 1333 w PC). Zestaw ten zapewni zgodnosc oprogramowania na kilka lat, w tym samym czasie beda wychodzic gry na konsole co na pc/laptopy. Mam nadzieje za AMD niedlugo pokaze 8 rdzeniowego Jaguara dla pc na mini-itx'ie.

  5. @ghs (autor: Conan Barbarian | data: 22/05/13 | godz.: 09:43)
    Kotwica powiadasz?
    Hamulcowym jest rzeczywiście M$, ale przez takie niewypały jak WinME, WinVista, Win8.
    Sony też nie jest bez winy, ale w zupełnie innych segmentach rynku.
    Co do rozwoju DDR, to pamiętam jak Intel w czasach najlepszego historycznie chipsetu i820 zaklinał się, że w DDR nigdy nie wejdzie. Gdyby nie AMD i odważne decyzje tej firmy, to dzisiaj bylibyśmy na poziomie pierwszych Core 2 Duo.


  6. mcm (autor: Markizy | data: 22/05/13 | godz.: 10:11)
    rozwiązanie M$ nie okaże się lepsze bo będzie znacząco droższe, prawdopodobnie M$ nie chce jakoś specjalnie korzystać z współdzielenia pamięci dlatego upchał jeszcze 32v RAMu, co w sumie w takiej ilości obecnie jest mało wystarczające, 128MB to bym rozumiał, ale 32MB?

    @rookie
    jeśli pamięci w xkocku osiągnął 1866 to będzie sukces, ale podejrzewam że będzie 1600 a najpewniej 1333.

    @Conan Barbarian
    tylko zapominasz że intel się zaklinał że najlepszym rozwiązaniem jest RAMBUS, o ile koncepcja była dobra to wykonanie obydwu firm żałosne, jak widać fanów intela brakło żeby kupować te mega hiper wydajne pamięci ;)


  7. och, ten translator (autor: daver | data: 22/05/13 | godz.: 10:12)
    "Sezon wakacyjny 2013", holiday season (premiera PS4) to jest okres Swiat BN, a nie wakacji.

  8. @Markizy (autor: mcm | data: 22/05/13 | godz.: 10:31)
    Podam ceny pamięci dla porównania co się bardziej opłaca DDR3 czy GDDR5. Cena 1 GB DDR3 1800 MHZ w Radeonie 6570 to 3.89$ a cena 1GB GDDR5 w Radeonie 6670 to 18.45$ mnożąc to przez 8 wychodzi ponad 100$ różnicy między pamięciami zakładając że interfejs 512bit kontra 256bit zwiększy koszt PCB nie więcej niż 10$ a 32MB wbudowanej pamięci eDRAM w przedzale 10$-20$ to rozwiązanie MS jest tańsze i równie wydajne. Gdyby PS4 zostało przy 4BG jak planowano wcześniej to koszty byłyby podobne.

  9. mcm (autor: Markizy | data: 22/05/13 | godz.: 10:40)
    skąd ty te ceny wiozłeś ceny pamięci?
    koszt PCB nie wzrośnie o 10$ tylko znacznie więcej, bo dochodzą kolejne warstwy, dlatego lepiej wyposażone itx kosztują często tyle samo co dobrze wyposażone płyty atx. I jak by koszt PCB wzrastał o 10$ jak pisałeś to by karty ciągle używały 512bit kontrolerów pamięci np gxt680 czy 7970, a robi się wszystko żeby do tego nie doszło.

    I nie zapominaj że 512bit to ponad dwa razy więcej wyprowadzeń dla pamięci, które trzeba rozprowadzić od chipu do podstawki układu, a następnie na płycie głównej.

    Osobiście podejrzewam że różnica w pamięciach jest znacznie mniejsza co najwyżej 1-5$ na 1GB pamięci, a koszt PCB + układ to jakieś 50$.

    32MB edram miał x360 (jak dobrze pamietam), nie uwierzę że przez miniaturyzacje nie da się obniżyć jego kosztów produkcji tak żeby upchnąć 128MB. Będą porównania konsol na żywo to się okaże.


  10. @Markizy (autor: mcm | data: 22/05/13 | godz.: 10:50)
    http://forums.anandtech.com/...hread.php?t=2302252
    tu masz link do tabelki pokazującej ceny konkretnych podzespołów kart graficznych. Chociaż ta tabelka może już mieć ponad rok to proporcje cen nie zmieniły się tak bardzo. Jak widać PCB nie kosztuje więcej niż 10$ a ceny układów 6670 i 6870 to 20$ a oprócz interfejsu pamięci różnią się jeszcze wielkością układu. A dlatego nie stosuje się 512bit na kartach bo poprostu jest na niej za mało miejsca na 16 kostek ramu bo jedna kostka ma 32bity


  11. edit (autor: mcm | data: 22/05/13 | godz.: 10:56)
    miało być: różnica cen między układami 6670 i 6870 to 25$

  12. Kto robil ta tabelke~!!!! (autor: marioking | data: 22/05/13 | godz.: 11:30)
    Zamiast pomoc ktos tu kpi z czytelnika, jakby sie ktos bawil w stosowanie polskich zasad pisowni by nie powtarzac tych samych slow i stsowac synonimy. I by na sile udowodni roznice mimo ich braku!! Bo wiekszosc to to saomo ujete w inne slowa :P

  13. nowy kinect (autor: piobzo | data: 22/05/13 | godz.: 12:50)
    http://gizmodo.com/...xbox-sees-you-like-509155673

  14. ps4 (autor: angh | data: 22/05/13 | godz.: 13:01)
    bo to ma byc maszyna do gier i netflixa;). Nic, co pokazal ms, nie jest ani innowacyjne, ani naprawde dla mnie przydatne.

  15. @14 (autor: piobzo | data: 22/05/13 | godz.: 13:53)
    bo po co miał pokazywać, że xbox potrafi dokładnie to samo co ps4? xbox to też konsola też będą gry...
    gdyby pokazali wszystkie gry na na one to nie mieli by czego pokazywać na targach e3...


  16. PlayStation 4 kontra Xbox One (autor: Marucins | data: 22/05/13 | godz.: 14:15)
    Komu ma służyć to zestawienie?
    Toż tu nie ma nawet dokładnych danych z XOne.


  17. up. (autor: piobzo | data: 22/05/13 | godz.: 14:21)
    poza tym wiesz, że to trzeba extra chłodzić... 8 GDDR5 miodzio...

  18. up. (autor: piobzo | data: 22/05/13 | godz.: 14:22)
    to było ad 15

  19. @conan barbarian (autor: kvm | data: 22/05/13 | godz.: 16:52)
    Dawno takich brednie nie czytałem. Zarówno vista siodemka i ósemka to systemy bazujące na tym samym rdzeniu i każdy z nich wnosi trochę ulepszeń względem poprzednika jednak realnie różnią się niewiele.

    Co do i820 to najbardziej nieudany chipset Intela który nie dość że był wolniejszy od poprzednika mimo super drogich pamięci rdram to jeszcze miał bardzo poważne błędy.


  20. Oblukajcie (autor: loccothan | data: 22/05/13 | godz.: 16:56)
    http://polygamia.pl/...51,94534,13957070.html?i=18

  21. ... (autor: Franz | data: 22/05/13 | godz.: 17:22)
    to nintendo ma pozamiatane, ceny konsoli obniżyć nie zamierzają(bo i tak do niej dopłacają), hacki już się pojawiają(Wii U Key) - co przestraszyło deweoloperów i dużo tytułów zostanie "opóźniona" z 2013 na 2014, i kółko się zamyka bo kto będzie kupował konsole bez gier, same porty z ps3/x-box360 to za mało. Nawet EA chce wstrzymać kilka większych tytułów na wii u. Deweloperzy będą woleli pisać pod x86 bo za jednym zamachem będą mieć tytuł na trzy platformy - pc, xbox one, ps4. Szkoda miałem nadzieje że nintendo da rade powalczyć trochę, ale widać że nie zrozumieli potrzeb rynku.

  22. Streszczę Wam konferencję Xbox'a One (autor: ZeXeL | data: 22/05/13 | godz.: 18:27)
    TV TV TV TV TV TV TV TV TV TV TV SPORT SPORT SPORT KALODUTI KALODUTI KALODUTI KALODUTI KALODUTI TV TV TV TV TV

    Dziękuję, nie ma za co :)


  23. @kvm (autor: Conan Barbarian | data: 22/05/13 | godz.: 19:42)
    Miałem nadzieję, że każdy pamięta iż i820 był goownem, ale jednak powinienem napisać "najlepszego historycznie" dla jasności.
    Co do wymienionych gniotów Win, to rynek sam to ocenił i niczego nie muszę uzasadniać.


  24. @6/mcm (autor: franc# | data: 22/05/13 | godz.: 22:30)
    te 32mb są do operacji 2d, takich jak miksowanie obrazów itp. być może podobnie do tego co miał x360, ale tam było tylko 10mb i stykało. Na którymś portalu (chyba vgleaks) gościu tłumaczył, że można dzięki temu robić PIP, post fx itp.

  25. @kvm (autor: Promilus | data: 24/05/13 | godz.: 08:43)
    Idąc tym tokiem myślenia Vista bazuje na kernelach z longhorna, a ten na kernelach z XP, ten z kolei na kernelach Win2k, który z kolei bazował na kernelach z NT4.0 - tego zaś poprzednikiem był windows nt 3.1 - czyli co? Win8 dzieli z Win 3.1 kernel? :) Nie. Więc skończ waść takie brednie wciskać.

    @franc - to bufor ramki, a można robić wszystko, tylko nie samym buforem - brak dodatkowej logiki jak w eDRAM. Można przez niego teksturować. Może służyć jako szybka pamięć dzielona dla różnych CU (do wspólnej obróbki danych przez różne CU - zamiast małego L2). Najważniejsze w tym przypadku są opóźnienia, które w przypadku GDDR/DDR są dość duże. Przy odpowiednim balansie przepustowości i opóźnień można efektywniej wykorzystywać CU w GPU i dodatkowo buforować komunikację z CPU.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.