Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Poniedziałek 27 lipca 2020 
    

A12Z Bionic korzystając z natywnego kodu pokazuje przysłowiowy pazur


Autor: Wedelek | źródło: Hot Hardware | 05:30
(14)
Apple ogłosiło w tym roku, że w przeciągu najbliższych dwóch lat zrezygnuje z procesorów Intela i będzie montować w swoich Macach własne CPU zbudowane w oparciu o architekturę ARM. To oczywiście wywołało sporą burzę wśród komentatorów, a niedługo później do sieci wyciekły pierwsze testy wydajności zestawów deweloperskich, wyposażonych w 8-rdzeniowy A12Z Bionic (4x Vortex + 4x Tempest), które mają służyć programistom jako pomoc w przepisaniu istniejącego kodu na potrzeby ARM. Skorzystano w tym przypadku z Geekbencha 5, który w emulowanym* środowisku osiągnął wynik odpowiednio około 830pkt i 2800pkt w testach jednego wątku oraz wielordzeniowym.

Już to dawało nam jakie takie pojęcie na temat wydajności opisywanego układu, ale pełen obraz sytuacji uzyskaliśmy dopiero po wykorzystaniu natywnego klienta stworzonego z myślą o procesorach ARM, którego niedawno udało się odpalić w Mac OS Big Sur. A12Z Bionic uzyskał w nim wynik 1098/4555pkt, a więc mniej więcej taki, jaki w GeekBenchu 5 zdobywa Core i5-1038NG7 (Ice Lake, 2GHz, 4R/8W) zamontowany w 13-calowym MacBooku Pro (2020). Nie da się ukryć, że to bardzo dobry rezultat.

Dodam do tego, że pierwszy procesor Apple dla Maców będzie znacznie wydajniejszy od A12Z Bionic i otrzyma 8 mocnych rdzeni oraz 4 słabsze, a także stworzony przez Apple układ IGP. Zapowiada się więc ciekawie, tym bardziej, że jego debiut nastąpi już niebawem, bo pod koniec 2020 roku.


*Drobne wyjaśnienie. Apple korzysta w MacOS BigSur z oprogramowania Rosetta, które jest binarnym translatorem kodu. Jego zadaniem jest tłumaczenie w locie niskopoziomowych instrukcji i przekształcanie ich w kod natywny dla danego procesora. Taka operacja jest bardziej efektywna niż gdybyśmy korzystali z tradycyjnego emulatora, ale i tak nie pozostaje bez wpływu na wydajność, co zresztą widać po zamieszczonych w artykule wynikach testów.



 
    
K O M E N T A R Z E
    

  1. hmmm (autor: mlc | data: 27/07/20 | godz.: 07:58)
    to jest CPU z iPadów, wygląda więc na to, że nowy układ Apple rozniesie w pył laptopowe x86

  2. Tia (autor: Kenjiro | data: 27/07/20 | godz.: 08:52)
    Porównywanie wyników Geekbencha na różnych platformach jest kompletnie idiotyczne, bo Gb skaluje wyniki.
    Poczekajmy aż ktoś np. zmierzy czas kompilacji Linuksa...


  3. takie porównania (autor: Markizy | data: 27/07/20 | godz.: 08:59)
    Nie mają sensu bo benchmarki można oszukiwać. Lepiej niech pokażą coś typu czas ładowania 20stron, obróbka zdjęć czy nawet gry gdzie wydajność zależy od mocy cpu, np przeliczanie tury civilization

  4. nvidia kupi arm (autor: bajbusek | data: 27/07/20 | godz.: 10:26)
    i tyle z ucieczki apple od intela ;)

  5. @bajbusek (autor: Promilus | data: 27/07/20 | godz.: 13:14)
    Heh, to sobie wrócą do Power ...

  6. bajbusek (autor: pawel1207 | data: 27/07/20 | godz.: 14:13)
    to dla apple nic nie zmienia ..


  7. @6. (autor: Kenjiro | data: 27/07/20 | godz.: 14:32)
    Nie do końca, bo nVidia może stwierdzić, że tanie licencje im nie pasują i zwiększy cenę kilkukrotnie, by licencjonowane CPU nie konkurowały z ich własnymi.
    Apple byłoby wtedy w ciemnej d...


  8. @07 (autor: ligand17 | data: 27/07/20 | godz.: 14:56)
    Dokładnie. W końcu VMWare tak zrobiło z licencjami na Epyc'i - dla CPU powyżej 28 rdzeni cena x2.

  9. Ale glupie teksty... (autor: gantrithor | data: 27/07/20 | godz.: 15:35)
    ze nvidia kupi arm czy x86 , licencja nie jest problemem ale oplaty patentowe sa sporym wyzwaniem biznesowym jak sobie wyobrazacie sprzedawac procesory ktore maja ogromna marze spowodowana oplata licencyjna?
    Oplaty za interfejsy podsystemow pamieci ,strukture cache , budowe i dzialanie predyktorow , instrukcje przewidujace rozgalezienia to tylko kilka przykladow a zaby zbudowac procesor potrzeba na start okolo 5000-6000 patentow latwiej powiedziec niz zrobic.
    Arm jest duzo tansza opcja ale nie jest kompatybilna z modelem biznesowym nvidia gdzie nvidia trzepie kase przy sprzecie x86 a tym czasem w arm jest adreno i mali oraz kilka innych mniejszych firm posiadajacych wlasne rozwiazania jak apple.

    Co do tego benchmarka zobaczymy w testach jak to wypadnie , kompresja/dekompresja plikow , gry , photoshop , konwertowanie video itd itp.

    Kiedys widzialem jak gosciu na yt odpalil benchmark na emulatorze androida wtedy najwyzszy wynik byl 210 000 na jakims flagowym snapradonie a na emulatorze gosc mial 1.400 000 punktow na pc z procesorem i5.


  10. @8. (autor: pwil2 | data: 27/07/20 | godz.: 18:56)
    Nie 28c, a 32c. EPYC 1x64c kosztuje tyle ile 2x28c Intela.

  11. @9 :) (autor: Sebalos | data: 27/07/20 | godz.: 19:33)
    Licencja jest na korzystanie z opatentowanego rozwiązania.

  12. @ganthritor (autor: Promilus | data: 27/07/20 | godz.: 21:05)
    Eee... nie bardzo rozumiem o co ci chodzi. Przecież nvidia wcale nie związała się z x86, baa, jej produkty mają drivery i dla powera, i dla arma (tesle, a w zasadzie już nie tesle). A jej SoCe (tegra) są na ARM, a nie x86. Baaa, nawet drivery do RTX2080 są już na linuxa Aarch64 ;) Innymi słowy żyjesz w innym świecie i nie orientujesz się jak jest w rzeczywistości.

  13. @11 jesli kupisz licencje od via... (autor: gantrithor | data: 28/07/20 | godz.: 20:30)
    to nie bedziesz mial automatycznie rozwiazan patentowych intela czy amd

    @12 No widac ze nie zrozumiales i fajnie masz ze ty jako jedyny sie orientujesz co sie dzieje na swiecie.


  14. @ganthritor (autor: Promilus | data: 29/07/20 | godz.: 08:31)
    "nie jest kompatybilna z modelem biznesowym nvidia gdzie nvidia trzepie kase przy sprzecie x86" jeśli nie wyjaśnisz tych słów z przykładami to oznacza, że jesteś trollem i to marnym. Czego w tym można nie zrozumieć? Zrozumiałem, nie zgadzam się i jestem w stanie podać przykłady (baa, już podałem!) że jesteś w błędzie. Pokaż mi gdzie w błędzie jestem ja, uargumentuj, a jeśli nie to skończ pisać farmazony.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.