Google wdraża nowy algorytm kompresujący aktualizacje
Autor: Wedelek | źródło: xda-developers | 06:58
(3)
Kilka miesięcy temu Google wdrożyło specjalny mechanizm kompresji, zmniejszający ilość danych jakie muszą być przesłane w celu zaktualizowania aplikacji pobranej ze sklepu Play. Dzięki temu w większości przypadków rozmiar aktualizacji spadał o 50%, ale zdarzały się też i takie przypadki gdy wielkość przesyłanych plików była o 81% mniejsza niż ich oryginałów. Oczywiście funkcja nazwana bsdiff nie zawsze była aż tak skuteczna i sporo aktualizacji kurczyło się zaledwie o kilka procent. Mimo to zysk był na tyle duży, że Google postanowiło kontynuować prace nad algorytmem stworzonym przez Colina Percival.
Właśnie w ten sposób powstał mechanizm o nazwie File-by-File patching. Google twierdzi, że ich nowy algorytm potrafi zmniejszyć rozmiar większości aktualizacji aż o 65%, co przełoży się na redukcję ilości danych przesyłanych z serwerów Google na urządzenia użytkowników. Średnio producent chce w ten sposób zmniejszyć dzienny transfer o 6PB.
K O M E N T A R Z E
Następni "odkrywcy"... (autor: Pyth0n | data: 9/12/16 | godz.: 10:38) Kolejna firma odkrywająca koło na nowo... "File-by-File patching" nie robi nic innego, niż DeltaRPM (2009) albo DebDelta (2011)...
... (autor: power | data: 9/12/16 | godz.: 10:41) Patchowanie roznicowe to nie kompresja.
@1. (autor: pwil2 | data: 10/12/16 | godz.: 01:01) Nie tylko waga aktualizacji ma znaczenie w telefonach. Czasem szybciej zapisać te 30MB, niż wykonać 1000 IOPS na słabym flashu. Zamiast kilku sekund pobierania, będzie minuta mulenia "przygotowuję aktualizację"
D O D A J K O M E N T A R Z
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.