Langsommere psykovisuel algoritme skrumper JPEG-filer med 35 procent i samme kvalitet

Google har udviklet en ny open source-algoritme, som udnytter en mere detaljeret model af, hvordan hjernen opfatter billeder, til at gøre JPEG-filer mindre.

I bytte for lidt mere processorkraft kan vi spare 35 procent på transport og opbevaring af fotos i JPEG-format. Google har nemlig udviklet en ny algoritme til komprimering af billeder i JPEG-formatet, som gør filerne mindre, men uden det går synligt ud over kvaliteten.

Google har døbt algoritmen Guetzli, et tysk ord for en småkage, og har frigivet den som open source.

JPEG-filer er en udfordring, fordi cirka to tredjedele af datamængden på en webside består af billeder ifølge Google, og cirka halvdelen af disse billeder ligger i JPEG-formatet. Der er altså potentielt meget at spare ved at reducere størrelsen på alle JPEG-filer med 35 procent.

JPEG er et format, hvor der går information tabt ved komprimeringen, og de nuværende algoritmer som eksempelvis libjpeg justerer på størrelsen af filerne ved at ændre kvaliteten.

Men kvaliteten af et foto afhænger af, hvordan vores hjerner opfatter billedets sammensætning af pixels. Derfor er tanken bag Guetzli, at man ved at skrue på den information, som smides væk, på en måde, som vores hjerner ikke er så tilbøjelig til at opfatte, så kan man skabe en billedfil, der fylder mindre, men hvor kvaliteten stadig er god.

Google-forskerne beskriver i et paper, hvordan de har arbejdet med at konstruere en algoritme, som arbejder med vores psykovisuelle opfattelse af billeder. De tog udgangspunkt i at prøve at finde en metode til at undgå dannelsen af synlige artefakter i billederne og fortsætte komprimeringen ud over det punkt, hvor de nuværende algoritmer begynder at danne artfakter.

Og i stedet for at blot at lade alle farver og pixels være lige, har de altså optimeret deres algoritme ud fra, hvordan vores hjerner behandler billeder.

Google har endnu ikke udført en decideret test af, om mennesker rent faktisk opfatter kvaliteten som bedre eller lige så god som med de andre algoritmer, men har taget udgangspunkt i at anvende den psykovisuelle model til at opnå mindre filstørrelser.

Guetzli-algoritmen tager længere tid om at komprimere et billede, fordi modellen er mere kompliceret. Men til gengæld skulle det altså være muligt at opnå billedfiler, som er kompatible med det eksisterende JPEg-format og derfor kan læses af eksempelvis browsere, men hvor billederne fylder mindre ved samme opfattede kvalitet.

Da et billede på en webside typisk skal transporteres over netværket langt mere ofte, end det skal komprimeres, så kan det samlede regnskab for processorkraft ende med at være en positiv gevinst for Guetzli.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (4)
Jakob Damkjær

Har set rapporter om at på en quad-core 3,8 GHz ny Intel i7 processor med 16 GB ram og og ssd io tar det 8 minutter PER billede...

Så tror det skal optimeres en hel del før der er nogen fordel i at bruge så meget processorkraft på at spare 35%...

Så alle der betaler for processorkraft og alle der har bedre ting at sætte processorkraften til vil det være lidt meningsløst at bruge det her i den nuværende tilstand...

Log ind eller Opret konto for at kommentere
Pressemeddelelser

Welcome to the Cloud Integration Enablement Day (Bring your own laptop)

On this track, we will give you the chance to become a "Cloud First" data integration specialist.
15. nov 2017

Silicom i Søborg har fået stærk vind i sejlene…

Silicom Denmark arbejder med cutting-edge teknologier og er helt fremme hvad angår FPGA teknologien, som har eksisteret i over 20 år.
22. sep 2017

Conference: How AI and Machine Learning can accelerate your business growth

Can Artificial Intelligence (AI) and Machine Learning bring actual value to your business? Will it supercharge growth? How do other businesses leverage AI and Machine Learning?
13. sep 2017