Google udfordrer JPEG i komprimeringskampen

Illustration: Google
Google har med brug af neurale netværk i stor stil meldt sig på banen, når det handler om at komprimere billedfiler.

Som ordsproget siger: Småt er godt. Ordsproget kommer i den grad til sin ret, når det handler om mediefiler. Komprimerede billedfiler er således overvejende nemmere at transmittere og gemme end filer, der ikke er.

Med brugen af neurale netværk udfordrer Google i stor stil JPEG i komprimeringskampen. Det skriver CIO.

Google startede med at tage tilfældige stikprøver af seks millioner 1280x720 pixels billeder på nettet. Herefter brød Google billederne ned til 32x32 pixels, der ikke overlappede hinanden, for så at fokusere på 100 af de billeder, der havde de værste kompressionsresultater. Målet var at fokusere på en forbedring af ydeevnen på de data, der var sværest at komprimere, da det så ville blive nemmere at få succes med resten.

Udviklerne har brugt Googles open source machine learning-system TensorFlow til at teste og uddanne forskellige neurale netværksarkitekturer. For at uddanne arkitekturerne brugte udviklerne en million foranstaltninger for derefter at indsamle en lang række tekniske målinger, der kunne fortælle udviklerne, hvilke modeller der producerede den bedste komprimering.

Resultatet blev, at Googles model i gennemsnit overgik JPEG’s standardperformance i forhold til at komprimere billedfiler.

Udviklernes næste udfordring bliver at overgå komprimeringsmetoder, der er udledt af videokomprimering, på store billeder, blandt andet fordi de bruger patches, der allerede er afkodet. WebP der er afledt af VP8 videocodec, er et eksempel på den metode.

Udviklerne noterer, at det ikke altid er let at definere, hvilket system der er bedst til at komprimere, fordi tekniske målinger ikke altid stemmer overens med menneskelige opfattelser.

Du kan læse hele artiklen, som Google har udgivet vedrørende udviklernes arbejde, her.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (3)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Torben Mogensen Blogger

Jeg har svært ved at se, at man kan bruge neurale netværk til at finde bedre metoder til lossy komprimering, da det er subjektivt, hvilke detaljer man kan fjerne i billedet, uden at det går væsentligt ud over kvaliteten. Så skal man i hvert fald starte med at træne netværket til at bedømme kvalitet, f.eks. ved at man beder mennesker vælge mellem flere udgaver af et komprimeret billede (hvor det ukomprimerede vises ved siden af), og træner nettet med deres valg. Der skal dog bruges mange mandetimer til denne træning.

Til lossless komprimering kunne det god give fin mening -- man skal ikke smide information væk, så den eneste forskel er størrelsen af den komprimerede fil. Men selv de bedste lossless komprimeringer giver filer, der er mange gange større end selv simple lossy komprimeringer.

  • 1
  • 0
Jens Bengaard

Mig bekendt bestod en stor del af arbejdet med det oprindelige JPEG initiativ netop i at opstille kriterier for, hvordan man vurderer kvalitetstabet af et komprimeret billede. Det var måske mere interessant hvis Google trænede et neuralt netværk til at kunne foretage kvalitetsvurderinger, der tilnærmelsesvist stemte overens med professionelles vurdering.

Man må gå ud fra at den komprimering de foretager, er lossy. Men hvis de ellers kan måle kvaliteten pålideligt, er der vel intet i vejen med at bruge et neuralt netværk.

  • 0
  • 0
Log ind eller Opret konto for at kommentere