Google udfordrer JPEG i komprimeringskampen

25. august 2016 kl. 14:253
Google har med brug af neurale netværk i stor stil meldt sig på banen, når det handler om at komprimere billedfiler.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Som ordsproget siger: Småt er godt. Ordsproget kommer i den grad til sin ret, når det handler om mediefiler. Komprimerede billedfiler er således overvejende nemmere at transmittere og gemme end filer, der ikke er.

Med brugen af neurale netværk udfordrer Google i stor stil JPEG i komprimeringskampen. Det skriver CIO.

Google startede med at tage tilfældige stikprøver af seks millioner 1280x720 pixels billeder på nettet. Herefter brød Google billederne ned til 32x32 pixels, der ikke overlappede hinanden, for så at fokusere på 100 af de billeder, der havde de værste kompressionsresultater. Målet var at fokusere på en forbedring af ydeevnen på de data, der var sværest at komprimere, da det så ville blive nemmere at få succes med resten.

Udviklerne har brugt Googles open source machine learning-system TensorFlow til at teste og uddanne forskellige neurale netværksarkitekturer. For at uddanne arkitekturerne brugte udviklerne en million foranstaltninger for derefter at indsamle en lang række tekniske målinger, der kunne fortælle udviklerne, hvilke modeller der producerede den bedste komprimering.

Artiklen fortsætter efter annoncen

Resultatet blev, at Googles model i gennemsnit overgik JPEG’s standardperformance i forhold til at komprimere billedfiler.

Udviklernes næste udfordring bliver at overgå komprimeringsmetoder, der er udledt af videokomprimering, på store billeder, blandt andet fordi de bruger patches, der allerede er afkodet. WebP der er afledt af VP8 videocodec, er et eksempel på den metode.

Udviklerne noterer, at det ikke altid er let at definere, hvilket system der er bedst til at komprimere, fordi tekniske målinger ikke altid stemmer overens med menneskelige opfattelser.

Du kan læse hele artiklen, som Google har udgivet vedrørende udviklernes arbejde, her.

3 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
3
8. september 2016 kl. 17:20

Mig bekendt bestod en stor del af arbejdet med det oprindelige JPEG initiativ netop i at opstille kriterier for, hvordan man vurderer kvalitetstabet af et komprimeret billede. Det var måske mere interessant hvis Google trænede et neuralt netværk til at kunne foretage kvalitetsvurderinger, der tilnærmelsesvist stemte overens med professionelles vurdering.

Man må gå ud fra at den komprimering de foretager, er lossy. Men hvis de ellers kan måle kvaliteten pålideligt, er der vel intet i vejen med at bruge et neuralt netværk.

2
26. august 2016 kl. 12:52

Jeg har svært ved at se, at man kan bruge neurale netværk til at finde bedre metoder til lossy komprimering, da det er subjektivt, hvilke detaljer man kan fjerne i billedet, uden at det går væsentligt ud over kvaliteten. Så skal man i hvert fald starte med at træne netværket til at bedømme kvalitet, f.eks. ved at man beder mennesker vælge mellem flere udgaver af et komprimeret billede (hvor det ukomprimerede vises ved siden af), og træner nettet med deres valg. Der skal dog bruges mange mandetimer til denne træning.

Til lossless komprimering kunne det god give fin mening -- man skal ikke smide information væk, så den eneste forskel er størrelsen af den komprimerede fil. Men selv de bedste lossless komprimeringer giver filer, der er mange gange større end selv simple lossy komprimeringer.

1
26. august 2016 kl. 08:57

Hold da op....

Uddanne netværksarkitekturene? Træne neurale netværk?

Foranstaltninger? Instanser?