Kastrup høvler dyrebare minutter af bagage-håndtering med Googles TensorFlow
Når din bagage skal transporteres fra lufthavnens check-in til flyets lastrum, afhænger meget af, om bagagesystemet er i stand til af aflæse stregkoden på det påklistrede bagage-tag. Sker det ikke, bliver kufferter og tasker sendt til manuel inspektion – en proces, der kan koste fem til syv minutter per bagage-enhed.
»Og det er kritisk for sådan et stykke bagage,« fortæller Per Engelbrechtsen, der er Business Development Director i Beumer – en tysk koncern, der blandt andet udvikler systemer til at håndtere lufthavnsbagage til f.eks. Københavns Lufthavn, Kastrup.
I et forsøg på at mindske antallet af tabte minutter har lufthavnen og Beumer indført et machine learning-system, der skal supplere stregkodelæserne ved at affotografere bagage, udvælge de bedste billeder og sende dem videre til en videooperatør, som så kan aflæse stregkoden.
»Indtil videre har vores forsøg vist, at vi kan komme fra at håndtere 96 procent automatisk til at håndtere 99 procent. Kun 1 procent ryger videre til manuel inspektion.«
Når kufferten ikke når frem
Gevinsten ved at hente de få procentpoint skal ses i lyset af følgende regnestykke:
Når passagerer fra f.eks. Billund, Oslo og Aalborg mellemlander i Københavns Lufthavn, er der indregnet en såkaldt connection time på minimum 45 minutter – dvs, den tid, det tager at tømme passagerer og bagage fra et fly over i et andet.
30 til 35 af de minutter går med at læsse bagage af og på flyene, hvilket efterlader et sted mellem 10–15 minutter til bagagehåndtering og transport mellem gates.
»Og hvis du skal bruge fem-syv minutter på at aflæse en stregkode, så kan du risikere, at passageren kommer frem, men at kufferten ikke nåede med,« forklarer Per Engelbrechtsen.
7.000 bagage-billeder
For at optimere bagagehåndteringen har Beumer taget Googles open source machine learning-bibliotek TensorFlow i brug – nærmere bestemt det præ-trænede neurale netværk Inception v3, der kan bruges til billedgenkendelse.
Værktøjet har Beumer fodret med i alt 7.000 billeder, hvoraf halvdelen har bagagetags, hvor stregkoden kan aflæses, mens den anden halvdel har ulæselige tags.
På bagagebåndet tager seks kameraer i alt 120 billeder af kufferten, der sendes til machine learning-softwaren, som foreløbig kører på to gamer-pc’er pga. behovet for et kraftigt grafikkort.
Softwaren udvælger herefter de 24 bedste billeder – fire billeder fra hvert kamera.
»Maskinen er god til den her opgave. Den er god til at se, om noget er et bagage-tag, et klistermærke fra Mallorca eller en rem, der holder tasken sammen,« forklarer Per Engelbrechtsen og fortsætter:
»Det giver langt større sandsynlighed for, at operatøren kan se den information, han har brug for.«
Kæmpet med OCR
I første omgang ønsker Beumer at nå et punkt, hvor video-operatørerne også kan løse andre opgaver og ikke behøver at sidde lænket ved skærmen, men i stedet kan modtage billeder fra systemet på en tablet.
»Og vi arbejder hen imod, at maskinen selv kan aflæse tagget,« fortæller Per Engelbrechtsen.
Til det formål har selskaber før Beumer fokuseret på OCR – optisk tegngenkendelse – men mange har ifølge Per Engelbrechtsen kæmpet med at få det til at fungere. Med nye cloud-tjenester som Googles Cloud Vision OCR-api er den økonomiske model fundamentalt forandret:
»I stedet for, at vi skal kaste mange penge i udviklingen af software, sender vi et billede til skyen, og så sender Google al tekst tilbage,« siger Per Engelbrechtsen.
Hurtigere rytme
Overalt i verden oplever lufthavne et øget pres i takt med en støt stigende flytrafik, der vokser med 5 procent årligt. Samtidig er sikkerhedskravene kun blevet forstærket.
»Hvis vi var et band, så kan man sige, at vi skal spille en hurtigere rytme, uden at det går ud over musikken,« bemærker Per Engelbrechtsen.
Af samme grund eksperimenterer Beumer også med machine learning i andre sammenhænge. For eksempel for at se, om der ligger to stykker bagage på samme bakke ved en fejl.
I sådan et tilfælde skal maskinen kunne aflæse, om der er to ting på bakken, eller om det er en barnevogn for eksempel.
En anden use-case for teknologien er i kombination med selskabets virtuelle 3D-model over bagage-systemet.
Frem for at bruge machine learning til at analysere billeder skal teknologien her bruges på at analysere datalogs om bagagens vej gennem systemet.
På den måde kan lufthavnspersonalet få et billede af, hvor der er trængsel på transportbåndene, eller hvor flaskehalse vil opstå og hvornår. Og de kan forudsige, hvad der sker, hvis de f.eks. flytter et fly eller åbner eller lukker indtjeknings-øer.
»Vi ved fra dialoger med f.eks. Heathrow, at det kan gå galt, når medarbejdere skal tage de her beslutninger. Man kan ikke som menneske gennemskue alle faktorerne, og konsekvenserne af en beslutning kan vokse som en snebold.«
Derfor skal systemet kunne understøtte den person, der skal tage beslutningen – eller med tiden tage beslutningen selv, fortæller Per Engelbrechtsen.
»Jeg er sikker på, at maskinen til hver en tid kunne vælge en bedre rute, end jeg kan.«
