Dette indlæg er alene udtryk for skribentens egen holdning.

Er AI endelig Plug and Play?

15. april kl. 17:59
Artiklen er ældre end 30 dage

Som selverklæret hype-killer har jeg personligt været tidligt ude og undsige mig enhver salgs-hype om AI som plug and play. Jeg forudså at IBMs Watson ikke ville kunne levere på sin salgstale, dengang den slags var en kontroversiel udmelding, og jeg gjorde det klart at forretningsapplikationer af AI altid ville kræve langt mere arbejde i sin feature engineering og forberedende datastrategi, end i den anvendte models opsætning og træning. Men er der en undtagelse?

AI kræver at du investerer i dine data

Jeg har set det igen og igen - virksomheder der ville hurtigt i gang med AI, var uforberedte på at de først skulle sætte sig nogle forretningsmål for data drevet innovation og effektivisering, og først derefter begynde at sikre at deres data kunne bruges som træningsdata til AI der skulle indfri præcis disse forretningsmål.

Lektien som jeg har forsøgt at formidle igen og igen med varierende succes har således  altid været at dine data skal ses som et investeringsområde, snarere end en kilde til lavthængende frugter der kan høstes gennem smalt scopede initiativer. AI er ikke og bliver ikke, med de nuværende tilgange, et plug and play værktøj, når det kommer til værdiskabende forretningsapplikationer.

Men er der alligevel en undtagelse?

Selv om jeg står ved de førnævnte betragtninger, så plejer jeg ofte at smide en sidebemærkning i retning af “undtaget diverse cognitive services”. Men hvad er de og hvad er den afgørende forskel der betyder at man ikke i samme grad skal investere i sine data når man udnytter disse?

Artiklen fortsætter efter annoncen

Som jeg ser det, arbejder cognitive services inden for 2 områder: billeder og tekst. Hver har deres forskellige AI modeller og strategier/arkitekturer, men fælles for dem er at de kan udnytte præ-trænede modeller. Præ-trænet betyder at de allerede er trænet på en hel masse data som indeholder mønstre der er relevante for de mønstre vi skal finde. Det er lidt abstrakt, så lad mig give nogle meget konkrete eksempler fra et low-code AI Hackathon jeg deltog i for nyligt.

Low-code AI Hackathon med Cognitive Services

Microsoft havde inviteret tre konsulenthuse til at hjælpe en kunde med nogle konkrete udfordringer. I vores tilfælde skulle vi tage imod et kamera-feed og registrere køretøjer på vej ind og ud af en byggeplads. Målet var at sikre data på hvem der kom og gik, og hvornår.

Hackathon med Microsoft som vært
Hackathon med Microsoft som vært. Illustration: Erik David Johnson.

 

De konkrete opgaver AI skulle løse var:

  • Aflæse nummeplader i billeder
  • Aflæse firma navn og logo i billeder
  • Detektere hvilken type køretøj der var tale om

De første 2 udfordringer kunne vi løse med OCR og den sidste krævede billedklassifikation (image classification). Alle kunne løses med prætrænede modeller gennem Azure Cognitive Services (eller i dette tilfælde AI Builder, som bygger på disse). Vores løsning var low-code, kunne sættes op i Microsofts Power Platform på under 2 dage, og krævede kun nogle ganske få billeder (lidt under 100 stk.) af de forskellige typer af køretøjer:

Power Platform
Illustration: Erik David Johnson.

Jeg stod for AI-delen med de førnævnte 3 punkter, og så skulle noget logik i Power Automate Flows ellers blot sende resultaterne videre til diverse Apps, og så var det ellers anvendeligheden og brugervenligheden af disse Apps og de forretningsudfordringer de løste som var i centrum.

Eksempel på Model driven App
Vi lavede en Model Driven App til administration, som ses her, og en Canvas App til at blive brugt på mobilen og på farten. Illustration: Erik David Johnson.

 

Hvor unik er den udfordring du prøver at løse?

OCR på billeder var så nemt at det var grinagtigt. Jeg afleverede filen til en prætrænet OCR Service, og fik præcis tekst tilbage, med diverse meta-data der for eks. beskrev hvor i billedet teksten var placeret. Herfra krævede det ikke meget at læse og identificere nummerplader i billeder. Der skulle leveres 0 træningsdatasæt. AI modellen kunne bruges som den var – den var 100% Plug and Play, men hvorfor det?

Årsagen var at OCR er en universel udfordring. Vi skal finde tekstsymboler i billeder. That is all. Der er måske noget med særlige tegn fra visse lande, men OCR udfordringen er ens for alle. Derfor kunne vi bruge den prætrænede OCR model fra AI builder som den var.

Så var der image classification udfordringen. Her skulle vi kunne kende forskel på flere forskellige slags køretøjer. Normalt kræver dette et utal af træningseksempler, men i AI Builder kunne vi nøjes med 15-20 stykker af hver og med 100 stk. fik vi meget stærke resultater. Igen skal man spørge sig selv – hvor unik er den udfordring du prøver at løse?

Jeg kender ikke det præcise design for Azure Cognitive Services, men jeg antager stærkt at det er baseret på transfer learning med deep learning convolutional neural networks (skriv i kommentarerne hvis du ved mere). Disse lader dig træne en masse lag af billeder og så leverer du kun det sidste lag. Groft sagt kan du udnytte at modellen er præ-trænet på en enorm mængde billeder så du ikke behøver så mange billeder i sidste lag, hvor dine billede med dine labels kommer ind. Fordi den allerede var trænet på en masse køretøjer og andre billeder, kunne den med høj præcision kende forskel på en lastbil med cementblander og en lastbil med kran.

Lobe billed klassificering
Microsoft har købt deep learning firmaet Lobe og integreret det ind i AI Builder, og jeg kan kun sige at man ikke bør snyde sig selv for at prøve hvor nemt det faktisk er at bruge. Illustration: Erik David Johnson.

Med disse eksempler i mente kan vi se på den anden del af de kognitive services – nemlig tekst/sprog og igen overveje hvor unikt et problem vi arbejder på. Så længe dit sprog er understøttet burde man for eks. kunne lave en universel ”sentiment analysis” og finde ud af om man der var en glad eller utilfreds kunde på den anden side af en modtaget e-mail.

Ift. tekst er der selvfølgelig begrænsninger, men for mere om dem vil jeg henvise til min seneste artikel om emnet. Pointen er at vores sprog og de synsindtryk vi udsættes for som mennesker er så universelle at vi i visse tilfælde kan læne os op af præ-trænede modeller uden at skulle investere tung i vores data. Vi skal bare huske på at mange af de forretningsapplikationer af AI som vi har størst fordel af, IKKE kan løses med Cognitive Services, ER unikke for vores forretning, og derfor kræver at vi investerer i det data vi skal bruge til at træne de datadrevne løsninger der skal bære dem.

Ingen kommentarer endnu.  Start debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger