Bliv klogere med forklarbar kunstig intelligens
Kunstig intelligens er potentielt fordummende.
Okay - forklarbar kunstig intelligens lyder ikke helt så cool som det engelske xAI (eXplainable Artificial Intelligence) - men begrebet er vigtigt på begge sprog. For kunstig intelligens til brug i dataanalyse er potentielt fordummende. I dette indlæg vil jeg argumentere for, hvorfor jeg mener dette, og udrede, hvordan vi kan blive klogere i stedet.
Det er uetisk at blive dummere af sin data
Til diverse af forårets konferencer, som Dansk IT's OffDig og Deloittes Digital Agenda, går debatten om brug af kunstig intelligens. Er det uetisk at bruge AI til prediktion på universiteterne, i bankerne eller i omsorgssektoren? Nu har vi efterhånden ganske meget data og opbevarer det i dyrt anlagte datavarehuse i struktureret form.
Min uforbeholdne holdning er at - nej - det er normalt ikke uetisk at bruge AI til borger- eller studieanalyse og prædiktioner. Men det er uetisk at bruge en metode, hvor vi ikke bliver klogere på, hvad der sker for individet såvel som for hele populationen.
Det er også uetisk at holde de indsigter, man får, ind til kroppen (eller helt undlade at høste dem) til fordel for en 'black box'-model. Black box-modeller er ofte gode til at forudsige, om der er høj risiko for, at lille Lises forældre begår omsorgssvigt, men årsagerne til sandsynligheden kan man ikke uden videre vriste ud af modellen..
Når det er sagt, tager jeg dog forbehold for, at det ikke altid er til gavn for den enkelte borger at få alle forklaringerne (måske især i sundhedssektoren) . Men organisationen skal kunne følge med.
Black box eller forklaring
Nu er der nogle ikke-black box-metoder, der giver nogle muligheder, der er lidt mere komplekse, men de kræver lidt matematikkundskaber og probabilistisk modellering (eller måske er en støvet logistisk regression fin nok) - og her kan man faktisk både udnytte en høj forudsigelsesevne og en høj forklaringsmodel. Derudover undgår man at overmodellere.
Det er, som om der ikke bliver skelnet - i mange af forårets konferencer kører de derudad med black box machine learning-metoder - og hvem vil ikke gerne bruge et 'dybt neuralt netværk' til at forudsige et eller andet? Og tænk på, hvilken business case det er, hvis metoden fanger frafaldstruede, omsorgssvigttruede, spritbilisttruede eller konkurstruede og redder dem ...
Kære algoritme - hvad mener du?
Det er i dag muligt at bruge fx neurale netværk til at forudsige, om Lises forældre begår omsorgssvigt, med høj præcision og sensitivitet. Til gengæld kan vi ikke sige præcist, hvad det er for faktorer, der er brugt til forudsigelsen. Vi finder altså ud af, at der er noget med lille Lise (borgeren i centrum) - men hvad kan vi gøre for at undgå flere 'lille Liser'?
Hvis vi vil blive klogere ud fra vores data, bliver vi nødt til at arbejde langsigtet og ikke bare at købe noget smart og hurtigt. Vi må finde ud af, hvilke faktorer der gør, at Lise lider af omsorgssvigt. Eller at Bent er ved at droppe ud af sit studium. Ellers bliver vi ikke klogere. I værste fald ender vi med at overmodellere og får en sammenhæng, der ikke engang er der.
Hvordan får vi de indsigter? Hvordan bliver vi kloge af vores data? Det kan vi ved hjælp af forretningsanalyse og de lidt støvede teknikker som logistisk regression, eller vi kan arbejde med probabilitstiske metoder (fx bayesiske). Vi kan også arbejde med black box-algoritmer og vride nogle parametre ud af dem - igen dog med fare for ikke at få alle parametrerne med i købet.
Jytte fra sagsbehandlingen skal også forstå resultatet
Det vigtige er, at vi bruger data til at forstå vores model og vores virkelighed. Er det afstand fra uddannelsesstedet eller kombinationen af forældres akademiske baggrund og studium, der er årsagen til frafaldet? Hvordan kan vi bruge denne viden?
Vi skal også lige have med i regnskabet, at ude i kommunen er der nogen, der skal have forklaret resultatet. Disse sagsbehandlere skal forklare resultatet videre til borgeren. Det samme sker i den private sektor, hvor for eksempel bankrådgivere skal give algoritmens vurderinger videre.
Og man kan forestille sig mange steder, hvor det kan gå galt, når man ikke rigtigt forstår, hvad der har gjort udsvinget. Et tænkt eksempel er følgende dialog mellem Jytte og Jens:
Jytte: »Ja, vi kan se, at du er i høj risiko for at gå konkurs, så vi kan ikke låne dig penge til en lejlighed.«
Jens: »Men hvorfor? Er det, fordi jeg lige har lukket min virksomhed og i stedet er blevet ansat? Jeg tjener jo det samme.«
Jytte: »Det kan vi ikke se, men vi kan se, at du er i høj risiko for at gå konkurs.«
Jytte har ingen indsigt i sin kunde andet end et tal, og Jens har måske nogle anelser, men ingen reel ide om, hvorfor han ikke kunne låne pengene.
Men når de skal bruges til beslutninger som en 'ekspert' inden for området ville tage, er man nødt til at få forklaringen. Hvem ville stille sig tilfreds med en læge, der gav en diagnose uden at forklare' hvilke symptomer eller fund der gav hende den idé?
Skal alt AI kunne forklare sig?
Nogle gange - bevares - kan black box-metoder bruges til at tage nogle automatiske valg, som vi måske ikke behøver forklaringer på.
Billedgenkendelse gider vi ikke have alle detaljer fra, og en selvkørende bil skal måske ikke hele tiden forklare sig. Og meget tekstanalyse behøver vi måske ikke mellemregningerne fra, hvis det drejer sig om simpel kategorisering og løbende læring.
Jeg er bestemt ikke en AI-fornægter, ikke engang skeptiker. Jeg er faktisk rimeligt lalleglad, hvad angår prædiktion og statistiske metoder - vi skal bare stræbe efter at bruge de rigtige til den aktuelle case - og det kræver lidt at overskue, hvad der er den rigtige metode.
Overvågningskapitalisme og mellemregningerne
Til en konference for nylig gav Bodil Biering mig et vokabularium til at beskrive denne konflikt. Det handler om Explainable AI (det med mellemregningerne, der nogle gange ender med at være lidt ordinært) versus ikke-explainable AI (det der foregår i en blackbox). Og det er ikke bare konsulenthusene, der kaster sig efter de sofistikerede metoder. Det er noget, Facebook, Amazon og andre har gjort i længere tid, og som åbenbart er velkendt under begrebet 'overvågningskapitalisme'.
De har måske ikke nødvendigvis brugt black box-metoder, men de har ikke gjort noget for, at mellemregningerne kom ud til folk. Så jobannoncer blev kønsdiskriminerende, og domme blev racistiske.
Her kan det være smart at bruge metoder, der giver mulighed for, at man kan 'løfte kølerhjelmen' og selv se til, at noget ikke løber af sporet - netop i sager med racistisk eller kønsdiskriminerende AI. Kald mig bare kontrolfreak.
Vi, der arbejder med folks data, må altså huske, at etik for AI har mange ansigter. Vi skal både opbevare data sikkert og holde det privat. Vi skal undgå, at det bliver brugt uetisk - og så har vi ansvar for at blive klogere af at bruge data.
Jo mindre vi får (eller kigger på) mellemregningerne, jo dummere bliver vi. Og hvem vil gerne blive dummere?
Netop som jeg sad og skriblede udgav Version2 denne gode artikel om AI. Læs den!
Vil du have en ikke alt for teknisk bog, der dog går ned i forskellige AI-metoder, så tjek Thomas Terneys 'Kampen om fremtiden'.

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.