81 procent af mistænke udpeget af ansigtsgenkendelsesalgoritme er uskyldige

Illustration: artoleshko/Bigstock
Storbritanniens Metropolitan Police bruger ansigtsgenkendelse til at identificere mistænkte. Men i fire ud af fem tilfælde udpeger algoritmen uskyldige.

Forskere fra University of Essex har undersøgt retssager hvor Metropolitan Police har gjort brug af ansigtsgenkendelsessoftware til at identificere mistænkte, og er kommet frem til at de mistænkte i fire ud af fem tilfælde var uskyldige.

Det skriver Sky News.

Metropolitan Police er før blevet kritiseret for deres brug af ansigtsgenkendelse på den baggrund, at teknologien fungerer dårligt, når den skal identificere ansigter, der ikke er hvide.

Læs også: Britisk politi kritiseres for ansigtsgenkendelse - San Francisco forbyder det

Metropolitan Police foretrækker selv at sammenligne succesfulde og ikke-succesfulde matches med det samlede antal ansigter, systemet bearbejder, hvilket giver en fejlrate på bare 0,1 procent.

Læs også: San Francisco på vej til at bandlyse ansigtsgenkendelsesteknologi

Forskerne bag undersøgelsen skriver, at hvis Metropolitan Police bliver trukket i retten for deres brug af ansigtskendelse, er der en god chance for, at myndigheden vil tabe sagen.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (6)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Bjarne Nielsen

Den forskellige måde at fremstille resultaterne på, er en meget god illustration af, hvad udfordringerne kan være.

Der er her tale om "falske positiver", dvs. at en uskyldig bliver flaget som skyldig. Det skal helst ikke ske for tit, men hvad der er "for tit" afhænger meget af situationen. Hvis det er en buskontrollør, som siger "må jeg se din billet?", så er der nok rimeligt vide grænser for "for tit". Men hvis det er et spørgsmål om, at politiet trækker deres våben, og begynder at skyde imod et køretøj, så er selv en lille "for tit" måske uacceptabel.

Det er heller ikke ligegyldigt, hvordan det fordeler sig: det hjælper ikke noget, at den stort set aldrig tager fejl, hvis det til gengæld altid går ud over de samme; det er uacceptabel, at der er en enkelt uskyldig personer, som på daglig basis bliver hevet af S-toget af kampklædte betjente, eller hver gang man går ind i en butik udløser alarmen ved indgangen - også selvom systemet ellers er perfekt.

Men der er også "falske negativer", dvs. en skyldig som bliver overset. Sker det for tit, så bliver systemet måske værdiløst. Hvad hjælper et system til at genkende fodboldbøller, hvis den lader 9 gå igennem for hver 1 den finder? Også her er det situationsafhængigt. Billetkontrol regner heller ikke at finde alle der snyder, det skal bare flytte oddsene nok til, at det ikke længere kan betale sig. Hvis man ellers ville finde en ud af hundrede, så er en ud af ti en stor forbedring. Men hvis det er kræftpatienter, så er det måske uacceptabelt.

Bemærk at der ofte er et tradeoff imellem de to. Man kan flytte på grænsen for, hvornår systemet føler sig overbevist. Sat på spidsen, så kan man fange alle skyldige, hvad at flage alle som værende skyldige (men så kommer der også en masse uskyldige med). Eller man kan helt undgå at anklage uskyldige ved aldrig at anklage nogen. Det er ofte en vurderingssag, hvor dette tradeoff skal ligge. Sætter man grænsen højt, så bliver der mange falske negativer, og systemet vil miste værdi. Sætter man grænsen lavt, så vil den råbe "ulven kommer".

Det betyder også meget, om man leder efter nålen i høstakken, om hvor uforudsigeligt og dynamisk domænet er (det vil som udgangspunkt "hænge fast i fortiden"), og om hvorvidt man har en aktiv modstander, der vil tilpasse sig.

Rolf Hansen

Det er fordi systemet ikke er lavet korrekt. Det er efterhånden gammel viden at at man ikke bare kan køre en algoritme til at kunne genkende alle racer og dermed menesker, fordi vi mennesker har meget stor diversitet.

Måden man laver sådan et system er med flere algoritmer der er trænet til at genkende hver deres parameter. Du skal faktisk lave en algoritme med et racebias og også kønsbias.

Først har du en algoritme der er trænet til at kunne skelne forskellige racer som så opdeler billederne i de forskellige racekasser og derefter har du så en algoritme for hver racekasse der er trænet i at kunne opdele i kønskasser og derefter kan man kører en ansigtgenkendelses algoritmer til at bestemme personen udfra hver af de opdelte kasser, men nu med meget højere præcision bias er blevet filtret væk.

Det er iøvrigt heller ikke så forskelligt fra hvordan vores hjerne fungerer når den skal identificerer forskellige objekter, personer osv.

Men jeg er forundret man mener man kan gøre dette med en enkelt algoritme, men det er klart at det sparer computerkraft, men tvivler på du nogensinde vil kunne gøre det ordentligt med høj nok præcision uden flere lag af algoritmer der er mere specialiseret.

Bjarne Nielsen

Nu går artiklen på kvaliteten af ansigtsgenkendelse, og jeg vil godt vove to påstande desangående:

  1. det vil kun blive bedre som tiden tiden går
  2. der vil være visse iboende og grundlæggende udfordringer, som næppe helt kan overvindes

Så når vi diskuterer, at der måske ikke er godt nok lige nu, og det lægger en naturlig begrænsning, så skal vi bare være klar over, at det nok kun er lige nu, for lige om lidt, så er det blevet meget bedre, meget billigere og meget mere udbredt.

Derfor, og vel apropos, så vil jeg i virkeligheden gerne pege på to andre forhold, som relaterer sig til politiet og automatisering:

Vi skal for det første passe på, at vi ikke falder i "nummer-plade-scanner" fælden. Det er nemt at se, hvordan en nummerpladescanner vil kunne gøre en patrujlebetjent mere effektiv, men dels glemmer vi at gøre os overvejelser om, hvor effektivt en patrujlebetjent egentlig skal være, for at politiet ikke blever umenneskeligt. Og dels, og langt mere vigtigt glemmer vi, at det kan medføre, at det nu skabes oplysninger som kan anvendes på måder, som vi ikke ønsker.

På samme måde med automatiseret ansigtsgenkendelse. Det vil ikke kun få betydning for mistænkelige typer, det vil også hurtigt kunne få en udbredelse, hvor det vil kunne tegne meget nærgående billeder om uskyldiges liv og færden, og vil kunne lægge en uønsket dæmper på fuldkommen legitim og anerkendelsesværdig adfærd.

For det andet, så skal vi være på vagt overfor, hvordan teknologien kan forandre vores samfund ganske direkte. F.eks. er det ved at blive en selvstændig forseelse, eller i mindste selvstændig årsag til mistanke, hvis man unddrager sig ansigtsgenkendelse:

https://gizmodo.com/man-hiding-face-from-police-facial-recognition-test-...

Politiet fandt det mistænkeligt (og måske endda provokerende), at man vil tildække sit ansigt, når de var ved at bruge ansigtsgenkendelse.

Det er i dag ikke velset at gå ind i en bank med fullface styrthjelm, men det er trods alt begrænset, hvor mange banker der tilbage i dag, og hvor mange af dem, som har kundebetjening. Men hvis ansigtsgenkendelse bliver udbredt, så kan vi pludselig gøre det problematisk eller måske endda kriminelt at bruge fullface styrhjelm.

Pointen er, at vi bliver nødt til at tænke igennem hvordan det vil kunne ændre vores samfundet, og det på måder, som ikke ved første tanke virker indlysende.

Christian Nobel

Pointen er, at vi bliver nødt til at tænke igennem hvordan det vil kunne ændre vores samfundet, og det på måder, som ikke ved første tanke virker indlysende.

Og ikke mindst - selv om vi går og luller os ind i en forestilling om at vi har evig fred (historie er jo til for at blive glemt), så ved vi ikke hvad fremtiden bringer, og vi kan risikere at servere hele vort liv på et sølvfad, så fremtidens magthavere bare kan plukke de elementer de anser for problematiske.

Kina er jo godt på vej med at opdele borgerne i kategorien gode borgere og ikke gode borgere.

Søren Rønsberg
Bjarne Nielsen

Du er desværre for sent ude, det blev forbudt med Burkaloven den 1. august 2018.

Ja, og 1. maj i år var politiet åbenbart så provokeret over, at nogle demonstranter overtrådte maskeringsforbuddet, at de "boxede" en demonstration inde på Dronning Louises bro.

Der er forskellige opfattelse af situationen og forløbet, men der er efter sigende hundredevis af klager på vej om ulovlig tilbageholdelse på vej fra fredelige demonstranter som på ingen måde overtrådte maskeringsforbuddet.

Men den konkrete sag er vel egentlig ikke så interessant ifm. emnet ansigtsgenkendelse og politi, udover at det illustrerer at de princippiele problemstillinger, som jeg rejser med henvisning til politiet i udlandet meget vel kan opstå herhjemme.

Og politiet er jo langt fra de eneste med interesse i ansigtsgenkendelse:
https://www.theguardian.com/technology/2019/may/31/facial-recognition-sc...
https://www.theguardian.com/cities/2019/may/29/new-york-facial-recogniti...

Vi bliver nødt til at tage diskussionen nu - også selvom teknologien endnu ikke er helt moden. For pludselig så er den, og så bliver det svært at tage en ordentlig debat om det.

Log ind eller Opret konto for at kommentere