Amerikansk politi udpeger voldsbetjente med machine learning

Data om arbejdsskader, uheld med politivogne og overtrædelse af retningslinjer for opførsel indgår nu i machine learning-baseret it-system, som skal forebygge politivold.

Der skal drosles ned på antallet af politidrab, mener politiet i North Carolina, som nu tager machine learning i anvendelse for at udpege de mest brutale politibetjente, skriver millennium-udgivelsen Tech.mic.

Charlotte-Mecklenburg Police Department i byen Charlotte er i gang med at udvikle et maskine learning-baseret it-system, der udpeger de politifolk i den 1.800 mand store styrke, der er i risiko for utilsigtet vold eller overgreb, f.eks. brug af våben med døden til følge eller racisme, lyder det i et forskningsartikel fra ti forskere på Chicago, Michigan, Princeton, Arizona og Carnegie Mellon universiteter samt fra politiet selv.

583 borgere er ifølge Washington Post skudt og dræbt af politiet indtil nu i 2016.

Systemet - kaldet Early Intervention System (EIS) - analyserer data om politibetjentenes karaktertræk og deres adfærd i bestemte situationer som led i en prædiktiv analyse, der skal indkredse ansatte med størst tilbøjelighed til utilsigtede hændelser.

Det er bl.a. data om klager, anvendelsen af magtmidler, uheld med politikøretøj, overtrædelse af retningslinjer for opførsel, niveau for arbejdsulykker eller arbejdsskader samt deltagelse i razziaer og ransagninger.

Sagen giver mindelser om en algoritme til brug i gymnasierne, som Version2 har omtalt, der skulle udpege risikoen for frafald blandt eleverne. Den var baseret på data fra mere end 70.000 elever og ramte rigtigt ni ud af ti gange. Algoritmen var kun i brug i en uge, hvorefter anvendelsen blev standset.

Læs også: It-system til varsel af elevfrafald blev øjeblikkeligt standset af gymnasierne

Ifølge de amerikanske forskere benytter politiet sig i dag af intuition, når de overvåger, om en betjent er til fare for offentligheden. Artiklen angiver også, at der er begrænsede ressourcer til dette arbejde, hvilket fører til en sparsom indsats på området.

»Vi vil identificere de betjente, der er i risiko for at havne i en negativ interaktion med borgerne, og bruge oplysningerne til at yde støtte til betjentene i form af uddannelse, rådgivning og andre tilbud,« siger Crystal Cody, som er Computer Technology Solutions Manager i CMPD.

Langt bedre resultater med machine learning

Forskerne angiver, at i forhold til det eksisterende system har de øget andelen af korrekte resultater med cirka 12 procent, mens andelen af falsk positive er faldet med cirka 32 procent.

Det tidligere EIS-system var alene baseret på grænseværdier og kan derfor ikke forudsige eller eller forebygge hændelser.

Læs også: Oxford-professor: Kunstig intelligens vil udrydde menneskeheden

Det kom med en advarsel til politiledelsen, når antallet af utilsigtede hændelser oversteg et bestemt niveau over en afgrænset periode.

Desuden fungerer det eksisterende system på begrænsede datasæt.

Ambitionen er, at det nye EIS-system skal udbredes til andre politikredse, ligesom man vil stille det til rådighed som open source med henblik på videreudvikling.

Læs også: Amerikanske domstole bruger racistiske algoritmer

Frank Pasquale, som studerer sociale konsekvenser af informationsteknologi på universitetet i Maryland, siger til New Scientist, at it-systemet aldrig må stå alene.

»Når en politibetjent er udpeget som en potentiel risiko, bør man have mulighed for at rette op på sin adfærd, i stedet for at ansættelsesmæssige konsekvenser falder prompte.«

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (8)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Henrik Eriksen

Ja, så når nu de første betjente bliver prikket ud til 'adfærdsoprettende kurser' eller hvad man nu finder på, så bliver det jo interessant hvad der sker, hvis betjenten nægter og derfor bliver sat fra bestillingen...?
Hvordan kan man sanktionere noget på baggrund af hvad der 'muligvis vil ske' - og så endda forudsagt af en robot?

  • 0
  • 0
Carsten R. K.

Arh, spis nu brød til. Det har aldrig været kritisabelt at se på en adfærdstrend, uanset om det er en "robot" eller en HR-afdeling, der stykker den sammen, og så ud fra den enten anbefale eller fordre efteruddannelse.
Vi har da en frisk sag in mente med Københavns Kommune, der faktisk afskedigede medarbejdere, der ikke bestod et pålagt kursus i et IT-system.

  • 0
  • 0
Heino Svendsen

Tror også lige, at man skal være lidt mere kritisk.

Hvis man ikke tager højde for situationen herunder aggressionsniveauet for OPFOR / forurettede, omgivelserne etc., så for man en del falske positiver. Lidt lige som, når man fx udnævner Schæferen som den mest bidende hund og ikke lige overvejer, at tjenestehunde i overvejende grad historisk har været Schæfere.

  • 0
  • 0
Bjarne Nielsen

Hvis man ikke tager højde for situationen herunder aggressionsniveauet for OPFOR / forurettede, omgivelserne etc., så for man en del falske positiver.

...og - må jeg lige tilføje - hvis man som betjent i ramme alvor skulle begynde at bruge begreber som "OPFOR", så bør man hjælpes til en helt anden karrierevej.

PS: Helt overordnet, så tvivler jeg også på, at det kommer til at virke.

  • 0
  • 0
Log ind eller Opret konto for at kommentere