Britisk politistyrke dropper vanskelige sager - efter råd fra algoritme

9. januar 2019 kl. 11:515
Britisk politistyrke dropper vanskelige sager - efter råd fra algoritme
Illustration: Tupungato/Bigstock.
Bias i algoritme kan betyde mindre efterforskning, for eksempel i områder uden kameraovervågning.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

En politistyrke i regionen Kent i Storbritannien bruger en algoritme til at hjælpe med at beslutte, hvilke forbrydelser der kan opklares og bør efterforskes. Som følge heraf efterforsker politiet nu kun omkring halvdelen af anmeldte overgreb og andre typer lovovertrædelser.

Algoritmen sparer tid og penge, men har rejst bekymringer for, at den indeholder menneskelig bias. Værktøjet bruges i øjeblikket kun til vurdering af overfald og tilsvarende kriminalitet, men kan udvides til at omfatte andre slags lovovertrædelser i fremtiden. Det skriver New Scientist.

Før algoritmen, som har navnet EBIT, efterforskede politistyrken omkring 75 procent af de pågældende sager. Det tal er nu faldet til 40 procent, som følge af algoritmen

EBIT udregner en sandsynlighedsscore for at en forbrydelse er mulig at opklare. Politiet i Kent har anvendt systemet i et år til at vurdere chancen for at forbrydelser kan opklares, så som ​​overfald og trusler på gaden.

Artiklen fortsætter efter annoncen

Men fordi teknologien baserer sine forudsigelser på tidligere sager, kan bias i disse tidligere efterforskninger blive forstærket af algoritmen. Eksempelvis vil manglende kameraovervågning i områder ofte føre til, at politiet beslutter ikke at forfølge sager disse steder. Det kan give ringere stilling for borgere i sådanne områder.

Tillige er der problemer med manglende anmeldelser i områder, hvor tilliden til politiet er lav. Det betyder, at algoritmerne foretager forudsigelser baseret på et delvist billede.

Derfor vil bias i tidligere efterforskning indgå i algoritmen, hvor denne bias tillige vil blive forstærket. Det mener forskeren Joshua Loftus fra det amerikanske Stanford University.

Politiet i Kent oplyser, at for de typer forbrydelser, som EBIT bruges til, er manglende anmeldelser ikke et problem, og at det ikke bør begrænse anvendelsen af algoritmen.

5 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
5
10. januar 2019 kl. 08:59

Det lyder som om algoritmen i praksis får politiet til kun at kigge på de lette sager. Artiklen nævner et element som videoovervågning, men de fleste kriminelle er ikke dumme og skal nok finde ud af hvad man skal gøre, for ikke at blive efterforsket. Derfor er det netop vigtigt ikke at gøre som det britiske politi, men efterforske så meget som muligt - ja helst alt.

4
10. januar 2019 kl. 07:45

Det forestiller jeg mig egentlig at politiet allerede gør - ud fra deres erfaring ('mavefornemmelse') vurderer de om det er en sag de tror kan opklares eller det bedre kan betale sig at kigge på nogen andre sager.

3
9. januar 2019 kl. 14:49

Hvis man ikke er meget forsigtig med sådanne tiltag, så indeler man jo samfundet i sikre zoner og usikre zoner, mere end det allerede er. Det kan tilmed have en forstærkende effekt, da sikre zoner vil være der, hvor folk er endnu mere optagede af at sikkerheden er i orden. Derudover fordrer det til, at folk vil have endnu mere overvågning i det civile rum. Idealerne om frie og rummelige samfund bliver jo totalt undermineret. Har vi virkelig ikke lært noget som helst af fortidens overvågnings samfund? Bias i algoritmerne er da det mindste problem. Hvis man tror at sådan en overvågning kun har de positive effekter, så tager man da grueligt fejl. Folk der ved de er overvåget opfører sig anderledes end ellers. Ikke bare mht. dårlig opførsel, men også generelt.

Menneskehedens historie er fyldt med eksempler på samfund der degenererer. Regeringens magt er et nødvændigt onde. Hvis folk var engle ville ingen regering være nødvændig. Dette nødvændige onde skal overvåges mindst lige så meget som det overvåger. Bare fordi vi har haft en moderat success med vores samfunds eksperiment i vesten, betyder det jo ikke, at vi ikke er underlagt samme risiko som fortidens samfund.

https://www.youtube.com/watch?v=YJ1eQRl3eqo

2
9. januar 2019 kl. 12:42

Gad vide, hvordan den ville vurdere efterforskning af Danske Bank-hvidvaskningssagen?

1
9. januar 2019 kl. 12:33

Hvis man skærer ned på antal efterforskede sager falder antallet af opklarede - denne spiral kan bruges til med tiden helt at have udgifter til politiet.

Men mere seriøst, hvis der er en reel og med jævne mellemrum efterprøvet model til at optimere ressourcer er det vel ok - udover at jeg mener politiet i alle lande skal forsøge at opklare alt, rent principelt.