Endnu en amerikansk by tager afstand fra brugen af fejlfyldt teknologi til ansigtsgenkendelse

4 kommentarer.  Hop til debatten
Endnu en amerikansk by tager afstand fra brugen af fejlfyldt teknologi til ansigtsgenkendelse
Illustration: Bigstock.
Minneapolis, der er hovedbyen i den amerianske stat Minnesota, har nedlagt forbud mod brugen af ansigtsgenkendelse, efter at det har vist sig, at der var problemer med bias i forhold til minoritetsgrupper.
15. februar 2021 kl. 14:37
errorÆldre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Problemer med bias over for borgere med mørk hudfarve eller latinamerikansk ophav har fået politikerne i Menneapolis til at indføre et forbud mod brugen af ansigtsgenkedelsesteknologi for både politi og andre myndigheder.

Beslutningen blev truffet i fredags, og dermed melder den amerikanske by sig nu i koret af byer som Portland og Boston, der også har valgt at forbyde den kontroversielle teknologi.

Det skriver den største avis i Minnesota, Star Tribune.

I en udtalelse gør politichefen i Minneapolis, Medaria Arradondo, det klart, at han er utilfreds med beslutningen, der er truffet uden, at han er blevet inddraget. Men selvom forbuddet ikke er ligeså skrapt som i Portland, så gælder forbuddet i Minneapolis også brugen af samarbejdspartnere som blandt andet omstridte Clearview AI, der har fået voldsom kritik for at sammenholde billeder af folks ansigter med deres enorme database baseret på billeder fra Facebook, YouTube og Google.

Artiklen fortsætter efter annoncen

Og forbuddet får vrkning, fordi myndighederne allerede har taget værktøjet i brug. Star Tribune har i deres arbejde med sagen fundet ud af, at der er blevet foretaget 1.000 søgninger i systemet siden 2018.

William McGeveran, der er juraprofessor på University of Minnesota fortæller til Star Tribune, at der er stigende bekymring og behov for, at algoritmers bias overfor rase studeres nærmere set i lyset af brugen af den nye teknologi.

Han mener, at det på sigt kan gøre teknologien mere brugbar, men det kræver som sagt, at der rettes op på netop de racemæssige bias-udfordringer.

4 kommentarer.  Hop til debatten
Debatten
Log ind for at deltage i debatten.
settingsDebatindstillinger
4
15. februar 2021 kl. 16:42

Spoergsmaalet er om det stadig er tilfaeldet. Deadline vist sidste aar et eksempel paa at ansigtsgenkendelse fejlede da en sort dame satte sig foran skaermen. Hendes ansigt blev slet ikke detekteret, og dermed naturligvis ikke genkendt. Dette problem blev taget som gode varer og udgangspunkt for den videre diskussion. Jeg googlede mig frem til den optagelse de havde brugt, og den viste sig at vaere fra 2016, hvilket ca. svarer til stenalderen i AI-tidsregningen. Meget er sket siden og sker stadig paa den front.

Jeg lavede derfor en test med min egen (dvs vertigo.ai's) algoritme, koerende paa en gammel ipad, hvor jeg filmede skaermen der viste Deadline-udsendelsen. Den fangede, paa trods af at jeg filmede en skaerm der filmede en skaerm, fint den sorte dames ansigt, og genkendte det i forhold til deltagerne i programmet. Jeg skrev dette til Deadline, inkl. dokumentation, men fik aldrig noget svar.

Udover for daarlige optagelser og kameraer (lyse ansigter reflekterer mere lys og kontrasterne i dem kan vaere lettere at se og behandle), og disse bliver loebende forbedret, kan jeg ikke se nogen teknisk grund til at ansigtsgenkendelse for evigt vil have problemer med bias. Hvorvidt vi har en ret til at benytte offentlig vej osv. uden at blive genkendt (selv hvis man er gerningsmand til et terrorangreb i stil med Krudttoenden) er naturligvis en interessant diskussion, men snak om "bias" osv. i ansigtsgenkendelse er mest en straamand som jeg ser det.

3
15. februar 2021 kl. 16:01

Det er da dejligt, at de forbyder ansigtsgenkendelse.

Men det er ærgerligt, at det er fordi det ikke virker godt nok. Det må jo betyde, at de er parat til at tillade det, hvis nogen en dag for det til at virke - for en passenmde definition af "at virke".

Det ville være bedre, hvis de havde forbudt det for bestandig, fordi de ikke ville have et masseovervåget samfund.

2
15. februar 2021 kl. 15:59

Problemet er jo nok, at verden ikke er en perfekt normal-fordeling, så et sådant system vil risikere at forstærke en negativ bias som findes i data i forvejen uanset årsagen. For enhver AI er data jo fakta.

1
15. februar 2021 kl. 14:41

Man forsøger vel at få et program til at agere fonuftigt og intelligent - selv om programmet absolut intet forstår om problemet, opgaven eller hele verden. Hvordan ville det mon opfatte et karnevalsoptog?