Institut for Menneskerettigheder: Kontrollen med det offentliges AI skal styrkes

Illustration: Privatfoto
Borgernes rettigheder skal beskyttes bedre, når offentlige myndigheder benytter kunstig intelligens. Institut for Menneskerettigheder giver i ny rapport konkrete anvisninger til, hvordan det bør gøres.

Rammerne og lovgivningen er ikke fulgt med det offentliges brug af kunstig intelligens.

Derfor er der brug for mere kontrol – især i situationer, hvor brugen af kunstig intelligens kan have stor betydning for borgernes rettigheder og retssikkerhed. Sådan lyder hovedkonklusionen i en ny rapport fra Institut for Menneskerettigheder, som skal vejlede det offentlige i brugen af kunstig intelligens, når der træffes afgørelser.

Instituttet opfordrer til at øge kontrollen ved blandt andet at indføre et offentligt register over alle myndigheder, der gør brug af kunstig intelligens, og generelt styrke tilsynet med myndighederne og stille højere krav om åbenhed.

»Danske myndigheder er i fuld gang med at tage kunstig intelligens i brug for at effektivisere forvaltningen. Det kan der være mange gode grunde til, men det kan have alvorlige konsekvenser for borgernes rettigheder. Det er der slet ikke nok fokus på i det offentlige Danmark i dag,« siger Louise Holck, direktør for Institut for Menneskerettigheder, ifølge en meddelelse.

Rapporten indeholder konkrete anbefalinger til beslutningstagere og myndigheder, der bruger kunstig intelligens i sagsbehandlingen. Anbefalingerne skal sikre, at borgernes rettigheder og retssikkerhed altid garanteres, når det offentlige benytter sig af kunstig intelligens.

Kunstig intelligens må ikke svække borgernes rettigheder

»I Danmark har vi en høj beskyttelse af borgernes rettigheder og retssikkerhed, og det skal vi blive ved med. Hvis danske myndigheder skal bruge kunstig intelligens i sagsbehandlingen, kræver det blandt andet bindende og ensartede minimumskrav og et effektivt tilsyn,« siger Louise Holck og tilføjer:

»Det er muligt at bevare og styrke borgernes rettigheder i takt med, at forvaltningen digitaliseres. Men det kræver, at lovgivningen stiller krav til og sætter klare rammer for myndighederne. Og det kræver, at myndighederne er åbne om deres brug af kunstig intelligens og selv forholder sig kritisk til det,« siger Louise Holck.

Der handler for eksempel om jobcentre, der bruger en profileringsmodel til at identificere ledige, som er i stor risiko for langtidsledighed.

Læs også: Jurist: Dataprofilering af langtidsledige med etnicitet er ulovlig

I rapporten fremhæves diskrimination som en af de store risici ved offentlige myndigheders brug af profileringsmodeller. Modellerne kan videreføre den diskrimination, der hele tiden har eksisteret i sagsbehandlingen. Men den kan også være med til at forværre problemet.

»Det er let at tro, at modellerne er objektive, men de skævvrider og laver detaljerede profiler af borgerne, som kan få betydning for, hvilken hjælp og service hver enkelt får fra det offentlige. På den måde kan det for eksempel blive den enkeltes køn, etnicitet eller alder, der bliver afgørende for, om de får den støtte, de har brug for, og så kan der være tale om ulovlig forskelsbehandling,« siger Louise Holck.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (1)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#1 Anne-Marie Krogsbøll

På trods af alle advarsler, skal vi lige se, om ikke den går alligevel:

"Der handler for eksempel om jobcentre, der bruger en profileringsmodel til at identificere ledige, som er i stor risiko for langtidsledighed."

Gad vide, om jobcentrene er bedre til det end Uber? Jeg tvivler.

https://politiken.dk/viden/Viden_og_Tech_analyser/art8427224/Chefen-fors...

Når man har læst Cathy O'Neils "Weapons of Math Destruction", så har man mistet al tro på, at der kommer noget godt ud af algoritmetilgangen. Og Cathy O'Neil ved, hvad hun taler om. Hun er frafalden ekspert på området....

  • 1
  • 0
Log ind eller Opret konto for at kommentere