Institut for Menneskerettigheder: Kontrollen med det offentliges AI skal styrkes

1 kommentar.  Hop til debatten
Institut for Menneskerettigheder: Kontrollen med det offentliges AI skal styrkes
Illustration: Privatfoto.
Borgernes rettigheder skal beskyttes bedre, når offentlige myndigheder benytter kunstig intelligens. Institut for Menneskerettigheder giver i ny rapport konkrete anvisninger til, hvordan det bør gøres.
19. oktober 2021 kl. 10:08
errorÆldre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Rammerne og lovgivningen er ikke fulgt med det offentliges brug af kunstig intelligens.

Derfor er der brug for mere kontrol – især i situationer, hvor brugen af kunstig intelligens kan have stor betydning for borgernes rettigheder og retssikkerhed. Sådan lyder hovedkonklusionen i en ny rapport fra Institut for Menneskerettigheder, som skal vejlede det offentlige i brugen af kunstig intelligens, når der træffes afgørelser.

Instituttet opfordrer til at øge kontrollen ved blandt andet at indføre et offentligt register over alle myndigheder, der gør brug af kunstig intelligens, og generelt styrke tilsynet med myndighederne og stille højere krav om åbenhed.

Institut for Menneskerettigheder anbefaler at:

• Justitsministeriet med inddragelse af Datatilsynet og Digitaliseringsstyrelsen udsteder en vejledning om offentlige myndigheders brug af profileringsmodeller med fokus på de rettigheds- og retssikkerhedsmæssige udfordringer ved modellerne.
• Justitsministeriet med inddragelse af Datatilsynet, Digitaliseringsstyrelsen og Folketingets Ombudsmand sikrer et styrket samarbejde på tværs af de tilsyns-, rekurs- og kontrolinstanser, der forventes at kontrollere myndighedernes brug af profileringsmodeller.
• Digitaliseringsstyrelsen, som led i det fællesoffentlige arbejde med kommuner og regioner, opretter et offentligt register over samtlige offentlige myndigheders brug af profileringsmodeller rettet mod borgere.


»Danske myndigheder er i fuld gang med at tage kunstig intelligens i brug for at effektivisere forvaltningen. Det kan der være mange gode grunde til, men det kan have alvorlige konsekvenser for borgernes rettigheder. Det er der slet ikke nok fokus på i det offentlige Danmark i dag,« siger Louise Holck, direktør for Institut for Menneskerettigheder, ifølge en meddelelse.

Rapporten indeholder konkrete anbefalinger til beslutningstagere og myndigheder, der bruger kunstig intelligens i sagsbehandlingen. Anbefalingerne skal sikre, at borgernes rettigheder og retssikkerhed altid garanteres, når det offentlige benytter sig af kunstig intelligens.

Kunstig intelligens må ikke svække borgernes rettigheder

»I Danmark har vi en høj beskyttelse af borgernes rettigheder og retssikkerhed, og det skal vi blive ved med. Hvis danske myndigheder skal bruge kunstig intelligens i sagsbehandlingen, kræver det blandt andet bindende og ensartede minimumskrav og et effektivt tilsyn,« siger Louise Holck og tilføjer:

Artiklen fortsætter efter annoncen

»Det er muligt at bevare og styrke borgernes rettigheder i takt med, at forvaltningen digitaliseres. Men det kræver, at lovgivningen stiller krav til og sætter klare rammer for myndighederne. Og det kræver, at myndighederne er åbne om deres brug af kunstig intelligens og selv forholder sig kritisk til det,« siger Louise Holck.

Der handler for eksempel om jobcentre, der bruger en profileringsmodel til at identificere ledige, som er i stor risiko for langtidsledighed.

I rapporten fremhæves diskrimination som en af de store risici ved offentlige myndigheders brug af profileringsmodeller. Modellerne kan videreføre den diskrimination, der hele tiden har eksisteret i sagsbehandlingen. Men den kan også være med til at forværre problemet.

»Det er let at tro, at modellerne er objektive, men de skævvrider og laver detaljerede profiler af borgerne, som kan få betydning for, hvilken hjælp og service hver enkelt får fra det offentlige. På den måde kan det for eksempel blive den enkeltes køn, etnicitet eller alder, der bliver afgørende for, om de får den støtte, de har brug for, og så kan der være tale om ulovlig forskelsbehandling,« siger Louise Holck.

1 kommentar.  Hop til debatten
Debatten
Log ind for at deltage i debatten.
settingsDebatindstillinger
1
19. oktober 2021 kl. 17:41

På trods af alle advarsler, skal vi lige se, om ikke den går alligevel:

"Der handler for eksempel om jobcentre, der bruger en profileringsmodel til at identificere ledige, som er i stor risiko for langtidsledighed."

Gad vide, om jobcentrene er bedre til det end Uber? Jeg tvivler.

https://politiken.dk/viden/Viden_og_Tech_analyser/art8427224/Chefen-fors%C3%B8gte-at-ans%C3%A6tte-folk-med-Uber-scoren.-Det-viste-sig-at-v%C3%A6re-helt-sk%C3%A6vt

Når man har læst Cathy O'Neils "Weapons of Math Destruction", så har man mistet al tro på, at der kommer noget godt ud af algoritmetilgangen. Og Cathy O'Neil ved, hvad hun taler om. Hun er frafalden ekspert på området....