Institut for Menneskerettigheder: Myndigheder bør fortælle når de bruger AI

Institut for Menneskerettigheder: Myndigheder bør fortælle når de bruger AI
Illustration: Andrey Popov / Bigstock.
Risiko for diskrimination kræver gennemsigtighed, når det offentlige profilerer med kunstig intelligens. Det vil styrke borgernes retssikkerhed mener Institut for Menneskerettigheder, som kommer med konkrete forslag i ny analyse.
8. marts 2021 kl. 03:45
errorÆldre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

I en retsstat er det et grundlæggende princip, at borgere og offentlighed skal kunne kigge magthaverne i kortene og få indsigt i de processer, der ligger bag love og afgørelser.

Når dele af en afgørelse om borgere træffes af en algoritmisk profileringsmodel, bliver retsstatens principper udfordret, når det handler om mulighederne for at kigge magthaverne i kortene og få indsigt i de processer, der ligger bag.

Det konkluderer Institut for Menneskerettigheder i en ny analyse om brugen af kunstig intelligens i det offentlige.

Konkret anbefaler Instituttet, at Social- og Ældreministeriet samt Beskæftigelsesministeriet fastsætter regler om brugen af profileringsmodeller på social- og beskæftigelsesområdet, blandt andet i forhold til risiko for diskrimination.

Anbefalingerne fra Institut for Menneskerettigheder

Udover de øvrige nævnte stiler instituttet disse anbefalinger til myndighederne i analysen:

Log ind og få adgang
Du kan læse indholdet ved at logge ind eller oprette dig som ny bruger.
Debatten
Log ind for at deltage i debatten.
settingsDebatindstillinger
3
8. marts 2021 kl. 20:49

men:

Alle offentlige myndigheder i Danmark, der anvender profileringsmodeller rettet mod borgere, forpligtes til at oplyse borgere om dette og ved afgørelser informere borgere om, hvordan modellen er nået frem til sine resultater.

Især det sidst komma vil nok vanskeliggøre projektet.

2
8. marts 2021 kl. 15:20

Det er rigtig vigtige, relevante og værdifulde anbefalinger, Institut For Menneskerettigheder kommer med nu.

Meget præcist, lige til at implementere.

Alene den kendsgerning, at der ikke allerede er lovgivning på plads, som beskytter borgeren(s rettigheder), når det gælder profilering i det offentlige eller – specifikt – automatiserede afgørelser via AI, bør give anledning til hurtigst muligt at få det etableret og anbefalingerne implementeret i dansk lov.

1
8. marts 2021 kl. 14:51

Retssikkerhed. Retsstaten er ikke eksisterende som sådan. Retsstaten er magthavernes ret til at håndhæve deres mere og mere komplekse lovgivning.

se 'Lovsjusk og magtfordrejning' på www.optimalpub.dk under udgivelser.

At klage over AI er ikke relevant.

Derimod er det relevant at afgørelser er ordentligt begrundet herunder, hvis det skulle være baseret på lidt floffy og tåget udregnign via AI.

Det er udfrodringen. Jeg nævner fra bogen fra det sociale område er der fejl i 47% af afgørelserne (det havde være nemmere at kaste en mønt 50% fejl /gode). En undersøgelse af netop lov og jura med anvendt AI gav flere korrekte afgørelser end de praktiserende advokater kunne præstere. AI er ikke bare det onde, men netop noget, der kan sætte fingeren på dårlig lovgivning og følgen af en rodet og kompleks formulering. Der er dog en skændsel, at borgerens mulighed for at følge med i aktuel lovgivning er ikke eksisterende uden at betale for Karnov med aktuelle opdateringer. Det er himmelråbende dårligt, da vi dog skall følge lovgivningen!