Forskere og tech-giganter: 10 nødvendige regler før verden er klar til kunstig intelligens

Når softwareudviklere skaber kunstig intelligens, skal der være mere gennemsigtighed, højere etiske rammer og mere kontrol - både før den frigives, men i ligeså høj grad efter, mener eksperter fra New York University, Google og Microsoft.

En samling af amerikanske AI-forskere har skrevet ti forslag til, hvad der skal være styr på, før verden er moden til at bruge kunstig intelligens.

Det er forskere fra AI Now, der har skrevet en ny rapport i et samarbejde mellem New York University, Google Open Research og Microsoft Research.

Den kunstige intelligens 10 bud

Rapporten har 10 konkrete anbefalinger til brug af kunstig intelligens og deep learning:

1: Centrale offentlige institutioner - som dem der har ansvar for retssystemet, sundhedsvæsenet, velfærd og uddannelse bør ikke benytte black box algoritmer.
Det er et problem at sikre, at alt bliver gjort rigtigt, hvis man ikke har gennemsigtighed. Samfundet bør som minimum få mulighed for at se, teste og vurdere om den lever op til samfundets krav.

2: Før en AI frigives, bør selskaber frigive en række tidlige udgaver, så det sikres, at den ikke forstærker bias i systemer
Der skal være offentligt tilgængelig dokumentation og datasæt, der gør det muligt at minimere risikoen for, at en kunstig intelligens generaliserer på et forkert grundlag.

3: Efter en AI frigives bør selskaberne fortsat overvåge, hvordan den bruges, i hvilke sammenhænge og i hvilke samfundsgrupper
Selskaberne bør på bedste akademiske vis overvåge AI'en og stå til ansvar for, hvordan den opfører sig - især i situationer med meget på spil for marginaliserede grupper.

4: Der skal laves mere forskning og flere regler, før kunstig intelligens kan bruges til at styre og overvåge arbejdspladser - inklusive ansættelse og HR
Det kan blive et problem, hvis en AI i sit forsøg på at finde den bedste kandidat træffer sine valg på forkerte bias, så den diskriminerer i forhold til bl.a. alder, køn eller etnicitet.

5: Der skal udvikles standarder, så man kan følge, hvor en AI er fra, dens udvikling og dens træningsdatasæt gennem dens livscyklus
Det er nødvendigt at have fastsatte regler og overvåge datasættene for at opdage og minimere fejl og bias. Der skal desuden fastsættes standarder for, hvordan datasæt skabes og vedligeholdes.

6: Udvid forskningen indenfor AI-bias udover snævre tekniske løsninger
Løsninger til at løse bias-fejl kan ofte blive designet til at fixe en enkelt case eller et enkelt datasæt. Der skal forskes mere i, hvordan man laver ufarvede systemer indenfor forskellige områder.

7: Der skal oprettes standarder for at overvåge og forstå brugen af "vild" kunstig intelligens
At skabe sådanne standarder er krævende og vil kræve perspektiver fra forskellige discipliner. Standarderne bør være offentligt tilgængelige, akademiske og bør løbende tjekkes igennem og opdateres af branchen.

8: Selskaber, universiteter, konferencer og andre interessenter i AI-branchen bør frigive data omkring kvinder, minoriteter og andre marginaliserede grupper indenfor kunstig intelligens
Selvom det er alment kendt, at algoritmer har mangel på diversitet, er der ikke meget data, der konkret viser, hvor skævt AI's kigger på minoriteter indenfor AI-området.

9: AI-industrien bør hyre andre eksperter end dataloger og ingeniører og sikre, at de bliver hørt
Når AI skal udbredes til større dele af samfundet, er det nødvendigt, at større dele af samfundet også høres - det gælder både sociologer, jurister og andre områdeeksperter.

10: Etiske retningslinjer bør styre kunstig intelligens i den rigtige retning sammen med mekanikker, der kan holde teknologien ansvarlig
Der skal fortsat arbejdes på at fastlægge et højt niveau af etiske principper og guidelines for udviklingen af kunstig intelligens.

Meget opmærksomhed omkring kunstig intelligens

Rapporten udkommer oven i en lang række store historier om kunstig intelligens - både i Danmark og på globalt plan.

Google, der er med på forfatterlisten, bakser selv med, at deres Youtube-AI ikke opfører sig ordentligt, da den markerer uskyldige videoer som værende ekstremistiske.

På Rigshospitalet viste en test i 2016 , at der stadig var et stykke vej til AI kunne bruges til daglig.

I USA blev en kunstig intelligens anvendt i retssystemet, hvor det viste sig, at den med tiden var blevet decideret racistisk, da dens datasæt havde vist en højere tilbøjelighed til kriminalitet blandt sorte.

I Texas vandt en gruppe lærere en sag, hvor en AI målte deres performance uden at have nok gennemsigtighed til at resultaterne kunne bekræftes efterfølgende.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (1)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Ole Kofoed Hansen

I har ramt en del ved siden af i jeres oversættelse af punkt 8 - i en grad så jeres tekst er nærmest volapyk.

Det oprindelige punkt 8 handler om diversitet blandt udviklerne, og uklarhed om virksomhedernes syn på minoriteter som udviklere. Det har intet direkte at gøre med AIens syn på minoriteter. Og slet intet at gøre med at algoritmer skulle have mangel på diversitet - hvad det så end skulle betyde.

Log ind eller Opret konto for at kommentere