Over de næste to år skal to forskere fra Københavns Universitet undersøge de etiske dilemmaer i forbindelse med brug af kunstig intelligens. De skal bl.a. følge AI-forskningen på nært hold, implementere etikken i undervisningen og udvikle et etisk kodeks, som beskriver ansvarlig forskningspraksis inden for AI, fortæller universitetet i en meddelelse, der udgives senere i dag.
De to forskere er Peter Sandøe, der arbejder som professor i bioetik på både Science og Sund, og Sune Hannibal Holm, der lige nu er lektor i filosofi på Hum, men fra 1. januar skifter til en stilling på Science.
»Det er vigtigt, at vi som universitet får manifesteret, at når vi involverer os i ny teknologi som AI, så sker det på en ansvarlig måde, og det bliver diskuteret indgående, hvad vi vil med den,« siger Sune Holm og Peter Sandøe, som de næste to års tid skal undersøge de etiske AI-krinkelkroge til bunds, ifølge KU.
Og der er ifølge universitetet nok af både muligheder og dilemmaer at tage fat på, når det handler om kunstig intelligens: Hvem har ansvaret, når en førerløs bil kører galt? Er det OK, at politiet bruger algoritmer til at forudsige, hvem der begår kriminalitet? Eller at kommunen bruger sociale data til at overvåge særlige grupper?
AI-udvikling
AI-udviklingen er allerede godt i gang. På Datalogisk Institut på Københavns Universitet åbnede i februar i år Science AI Centre, som bruger kunstig intelligens til at analysere store mængder data fra andre videnskaber på Det Natur- og Biovidenskabelige Fakultet på Københavns Universitet.
Også andre tiltag er sat i søen. Version2 har tidligere omtalt et stort tværfagligt og tværinstitutionelt samarbejde, som skal gøre kommunal sagsbehandling lettere ved at bruge AI og process mining.
Dansk politi har udtalt sin interesse for Predictive Policing. Men datagrundlaget i dansk kriminalitet er dog foreløbig for småt til, at det giver mening.
Fremme nuanceret debat
Som eksempel på et af de etiske dilemmaer, der tidligere har fyldt meget i offentligheden, nævner forskerne tidligere årtiers diskussioner om genmodificering af bl.a. planter og fødevarer. Her har skeptikernes stemme og frygten for ny teknologi ført til, at nye teknologiske muligheder er blevet valgt fra på et spinkelt videnskabeligt grundlag.
Deres pointe med den sammenligning er, at debatten skal være balanceret, oplyst og nuanceret, så man i fællesskab kan drage nytte af nye teknologier på en måde, hvor ikke alene videnskaben og virksomhederne, men også befolkningen føler sig hørt.
»Vi har ikke løsningen på, om kunstig intelligens og brugen af algoritmer er rigtig eller forkert, men vi skal forsøge at forstå de overvejelser, der ligger hos både skeptikerne og dem, der gerne vil skubbe bag på udviklingen,« siger Peter Sandøe.
Forskerne er meget opmærksomme på konsekvenser, hvis vi som samfund ikke får skabt en nuanceret debat om emnet.
»Det kan koste samfundet både velstand og velfærd, hvis ikke man gør det. Hvis de produkter, som vores forskere er med til at udvikle til fx sundhedsvæsnet, skal gøre en forskel, så skal de kunne afsættes. Og det kan de kun, hvis vi har haft en diskussion om, hvordan produkterne kan anvendes både til gavn for og med respekt for borgerne,« siger Sune Hannibal Holm.
En del af forskning og undervisning
I løbet af projektet skal de to etikere følge forskere på Science AI Centre (Datalogisk Institut) og andre relevante danske og internationale forskningsmiljøer for at få førstehåndsviden om de mest presserende problematikker i forhold til etik og normer for god praksis på området.
De skal også arrangere debatter og workshops og bidrage til at designe et etisk kodeks, som beskriver ansvarlig forsknings- og innovationspraksis inden for kunstig intelligens. Samtidig skal de implementere den etiske dimension i undervisningen, så de studerende tager den med sig ud i virkeligheden.
»Meget af den viden, som de studerende kommer til at beskæftige sig med, skal de tage med ud i en samfundsmæssig praksis. De skal udvikle programmer, som får stor indflydelse på folks dagligdag, og som derfor hurtigt får en værdimæssig og etisk karakter,« siger Peter Sandøe, og Sune Hannibal Holm tilføjer:
»Hvis vi er lykkedes, når vi er færdige, så kan de studerende ikke undgå at lære om etik i forhold til brugen af kunstig intelligens på deres studie. Målet er også, at vores resultater bliver en integreret del af forskningen,« siger han.