Denne artikel er forkortet. Læs den fulde udgave på Ingeniørens PRO-medie DataTech.
Københavns Universitet vil formulere et etisk kodeks til brugen af AI, der både kan tvinge KU's forskere til at reflektere over de algoritmer, de skaber, og hjælpe med at løfte en hårdt tiltrængt samfundsdebat om, hvad vi ønsker med de nye værktøjer.
Det fortæller lektor i filosofi på KU SCIENCE Sune Hannibal Holm, som sammen med professor Peter Sandøe skal undersøge de etiske dilemmaer ved brugen af AI eller machine learning over de næste to år.
»I Danmark er der lige nu ret stor fokus på, at vi skal have kunstig intelligens i brug i samfundet, også i den offentlige sektor,« siger han.
»Men hvordan sikres transparens, hvis politiet begynder at patruljere i bestemte områder, eller hvis en kommune begynder at opsøge familier på baggrund af en algoritme. Det er en vigtig diskussion at tage, og universitetet har som samfundsinstitution god grund til at være en del af den diskussion.«
I processen vil forskerne blandt andet se på forskellige normer for området, der hersker rundt om i verden, og kigge på de store organisationer, der er kommet med bud på etisk anvendelse af AI.
På vores PRO-medie DataTech kan du læse meget mere om, hvordan AI-etik hænger sammen med GMO-debatten, hvad Sune Hannibal Holm forventer, at det etiske kodeks skal kunne, og hvad det egentlig er for nogle tiltag, der skaber AI-etiske udfordringer.