Dansk forskning med 100 millioner kroner i ryggen skal sikre tillid til algoritmer
Datalogisk Institut på Københavns Universitet (DIKU) er en del af et nyt, bredt konsortium, der har modtaget 100 millioner kroner til at undersøge, hvordan data og algoritmer kan bruges til at støtte samfundet og styrke demokratiske processer, der løser de nuværende udfordringer.
Det skriver universitetet i en meddelelse.
Projektet skal løbe over de næste 10 år. Forskere fra Roskilde Universitet, KU, Aalborg Universitet, Copenhagen Business School, Aarhus Universitet og Syddansk Universitet deltager i projektet.
Målet med forskningen er at udvikle nye samfundsmæssige og teknologiske løsninger for at sikre tillid mellem borgere og samfund i en endnu mere digitaliseret fremtid.
'Algoritmer, data og demokrati' (ADD), er navnet på det 10-årige tværfaglige projekt, der nu lanceres for at forbedre forståelsen af algoritmisk databehandling som en del af samfundet på en sund, menneskelig, og støttende måde.
Populisme, polarisering og sammensværgelser er velkendte samfundsfænomener, som for nylig er blevet knyttet til den øgede anvendelse af algoritmisk databehandling i samfundet. Det mener flere forskere, der nu går sammen på tværs af discipliner og universiteter for at undersøge præcist, hvordan dette skal tackles.
Algoritmiske valg kan få enorme konsekvenser for samfundet
»Målet med teknologi er at støtte folks velbefindende, individuelt men også som et samfund, fremme tillid, sikkerhed, retfærdighed og gennemsigtighed,« siger professor Christina Lioma fra DIKU ifølge meddelelsen.
Hun er til daglig leder af forskningssektionen Machine Learning på DIKU og vil stå i spidsen for den datalogiske del af projektet:
»Den rolle, som algoritmisk databehandling spiller i kriser med offentlig tillid, er afgørende for samfundet og demokratiet. Vi ser en bestemt sommerfugleffekt her i den forstand, at algoritmiske valg, der kan virke mindre i laboratoriet, kan ende med at få enorme konsekvenser for samfundet. Vi er nødt til at løse dette lige nu og på en principiel måde.«
Arbejdet vil fokusere på tre kerneproblemer i dagens kunstige intelligens: Den første er, at søgemaskiner og social medieteknologi generelt er utilsigtet designet til at sprede falske nyheder med clickbait i stedet for rent faktisk at sprede nøjagtige oplysninger, simpelthen fordi denne type indhold er meget klikbare (og klik genererer trafik).
Det andet problem er, at det er umuligt at udelukke bias fra de data, der genereres af samfundet og bruges til at træne AI-algoritmer. Der vil altid være bias med hensyn til en eller anden dimension, såsom køn, alder, hudfarve, seksuel orientering, politisk overbevisning, indkomst eller uddannelsesniveau.
»Vi mennesker har normer til at styre vores adfærd, selv når den udsættes for biased situationer, men det har algoritmer ikke. Det betyder, at hvis algoritmerne er trænet i data, hvor fx 90 procent af lægerne er mænd, vil algoritmerne identificere dette som et mønster og lære at gentage det, for eksempel ved automatisk at oversætte alle læger som han,« siger Christina Lioma.
Det tredje kerneproblem, som Christina Liomas arbejde vil fokusere på, er at forstå forholdet mellem overparameterisering og generalisering i dybe læringsmodeller.
»Dette betyder grundlæggende at forbedre vores forståelse af, hvordan vi kan sikre at den algoritmiske opførsel, vi ser i laboratoriet, også ses uden for laboratoriet i den virkelige verden. De betingelser, hvorunder dette kan ske, er ikke garanteret lige nu.«
De 100 millioner kroner er tildelt projektet af Villum Fonden og Velux Fonden. Det ledes af professor Sine Nørholm Just fra Institut for Kommunikation og Humaniora ved RUC.
