Dansk forskning med 100 millioner kroner i ryggen skal sikre tillid til algoritmer

Illustration: Andrey Popov / Bigstock
'Algoritmer, data og demokrati' er navnet på et 10-årigt tværfagligt projekt, der skal forbedre forståelsen af ​​algoritmisk databehandling som en del af samfundet på en sund og støttende måde.

Datalogisk Institut på Københavns Universitet (DIKU) er en del af et nyt, bredt konsortium, der har modtaget 100 millioner kroner til at undersøge, hvordan data og algoritmer kan bruges til at støtte samfundet og styrke demokratiske processer, der løser de nuværende udfordringer.

Det skriver universitetet i en meddelelse.

Projektet skal løbe over de næste 10 år. Forskere fra Roskilde Universitet, KU, Aalborg Universitet, Copenhagen Business School, Aarhus Universitet og Syddansk Universitet deltager i projektet.

Målet med forskningen er at udvikle nye samfundsmæssige og teknologiske løsninger for at sikre tillid mellem borgere og samfund i en endnu mere digitaliseret fremtid.

'Algoritmer, data og demokrati' (ADD), er navnet på det 10-årige tværfaglige projekt, der nu lanceres for at forbedre forståelsen af ​​algoritmisk databehandling som en del af samfundet på en sund, menneskelig, og støttende måde.

Populisme, polarisering og sammensværgelser er velkendte samfundsfænomener, som for nylig er blevet knyttet til den øgede anvendelse af algoritmisk databehandling i samfundet. Det mener flere forskere, der nu går sammen på tværs af discipliner og universiteter for at undersøge præcist, hvordan dette skal tackles.

Algoritmiske valg kan få enorme konsekvenser for samfundet

»Målet med teknologi er at støtte folks velbefindende, individuelt men også som et samfund, fremme tillid, sikkerhed, retfærdighed og gennemsigtighed,« siger professor Christina Lioma fra DIKU ifølge meddelelsen.

Hun er til daglig leder af forskningssektionen Machine Learning på DIKU og vil stå i spidsen for den datalogiske del af ​​projektet:

»Den rolle, som algoritmisk databehandling spiller i kriser med offentlig tillid, er afgørende for samfundet og demokratiet. Vi ser en bestemt sommerfugleffekt her i den forstand, at algoritmiske valg, der kan virke mindre i laboratoriet, kan ende med at få enorme konsekvenser for samfundet. Vi er nødt til at løse dette lige nu og på en principiel måde.«

Arbejdet vil fokusere på tre kerneproblemer i dagens kunstige intelligens: Den første er, at søgemaskiner og social medieteknologi generelt er utilsigtet designet til at sprede falske nyheder med clickbait i stedet for rent faktisk at sprede nøjagtige oplysninger, simpelthen fordi denne type indhold er meget klikbare (og klik genererer trafik).

Det andet problem er, at det er umuligt at udelukke bias fra de data, der genereres af samfundet og bruges til at træne AI-algoritmer. Der vil altid være bias med hensyn til en eller anden dimension, såsom køn, alder, hudfarve, seksuel orientering, politisk overbevisning, indkomst eller uddannelsesniveau.

»Vi mennesker har normer til at styre vores adfærd, selv når den udsættes for biased situationer, men det har algoritmer ikke. Det betyder, at hvis algoritmerne er trænet i data, hvor fx 90 procent af lægerne er mænd, vil algoritmerne identificere dette som et mønster og lære at gentage det, for eksempel ved automatisk at oversætte alle læger som han,« siger Christina Lioma.

Det tredje kerneproblem, som Christina Liomas arbejde vil fokusere på, er at forstå forholdet mellem overparameterisering og generalisering i dybe læringsmodeller.

»Dette betyder grundlæggende at forbedre vores forståelse af, hvordan vi kan sikre at den algoritmiske opførsel, vi ser i laboratoriet, også ses uden for laboratoriet i den virkelige verden. De betingelser, hvorunder dette kan ske, er ikke garanteret lige nu.«

De 100 millioner kroner er tildelt projektet af Villum Fonden og Velux Fonden. Det ledes af professor Sine Nørholm Just fra Institut for Kommunikation og Humaniora ved RUC.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (16)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#1 Ditlev Petersen

ikke-algoritmisk databehandling er? Måske skulle man starte med at finde ud af, hvad man forstår ved algoritmer. Og dernæst fortælle det til andre. Personligt har jeg altid haft en stor mistro til den algoritme, der beregner sinus.

  • 8
  • 0
#3 Jesper Frimann

"Det betyder, at hvis algoritmerne er trænet i data, hvor fx 90 procent af lægerne er mænd, vil algoritmerne identificere dette som et mønster og lære at gentage det, for eksempel ved automatisk at oversætte alle læger som han,« siger Christina Lioma"

Dette eksempel bliver næppe et problem i Danmark.

Det projekt skulle have været sat i søen sidste år og rapporten skulle udkomme i år, ellers giver det projekt mening.

Det havde stadig været mindst et årti for sent IMHO. Den her artikel er et meget godt eksempel på, hvorfor det her haster:

https://www.technologyreview.com/2021/03/11/1020600/facebook-responsible...

// Jesper

  • 5
  • 0
#4 Christoffer Kjeldgaard

Arbejdet vil fokusere på tre kerneproblemer i dagens kunstige intelligens: Den første er, at søgemaskiner og social medieteknologi generelt er utilsigtet designet til at sprede falske nyheder med clickbait i stedet for rent faktisk at sprede nøjagtige oplysninger, simpelthen fordi denne type indhold er meget klikbare (og klik genererer trafik).

Det andet problem er, at det er umuligt at udelukke bias fra de data, der genereres af samfundet og bruges til at træne AI-algoritmer. Der vil altid være bias med hensyn til en eller anden dimension, såsom køn, alder, hudfarve, seksuel orientering, politisk overbevisning, indkomst eller uddannelsesniveau.

»Vi mennesker har normer til at styre vores adfærd, selv når den udsættes for biased situationer, men det har algoritmer ikke. Det betyder, at hvis algoritmerne er trænet i data, hvor fx 90 procent af lægerne er mænd, vil algoritmerne identificere dette som et mønster og lære at gentage det, for eksempel ved automatisk at oversætte alle læger som han,« siger Christina Lioma.

Det fremgår at kerneproblemerne drejer sig om algoritmer, der tilpasset maskinlæring / AI.

Kerneproblem 1: Søgemaskiners bias mod fake news = AI-algoritme, der fokuserer på flest kliks (økonomi og indtjening) fremfor at levere verificerbare kilder (objektivitet).

Kerneproblem 2 og 3 bliver eksemplificeret som værende problemer med AI og maskinlæring.

Der kan vel heraf konkluderes at der ikke søges en ikke-algoritmisk løsning som sådan, men nærmere et svar på hvordan man laver bedre AI og maskinlæringsalgoritmer der løser nogle af de kerneproblemer der normalt løses af et menneskeligt interface til computere (HCI), som ikke kan løses ret godt selvstændigt af computere, qva. de eksempler der er givet ovenfor.

  • 1
  • 0
#5 Ditlev Petersen

Der kan vel heraf konkluderes at der ikke søges en ikke-algoritmisk løsning som sådan, men nærmere et svar på hvordan man laver bedre AI og maskinlæringsalgoritmer der løser nogle af de kerneproblemer der normalt løses af mennesker, som ikke kan løses ret godt selvstændigt af computere, qva. de eksempler der er givet ovenfor.

Ja da. Men journalister og andre kan meget nemt fortstå det som, at algoritmer er noget farligt, som Fanden har skabt. Lige som nanoteknologi blev misforstået og lagt for had.

Når man udtrykker sig med "algoritmisk databehandling", så lyder det som alle de madvarer og præparater, der er "uden kemi". Det kan ikke forstås.

Man må være mere præcis og lettere forståelig, ellers vil nogen kræve et generelt forbud mod algoritmer. Der kan jo endda komme jurister ind over, og det gør sjældent tingene mere gennemskuelige.

  • 2
  • 2
#7 Gert Madsen

Allerede i oplægget går det galt.

Man skal sikre at funktionerne er pålidelige. Altså en egenskab ved funktionerne.

Tillid er en følelse. I statslig IT sammenhæng, plejer det at blive udmøntet i utroværdig propaganda, istedet for at bruge midlerne til at fikse de problemer ved løsningerne, som giver - oftest berettiget - mistillid.

  • 7
  • 0
#8 Maciej Szeliga

...have tillid til noget man ikke forstår ?

hvilket så vil resultere i: hvordan kan man forstå noget som kræver en pen sjat matamatisk viden at forstå?

...og når man så tænker på at en ikke uvæsentlig del af befolkningen har en holdning at "matematik er spild af tid" hjælper det ikke på hele projektet.

  • 10
  • 0
#11 Bjarne Nielsen

Hmm, ja. Der er her meget fokus på, at løsningen på udfordringerne med brugen af algoritmer er flere og bedre algoritmer. Hvis man spørger en tømrer om en løsning, så involverer det sandsynligvis mere og bedre træ; spørger man en smed, så involverer det mere og bedre jern - og spørger man DIKU, så skal man jo nok ikke blive overrasket over, at løsningsforslagene går i retning af flere, hurtigere og bedre bits.

Men artiklen tager også udgangspunkt i DIKUs pressemeddelelse, og klikker man videre derfra, som kommer man til Velux/Villum-fondenes annoncering, og her kan man set, at Sine Nørholm Just fra RUC er sat i spidsen for konsortiet, og hun er citeret for flg.:

Målet med projektet er at forene datalogi, samfundsvidenskab og humaniora i udviklingen af nye løsninger til gavn for borgere og samfund. Vi vil altså forstå de teknologiske udviklinger og styrke deres demokratiske potentiale,” siger Sine Nørholm Just.

Altså er datalogi og datalogisk tænkning er kun et af de tre ben, som den stol skal stå på. Så der vel grund for håb, selvom der stadig virker til at være et element af at digitaliseringen er et uafvendeligt præmis for fremtiden, og vi nok skal blive glade for det i længden. Ingen tvivl om, at digitalisering spiller en stor og større rolle, og at det udfordrer os, og at det derfor at vigtigt at vi forholder os kritisk til det, men engang imellem virker det som om at det bliver italesat som fait accompli, og at det bliver mødt med en noget opgivende holdning. Hvis der er bedre alternativer, så fortjener vi at de bliver opdyrket og fundet.

Lisbeth Knudsen fra Tænketanken Mandag Morgen er også tiltænkt en rolle, og i den forbindelse hæfter jeg med ved de såkaldte "politiske laboratorier":

Oplysnings- og dialogdelen af projektet kommer også til at indeholde etableringen af en række politiske laboratorier. Her er det meningen, at forskellige interessenter i det danske samfund fra erhvervslivet til lederne i den offentlige sektor, forskellige interesseorganisationer og politikere kan inspirere hinanden og levere konkrete problemstillinger til forskerne. Forskerne kan så også den anden vej afprøve deres teser og forskningsresultater undervejs i disse politiske laboratorier.

Det lyder som gefundenes Fressen for sælgere, snævre særinteresser med meget på spil, lobbyisme og politisk styring. Jeg håber, at Lisbeth Knudsen vil formå sætte hælene tilstrækkeligt i undervejs, og ikke ender med at lade sig køre rundt i den manege.

Jeg har meget på hjerte om algoritmer og tillid, men skal i denne omgang nøjes med at pege på, at man kunne starte med at kigge på de erfaringer, som over tid har udmøntet sig i forvaltningsretten og den gode forvaltningsskik. Her skal vi passe meget på, at vi, i en misforstået fascination af teknik med et ugennemskueligt og magisk skær, ikke kommer til at smide barnet ud med badevandet.

F.eks. er det et grundprincip, at afgørelser skal begrundes. Hvis vi, som genstand for afgørelsen, skal have tillid til den, som skal begrundelsen gøre at vi føler os hørt og at vores unikke situation er blevet set, og har indgået på saglig vis i behandlingen. Det bør i den forbindelse være nemt at få afgørelser uddybet, og også at anke dem, hvis de stadig virker forkerte eller urimelige. Og anken skal ikke ende med, at man bare kører algoritmen endnu engang: "Computer says no".

Som en god ven, som har behandlet klager bemærkede, så var mange sager nok oplagte, og derfor var det en væsentlig opgave at forklare afgørelsen på en måde, så den blev forstået, for ellers så blev den bare anket. Velfungerende klage- og ankeprocesser er vigtige for tilliden, og ja, de er også dyre, og kan dermed udfordre "businesscasen" (i anførselstegn, for det burde allerede være regnet med, men er det som oftest ikke). Men i stedet for at gøre skrankerne højere og kun tage imod klager på rette formular i triplikat første onsdag i hver 3. måned imellem kl. 9.45 og 10.00, så er klager og anker i høj grad en indikator af både manglende forståelse og tillid, og derfor en indikator af, at man har fejlet i at gøre afgørelsen forståelig i første omgang. Eller at man - gys! - har fejlet i sagsbehandlingen. Sikkerhedsventiler skal holdes i god stand; neglicerer man dem, eller stopper man dem direkte til, så går det galt før eller siden!

Og ja, jeg ved godt, at krav om reelle forklaringer (og ikke bare de rene bortforklaringer pakket ind i paragraffer og kancellisprog) udfordrer "performance" af algoritmerne og derfor gør dem "dårligere" (i hvertfald på en dimension), og at det åbner en tydelige flanke for misbrug - og givetvis vil føre til besværlige og princippielle diskussioner om saglighed og rimelighed. Men uden reelle forklaringer, så vil der ikke kunne opstå den nødvendige tillid. Hvis "businesscasen bliver væk" uden, så har der aldrig være en reel businesscase.

  • 5
  • 0
#12 Snurre Jensen

...have tillid til noget man ikke forstår?

Det har vi (de fleste?) på mange andre områder: * GPS * Medicin * Mikrobølgeovne * etc.

Det kan aldrig blive et mål/krav at hele befolkningen (18+) skal kunne forstå matematikken bag AI. Man kan altid diskutere tillidsniveauet til den finansielle sektor men jeg tror ikke at det er alle der er lige skarpe i beregningerne af rentes rente...

  • 1
  • 2
#14 Christian Nobel

Det har vi (de fleste?) på mange andre områder: * GPS * Medicin * Mikrobølgeovne * etc.

Fordi de områder du nævner alle er relativt "statiske" og underlagt en lang række kontroller af uafhængige instanser - jeg ser en ret stor forskel på det, også fordi at selve "råmaterialet" (patenter, specifikationer mv.) er tilgængelige, hvorimod dynamiske algoritmer, som på bedste Kafkaske vis tager ikke forklarbare beslutninger, er totalt uigennemskuelige.

Jeg vil mene at der lige præcis er en verden til forskel - og i modsætning til regimets algoritmer, så kan man faktisk godt vælge mikrobølgeovnen fra.

  • 3
  • 0
#15 Maciej Szeliga

Det har vi (de fleste?) på mange andre områder: * GPS * Medicin * Mikrobølgeovne * etc.

At bruge noget er ikke at have tillid!

GPS er i øvrigt også algoritmer... men du kører ikke i blinde efter den, du skal fortsat holde øje med hvor du kører (påstår Færdselsloven).

Medicin - Nej, hvis placebo virker lige så godt som medicin så er der ingen grund til at bruge medicin mod lige præcis det. Vigtigst af alt - du bestemmer selv om du stoler på m/k'en i den hvide kittel!

Microovne er baseret på fysik og matematik (de to går sjovt nok hånd i hånd) men resultatet er nemt at forstå. Put majskorn i - tag popcorn ud (men hov - de fleste ved ikke engang hvad der er i posen).

Finanssektoren regner på meget mere end rentesatser... siden finanskrisen er de meget mere interesserede i risiko end i renter.

Tillid er baseret på at man forstår sammenhængende eller stoler på at der er tilstrækkeligt mange om gør det - ellers er der ikke tale om tillid men om tro (som i religion).

  • 4
  • 0
#16 Snurre Jensen

Jeg er så absolut heller ikke tilhænger af at "regimet" blot skal have lov til at indføre algoritmer i blinde. Jeg kan sagtens se for mig en eller anden form for "algotitmestyrelse" der spiller lidt samme rolle som f.eks. Lægemiddelstyrelsen har ift. medicin.

Jeg tror også det er vigtigt at skelne mellem beslutningsstøtte og beslutningsautomatisering og hvordan algoritmer passer ind begge steder. Anvendelse af algoritmer til beslutningsstøtte tænker jeg ikke er specielt nyt. Beslutningsautomatisering har jeg ladet mig fortælle vil forudsætte en række vidtrækkende ændringer på det forvaltningsjuridiske område så det er ikke sådan bare lige at indføre.

  • 3
  • 0
Log ind eller Opret konto for at kommentere