Gæstebloggen

Intellektuel gæld – den skjulte omkostning ved kunstig intelligens

Det er ikke bare den kunstige intelligens, som fejler, der bør bekymre os. Vi skal også have opmærksomheden rettet mod den kunstige intelligens, som giver gode svar, men svar, vi ikke kan forklare.

Catharina Nes er fagdirektør i det norske datatilsyn. Illustration: Privatfoto

I 1897 blev aspirin opdaget og taget i brug til smertelindring. Først næsten 100 år senere, i 1995, fandt forskere ud af, hvordan lægemidlet fungerer.

Sådan er det med mange af de lægemidler, vi bruger. Vi ved, at de fungerer, men ikke hvorfor. Hvordan er det muligt, at noget bliver studeret og udforsket så grundigt, og alligevel kan ingen forklare, hvorfor det virker?

Svaret på dette er, at man inden for lægemiddelforskning i høj grad baserer sig på eksperimentering gennem trial and error som metode.

Dette gøres på testobjekter, ofte mus. Hvis musene responderer godt uden registrerede bivirkninger, kan medikamentet testes på mennesker.

Gennem en lang testperiode kan medikamentet til slut opnå godkendelse. I nogle tilfælde kan den succes, en virkningsfuld medicin opnår, inspirere forskere til at lede efter forklaringen på, hvorfor den virker.

Dette var f.eks. tilfældet med aspirin. Da forskere fandt ud af, hvordan lægemidlet fungerede, førte det til udvikling af nye og bedre typer smertestillende medicin gennem andre metoder end trial and error.

Denne form for opdagelser – svar først, forklaring senere – skaber det, som Jonathan Zittrain, forfatter til flere indflydelsesrige bøger om internetøkonomien og Harvard-professor i international ret og informatik, kalder intellektuel gæld.

Intellektuel gæld opstår, når vi har indsigt i, hvad der virker, uden at have viden om, hvorfor det virker.

Nogle gange tilbagebetales den intellektuelle gæld hurtigt, og nogle gange, som med aspirin, efter 100 år. Nogle gange bliver den intellektuelle gæld aldrig tilbagebetalt.

Et lån indebærer en risiko

Intellektuel gæld er ikke nødvendigvis et problem. Er vi syge, vil vi gerne have en medicin, som virker. Hvorfor den virker, er mindre vigtigt. Men at tage et lån indebærer også en risiko.

I artiklen ‘Intellectual debt: with great power comes great ignorance’ i The New Yorker skriver Jonathan Zittrain om, hvordan vi med brugen af kunstig intelligens risikerer at pådrage os en historisk intellektuel gældsbyrde.

Kunstig intelligens, særligt machine learning, er baseret på trial and error som metode – den samme metode, som benyttes inden for lægemiddelvidenskaben. Gennem udbredelsen af kunstig intelligens bringes denne metode, hvor svar kommer uden forklaring, til et utal af nye samfundsområder.

Maskinlæring giver os, når det er bedst, mere koncise og konsistente svar, end et menneske nogensinde vil kunne give. Men når vi accepterer disse svar uden at fastslå teorierne, som ligger bag dem, pådrager vi os intellektuel gæld.

For at forklare udfordringerne forbundet med intellektuel gæld drager Zittrain paralleller til et beslægtet fænomen fra it-verdenen, nemlig teknisk gæld.

Teknisk gæld bruges som metafor om konsekvenserne af dårlig system- og softwareudvikling.

Teknisk gæld opstår, når man lapper og fikser på et eksisterende system uden at have et langsigtet perspektiv. Når man får teknisk gæld, kan det give besparelser på kort sigt, men kan senere blive en direkte årsag til øgede omkostninger og hindre nødvendig innovation.

Udfordringer på lang sigt

Akkurat som teknisk gæld kan intellektuel gæld give godt afkast på kort sigt, men skabe store udfordringer på lang sigt. Zittrain fremhæver tre grunde til, at vi bør bekymre os om den intellektuelle gæld skabt af kunstig intelligens:

For det første: Når vi ikke forstår, hvordan noget virker, er det vanskeligt at forudse, hvordan det vil tilpasse sig uvante og uventede situationer. Selv velfungerende maskinlæringssystemer kan manipuleres til at drage forkerte konklusioner, hvis de angribes med det, forskere kalder »fjendtlige input«.

Forskere ved det amerikanske universitetet MIT formåede for eksempel at ændre pixelerne på et kattebillede, uden at billedet var synligt ændret for det menneskelige øje. Mennesket så fortsat billedet af den samme kat, mens Googles billedgenkendelsesprogram derimod var 100 procent overbevist om, at det så på et billede af guacamole.

På samme måde kan selvkørende biler manipuleres til at tro at de ser et skilt, der viser forkørselsret i stedet for et skilt, der viser vigepligt. Intellektuel gæld skaber altså risiko for alvorlige hændelser, som det kan være vanskeligt at forhindre. Hvis vi ikke forstår, hvordan et system fungerer, er det krævende at finde en metode til at beskytte det mod manipulering.

Den anden årsag til, at vi bør bekymre os om den intellektuelle gæld, som hober sig op i systemer baseret på kunstig intelligens, er, at systemerne ikke fungerer isoleret, men påvirker hinanden. Forkerte svar produceret af ét system indsamles og danner datagrundlaget, som andre maskinlæringssystemer lærer af.

På denne måde kan små fejl i ét system sprede sig og på sigt resultere i større og mere alvorlige fejlslutninger i andre systemer. Efterhånden som flere og flere systemer, vi ikke forstår, bliver gensidigt afhængige af hinanden, vil svarene, de giver, kunne blive mere uforudsigelige og vanskeligere for os at kontrollere.

Vi vil kunne havne i en situation, hvor vores valg og handlinger bestemmes af systemer, vi ikke kan efterprøve, men simpelthen bare må vælge at stole på.

Den sidste, men mest alvorlige bekymring, Zittrain har, er knyttet til, at myndigheder og selskaber er begyndt at flytte forskningsmidler væk fra den tidskrævende og kostbare grundforskning, som leder efter forklaringer, og over til den teknologidrevne og anvendte forskning, som leverer umiddelbare svar og resultater.

Svar alene er imidlertid ikke det eneste, som tæller, pointerer Zittrain. Uden teoridrevet forskning vil vi måske ikke finde nogen meningsfulde svar overhovedet.

Meget af kritikken af kunstig intelligens er rettet mod alle de forskellige måder, hvorpå den kan fejle. Den kan reproducere fordomme (bias), diskriminere og bruges til onde formål.

Men vi skal også have opmærksomheden rettet mod den kunstige intelligens, som ikke begår fejl.

Den, som takket være sin succes tikker af sted i baggrunden og tager beslutninger, vi ikke forstår, men alligevel er holdt op med at sætte spørgsmålstegn ved.

Dette indlæg blev først publiceret i magasinet Dagens Næringsliv den 10. januar 2020 og er publiceret her efter aftale med det norske Datatilsynet.

Kommentarer (2)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#2 Nis Schmidt

troede jeg opstod, når man opretholdt forlængst forældede systemer?

Den intellektuelle gæld i kunstig intelligens og maskinlæring kan kun afdrages ved tilegnelse af viden (og udbredelse af forståelse) - hvis det er en mulighed; for vi har ikke råd eller tid til, at vente på aspirin-modellens svar om 100 år.

MIT's Open Course Ware har enkelte relevante kurser liggende til fri afbenyttelse.

  • 0
  • 0
Log ind eller Opret konto for at kommentere