Dansk chef for Google Research: »AI er fortsat science fiction«
Hvad er AI, på dansk kendt som kunstig intelligens, egentlig for en størrelse, og hvorfor satser Københavns Universitet på et nyt Science AI Centre, der binder mere end 100 forskere fra syv institutter sammen?
Version2’s nye technetværk for udviklere er for IT-professionelle, som vil styrke egne kompetencer, sparre med nogle af branchens dygtigste folk og deltage i netværksevents med relevante speakers. Netværket mødes fysisk 5 gange årligt til en spændende dag med indlæg fra én keynote samt en-to sponsorer, og alle indlæg tager afsæt i specifikke og aktuelle emner/cases. Derudover vil deltagerne i netværket kunne mødes online på en lukket LinkedIn-side, hvor der er skabt rum til videndeling, debatter samt deling af præsentationer fra de fysiske netværksmøder. Læs mere her.Bliv medlem af Version2's udviklernetværk
Det var udgangspunktet for det åbningsarrangement, som blev afviklet i et propfyldt Lundbeck-auditorium på Københavns Universitet forleden.
»AI er meget bred og fuzzy, og som machine learning-forsker kan jeg give meget mere konkrete begreber og definitioner på machine learning-området, mens AI er mere flydende. Tidligere anså vi eksempelvis ikke neurale netværk for at være en del af AI - det er det i dag. Vi skal integrere folk på tværs af forskningstraditioner, og det passer AI-begrebet godt til,« fortalte Christian Igel, ny centerleder for SCIENCE AI Centre og professor i machine learning på Datalogisk Institut på Københavns Universitet.
Når begrebet er bredt, så skal organiseringen også kunne rumme det.
»Der er allerede i dag mange initiativer inden for AI i Danmark. Det giver et behov for en paraply, der kan organisere og samle initiativer. Det er netop, hvad Science AI Centre skal gøre,« fortalte Christian Igel.
Han blev bakket op af danske Corinna Cortes, der til daglig er leder af Google Research i New York og professor i machine learning.
»Når jeg tænker AI, artificial intelligence, tænker jeg ikke ren videnskab, men mere science fiction. Hvad kan vi forestille os af fremtidens teknologier, og hvad kan vi forestille os der kan gå galt, når computerne tager over? Machine learning er derimod byggestenene til den rigtige videnskab,« sagde Corinna Cortes til åbningen af Science AI Centre.
Da erhvervsminister Brian Mikkelsen (K) lukkede arrangementet med en kort tale om regeringens ambitioner inden for AI, var tonen en lidt anden.
»AI er i dag ikke længere science fiction, men virkelighed,« sagde Brian Mikkelsen.
Det fik salen til kortvarigt at bryde ud i latter i det store og helt pakkede Lundbeck-auditorium på Københavns Universitet.
Det var under en time siden, Corinna Cortes havde sagt det stik modsatte.
Det nye Science AI Centre åbnede officielt den 1. februar 2018. Centret omfatter på nuværende tidspunkt 14 enheder på tværs af syv institutter på SCIENCE, som alle arbejder med forskellige afskygninger af kunstig intelligens. Centret har ca. 100 forskere tilknyttet. Institutterne er: Datalogisk Institut, Institut for Matematiske Fag, Niels Bohr Institutet, Biologisk Institut, Institut for Fødevarevidenskab, Institut for Fødevarer- og Ressourceøkonomi og Institut for Plante- og Miljøvidenskab.Science AI Centre
Etiske udfordringer presser på
Selvom Corinna Cortes arbejder hos en af de helt store teknologigiganter, Google, så er hun langtfra rendyrket teknologioptimist, og netop bekymringerne for konsekvenserne af brugen af machine learning kredsede hun flere gange omkring.
»Vi skal have en diskussion om ansvarlighed, og det er vigtigt, at vi får sat en række guidelines op for hvordan vi bruger machine learning ansvarligt i forhold til privatliv, sikkerhed, og fairness. Bias er en ny problemstilling, og vi skal udvikle løsninger, så vi kan garantere, at vores algoritmebeslutninger er uafhængige af race, køn, etnicitet og lignende,« siger Corinna Cortes.
Den bold har de allerede grebet på Science AI Centre.
»Vi arbejder på et etisk kodeks, fordi vi gerne vil udstikke nogle etiske rammer for arbejdet i Science AI Centre. Men det er en kompleks opgave at lave etiske retningslinjer, fordi vi også skal respektere forskningsfriheden, som betyder, at vi ikke kan forbyde vores medlemmer at forske i bestemte områder, medmindre de direkte bryder loven,« siger professor Mads Nielsen, der er institutleder på DIKU.
Han nævner, at Elon Musk har etableret OpenAI, en ngo, der forsker i etiske problemstillinger inden for kunstig intelligens, til samme formål.
I den seneste tid har der også været kritik af den lukkethed, som nye machine learning-algoritmer risikerer at skabe, fordi beregningerne, der bruges til at træffe en beslutning, er så komplekse, at de bliver umulige at gennemskue for den menneskelige hjerne, og i mange tilfælde er det også svært for andre forskere at gentage og efterprøve, om algoritmerne eksempelvis har indbygget bias i forhold til køn, race eller etnicitet.
Den problemstilling skal bekæmpes med åbenhed, lyder det fra Mads Nielsen.
»Det er også en udfordrende problemstilling, som vi arbejder med. Vi forsøger at være så åbne som muligt og arbejder altid med at stille vores data til rådighed for andre forskere fra andre universiteter,« siger Mads Nielsen.
Machine learning ingen mirakelkur
Corinna Cortes fortalte til åbningsarrangementet om Googles forsøg på at begrænse falske nyheder på internettet.
»Mængden af nyheder er vokset dramatisk. Vi skal i dag indeksere 48.000 nye dokumenter hvert minut. Det betyder, at man som bruger hurtigt opgiver at læse op på et emne og lader det være op til en udgiver at definere virkeligheden. Man skal samtidig huske, at Google først og fremmest er en søgemaskine. Vi skal kunne finde det, du leder efter, uanset om du er enig eller uenig i et udsagn. Vi er ikke en absolut formidler af sandhed, og vi ved ikke, hvad der er rigtigt og forkert,« siger Corinna Cortes.
Google har for nyligt annonceret, at de vil bruge et trecifret millionbeløb på at bekæmpe falske nyheder under paraplyen Google News Initiative.
Arbejdet med at bekæmpe falske nyheder har dog været undervejs længe - og ikke uden kontroversielle hændelser.
Google har oprettet en såkaldt ClaimReview. Det betyder, at hvis du har en hjemmeside, der faktatjekker andres påstande, kan du tilføje et struktureret skema til at tjekke påstande, et ClaimReview.
Det gør Google Search i stand til at vise et resumé af sitets faktatjek, når en bruger søger på en påstand. F.eks. hvis en bruger søger på ‘Jorden er flad’.
Her vil Google så skrive, at det givne site har markeret påstanden som falsk.
Den funktion er for nylig blevet integreret i Google Knowledge-panelet, den lille boks i højre side, der dukker op, når du søger på en virksomhed eller et medie.
Flere konservative medier, blandt andet Daily Caller, har angrebet Google for en bias mod højreorienterede medier.
Det skete, efter mediet selv blev udsat for et faktatjek i Knowledge Panel, mens der i en tilsvarende boks hos New York Times blev oplistet en række journalistiske priser.
»Vi må erkende, at det er et kompleks område, og politik vækker mange følelser. Indtil videre satser vi i stedet på at udvikle machine learning-modeller til at bekæmpe falske nyheder inden for sundhed og videnskab,« fortalte Corinna Cortes.
Derfor har Google indtil videre også fjernet faktatjekket ClaimReview fra Knowledge Panel.
Samtidig er meget af arbejdet med at bekæmpe falske nyheder blevet drejet væk fra algoritmer til mere klassisk undervisning af både gymnasieelever og journalister i blandt andet faktatjek.

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.