Professor får millionbevilling til udvikling af nye algoritmer

Illustration: Joachim Rode
DTU Compute-projekt skal udvikle algoritmer, som med få tilretninger kan anvendes på alle områder. Det er en stor matematisk udfordring.

Professor Per Christian Hansen fra DTU Compute skal udvikle nye algoritmer, som kan beskrive usikkerheden i beregningen af inverse problemer. Det skriver DTU i en meddelelse.

Til det har han fået 35 mio. kroner fra VILLUM Investigator.

Målet med Per Christian Hansens VILLUM Investigator-projekt er først og fremmest at udvikle algoritmer, som med få tilretninger kan anvendes på alle områder. Det er en stor matematisk udfordring.

For det første skal der tages forbehold for den støj, der uvægerligt vil være i de data, man måler.

Dernæst vil der også i den model, man anvender, være fejl eller ting, der ikke er præcist nok beskrevet. En tredje ting er a priori-viden om, hvordan virkeligheden ser ud - der kan også være fejl. Og endelig kan der ofte i det program, man bruger til at lave beregningerne, også være fejl.

»Alle de fejl bidrager jo til, at dit endelige resultat bliver upræcist. Og du ved måske ikke, hvor de vigtige fejl er blevet introduceret i ligningen. Og det er det, der er min opgave: at sætte de usikkerheder på formel,« siger Per Christian Hansen ifølge meddelelsen og fortæller, at den viden, man måtte sidde inde med inden for specifikke fagområder, har brug for at komme i spil til gavn for alle, som sidder med undersøgelser af inverse problemer.

Et eksempel går ud på at overvåge en produktion, der foregår inde i en lukket tank. Hvis man vil undgå at stoppe produktionen og kigge inde i tanken, så kan man sende en elektrisk strøm ind og måle spændingen, der kommer ud. Ud fra disse målinger kan man sige noget om, hvad der sker inde i tanken.

»Man får resultater, som med en vis sandsynlighed kan fortælle en, hvad der foregår inde i tanken,« siger Per Christian Hansen og fortsætter:

»Problemet er bare, at vi lige nu ikke har de nødvendige formler og metoder til at gøre det med tilstrækkelig information. Eller sagt på en anden måde: Med de værktøjer, vi har i dag, kommer der ikke usikkerheder på. Man har udviklet specifikke metoder hertil inden for geofysik og oliebranchen, men for generelle inverse metoder er det et problem, at vi ikke kender usikkerhederne.«

Per Christian Hansen er dr. techn., har skrevet over 100 publicerede artikler og fire bøger, er SIAM Fellow og modtager af den mest prestigiøse bevilling fra det Europæiske Forskningsråd, et ERC Advanced Grant.

Og nu kan han altså tilføje en VILLUM Investigator-bevilling.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (20)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Søren Pilgård

Hvad mener du problemet er her?

Eller er vi nået til det punkt hvor bare ordet "algoritme" får folk til at råbe op om overvågning og AIs der overtager verden?.

Jeg troede Version2 var et fagmedie hvor også folk i kommentarsporet var i stand til at skelne hvornår den debat er relevant og hvornår den ikke er.

  • 9
  • 3
Anne-Marie Krogsbøll

Søren Pilgård:

Jeg tager gerne imod belæring, jeg kan blive klogere af. Hvad forestiller du dig er anvendelsesområdet for disse algoritmer, og hvorfor mener du ikke, at det er en relevant bekymring, jeg fremfører?

Lad os sige, at jeg repræsenterer det dumme "folk", som vel også gerne skulle forstå, hvad der foregår, og som er bange for algoritmerne. Hvad vi du sige til dem om, hvorfor de ikke skal være bekymrede?

Eller mener du ikke at de rager det dumme folk, hvad der foregår på det område?

  • 3
  • 5
Peter Hansen

Jeg kan forstå på de mange thumbs down uden argumenter, at en betydelig gruppe simpelthen ikke mener, at den digitale udvikling rager befolkningen som helhed.

Det kan også være et tegn på, at man ikke kan smide "masseovervågning" og "private data" ind i enhver tech diskussion. Jeg undrer mig meget over, at du overhovedet kan koble artiklens indhold sammen med masseovervågning af befolkningen og adgangen til følsomme data?

  • 12
  • 1
Anne-Marie Krogsbøll

Det kan også være et tegn på, at man ikke kan smide "masseovervågning" og "private data" ind i enhver tech diskussion. Jeg undrer mig meget over, at du overhovedet kan koble artiklens indhold sammen med masseovervågning af befolkningen og adgangen til følsomme data?


Tak for kommentar, som jeg kan bruge til noget, Peter Hansen.

Underoverskriften lyder:
"..udvikle algoritmer, som med få tilretninger kan anvendes på alle områder. Det er en stor matematisk udfordring."

Det er her, jeg - måske fejlagtigt, men så ret mig - ser en fare. For mig lyder det så som om, det vil blive meget let at udvikle nye algoritmer, som - koblet med adgang til enorme mængder opsamlede persondata - vil kunne bruges til formål, som giver en enorm magtkoncentration til ejerne/bagmændene af disse algoritmer.

Hvis jeg tager fejl, så forklar mig gerne hvorfor. Jeg gider da ikke gå og bekymre mig uden grund. Men jeg vil gerne have ordentlige forklaringer, og ikke bare "Det kommer ikke til at ske - der her handler kun om produktioner i lukkede tanke". Det er ikke en forklaring.

Er artiklens pointe ikke netop, at det vil være meget let at lave algoritmer, som kan meget andet - også ting, vi måske ikke synes er så rare?

  • 2
  • 4
Peter Hansen

For mig lyder det så som om, det vil blive meget let at udvikle nye algoritmer, som - koblet med adgang til enorme mængder opsamlede persondata - vil kunne bruges til formål, som giver en enorm magtkoncentration til ejerne/bagmændene af disse algoritmer.

Netop - det er det du gerne vil læse ud fra artiklen, selvom der ikke er noget i artiklen som leder andre i den retning. Alllerede før du læste artiklen var konklusionen klar.

Her er tale om avanceret matematik på et niveau, hvor kun meget få kan forstå det. Vi taler bevillig til et årelangt forskningprojekt, hvor algoritme ikke engang er teoretiseret endnu. Jeg har stor respekt for din kritiske tilgang, men her skyder du altså viden siden af skiven.

  • 3
  • 2
Anne-Marie Krogsbøll

Netop - det er det du gerne vil læse ud fra artiklen, selvom der ikke er noget i artiklen som leder andre i den retning. Alllerede før du læste artiklen var konklusionen klar.


Du overser, at det var et spørgsmål, Peter Hansen.

Vi taler bevillig til et årelangt forskningprojekt, hvor algoritme ikke engang er teoretiseret endnu.


Jeg kan ikke se, at det er et svar på mit spørgsmål. Målet er at udvikle en algoritme, som meget let kan modificeres til at kunne mange andre ting. Mit spørgsmål kræver - så vidt jeg kan se - ikke nogen højere matematisk forståelse, men blot vilje til at se de større perspektiver - inden det er for sent. Men jeg fornemmer, at der ikke er nogen, der har lyst til at svare på det. Ærgerligt. Så vil jeg overlade kommentarfladen til folk, der har mere interessante betragtninger om artiklens indhold end mine.

  • 2
  • 1
Jakob Skov

Artiklen handler om at bestemme hvilken fejl-kilde og/eller usikkerhed der er problematisk i en sammenhæng. Det er en bestemmelse hvor usikkerheder i systemet kommer fra.

Det er som udgangspunkt et godt redskab. Om noget, kan redskabet netop skabe syn for sagen når tvivlsom trawling af persondata gennemføres. Eller sagt på en anden måde har det potentiale til at si flere dårlige ideer fra inden de tages i anvendelse!

Det eneste der kan give anledning til mere masseovervågning er politiske ønsker om at "tvinge" systemer igennem ved at indsamle "bedre"/flere input data for ad den vej at forsøge at korrigere redskabet. Men om noget er det et dataargument som data-fikserede politikere kan forstå.

Se det lidt som i retning af den type analyse man har lavet på de nationale test:
https://www.dr.dk/nyheder/indland/forsker-det-kan-ligne-forsoeg-paa-skju...
Hvis ikke man var "dum nok" til at lave en undersøgelse af start-spørgsmålenes effekt på det endelige resultat ville Undervisningsministeriet kunne gå på vandet over succes'en for de nationale test. Nu kan ministeriet i det mindste forsøge at forbedre testene, mens ministeren bliver stegt over de sædvanlige kommunikationsfadæser som er hverdag når man selekterer i kommunikationen der videregår til folketinget.

  • 2
  • 0
Anne-Marie Krogsbøll

Eller sagt på en anden måde har det potentiale til at si flere dårlige ideer fra inden de tages i anvendelse!


Tak for meningsfuld kommentar, Jakob Skov.

Det eneste der kan give anledning til mere masseovervågning er politiske ønsker om at "tvinge" systemer igennem ved at indsamle "bedre"/flere input data for ad den vej at forsøge at korrigere redskabet. Men om noget er det et dataargument som data-fikserede politikere kan forstå.


Jeg er lidt usikker på, om du giver mig ret i mine bekymringer her, eller om det vil være at misforstå dig?

Se det lidt som i retning af den type analyse man har lavet på de nationale test:
https://www.dr.dk/nyheder/indland/forsker-det-kan-ligne-forsoeg-paa-skju...


Så algoritmens omfattende anvendelse går altså på at kunne anvendes til fejlforudsigelse/usikkerhedsberegning på andre algoritmer - det er ikke som sådan end algoritme i sifg selv til alle mulige formål? I så fald en god oplysning, for så har jeg forstået underoverskriften forkert, og er umiddelbart beroliget - med mindre der faktisk er grund til bekymring ift. de politiske ønsker, du nævner - men nu forstår jeg (håber jeg) i det mindste konceptet - Tak.

  • 0
  • 0
Bjarne Thomsen

Formuleringen af et inverst problem forudsætter eksistensen af en teoretisk model, som man forsøger at bestemme ud fra målinger med støj. Man ønsker f.eks. at finde solens indre struktur ud fra målinger af solsvingninger. Der kræves altså en teoretisk model eller hypotese for det man ønsker af bestemme. Man kan ikke formulere et inverst problem ud fra rene måletata.

  • 3
  • 0
Bjarne Thomsen

Politikernes mange selvskabte problemer opstår som følge af en sammenblanding af begreberne data og viden. Statistik over data kan kun bestemme en association i data. Man kan finde en association mellem en bestemt sygdom og et bestemt gen i det menneskelige genom for en million mennesker, men man kan aldrig finde årsagssammenhængen på denne måde. Viden er derimod hypoteser om årsag og virkning, som er en forestilling om, hvordan verden fungerer. Sådanne forestillinger omtales ofte som teorier.

  • 1
  • 0
Anne-Marie Krogsbøll

Interessante kommentarer, Bjarne Thomsen.

Forståelsesspørgsmål (jeg håber, at du vil svare): Er det, du beskriver, at den i artiklen omtalte ønskede algoritme forventes/håbes at kunne blive pudset på forskellige komplekse sammenhænge, som man på nuværende tidspunkt ikke kan beskrive/beregne særligt godt, hvor man så håber, at den ud fra beregninger på usikkerhed, afvigelser og den slags selv kan opstille algoritmer, eller evt. ligefrem hypoteser/teorier til beskrivelse af det pågældende fænomen? Altså at der ikke nødvendigvis skal være en beskrivelse/hypotese/algoritme i forvejen, men at man håber, at en sådan vil kunne dannes via algoritmen?

  • 0
  • 0
Troels Henriksen

den i artiklen omtalte ønskede algoritme

Du virker utroligt forvirret. Lad os lige taget nogle punkter:

  1. Algoritme er blevet et skræmmeord for letpåvirkelige, men betyder i princippet bare noget i stil med detaljeret opskrift på løsning af et matematisk problem. Måden hvorpå man løser en andengradsligning er en algoritme. At blive foruroliget over "den enorme magtkoncentration sådanne algoritmer" er fuldstændigt bizart. Lad os tage en analogi: Det svarer til at blive urolig når en kok forklarer om en ny "metode" til at grille en burger, fordi ordet "metode" også indgår i begrebet "metode til at overvåge befolkningen".

  2. Algoritmer til at løse inverse problemer (som artiklen handler om) er en enorm bred definition, og selvom man sikkert kan finde enkelt-eksempler der måske ikke er 100% ortogonale til overvågning hvis man endelig vil, så er det ikke det mest oplagte at bruge dem til. Et eksempel på et indirekte problem som jeg selv har været lidt i nærheden af er tomografi, hvor man ud fra målinger af absorbtionen af f.eks. røntgenstråler forsøger at udlede formen på et objekt man ikke direkte kan observere (typisk fordi det er noget der er inde i et menneske, som mennesket ikke har godt af at man tager ud, f.eks. hjernen).

  3. Der er ikke nogen "i artiklen ønskede algoritme". Denne bevilling er til grundforskning i egenskaberne for algoritmer til at løse inverse problemer. Der vil nok blive udviklet adskillige meget generelle algorimer i forbindelse med projektet, men der er ikke nogen konkret ønsket algoritme som sådan.

  4. Forskningsresultaterne udviklet gennem denne bevilling bliver offentlig ejendom (eller i hvert fald offentligt kendt; jeg er ikke sikker på detaljerne omkringt evt. patenter). Og i modsætning til de overvågningsalgoritmer du er så nervøs for, så er der ikke store mængder proprietær eller lyssky data involveret. Der er altså ingen magtkoncentration involveret her (udover at nogle kloge folk får DTU får finansiering til at blive endnu klogere end de ellers ville have været).

Der er ingen grund til at blive så oprørt baseret på manglende forståelse, blot fordi der indgår et politiceret fy-ord. Det er mest af alt pinligt. Det ender med at algoritmikerne bliver nødt til at finde et nyt ord for det de laver, fordi der findes folk der ellers går helt amok over det.

  • 12
  • 2
Troels Henriksen

Nu spurgte jeg sådan set i min seneste kommentar bare helt konkret til, hvad det i artiklen omtalte forventes at kunne, når det engang er færdigt. Men tak for svar alligevel :-)

Efter at have skimmet Per Christian Hansens bibliografi lader han til for tiden at lave billedrekonstruktion, altså noget meget lig den tomografi jeg nævnte i mit oprindelige indlæg (omend det ikke ser ud til at det er i medicinsk øjemed).

  • 2
  • 0
Torben Mogensen Blogger

Når medierne siger, at man vil bruge algoritmer til f.eks. at afgøre hvor meget, en bank vil låne ud til en kunde, så er der i reglen tale om maskinlæring (machine learning, herunder neurale netværk), som ligger i yderkanten af, hvad man kan kalde "algoritmer".

For mens en algorite er en veldefineret metode med klare egenskaber, så er maskinlæring mere ulden: Der foreligger ikke nogen forklaring på, hvordan maskinlæring når frem til et givent resultat. Det nærmeste er, at "det ligner noget, den har set før, så den gør nogenlunde det samme igen", men uden en forklaring på, hvorfor det ligner, hvad specifikt det ligner, og om det giver mening at gøre det samme i den givne situation. Man kan groft sagt sige, at maskinlæring bruger intuition (generel erfaring uden forklaring), hvor en klassisk algoritme bruger logiske ræsonnementer, der kan forklares og kigges efter i sømmene. For eksempel kan en klassisk algoritme bevises korrekt: Man kan vise, at den altid vil give et svar, der er korrekt ud fra nogle givne kriterier. Det kan man ikke med maskinlæring, og der er masser af eksempler, hvor folk har snydt maskinlæring og f.eks. fået et neuralt netværk til at tro, at et billede af en skildpadde er et billede af et maskingevær.

Så, det der bør give borgerne frygt, er når maskinlæring bliver brugt ukritisk (dvs. uden et efterfølgende "sanity check" foretaget af et menneske). For maskinlæring kan sagtens lave vildt forkerte afgørelser en gang imellem, selv om de fleste afgørelser er rigtige. Brug af klassiske algoritmer (f.eks. til at finde den hurtigste rute fra lufthavnen og hjem) bør ikke i samme grad vække bekymring, for her er kriterierne for korrekthed veldefinerede.

Grunden til, at maskinlæring er meget populær er, at man netop ikke behøver at opstille veldefinerede kriterier for korrekthed: Man giver blot en masse eksempler med en menneskeskabt facitliste, og beder maskinen om at generalisere ud fra disse eksempler. Men det dur kun, hvis eksemplerne er repræsentative for fremtidig brug og tilstrækkeligt mange til, at generalisering er mulig. Og man får aldrig en forklaring på resultatet udover, at man kan sige, at der er en statistisk lighed med eksemplerne, men om denne lighed er på relevante kriterier eller irrelevante kriterier kan man ikke se. I bedste fald kan man rense eksempler og brugsdata for irrelevante detaljer, men det kan være svært at afgøre, specielt når det drejer sig om billedata.

  • 3
  • 0
Peter Stricker

Algoritme ... betyder i princippet bare noget i stil med detaljeret opskrift på løsning af et matematisk problem. Måden hvorpå man løser en andengradsligning er en algoritme


Og så er vi tilbage ved Bjarne Thomsens kommentar om brugen af ordet algoritme. Rigtig meget af det, der i medierne betegnes som algoritmer er ikke kun algoritmer. Og det har længe ærget mig at Version2 blot gengiver brugen af ordet i stedet for at udfordre det sproglige skred.

Når ordet algoritme indgår i dagens artikler om it, er der ofte tale om machine learning, hvor algoritmen kun udgør en del af hele systemet, men hvor udfaldet i langt højere grad afgøres af det sæt af træningsdata der bruges til at lære systemet hvordan det skal opfatte fremtidige input. Det betyder, at det i praksis vil være umuligt at redegøre præcist for, hvorfor udfaldet bliver som det gør.

I en andengradsligning er der altid højest to løsninger, og det vil til enhver tid være samme svar man får uanset om man spørger mig eller Troels Henriksen og uanset om man spørger Troels i dag eller om to uger. Den samme determinisme kan ikke forventes ved en machine learning algoritme fordi der kan være forskel på de oprindelige sæt af træningsdata afhængig af om algoritmen trænes i Tønder eller Gladsaxe.

  • 4
  • 0
Log ind eller Opret konto for at kommentere
IT Company Rank
maximize minimize