Kontroversiel forsker: Vil vi redde klimaet skal vi bygge en super-supercomputer

Illustration: vladimircaribb/Bigstock
Der er ingen stat eller institution, der har den regnekraft, klimakrisen kræver. Derfor er det tid til et stort internationalt computer-samarbejde, mener forskeren.

Vi ved godt, hvorfor jorden bliver varmere og varmere som følge af klimaforandringerne. Men vi er langt fra sikre på, hvad det betyder for jorden på lidt længere sigt.

Og ulig andre videnskabelige spørgsmål ved man faktisk godt, hvilke regnestykker, der kan svare på, hvad der sker på sigt. Vi har bare ikke regnekraften til at knække dem, skriver den kontroversielle professor og forsker Sabine Hossenfelder i et debatindlæg i New York Times.

Til daglig har hun sin gang som forsker på Frankfurt Institute for Advanced Studies, og hun mener, at vi står over for en flaskehals hvad angår rå regnekraft.

Læs også: Særlig supercomputer på AAU skal lave beregninger til kunstig intelligens

»Det haster med at blive klogere, idet vi på Jorden kan se frem til drastisk ændrede vejr- og klimamønstre. Men vi ved ikke, hvor drastiske, ændringerne bliver,« skriver Sabine Hossenfelder.

»Det kan være alt fra irriterende ændringer til eksistentielle trusler.«

Større regnekraft

Modellerne kan nemlig ikke sige præcis, hvad der kommer til at ske.

For de mange faktorer der påvirker klimaet interagerer med hinanden og ændrer på hinandens påvirkning. Matematikken er så kompleks, at den eneste måde vi kan håndtere den er at føde den ind i computere, mener Sabine Hossenfelder.

Læs også: Menneske vandt debat med IBM's kunstige intelligens

Det gør vi også nu, men ingen computer kan regne på hele Jorden på én gang. Derfor deles den op i felter både til lands og i luften, som algoritmerne kan tygge sig igennem. Men felterne er store og som det er tilfældet på en gammeldags skærm med lav opløsning, bliver billedet utydeligt.

Derfor må vi øge opløsningen og mindske regnefelterne, mener forskeren.

»Det vil kræve computere i exascala, der kan kværne igennem mindst en trilliard udregninger i sekundet,« siger Sabine Hossenfelder, der samtidig understreger, at det er der ingen institution i verden, der kan levere noget, der bare kommer i nærheden af.

Hun foreslår derfor, at man igangsætter et internationalt initiativ om at bygge en supercomputer, der kan klare ærterne. Et CERN for miljøforskning.

Dybt afhængige af simuleringer

For at understrege behovet for simuleringer i kampen mod klimaforandringerne fremhæver hun, at langt de fleste debatter, videnskabelige diskussioner og rapporter er baseret på netop computersimuleringer af effekterne.

Læs også: Skal cpr-nummer kobles direkte med DNA på Nationalt Genom Center?

Dermed insinuerer hun også, at med mere finkornede forudsigelser vil vi få en bedre debat og være i stand til at vide, hvor skoen trykker mest.

»Gevinsten ved et internationalt supercomputer-projekt vil gøre det op for udgifterne, det vil kræve og mere til. Vi har skabt det her problem sammen, så nu må vi også løse det sammen,« slutter Sabine Hossenfelder.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (20)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Anne-Marie Krogsbøll

"»Det vil kræve computere i exascala, der kan kværne igennem mindst en trilliard udregninger i sekundet,"

Hvad vil det gøre ved klimaet?

Og hvad vil en sådan computer mere kunne bruges til? Totalovervågning?

  • 1
  • 11
Anne-Marie Krogsbøll

Jeg læser med stor interesse dine kommentarer, men lige her tror jeg, du skyder helt forbi :) Fordi de nogle gange er efter os, så behøver det ikke betyde, at de hele tiden er det :)Mvh Bjørn


Tak for svar, Bjørn Agger.

Det var nu ment som et ærligt spørgsmål :-) Hvad kan en sådan superduperexa-computer mere bruges til - for når først den er der, plejer der jo at være noget, som hedder "opgaveglidning" - jeg mente ikke, at det er det, der er planlagt på forhånd.

Eller er det sandsynligt, at det stopper ved klimaet?

Og er den overhovedet realistisk at bygge? For den skal jo også have mange trilliarder data at tygge på - vel allerhelst skal de live-streames fra hvert et punkt på jordkloden i døgndrift? Er det realistisk? Hvad vil det kræve?

Og igen: Jeg forestiller mig, at en sådan indsats vil være uendeligt energikrævende. Tager jeg fejl der? For i givet fald gør man måske klimaet en bjørnetjeneste (i den gammeldags betydning af ordet).

Jeg har svært ved at se projektet for mig, men det kan da være, jeg tager fejl - hvad mener I andre? Er det realistisk? Kan det styres? Eller er det undfanget i endnu en eksponentiel forskerhjerne, der ikke kan acceptere grænser for vækst?

  • 0
  • 9
Troels Henriksen

Jeg har svært ved at se projektet for mig, men det kan da være, jeg tager fejl - hvad mener I andre? Er det realistisk? Kan det styres? Eller er det undfanget i endnu en eksponentiel forskerhjerne, der ikke kan acceptere grænser for vækst?

Jeg forstår helt nyhedsværdien her, for exaskalamaskiner er blot en naturlig følge af den teknologiske udvikling, og er noget man har stilet efter i årevis. Den nuværende hurtigste maskine har 0.14 exaflops, og Cray alene arbejder på maskiner der er klar om et par år, og som rammer en exaflop. Der er intet til hinder for at disse maskiner kan bygges og "styres" (?).

Som sædvanlig er der heller ingen særlige overvågningsperspektiver i det. Den type maskiner Sabine Hossenfelder i artiklen mener er nødvendige er tunet til klimamodeller, der som oftest er spatielle beregninger i regulære og irregulær gitre. Dette er meget ulig hvad jeg tror man bruger til systematisk overvågning, der nok mere er noget med at analysere sociale grafer.

Det er mildest tal en bizar grad af paranoia at se noget odiøst i at en forsker vil have en større supercomputer. Faktisk er det svært for mig at forklare hvorfor der ingen kobling er, fordi det ligger så fjernt - det er som at skulle forklare hvorfor tapetet på min stue ikke påvirker vejret. Der er lige så meget overvågning i at købe en supercomputer til en klimaforsker som der er i at købe nye solbriller til politiet.

  • 8
  • 1
Anne-Marie Krogsbøll

Tak for godt svar, Troels Henriksen. Jeg bøjer mig for, at det er min manglende viden om den slags, der her spiller mig et puds. Men min frygt går på, at det kunne lyde som om, hun vil satse på at forske mere i, om det nu går så galt som forudset - eller om det i virkeligheden ikke er så slemt. Det mener jeg er et vildspor - vi er nødt til at handle ud fra at det faktisk er så slemt, for ellers kommer vi for sent. Så min "paranoia" går på, om det bare er endnu et forhalingsforsøg ift. klimaproblemerne, i det jeg antog, at det vil tage meget lang tid at få en sådan computer færdig - og så kan det være for sent at handle.

Og mht. overvågningen så er medierne jo netop i disse dage fyldt med historien om regionerne, der gerne vil have fingre i borgernes smart-dims-data. Du ser det sikkert ikke som overvågning - men jeg ser det netop som et eksempel på, at noget kan bygges med ét formål for øje - men at det ofte vil skride til noget andet - eksempelvis overvågning, som jeg ser regionernes forslag som - det har i hvert fald potentialet til det. Om man kan hente så omfattende vejrdata, som klimaforskeren ønsker, uden at den mulighed/risiko følger med - ja, der er det så jeg spørger jer, der har forstand på det.

  • 0
  • 1
Michael Johansen

Vi ved godt, hvorfor jorden bliver varmere og varmere som følge af klimaforandringerne. Men vi er langt fra sikre på, hvad det betyder for jorden på lidt længere sigt.

Troede de var sikre på at jorden går under om 11 år.

  • 0
  • 3
Klavs Klavsen

En lidt anden måde at forklare det på er at overvågning kræver adgang til informationer om borgerne.. Det drejer denne artikel sig ingenlunde om - og det er ikke relevant for forskning i klimaet og udregninger heri..
Den slags adgang der er "interessante" for total overvågning, er f.ex. trafikkameraer på alle gadehjørner, i hæveautomater mv. (en vigtig komponent i den interessante serie "person of interest" der netop viser hvordan et overvågningssamfund, kunne bygges vha. computerkraft, AI og vores tåbelig opstilning af kameraer overalt :)
Derudover ville den information der ligger om os i offentlige registre selvfølgelig også være meget interessant til den slags ting.

  • 2
  • 0
Anne-Marie Krogsbøll

Tak for uddybning, Klavs Klavsen.
Jeg tænkte nu mere på, at en sådan supercomputer kunne misbruges til andre ting - ikke, at de pågældende vejrdata kunne bruges. Men jeg lytter, hvis I siger, at det kan den ikke.

Der er dog stadig ting i forslaget, som undrer mig - det angives i hendes eget indlæg i NYtimes, at beregningerne skulle basere sig på "grid" på 1m2 pr. felt. Hvordan kan det lade sig gøre at samle sådanne data - eks. ude i havet? Hvis beregningerne virkeligt skal være så præcise, er man jo nødt til at have det med.

Der er netop nu lagt en artikel på Version2 om, at algoritmer til sprogforståelse kræver store mængder strøm - hvad ville den foreslåede supercomputer kræve?

Hosselfelder nævner selv som begrundelse for ideen, at de nuværende beregninger er alt for upræcise. Ja - uden tvivl. Og jeg kan da kun gå ind for, at man forfiner modellerne. Men at tro, at vi kan komme bare tilnærmelsesvis så tæt på virkeligheden, at det kan begrunde af afvente en sådan supercomputers nye beregninger, er i mine øjne naivt og farligt. Så præcist kan vi aldrig beregne virkeligheden, og konsekvenserne af ikke at handle nu er alt for store.

Men det er da muligt, at man faktisk meget hurtigt kan få bygget en sådan computer, og få beregninger ud af den. Sådan lyder det bare ikke umiddelbart for mig.

  • 0
  • 1
Michael Aggerholm

Hvad er alternativet til at bygge bedre modeller af klimaet? Det er at man handler på baggrund af ufuldstændige data. Lyder det som en god ide?

Et system der er købt og betalt med henblik på at forbedre de modeller vi har af klimaet kan godt bruges til andre ting, ligesom man godt kan banke en skrue i med en hammer. Det er bare ikke særlig smart, og det ville du vide hvis du havde brugt 5 minutter på at undersøge hvad forslaget konkret går ud på. Du valgte i stedet for at vise hvor meget du ved om at store computersystemer ofte går ud på at overvåge borgerne, så det er sikkert også tilfældet her.

Alle de spørgsmål du stiller her, hvorfor gør du ikke os allesammen en tjeneste og finder svarene på disse spørgsmål og poster dem her i stedet for? Fortæl os hvorfor det er en god idé at bygge bedre modeller af klimaet og hvorfor systemerne nok ikke vil blive brugt til at overvåge dit medicinforbrug eller spionere gennem dit webcam. Denne oplysningsrejse vil fortælle dig meget mere end vi kan svare på her.

  • 3
  • 0
Troels Henriksen

Der er dog stadig ting i forslaget, som undrer mig - det angives i hendes eget indlæg i NYtimes, at beregningerne skulle basere sig på "grid" på 1m2 pr. felt. Hvordan kan det lade sig gøre at samle sådanne data - eks. ude i havet? Hvis beregningerne virkeligt skal være så præcise, er man jo nødt til at have det med.

Den udfører simuleringer ud fra grove data, ikke fine målinger. Grundet kaosmekaniske effekter er det ligemeget om du har meget præcise starttilstande; det er alligevel en stokastisk model man ender op med.

Der er netop nu lagt en artikel på Version2 om, at algoritmer til sprogforståelse kræver store mængder strøm - hvad ville den foreslåede supercomputer kræve?

De fleste supercomputere bruger et par megawatt - den hurtigste på TOP500 bruger lige under 10MW, og den mest energikrævende bruger 18,5MW. Det er besværligt at føre meget strøm til et sådan anlæg, så hurtigere maskiner bruger ca. det samme - man udnytter bare mere effektive chips i nyere generationer.

  • 3
  • 0
Bjarke Jørgensen

Da menneskeheden gjorde en af de største videnskabelige og tekniske gennembrud nogensinde, kortlægningen af Homo Sapiens genom, var det jo faktisk den samlede regnekraft af mange små computere der var behjælpelig. Folding@home som det hed.

Nu er jeg ikke exa-skala-ekspert, men ville man ikke idag, med vores meget store båndbredde (mere eller mindre globalt set) og øgede regnekraft, ikke kunne kværne de beregninger der er nødvendige i en så avanceret simulation?

@Anne-Marie Krogsbøll:
Faktisk tror jeg lige præcis denne artikel, og den ambition der ligger bag, er en af de områder hvor kunstig intelligens, maskinlæring, Big Data (og alle de andre navne) tjener et mål som ligger langt udenfor de bekymringer, der 'normalt' optræder i den digitale udvikling. Her er der tale om et ganske reelt behov for at finde ud af hvor slemt det (vil) stå(r) til, i tråd med meteorologiske eller astronomiske forudsigelser.

Det er jo desværre sådan at vi samlet set, som civilisation, først har det med at reagere når lokummet virkelig brænder, eller får uafviseligt bevis på at det vil det.

  • 1
  • 0
Anne-Marie Krogsbøll

Bjarke Haack Jørgensen:

Tak for svar. Jeg hører, hvad du og andre siger, og har ladet mig overbevise. Og lige præcist klima og vejr har jeg altid set som egnede områder til AI. Jeg er dog stadig bekymret for, om et sådant projekt som dette kan spænde ben for, at man faktisk kommer i gang med at gøre nok allerede nu - fordi man lige vil vente på resultaterne. I mine øjne er man på nuværende tidspunkt nødt til at handle - ud fra de data og den indsigt, vi har nu. Så må vi rette til hen ad vejen, hvis der kommer ny indsigt.

  • 0
  • 0
Jens Madsen

Normalt kan vi dele problemer op i tre typer:

Typer, der har en kompleksitet på O(exp) eller derover - disse problemer, kan kun løses, hvis de er meget små, og desto hurtigere at computerne bliver, desto mindre betyder det at de bliver hurtigere. Så hurtige som computerne er i dag, så vil man ikke kunne løse større O(exp) problemer, eller O(fakultet) problemer med større computer. Den gang, hvor computerne var meget langsomme, kunne man opnå lidt større problemer var løselige med større computerkraft. Kurven der viser hvor meget datakraft der skal til bliver stejlere når hastigheden øges, og når den er så stejl som i dag, så får vi ingen gevinst.

Den omvendte type problemer er O(log(n)). Disse kan vi løse uanset størrelsen. I nogle tilfælde, kan det dog kræve stor hukommelse eller stor harddisk. Normale typer søgninger er indenfor denne kategori. Det gælder blandt andet googles tekst søgninger. Vi får ikke noget ud af større datakraft indenfor denne kategori af problemer.

Midt imellem disse yderligheder, har vi problemer, hvor det hjælper lidt, at få større computerhastighed - bedst hjælper det på O(n) problemer og under. Her kan vi løse et dobbelt så stort problem, ved en dobbel så hurtig computer.

Langt de fleste problemer som vi ikke kan løse, hører til første kategori. Og vi må erkende, at de aldrig kan løses med computere som vi kender. Desto hurtigere computerne bliver, desto mindre får vi ud af at investere i en hurtigere computer, for den kan ikke løse større opgaver alligevel.

Skal vi få noget ud af hurtigere computere, så kræves at problemet er af en type, der netop kan løses med større computere. Mange typer problemer ikke løses. Måske kan vi bruge kvantecomputere, men dem har vi ikke endnu.

Konklusionen er derfor, at hvis Sabine har ret, så er vi ekstremt heldige. For så er problemerne netop af en type, hvor større computerkraft vil hjælpe, og hvor vi ikke har stor nok computerkraft endnu. Denne kombination er lidt en sjældenhed at finde.

  • 2
  • 0
Troels Henriksen

Konklusionen er derfor, at hvis Sabine har ret, så er vi ekstremt heldige. For så er problemerne netop af en type, hvor større computerkraft vil hjælpe, og hvor vi ikke har stor nok computerkraft endnu. Denne kombination er lidt en sjældenhed at finde.

Denne type problemer er langt de mest udbredte indenfor videnskabelig simulering. En n-legeme-simulering, som bruges til at simulere gasser, galakser, og andre partikelsystemer er O(n²) per tidsskridt i sin naive formulering, og kan med Barnes-Hut-metoden approksimeres med O(n log(n)) per tidsskridt. Selv et meget irregulært gitter, som med nogle væskedynamiske formuleringer (som muligvis er hvad en klimamodel vil benytte sig af) er næppe værre end dette. Et regulært gitter er O(n) per tidsskridt.

Dette hænger nok sammen med at fysiske simuleringer ofte har gode spatielle egenskaber - i det virkelige univers er effekter altid lokale, og det tager tid at for en effekt ét sted at propagere til fjerne steder. Dette gør at den algoritmiske kompleksitet sjældent er problemet - det er næsten altid konstanterne der gør forskellen.

  • 2
  • 0
Bjarne Thomsen

En vejr- eller klimamodel er en lokalt realistisk fysisk model. Realistisk betyder, dens matematiske variable er reelle (flydende) tal, som kan måles med et instrument. Lokal betyder, at den fremtidige værdi af disse variable er givet ved variablenes nuværende værdi i omegnen. Det har været den fysiske norm lige siden Newtons Principia.
Det kontroversielle opstod ved opdagelsen (1927) af, at én elektrons bane kan gå gennem mange huller i en skærm og interferere med sig selv for at slutte med at blive detekteret i et punkt på en skærm. Den fremtidige udvikling af et kvantesystem kan forsudsiges ud fra den nuværende tilstand (helt som i Newtons mekanik), men forudsigelsen er et complext tal, som ikke direkte kan måles. Kvadratnormen af dette tal er sandsynlighen for en måling. Kvantemekanik er ikke lokalt realistisk. Einstein hadede idéen. Han mente, at en fysisk teori måtte være lokalt realistisk.
Hvor findes maskinlæring i denne sammenhæng? ML er ikke en fysisk teori, som forudsiger fremtiden ud fra nutiden. ML er en matematisk transformation af en stor mængde data opfattet som geometriske figurer til et meget begrænset antal geometiske figurer (en klassifikation). Transformationen er bestemt af nogle reelle faktorer, så den er klart realistisk. Det store problem er en hurtig og optimal bestemmelse af faktorerne ud fra et træningssæt. Francois Chollet (Google) har løst problemet (i Keras) ved anvendelsen af gentagne differentialgeometriske transformationer fra en stor datamængde til et træningssæt (TensorFlow). Einsteins generelle relativitetsteori er baserer på differentialgeometri (den metriske tensor), så det kan ikke komme som en overraskelse, at TensorFlow er en lokalt realistisk model.
Den store katastrofe er, at politikerne elsker maskinlæring, selvom den ikke kan forudsige de fremtidige følger af nutidens handlinger. Samfundet har igen brug for fysiske teorier, som er baseret på årsag og virkning. Man vil aldrig kunne løse den globale opvarmning, hvis man ikke forstår, hvordan den fysiske verden hænger sammen.
Men hvorfor overskriften: Kontroversiel forsker? Man løser selvfølgelig ikke klimaet alene ved bygning af en supercomputer. Der kræves, at man vender tilbage til fysiske teorier i stedet for datateorier, og handler derefter. Der er en stor forskel.

  • 2
  • 0
Preben Holm

det spørgsmål er mere enkelt end hvad man skulle tro, man behøver ikke nogen supercomputer eller noget andet for at finde ud af hvad der 100% vil virke, og gøre klimaet meget bedre, for ca. 45 år siden da jeg gik i skole, fik de fleste elever i de danske skoler at vide at vi var for mange mennesker på jorden, og verden var overbefolket, er jorden overbefolket, behøver man jo ikke være særlig klog, for at finde ud af man så bruger flere resurser end jorden kan klare at give tilbage. og den gang var der ca. 3 til 3,5 miliard mennesker i verden, og i dag er vi ca. det dobelte eller mere, bliver vi ved med at forøge antal mennesker i verden, ender det med vi udryder os selv og alt andet liv på jorden, men da det lader til alle er bange for at sige hvad der skal til for at rede verden, og kun tænker på penge, så vil det aldrig lykkedes at rede jorden, for ingen vil jo gå ned i levestandard.

  • 1
  • 0
Log ind eller Opret konto for at kommentere
IT Company Rank
maximize minimize