Advarsel efter dansk supercomputer-nedtur: Det går ud over forskningen

22. juni 2016 kl. 10:243
Kraftige supercomputere anvendes til forskning i bl.a. medicin, materialer og energiteknologier. Derfor er det problematisk at Danmark er faldet ned ad ranglisten over de kraftigste supercomputere i verden, mener HPC-direktør.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

De største danske supercomputere er faldet ned ad ranglisten over de 500 største supercomputeranlæg i verden og det kan få konsekvenser for landets pæne position inden for bl.a. medicinsk forskning.

Det mener direktøren for Danmarks supercomputercenter, HPC (High Performance Computing) i DeIC (Danish e-Infrastructure Cooperation), Kurt Gammelgaard Nielsen.

Udmeldingen kommer på baggrund af den seneste Top500-liste over verdens supercomputere, hvor Danmarks største supercomputer, DeIC Nationale HPC, SDU, er faldet til en plads 258.

På den forrige liste lå den daværende største danske supercomputer, Computerome, som nummer 235.

Artiklen fortsætter efter annoncen

Version2 også omtalte i går, at Kina har sprængt listen og udmanøvreret USA som landet med de fleste supercomputere.

Men Danmark taber også terræn:

»Når man taber terræn i TOP500-kapløbet, vil andre forskere - alt andet lige - kunne beregne større og mere komplekse problemstillinger hurtigere,« siger Kurt Gammelgaard Nielsen, direktør for HPC (High Performance Computing) i DeIC (Danish e-Infrastructure Cooperation).

Problemet forstærke af, at super computing vinder udbredelse i mange grene af forskningen – også uden for de traditionelle områder som teknik og naturvidenskab:

Artiklen fortsætter efter annoncen

Danske supercomputere

  • DeIC Nationale HPC Center, SDU
    Det nationale HPC Center på Syddansk Universitet i Odense med computeren Abacus 2.0 er specielt designet til at tilgodese et bredt spektrum af dansk forsknings beregningsbehov. Abacus 2.0 har 9.408 processorkerner og en teoretisk ydeevne på 582 teraflop/s (billioner udregninger med flydende komma i sekundet).

  • DeIC Nationale LifeScience Supercomputer, DTU
    Supercomputeren på DTU Risø kaldet "Computerome" er specielt designet til anvendelse af forskere på life-science-området. Forskning på dette område stiller særlige krav til såvel omfanget af online data som overførselshastighed mellem storage og beregningsdel, og til omfanget af fysisk lager tæt på beregningselementerne. Supercomputeren er udstyret med 16.048 CPU-kerner og 92 terabyte hukommelse. Den har en peak performance på 483 teraflop/s.

  • DeIC Nationale Kulturarvscluster, Statsbiblioteket
    DeIC Nationale Kulturarvscluster ved Statsbiblioteket i Aarhus giver forskere inden for samfundsfag og humaniora adgang til fire petabyte digitaliseret kulturarv: Radio/tv, websider og avisartikler. Den har 360 CPU-kerner.

»Vi kan i Danmark se at supercomputere nu begynder at blive brugt indenfor humaniora, samfundsvidenskab og sundhedsvidenskab, og det vil betyde at adgang til supercomputer til f.eks. udvikling af personlig medicin kan blive et konkurrenceparameter,« tilføjer han.

Det går stærkt med at falde af på den i konkurrencen, for supercomputere har kun en levetid på ca. fire år.

Det skyldes, at omkostningerne til en supercomputer udover hardwareindkøb, som udgør cirka af 50 procent, udgøres af den løbende drift, som primært er strøm.

»Når udvikling går så hurtigt indenfor CPU, er nutidens supercomputer simpelt hen for dyr at drifte pga. energiineffektiv i forhold til at købe en ny. Så man kan godt blive ved med at bruge den, men den er for dyr i drift,« siger Kurt Gammelgaard Nielsen.

Forskerne ved hvordan man beregner for industrien

DeiC har sammen med en række danske universiteter finansieret tre nationale anlæg, som kan understøtte de forskellige forskningsdiscipliner, men det er også vigtig, at man kan fastholde investeringsbehovene, da man ellers ifølge DeiC taber terræn.

I april 2012 blev Forskningsnettet og Dansk Center for Scientific Computing (DCSC) lagt sammen til Danish e-Infrastructure Cooperation, DeIC, og i samme omgang fik man en bevilling på 50 millioner kroner.

Nu er pengene imidlertid brugt og derfor forhandler Forskningsstyrelsen for at få en ny ramme på finansloven.

DeiC er ved at udarbejde en kortlægning, som kan tjene som beslutningsgrundlag for, hvad der bør investeres i området i fremtiden for at fastholde en moderne infrastruktur.

Den danske supercomputere Abacus på SDU er den kraftigste med 462,4 teraflop/s, men DeIC vil gerne op på ca. 1.000 teraflop/s.

Artiklen fortsætter efter annoncen

Kurt Gammelgaard Nielsen mener i øvrigt, at Danmark også har de kompetencer, der skal til at drive nye supercomputere.

Det flyder selvfølgelig ikke med systemadministratorer på området for super computing, men Danmark har og kan fastholde kompetencer, som ved, hvordan man udnytter en supercomputer til industriens eller andre forskeres behov for beregning, lyder det.

Udover adgang til nationale computere på et midsize, såkaldt Tier II-niveau, så sikrer DeIC, at forskerne adgang til endnu større internationale supercomputere, Tier I og 0-anlæggene.

Den netop udgivne Top500 rangliste indeholder både supercomputere, der er ejet af forskningsinstitutioner og af det private erhvervsliv. Den bygger på frivillige indberetninger, så der kan findes hemmelige anlæg, der kunne kvalificere til en plads på listen.

Artiklen er nuanceret mht. at det er systemadministratorer der driver supercomputere, red.

3 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
3
22. juni 2016 kl. 18:53

Der ud over er det ikke kun hardware en supercomputer består af, så der kan optimeres på software delen som trods alt udvikles mindst lige så hurtigt !

Meget programmel til supercomputere er allerede rimeligt veloptimeret. Typisk er der tale om ret gamle programmer, som er blevet løbende tunet i mange år (eller årtier). Selvfølgelig skal der udføres en vis mængde af nytuning når de flyttes til nye maskiner med nye karakteristika, men det er ikke fordi al supercomputer-kode er skrevet af inkompetente programmører.

Algoritmiske forbedringer er også ret sjældne. Der er grænser for hvor ofte man finder nye måder at gange matricer på, eller løser n-body-problemer.

2
22. juni 2016 kl. 18:36

Det er vel stadigt sådan at forskning i det offentlige regi, er en udgift ! Skulle der komme noget indtægtsskabende ud af denne forskning, vil det fremgå som en indtægt et helt andet sted i det offentlige, hvis overhovedet ! Fuldstændigt som f.eks uddannelse, som helt umiddelbart ikke giver det offentlige indtægter, og derfor beskæres på alle måder !

Der ud over er det ikke kun hardware en supercomputer består af, så der kan optimeres på software delen som trods alt udvikles mindst lige så hurtigt !

1
22. juni 2016 kl. 13:24

Vores SQL server er langsom? lad os købe en større maskine!

Nej, vel, find ud af hvor problemet er, det kan være at én operation kan forbedres 5-10%, hvilket kan betyde meget, hvis det er den mest benyttede operation.