Ny europæisk supercomputer blander X86, ARM, Nvidia og Power

5. december 2016 kl. 11:301
Supercomputeren Marenostrum 4 får ikke blot en klynge af Intel Xeon-processorer, men også en klynge, der blander en stribe forskellige processortyper.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Den kommende nye europæiske supercomputer Marenostrum 4 bliver en blanding af fire forskellige processorarkitekturer. Supercomputeren skal stå ved supercomputercentret i Barcelona og bliver en del af det europæiske forskningsnetværk PRACE.

Den vil blive opbygget af to klynger, hvor den ene bliver forholdsvis konventionel med Intel Xeon-processorer og vil få en forventet samlet ydelse på 11 petaflops. Til sammenligning har verdens kraftigste supercomputer, den kinesiske Sunway TaihuLight en maksimal ydelse på 93 petaflops.

Det mest interessante ved Marenostrum er imidlertid den anden klynge, som vil give europæiske forskere adgang til at prøve at køre deres beregninger på forskellige nye arkitekturer. Den vil nemlig blive opbygget af tre dele. Den ene får Intel Xeon Phi-processorer, der er Intels mange-kerne-processorer.

Den anden del får Nvidia Volta GPU-processorer og IBM Power9-processorer, og den tredje del får ARMv8-processorer.

Artiklen fortsætter efter annoncen

De tre dele vil have en regnekraft på henholdsvis 0,5, 1,5 og 0,5 petaflops, men det primære formål er altså at afprøve teknologierne og se, om de er egnede til fremtidige udbygninger af supercomputercentret.

Flere lavenergi-supercomputere

Marenostrum 4 bliver 12 gange kraftigere end den nuværende Marenostrum 3, men den ventes blot at bruge 30 procent mere energi. Netop energiforbruget er blevet et væsentligt tema for supercomputere, og derfor er der de senere år også udgivet en Top500-liste over de mest 'grønne' supercomputere.

I år er de to mest effektive supercomputere målt i gigaflops pr. watt begge baseret på Nvidias P100 Tesla gpu. Den mest effektive står hos Nvidia selv og er hovedsageligt opbygget af Nvidias DGX-1, som Nvidia har udviklet til markedet for tunge machine learning-beregninger.

1 kommentar.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
1
5. december 2016 kl. 12:55

Hvor er FPGA'erne henne. Når der skal eksperimenteres, hvorfor så ikke også bygge en FPGA baseret klynge og se hvad den kan bedrive.