USA genvinder supercomputer-tronen med 10 petaflops på 49.152 processorer

10. februar 2011 kl. 08:5611
USA genvinder supercomputer-tronen med 10 petaflops på 49.152 processorer
Illustration: Nvidia.
10 petaflop gør IBM's Mira tre gange hurtigere end den kinesiske konkurrent Tianhe-1A.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Det er ikke længe siden, at Kina meddelte, at landet nu havde verdens hurtigste computer med en ydeevne på omkring 3 petaflops, men den overgås nu af en IBM Blue Gene /Q, der har tilnavnet Mira, skriver [IBM i en pressemeddelelse.

](http://www-03.ibm.com/press/us/en/pressrelease/33586.wss)Mira bliver installeret hos Argonne National Laboratory under det amerikanske energiministerium, hvor den skal anvendes af forskere til at forske i blandt andet energibesparelser i form af design og afprøvning af ultraeffektive biler, skriver IBM videre.

Mira er baseret på IBM's egen processor, en quadcore 64-bit PowerPC A2 på 1,6 GHz, hvor hver processor er udstyret med hyperthreading, der betyder, at en enkelt processor kan afvikle på til 16 procestråde på samme tid. Der findes ganske vist hurtigere versioner af PowerPC A2, men ved at vælge clockfrekvensen på 1,6 GHz, opnår IBM den bedste relative ydeevne, hvor der også tages hensyn til effektforbruget.

Mira består af 49.152 processorer, der kombineres med 70 PB diskplads, 8 PB ddr3-hukommelse samt en I/O-båndbredde på 470 GB/s.

Artiklen fortsætter efter annoncen

Med en ydeevne på 10 petaflops bliver denne computer cirka tre gange hurtigere, end den hidtil hurtigste, der er placeret i Kina, men som ikke anvender generelle processorer, men grafikprocessorer til at opnå den høje ydeevne.

IBM har allerede installeret Watson, der er en mindre udgave af Mira. Den anvender samme teknologi, men har dog kun 8.192 processorer og anvendes blandt andet til at deltage i Jeopardy!, hvor den afvikler avanceret analytisk software, der gør den i stand til effektivt at konkurrere mod menneskelige modstandere.

IBM satser på at videreudvikle teknologien bag Mira, således at man i løbet af nogle år kan nå frem til en exascale-computer, der er 100 gange hurtigere end Mira.

11 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
3
10. februar 2011 kl. 09:26

3 petaflops, men den overgår nu af en 1,m6 GHz samt g en I/O-båndbredde

5
10. februar 2011 kl. 09:45

Kan den køre Crysis ?

6
10. februar 2011 kl. 10:59

Nej, Crysis er til x86.

7
10. februar 2011 kl. 11:19

Er jeg den eneste der synes dette virker meget lavt, versus så mange processorer skal deles om den?

10
10. februar 2011 kl. 20:18

Er jeg den eneste der synes dette virker meget lavt, versus så mange processorer skal deles om den?

Det er jo bare I/O-båndbredde; CPU'erne har vel sjældent brug for disk-I/O eller ekstern netværkstrafik. CPU-til-CPU-interconnect har uden tvivl større båndbredde, men det er svært at definere en totalbåndbredde for den.

8
10. februar 2011 kl. 16:23

Nej jeg underet mig også over at den var så "lav".

9
10. februar 2011 kl. 19:17

Det kommer jo an på tiltænkt brug. Desuden uden at være ekspert men har da haft et HPC kursus eller 5 så er det da i forhold til så mange andre links i ret høj båndbrede men spørgsmålet er mere om alt muligt andet i kæden er sat rigtigt op. Man må også gå ud fra det f.eks. er såkaldte pinlige parralel software - altså software der [næsten] ingen skalerings tab har - der skal køres da det jo ellers slet ikke giver mening. Og så er backbone båndbrede rimelig lige meget inden for rimelighedens grænser. Det dog mig uforståeligt hvorfor de ikke får et kursus i OpenCL eller sætter et par eksperter i Cuda til at lave deres kode om dertil - det er garanteret væsentligt billigere eller også kunne et endnu kraftigere system. Men blandt andet support m.m. hos IBM er vel dejligt set fra deres side. GPGPU systemer er vist mere roll-your-own. Samtidig kan alle tosserne insistere på at køre deres kode i Fortran eller lignede i stedet for at få deres kode oversat af nogen der sandsynligvis også kan optimere den bedre eller sætte sig ned og bruge lidt tid på at lære moderne programmerings teknikker. DTU har allerede målrettede kurser til PhD'er m.m. til GPGPU i forbindelse med HPC men det var vist også første universitets kursus i hvert fald i DK så vidt jeg forstod.

11
12. februar 2011 kl. 13:07

Jeg tror det er hvor meget det delte disksystem kan klare. Hvis det er, så er 470 GB/s meget!!!

@RUNE PLOUG

Det er ikke bare pinlig parallel software de vil køre. Top 500 koden er ikke pinlig parallel. Jeg har selv prøvet at kode til en BlueGene/P og det er ikke trivielt pga det specielle interconnect. Men det er hurtigt og skalerer rigtig godt.

GPU'er hjælper ikke altid. Hvis der er meget udveksling af data skal der meget båndbredde til at fodre en GPU. Nogle gange bedre at tilpasse regneenhederne til den båndbredde som er mulig med interconnect og så have flere af dem. Derudover er GPU'er dårlige til conditional code (mange if sætninger).

Der er andre steder i DK med HPC kurser. Et kursus i GPU kodning ender i et kursus om kodning af OpenCL eller CUDA. Det er ligesom at have et kursus om Oracle DB eller Java-programmering, hvilket er rent håndværk og ikke giver direkte indsigt i problemsstilingen. Selvom det er nyttig at vide noget om GPU kodning er det et mere generelt kursus om parallel arkitekture der er brug for hvis man vil begå sig i HPC.

4
10. februar 2011 kl. 09:43

Tak, det er nu rettet. Vh Morten, Version2.

1
10. februar 2011 kl. 09:14

Den er jo ikke sat op endnu... ifølge pressemeddelelsen bliver den "operationel i 2012". Total søgt overskrift! Kina har stadig verdens kraftigste supercomputer.