USA genvinder supercomputer-tronen med 10 petaflops på 49.152 processorer

10 petaflop gør IBM's Mira tre gange hurtigere end den kinesiske konkurrent Tianhe-1A.

Det er ikke længe siden, at Kina meddelte, at landet nu havde verdens hurtigste computer med en ydeevne på omkring 3 petaflops, men den overgås nu af en IBM Blue Gene /Q, der har tilnavnet Mira, skriver [IBM i en pressemeddelelse.

](http://www-03.ibm.com/press/us/en/pressrelease/33586.wss)Mira bliver installeret hos Argonne National Laboratory under det amerikanske energiministerium, hvor den skal anvendes af forskere til at forske i blandt andet energibesparelser i form af design og afprøvning af ultraeffektive biler, skriver IBM videre.

Læs også: Kina snupper supercomputer-kronen med hybrid af 7.168 Nvidia-GPU'er og 14.336 Intel-CPU'er

Mira er baseret på IBM's egen processor, en quadcore 64-bit PowerPC A2 på 1,6 GHz, hvor hver processor er udstyret med hyperthreading, der betyder, at en enkelt processor kan afvikle på til 16 procestråde på samme tid. Der findes ganske vist hurtigere versioner af PowerPC A2, men ved at vælge clockfrekvensen på 1,6 GHz, opnår IBM den bedste relative ydeevne, hvor der også tages hensyn til effektforbruget.

Mira består af 49.152 processorer, der kombineres med 70 PB diskplads, 8 PB ddr3-hukommelse samt en I/O-båndbredde på 470 GB/s.

Med en ydeevne på 10 petaflops bliver denne computer cirka tre gange hurtigere, end den hidtil hurtigste, der er placeret i Kina, men som ikke anvender generelle processorer, men grafikprocessorer til at opnå den høje ydeevne.

IBM har allerede installeret Watson, der er en mindre udgave af Mira. Den anvender samme teknologi, men har dog kun 8.192 processorer og anvendes blandt andet til at deltage i Jeopardy!, hvor den afvikler avanceret analytisk software, der gør den i stand til effektivt at konkurrere mod menneskelige modstandere.

IBM satser på at videreudvikle teknologien bag Mira, således at man i løbet af nogle år kan nå frem til en exascale-computer, der er 100 gange hurtigere end Mira.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (11)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#9 Rune Ploug

Det kommer jo an på tiltænkt brug. Desuden uden at være ekspert men har da haft et HPC kursus eller 5 så er det da i forhold til så mange andre links i ret høj båndbrede men spørgsmålet er mere om alt muligt andet i kæden er sat rigtigt op. Man må også gå ud fra det f.eks. er såkaldte pinlige parralel software - altså software der [næsten] ingen skalerings tab har - der skal køres da det jo ellers slet ikke giver mening. Og så er backbone båndbrede rimelig lige meget inden for rimelighedens grænser. Det dog mig uforståeligt hvorfor de ikke får et kursus i OpenCL eller sætter et par eksperter i Cuda til at lave deres kode om dertil - det er garanteret væsentligt billigere eller også kunne et endnu kraftigere system. Men blandt andet support m.m. hos IBM er vel dejligt set fra deres side. GPGPU systemer er vist mere roll-your-own. Samtidig kan alle tosserne insistere på at køre deres kode i Fortran eller lignede i stedet for at få deres kode oversat af nogen der sandsynligvis også kan optimere den bedre eller sætte sig ned og bruge lidt tid på at lære moderne programmerings teknikker. DTU har allerede målrettede kurser til PhD'er m.m. til GPGPU i forbindelse med HPC men det var vist også første universitets kursus i hvert fald i DK så vidt jeg forstod.

  • 0
  • 0
#10 Benny Lyne Amorsen

Er jeg den eneste der synes dette virker meget lavt, versus så mange processorer skal deles om den?

Det er jo bare I/O-båndbredde; CPU'erne har vel sjældent brug for disk-I/O eller ekstern netværkstrafik. CPU-til-CPU-interconnect har uden tvivl større båndbredde, men det er svært at definere en totalbåndbredde for den.

  • 0
  • 0
#11 Hans Henrik Happe

Jeg tror det er hvor meget det delte disksystem kan klare. Hvis det er, så er 470 GB/s meget!!!

@RUNE PLOUG

Det er ikke bare pinlig parallel software de vil køre. Top 500 koden er ikke pinlig parallel. Jeg har selv prøvet at kode til en BlueGene/P og det er ikke trivielt pga det specielle interconnect. Men det er hurtigt og skalerer rigtig godt.

GPU'er hjælper ikke altid. Hvis der er meget udveksling af data skal der meget båndbredde til at fodre en GPU. Nogle gange bedre at tilpasse regneenhederne til den båndbredde som er mulig med interconnect og så have flere af dem. Derudover er GPU'er dårlige til conditional code (mange if sætninger).

Der er andre steder i DK med HPC kurser. Et kursus i GPU kodning ender i et kursus om kodning af OpenCL eller CUDA. Det er ligesom at have et kursus om Oracle DB eller Java-programmering, hvilket er rent håndværk og ikke giver direkte indsigt i problemsstilingen. Selvom det er nyttig at vide noget om GPU kodning er det et mere generelt kursus om parallel arkitekture der er brug for hvis man vil begå sig i HPC.

  • 0
  • 0
Log ind eller Opret konto for at kommentere