Forskere bygger mini-supercomputer af 750 Raspberry Pi-enheder

Kan benyttes til test og udvikling af programmer til den rigtige slags.

Forskere ved Los Alamos National Laboratory i USA har bygget en computer bestående af 750 stk. Raspberry Pi-maskiner, skriver laboratoriet i en pressemeddelelse. På længere sigt forestiller forskerne sig at dette kan udvides til flere tusinde Raspberry Pi-enheder.

Laboratoriet råder over flere supercomputere, blandt andet Trinity, som med sine 14 petaflops er verdens syvendekraftigste.

Raspberry Pi-maskinen kan ikke konkurrere med andre supercomputere, når det gælder ydelsen, men den kan bruges som et testsystem for udvikling af applikationer til supercomputere – uden at behøve adgang til dem.

»Det er ikke sådan, at du kan få stillet en petaskala-maskine til rådighed til forskningsarbejde på skalerbar systemsoftware. Raspberry Pi-modulerne lader udviklere finde ud af, hvordan de kan skrive den slags software og få det til at fungere pålideligt, uden at behøve et dedikeret testsystem i samme størrelse, som ville kostet en kvart milliard dollars og bruge 25 megawatt elektricitet,« skriver Gary Grider, chef for High Performance Computing-afdelingen ved Los Alamos National Laboratory.

Lavt strømforbrug

Mini-supercomputeren er designet og bygget af selskabet Bitscope. Den består af fem rackmonterede Pi Cluster-moduler, som hver indeholder 150 firekerners noder, med Raspberry Pi-kort baseret på 1,2 GHz ARMv8-processorer.

Med 750 CPU’er og fire kerner drejer det sig om i alt 3.000 CPU-kerner. Hver node kræver ca. 5 watt, og med denne løsning kan man så bygge en klynge på 1.000 noder, som kun bruger 6 kilowatt. Alt sammen kan bygges ind i et almindeligt 42 Unit-rack.

Forskerne skriver i pressemeddelelsen, at modulerne også kan bruges til andre formål - til alt fra uddannelse til IoT.

»Efter at have arbejdet med Raspberry Pi i ret lang tid har jeg længe tænkt, at det er den ideelle kandidat til at bygge prisbillige cloud- og klynge-baserede løsninger til forskning og uddannelse,« siger Bruce Tulloch, administrerende direktør i Bitscope.

Man kan læse mere om løsningen her.

Denne artikel blev først publiceret på digi.no.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (4)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Martin Sørensen

Jeg tænker at man vel burde kunne opnå en lignende løsning ved at bruge en håndfuld nogenlunde normale maskiner og så køre en ordentlig bunke små VMs på dem alle? Hver VM skal så have et låst antal CPU cycles til rådighed så de ikke kan stjæle fra hinanden så man minimerer påvirkningen mellem dem.

Det man primært vil teste er vel at kunne minimere kommunikationen mellem hvad maskine (eller i hvert fald minimere afhængigheden mellem samlet performance og kommunikationsmængde/latency), sørge for at alle kernerne er udnyttet 100% hele tiden og at man derved får den højeste totale ydelse?

Det virker umiddelbart noget lettere at sætte 10 kraftige PCer op i et netværk frem for at skulle sætte 1000 RPis sammen..

  • 2
  • 0
Sune Marcher

Jeg tænker at man vel burde kunne opnå en lignende løsning ved at bruge en håndfuld nogenlunde normale maskiner og så køre en ordentlig bunke små VMs på dem alle?


Det kommer nok lidt an på formålet?

Med en håndfuld kraftige maskiner og en masse VM'er kan du godt få en god fornemmelse for distribueret udvikling. Men Raspeberry setup'et giver nok nok ekstra i forhold til fx distribuering af mellem compute nodes - både netværk vs. inter-core båndbredde, hvordan data skal fordeles rundt, fejlhåndtering når compute-noder brænder sammen osv.

Men gad vide hvor stor del af motivationen har været "det var et sjovere projekt at sætte et boatload raspi'er sammen ned at netværke et par håndfulde x86 maskiner" ;-)

  • 1
  • 0
Log ind eller Opret konto for at kommentere