Monster grafikkort på vej til supercomputer: »Det sprænger alle grænser«

3. oktober 2018 kl. 13:554
Monster grafikkort på vej til supercomputer: »Det sprænger alle grænser«
Illustration: Nvidia.
NTNU køber en ny supercomputer i anledning af deres HPC-laboratoriums 10-årsjubilæum.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

NTNU’s High-performance computing-lab (HPC) bliver et af de første miljøer i verden, som ibrugtager Nvidias nye monster af en grafikkortmaskine til over tre millioner norske kroner.

»Det kommer simpelthen til at sprænge alle grænser.«

Det siger professor Anne Elster ved Institutt for datateknologi og informatikk ved NTNU til digi.no. Hun leder universitetets satsning på supercomputere.

DGX 2

I anledning af HPC-labens tiårsjubilæum køber universitetet Nvidias nye DGX 2. Den skal Elster og hendes kolleger lege med i årene fremover.

Artiklen fortsætter efter annoncen

Budprocessen går de i gang med nu, og NTNU håber, at maskinen til omkring tre millioner norske kroner kan være i hus i løbet af efteråret.

»Vi ved ikke præcist, hvornår udstyret bliver leveret, men forhåbentlig i løbet af november. Maskinen kom ikke på markedet før denne oktober, så vi bliver blandt de første i verden til at teste denne maskine.«

NVswitch giver ekstrem ydelse

I marts lancerede Nvidia videomaskinen bestående af 16 Volta-GPU’er, som er koblet sammen med NVSwitch og to Intel Xeon Platinum-processorer.

NVSwitch er en intern kobling, som skulle give ekstremt høj ydelse, og dette er det første produkt, som drager nytte af den nye teknologi. Ifølge Nvidia bruger den nye løsning kun en brøkdel af energien sammenlignet med en almindelig CPU-rig.

Artiklen fortsætter efter annoncen

Det er producentens første helhjertede forsøg på at kapre AI-markedet.

»Siden dette er helt ny teknologi, vil det sprænge grænser for os at være med til at forske i, hvad den kan bruges til,« siger Elster.

Remote video URL

Skal forske i brugsområder

»Vi skal finde ud af, hvilken slags værktøj vi har brug for at udvikle for at kunne udnytte disse maskiners regnekraft maksimalt. I HPC-laboratoriet er vi blandt de eneste i verden, der har kompetencen til at skrive så kompleks kode, som gør, at disse maskiner yder optimalt. Den viden skal vi så bruge til at hjælpe andre med at komme videre i teknologiudviklingen.«

NTNU-professoren siger, at Nvidia ikke længere markedsføres som et selskab, der producerer grafikkort. Selskabet har indset værdien af kunstig intelligens og satser benhårdt på dette område for at kapre et stadigt større marked i stor udvikling.

Åbnet i 2008

»Det bliver rigtig spændende for os at se, om NVSwitch kan levere det, Nvidia lover. Dette er et produkt, som er rendyrket rettet mod kunstig intelligens, men vi skal se, om vi ikke også kan afsløre kapaciteter rettet mod supercomputere,« siger Elster til digi.no.

Siden opstarten i oktober 2008 har NTNU’s HPC-lab vejledt over 70 masterstuderende og en del doktorgradskandidater gennem krævende opgaver på vejen mod mere viden.

Da HPC-laboratoriet startede op, markedsførte Elster det som et sted, som var ‘spækket’ med selvbyggede pc’er og vilde grafikkort.

159 kilo med rå kraft

Allerede i 2008 var Elster og hendes kolleger optaget af, hvad de kunne få til at ske ved hjælp af grafikprocessorens kraft.

Artiklen fortsætter efter annoncen

»Moderne grafikkort har en parallellitet på flere hundrede. For eksempel har de nye Tesla C1060-kort, som kommer på markedet nu i november, mulighed for at køre 240 operationer samtidig.«

»GPU’erne er ganske vist oprindelig møntet på spillmarkedet, men med den ydelse er de også virkelig interessante for os, som har med supercomputere at gøre,« sagde NTNU-professoren, efter at den røde snor til HPC-laboratoriet officielt var klippet over i oktober 2008.

Ti gange ydelsen

Nvidia DGX 2-maskinen, som kommer i hus i løbet af efteråret, vejer 159 kilo, har to terabyte hukommelse og 82.000 parallelkoblede CUDA-kerner.

Ifølge videoproducenten er dette det første to-peta-FLOPS-system, som kombinerer 16 sammenkoblede GPU’er.

Ifølge selskabet vil dette vil give ti gange hurtigere læringsydelse for neurale netværk.

Det hele drives af selskabets DGX-software og er koblet sammen med skalerbar arkitektur baseret på NVSwitch.

»Dette er fremtiden«

»Dette er fremtiden, og det er ikke bare Nvidia, som er på banen. AMD eksperimenterer også med denne teknologi. Jeg tror, at en fuld integrering mellem HPC og AI vil have meget interessante perspektiver. Vi ser allerede for os, at vi kan bruge dette udstyr i flere projekter. Blandt andet i medicinsk billedbehandling, simuleringer i olie- og gas-industrien og AI i billedbehandling.«

Artiklen er fra digi.no.

4 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Fortsæt din læsning

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
4
3. oktober 2018 kl. 16:38

Ifølge selskabet vil dette vil give ti gange hurtigere læringsydelse for neurale netværk.

I forhold til hvad?

Jeg tror, at en fuld integrering mellem HPC og AI vil have meget interessante perspektiver.

Hvad i alverden betyder dette?

»Vi skal finde ud af, hvilken slags værktøj vi har brug for at udvikle for at kunne udnytte disse maskiners regnekraft maksimalt. I HPC-laboratoriet er vi blandt de eneste i verden, der har kompetencen til at skrive så kompleks kode, som gør, at disse maskiner yder optimalt. Den viden skal vi så bruge til at hjælpe andre med at komme videre i teknologiudviklingen.«

Jeg er ret nysgerrig omkring hvad de konkret tænker på. Laboratoriets egen hjemmeside har nogle rimeligt interessante udgivelser, men det er ikke tydeligt hvad det større perspektiv er (og jeg tvivler meget på at NTNU er medlem af en særligt lille elite der kan få en maskine med 16 GPU'er til at yde optimalt - fra et HPC-synspunkt er det ikke nogen stor maskine).

3
3. oktober 2018 kl. 14:49

Jeg troede faktisk at bottleneck på Crysis var CPU og ikke GPU - fordi de havde forventet at CPU performance per core ville stige i stedet for at antallet af cores steg.

2
3. oktober 2018 kl. 14:29

Jeg kender godt referencen, men alligevel.

DGX-2 har 16xVolta v100 GPUer.

Til sammenligning har NVidias vildeste grafikkort til private (også kendt som Titan) kun en enkelt Volta v100 GPU.

... men den er alligevel stærk nok til at kunne håndtere realtime raytracing ved en opløsning på 4K @ 60 FPS.

Så ja! Den kan godt køre Crysis!