Pc klarede tunge beregninger hurtigere end en kraftig supercomputer

30. juni 2016 kl. 10:394
Russiske forskere har gennemført beregninger af dobbelte integraler ganske billigt på en stationær pc.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Fysikere på Statsuniversitetet i Moskva har fundet ud af, at enkelte typer tunge beregninger kan være hurtigere at gennemføre på en pc end på en supercomputer, skriver digi.no.

Opgaven, som skulle gennemføres, var at løse komplicerede integralligninger i tilknytning til kvantemekanik, og det har tidligere været nødvendigt at anvende en kraftig supercomputer til det.

Men forskerne i projektgruppen under ledelse af professor Vladimir Kukulin forsøgte også at gennemføre beregningerne ved hjælp af en temmelig ordinær, stationær pc.

Universitetet har oplyst til digi.no, at pc'en var udstyret med en Intel i7-3770K-processor og et skærmkort med GPU-en Nvidia GTX-670.

Artiklen fortsætter efter annoncen

»Vi opnåede en hastighed, som vi ikke engang kunne have drømt om,« siger Vladimir Kukulin til digi.no.

»Programmet beregnede 260 millioner komplekse, dobbelte integraler på en stationær pc på under tre sekunder. Min kollega ved Universitetet i Bochum, Tyskland, har tidligere udført de samme beregninger ved hjælp af en af de største supercomputere i Tyskland, Jugene, med Blue Gene-arkitektur, som faktisk er rigtig dyr. Det, hans gruppe opnåede på to-tre dage, klarer vi på 15 minutter, uden at det koster en kopek,« fortæller professoren.

Dog en lidt aldrende supercomputere

Jugene er ganske vist ikke med blandt de allerkraftigste supercomputere i dag, men systemet var dog verdens tredjekraftigste i 2009.

Og selv i dag er den blandt verdens 120 kraftigste maskiner.

Med en målt ydelse på 825,5 teraflops er den en del kraftigere end SDUs, som er Danmarks kraftigste supercomputere, med 582,2 teraflops.

Det skal siges, at Jugene blev bygget på en tid, hvor supercomputere kun i lille omfang udnyttede mulighederne, som findes i grafikprocessorer til at gennemføre parallelprocessing på store datasæt.

Beregningerne, som forskerne udførte, vil altså formentlig kunne udføres hurtigere på en supercomputer med tusindvis af GPU-er af samme type som i pc'en. Men udgiften vil også være en helt anden.

Kukulin mener, at forskergruppens resultater åbner for helt nye måder at analyse reaktioner inden for kernefysik og kemi på, men også til omfattende beregninger inden for mange andre videnskabelige områder.

»Vi ønsker at etablere et slags oplæringskursus, hvor forskere fra forskellige videnskabelige områder fra andre universiteter, som ikke har tilgang til supercomputere, kan lære, hvordan de kan anvende pc'er til det samme som os,« siger Kukulin.

En videnskabelig artikel om forsøget findes her.

4 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
4
1. juli 2016 kl. 10:11

Er tid ikke et dårligt performance mål? Supercomputeren har måske kun tildelt begrænset regnekraft og prioritet til brugeren i modsætning til PC'en, der var dedikeret.

Jeg husker fra min studietid, at på VAX'en kørte programmet meget hurtigere, hvis man tilføjede et /INTERACTIVE parameter for at komme uden om batchkøen.

Derudover så er der måske sket lidt siden 2009.

3
30. juni 2016 kl. 13:02

Det er altid fornuftigt at tage et kig på denne klassiske artikel når der præsenteres så voldsomme hastighedsforøgelser ved at flytte koden til en GPU. Typisk er der tale om en sammenligning af veltoptimeret GPU-kode med elendig CPU-kode (og det kan gå ret galt hvis der tilmed er tale om distribueret CPU-kode, som der må være hvis man sammenligner med en Blue Gene).

Ganske vist er ovennævnte artikel efterhånden seks år gammel, og tilmed skrevet af Intel-folk, men det er stadigvæk sjældent realistisk at opnå en faktor 1000 hastighedsforskel mellem (parallel) CPU-kode og GPU-kode, hvis begge dele er skrevet fornuftigt.

2
30. juni 2016 kl. 12:47

Er det ikke grunden til man miner BC med grafikort, eller gjorde det da man som almindelige bruger kunne være med.

1
30. juni 2016 kl. 10:55

Det er rigtig rart engang i mellem at høre om folk som har en anden tilgang til algoritmekonstruktion end bare den proverbiale, større hammer.