Nvidias Tesla-GPU leverer 5,3 teraflops til kunstig intelligens

7. april 2016 kl. 13:559
Nvidias nye Tesla P100 grafikprocessor er beregnet til at afvikle maskinlæringsalgoritmer lynhurtigt.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Otte styks af Nvidias nye Tesla-processorer kan levere samme regnekraft til oplæring af deep learning-algoritmen AlexNet som 250 servere med hver to almindelige processorer. Det hævder i hvert fald Nvidia selv i forbindelse med lanceringen af den nye processor.

Tesla P100 bygger på samme teknologi som Nvidias grafikkort og de deraf afledte processorer til high performance computing, HPC, men er betydeligt kraftigere end tidligere takket være både fremskridt i både fremstillingsprocessen og arkitekturen.

Målgruppen for den nye chip er ikke spilentusiaster, men derimod forskere og andre, som har behov for den regnekraft til visse typer algoritmer, som processoren kan levere. Nvidia har indbygget instruktionssæt til understøttelse af visse typer machine learning inden for deep learning ind i Tesla P100.

Nvidia har samtidig med lanceringen også introduceret selskabets egen computer, der benytter otte af de nye processorer, DGX-1. Også her er målgruppen dem, der arbejder med maskinlæring.

Artiklen fortsætter efter annoncen

Hver af de nye Tesla P100-processorer kan levere 5,3 teraflops i double precision kommatalsberegninger eller 21,1 teraflops i half precision-beregninger.

Ud over Nvidias egen computer baseret på den nye processor, har blandt andre IBM også implementeret Nvidias NVLink-interconnect i Power 8-arkitekturen.

9 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
9
8. april 2016 kl. 13:09

Endnu en gang er det gået galt for et teknisk ord der går mainstream. Problemet er at med ordet AI tænker vi Matrix, Terminator eller Ex Machina. Mens, der vi i virkeligheden står er knap et skridt længere end en kaffemaskine der selv tænder kl 7. på hverdage. Jeg mener, at vinde i Go og Jeopardy er bestemt fantastisk godt gået! Men jeg er stadig ret overbevist om at der er kortere ned til hulmaskinen end op til en maskine med selverkendelse...

8
8. april 2016 kl. 12:08

Prøv at læse denne artikel, før vi jubler over x antal nanometer, der er så mange etiske og menneskelige problemer som vi bare lader de store firmaer om at lave til forretning. Jeg spørger bare om vi er klar til at forsvare os, mod en AI som vi selv har skabt.
<a href="http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html…;

Deep learning er ikke kunstig intelligens mere end, at det er meget sofistikeret mønstergenkendelse. Deep learning er ikke egnet til at bygge systemer der kan planlægge og ræsonnere som en menneskehjerne, da de kun arbejder i snævre problemer, hvor mennesker arbejder bredt med alle mulige problemer.

Der sker til gengæld også en masse indenfor dette felt, som er lidt uhyggeligt på dette område. F.eks. bliver det muligt for en maskine at lave opdigtede billeder og lyde, eller bare data der kan bruges til meget overbevisende forfalskninger.

Men på den anden side kan man også lave voldsomme kompressionsalgoritmer, der fungerer på samme måde som menneskets syn gør.

Det bliver også den måde fremtidens robotter kommer til at bevæge sig på, gennem intens indlæring og meget mere abstrakt programmering, i stedet for programmering af hvert enkelt bevægelse.

7
8. april 2016 kl. 11:51

For at gøre det endnu sjovere, så har NVIDIA også haft en mikro-arkitektur ved navn "Tesla" (fra 2007), udover at de nu har en produktlinje ved navn "Tesla".

6
8. april 2016 kl. 10:24

Da Nvidia Tesla egner sig til AI, som kommer til at spille en voksende rolle ifbm. selvkørende biler og da Tesla Motors allerede anvender Nvidia Tegra, så forventer jeg fremover at komme til at læse om kombinationen af (Nvidia) Tesla og Tesla (Motors). :-)

5
8. april 2016 kl. 10:10

Prøv at læse denne artikel, før vi jubler over x antal nanometer, der er så mange etiske og menneskelige problemer som vi bare lader de store firmaer om at lave til forretning. Jeg spørger bare om vi er klar til at forsvare os, mod en AI som vi selv har skabt.http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html

PS. Jeg producerede en tesla maskine for et par år siden, til sølle 28K, med en teraflop. Hold da op så går det stærkt med beregninger og renderinger.

4
8. april 2016 kl. 09:00

AMD og Nvidea har været fanget på 28nm og stået i stampe siden 2012. Det ændre sig endeligt for begge firmaer i år. Så derfor får de mulighed for at øge transister antallet og hastigheden i år. Dette er det første eksempel på 16nm GPU. Det er derfor nærmere et efterslæb, de endelig kan indhente end Moore's lov der kommer til udtryk.

3
7. april 2016 kl. 23:31

Moore's lov er bestemt ikke død for GPU'ere endnu.

Moore's lov er slet ikke død - den siger jo noget om væksten i transistordensiteten, ikke om sekventiel ydelse. Du kan også kigge på FPGA'er - de har typisk endnu flere transistorer. Det er Dennard-skalering der døde omkring 2006, men selvom det gjorde en brat ende på det sekventielle eventyr, så har det ikke den store effekt hvis man holder frekvensen nede.

Jeg ved ikke helt hvorfor NVIDIA har skruet så meget op for frekvensen i denne omgang.

2
7. april 2016 kl. 17:07

Det mest vilde synes jeg er at den rent ud har ca. dobbelt så mange transistorer (over 15 milliarder) som den forrige topmodel og samtidigt øger clockfrekvensen 20%.

Moore's lov er bestemt ikke død for GPU'ere endnu.

1
7. april 2016 kl. 15:37

Denne DGX-1 kan yde 170 tera-FLOPS og bruger kun 3.2kW i strøm. Det er ret billig regnekraft, i hvert fald hvad angår strøm. De hundrede tusinde dollar selve maskinen koster er lidt uden for mit budget. Jeg gad nok vide hvornår denne GPU-arkitektur bliver manifesteret i nogle forbrugerprodukter der er til at betale.