Nvidias Tesla-GPU leverer 5,3 teraflops til kunstig intelligens

Nvidias nye Tesla P100 grafikprocessor er beregnet til at afvikle maskinlæringsalgoritmer lynhurtigt.

Otte styks af Nvidias nye Tesla-processorer kan levere samme regnekraft til oplæring af deep learning-algoritmen AlexNet som 250 servere med hver to almindelige processorer. Det hævder i hvert fald Nvidia selv i forbindelse med lanceringen af den nye processor.

Tesla P100 bygger på samme teknologi som Nvidias grafikkort og de deraf afledte processorer til high performance computing, HPC, men er betydeligt kraftigere end tidligere takket være både fremskridt i både fremstillingsprocessen og arkitekturen.

Målgruppen for den nye chip er ikke spilentusiaster, men derimod forskere og andre, som har behov for den regnekraft til visse typer algoritmer, som processoren kan levere. Nvidia har indbygget instruktionssæt til understøttelse af visse typer machine learning inden for deep learning ind i Tesla P100.

Nvidia har samtidig med lanceringen også introduceret selskabets egen computer, der benytter otte af de nye processorer, DGX-1. Også her er målgruppen dem, der arbejder med maskinlæring.

Hver af de nye Tesla P100-processorer kan levere 5,3 teraflops i double precision kommatalsberegninger eller 21,1 teraflops i half precision-beregninger.

Ud over Nvidias egen computer baseret på den nye processor, har blandt andre IBM også implementeret Nvidias NVLink-interconnect i Power 8-arkitekturen.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (9)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Troels Henriksen

Denne DGX-1 kan yde 170 tera-FLOPS og bruger kun 3.2kW i strøm. Det er ret billig regnekraft, i hvert fald hvad angår strøm. De hundrede tusinde dollar selve maskinen koster er lidt uden for mit budget. Jeg gad nok vide hvornår denne GPU-arkitektur bliver manifesteret i nogle forbrugerprodukter der er til at betale.

  • 0
  • 0
Troels Henriksen

Moore's lov er bestemt ikke død for GPU'ere endnu.

Moore's lov er slet ikke død - den siger jo noget om væksten i transistordensiteten, ikke om sekventiel ydelse. Du kan også kigge på FPGA'er - de har typisk endnu flere transistorer. Det er Dennard-skalering der døde omkring 2006, men selvom det gjorde en brat ende på det sekventielle eventyr, så har det ikke den store effekt hvis man holder frekvensen nede.

Jeg ved ikke helt hvorfor NVIDIA har skruet så meget op for frekvensen i denne omgang.

  • 1
  • 0
Palle Meinert

AMD og Nvidea har været fanget på 28nm og stået i stampe siden 2012. Det ændre sig endeligt for begge firmaer i år. Så derfor får de mulighed for at øge transister antallet og hastigheden i år. Dette er det første eksempel på 16nm GPU. Det er derfor nærmere et efterslæb, de endelig kan indhente end Moore's lov der kommer til udtryk.

  • 1
  • 0
Thomas Arthur Nielsen

Prøv at læse denne artikel, før vi jubler over x antal nanometer, der er så mange etiske og menneskelige problemer som vi bare lader de store firmaer om at lave til forretning. Jeg spørger bare om vi er klar til at forsvare os, mod en AI som vi selv har skabt.
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html

PS. Jeg producerede en tesla maskine for et par år siden, til sølle 28K, med en teraflop. Hold da op så går det stærkt med beregninger og renderinger.

  • 1
  • 4
Lars Lundin

Da Nvidia Tesla egner sig til AI, som kommer til at spille en voksende rolle ifbm. selvkørende biler og da Tesla Motors allerede anvender Nvidia Tegra, så forventer jeg fremover at komme til at læse om kombinationen af (Nvidia) Tesla og Tesla (Motors). :-)

  • 0
  • 0
Henrik Mikael Kristensen

Prøv at læse denne artikel, før vi jubler over x antal nanometer, der er så mange etiske og menneskelige problemer som vi bare lader de store firmaer om at lave til forretning. Jeg spørger bare om vi er klar til at forsvare os, mod en AI som vi selv har skabt.
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html

Deep learning er ikke kunstig intelligens mere end, at det er meget sofistikeret mønstergenkendelse. Deep learning er ikke egnet til at bygge systemer der kan planlægge og ræsonnere som en menneskehjerne, da de kun arbejder i snævre problemer, hvor mennesker arbejder bredt med alle mulige problemer.

Der sker til gengæld også en masse indenfor dette felt, som er lidt uhyggeligt på dette område. F.eks. bliver det muligt for en maskine at lave opdigtede billeder og lyde, eller bare data der kan bruges til meget overbevisende forfalskninger.

Men på den anden side kan man også lave voldsomme kompressionsalgoritmer, der fungerer på samme måde som menneskets syn gør.

Det bliver også den måde fremtidens robotter kommer til at bevæge sig på, gennem intens indlæring og meget mere abstrakt programmering, i stedet for programmering af hvert enkelt bevægelse.

  • 2
  • 0
Patrick Moog

Endnu en gang er det gået galt for et teknisk ord der går mainstream.
Problemet er at med ordet AI tænker vi Matrix, Terminator eller Ex Machina.
Mens, der vi i virkeligheden står er knap et skridt længere end en kaffemaskine der selv tænder kl 7. på hverdage.
Jeg mener, at vinde i Go og Jeopardy er bestemt fantastisk godt gået! Men jeg er stadig ret overbevist om at der er kortere ned til hulmaskinen end op til en maskine med selverkendelse...

  • 1
  • 1
Log ind eller Opret konto for at kommentere