Når CPU, GPU og FPGA ikke er nok: Specialbyggede chips skal sætte fart på maskinlæring

1 kommentar.  Hop til debatten
Chips, der er særligt designet til maskinlæringsalgoritmer, er det seneste bud på, hvordan applikationer baseret på machine learning kan afvikles effektivt.
6. december 2016 kl. 15:39
errorÆldre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Machine learning er beregningstungt, og flere af de mest anvendte algoritmer udnytter ikke en konventionel x86-processor særlig effektivt. Derfor er GPU'er og FPGA'er, der er mere specialiserede med gode muligheder for parallelle beregninger, standard i større machine learning-miljøer. Men de er ikke nødvendigvis den mest effektive løsning.

En FPGA kan programmeres, så den optimeres til en bestemt type beregninger, men hvis man allerede ved, at processoren skal køre bestemte algoritmer, så kan en processor, der er født til formålet, måske være bedre.

Det mener blandt andet firmaet Graphcore, som ifølge The Next Platform arbejder på en processor, der er særligt designet til at håndtere grafer, snarere end heltal eller vektorer.

Flere machine learning-algoritmer involverer nogle datastrukturer og sandsynlighedsberegninger, der ikke får tilstrækkeligt ud af grafikprocessoren. Som regel står man med to forskellige beregningsproblemer, nemlig optræningen af sin model og anvendelsen af modellen på nye data. Især den sidste del kan der være en fidus i at optimere på chipniveau, hvis modellen skal anvendes på enorm skala.

Artiklen fortsætter efter annoncen

Det er eksempelvis tilfældet hos Google, som ifølge The Next Platform også arbejder på en specialiseret processor til at understøtte selskabets machine learning-framework Tensorflow.

Men også Facebook, IBM og en række andre selskaber arbejder på processorer, der er særligt optimerede til visse machine learning-formål.

1 kommentar.  Hop til debatten
Debatten
Log ind for at deltage i debatten.
settingsDebatindstillinger
1
7. december 2016 kl. 09:31

Øhh ja, og hedder et sådant design ikke en ASIC og har da vist gjort det i mange år?!