Machine learning er beregningstungt, og flere af de mest anvendte algoritmer udnytter ikke en konventionel x86-processor særlig effektivt. Derfor er GPU'er og FPGA'er, der er mere specialiserede med gode muligheder for parallelle beregninger, standard i større machine learning-miljøer. Men de er ikke nødvendigvis den mest effektive løsning.
En FPGA kan programmeres, så den optimeres til en bestemt type beregninger, men hvis man allerede ved, at processoren skal køre bestemte algoritmer, så kan en processor, der er født til formålet, måske være bedre.
Det mener blandt andet firmaet Graphcore, som ifølge The Next Platform arbejder på en processor, der er særligt designet til at håndtere grafer, snarere end heltal eller vektorer.
Flere machine learning-algoritmer involverer nogle datastrukturer og sandsynlighedsberegninger, der ikke får tilstrækkeligt ud af grafikprocessoren. Som regel står man med to forskellige beregningsproblemer, nemlig optræningen af sin model og anvendelsen af modellen på nye data. Især den sidste del kan der være en fidus i at optimere på chipniveau, hvis modellen skal anvendes på enorm skala.
Det er eksempelvis tilfældet hos Google, som ifølge The Next Platform også arbejder på en specialiseret processor til at understøtte selskabets machine learning-framework Tensorflow.
Men også Facebook, IBM og en række andre selskaber arbejder på processorer, der er særligt optimerede til visse machine learning-formål.

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.