Google tager specialudviklet 180 teraflops processor i brug til machine learning i skyen
Oplæring af machine learning-modeller kan være ekstremt beregningstungt på modeller for store datasæt, og til tider er det endda ikke tilstrækkeligt at benytte grafikprocessorer for ekstra regnekraft. Det mener i hvert fald Google, som nu har tilføjet en specialbygget processor til selskabets cloud, der er optimeret til Googles Tensorflow-framework.
Google har selv tidligere brugt den specialbyggede processor, men nu bliver den næste videreudvikling altså tilgængelig som en del af Google Compute Engine, hvor man vil kunne købe kapacitet på Tensor Processing Units (TPU), ligesom det er muligt at blande dem med almindelige processorer og grafikprocessorer, oplyser Google i et blogindlæg.
Ifølge Google har hver af disse TPU'er en regnekraft svarende til 180 teraflops, og de er samlet i 'pods', der til sammen har en regnekraft på 11,5 petaflops. Det er i princippet nok til at være i top 10 for supercomputere, men tallene for en TPU eller GPU er ikke direkte sammenlignelig med den generelle kapacitet for en ægte supercomputer.
TPU’erne optimeret Tensorflow-framework
TPU'erne er optimeret til oplæring af machine learning-algoritmer og specifikt Googles eget Tensorflow-framework.
At der er forskel på regnekraften ved denne type specialiserede processorer og en supercomputer afspejler sig blandt andet i, at Googles næste skridt er at opdatere infrastrukturen i selskabets cloud-datacentre for at storage og netværk kan følge med.
De kraftige, specialiserede processorer skal fodres med store datasæt, og Googles plan med TPU'erne er, at de skal gøre det muligt at oplære machine learning-modeller hurtigt på meget store sæt af produktionsdata.
