Amazon, Baidu, Facebook, Google og Microsoft er blandt virksomheder, der har investeret heftigt i kunstig intelligens og relaterede teknologier som machine learning, fordi teknologierne har et stort potentiale for at blive vigtige indtægtskilder. Det skriver The Register.
Rådgivningsfirmaet Accenture var tidligere på ugen ude med en begejstret forudsigelse om, at kunstig intelligens kan fordoble de årlige vækstrater i 2035 og samtidig højne arbejdseffektiviteten med 40 procent.
Dagen efter annoncerede Accenture, at de havde indgået et partnerskab med Google om at hjælpe andre virksomheder med at implementere Googles machine learning-teknologi.
Men machine learning-algoritmerne er tilsyneladende ikke sikre og kan manipuleres.
I et dokument, der blev præsenteret i august på Usenix Security Symposiums 25-års jubilæum, fremgår det, at forskere fra École Polytechnique Fédérale de Lausanne, Cornell University samt University of North Carolina at Chapel Hill har vist, at modellerne i machine learning kan stjæles, samt at sikkerhedsmodellerne ikke er i stand til at afbøde angreb.
For eksempel kan machine learning fodres med billeddata for derefter at returnere svar på, hvad billedet indeholder. Og det med stigende præcision.
Men netop fordi modellerne tillader input, kan de også manipuleres. Ud over at manipulation af machine learning-systemerne kan bruges til krænkelse af privatlivet, fremgår det ikke tydeligt, hvad formålet ved at angribe systemerne kan være.
Denne manipulation kan ske ved hjælp af reverse engineering. Forskerne testede deres angreb på modellerne med succes på BigML og Amazons machine learning-systemer.
Svært at gøre noget ved
I en mail skriver Ari Juels, der er medforfatter på dokumentet, at det er meget vanskeligt at etablere barriere mod manipulation af modellerne. Måske er det muligt, men det stadig er et åbent forskningsspørgsmål.
Han vurderer, at modellerne skal være langt mere komplekse, hvis ikke modellernes funktionalitet skal kunne nedbrydes med de løsninger, der er tilgængelige.
I løbet af de senere år er mange machine learning-modeller blevet frigivet som open source-software, fordi virksomhederne, der udvikler modellerne, gerne vil have brugerne til at hjælpe med at udvikle koden.
Omvendt er der mange modeller, der er baseret på fortrolighed. Firmaer som BigML og Google tillader eksempelvis modeldesignere at tage et gebyr for, at andre benytter sig af deres modeller, hvilket går ud over de firmaer, der sætter dagsordenen for kunstig intelligens.

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.