Se liste med uretfærdig, manipulerende eller overvågende kunstig intelligens
Kunstig intelligens er fremtiden. Det er et fast mantra i teknologiindustrien, og der er måske noget om snakken. Fra Siri til Deepmind til identifikation af lungekræft. Kunstig intelligens dukker op i mange facetter af vores liv.
Men det er ikke altid en positiv ting, mener David Dao, ph.d.-studerende ved ETH Zurich DS3Lab og forfatter til listen Awful AI.
Listen er en oversigt over forskellige måder, AI bliver brugt negativt på. Den indeholder alt fra billedtagging-algoritmer, der identificerer billeder af sorte mennesker som gorillaer til Cambridge Analyticas valgmanipulation til overvågningssystemer, der kan identificere dig ud fra din gangart.
Det alle listens elementer har til fælles er, at de på den ene eller den anden måde er uretfærdige, manipulerende eller overvågende.
For meget hype
David Dao har forsket i AI siden 2011, og det var som en del af industrien, han først bemærkede, at kunstig intelligens blev ekstremt hyped.
»Kunstig intelligens er en ny måde at programmere på, og som alle teknologier i tidlige stadier, er den fejlbehæftet. Den er let at angribe, har bias, er urimelig og uigennemsigt,« skriver han i en e-mail til Version2.
»Det er en holdning de deler i det videnskabelige community. En af mine venner, som arbejder hos Google, sagde engang til mig: Hvis du vidste det, jeg ved om kunstig intelligens, ville du ikke kunne sove om natten.«
Ifølge David Dao er industrien blevet fanget i så meget hype, at kunstig intelligens bliver anset som en universel løsning på alle problemer. Han lavede Awful AI-listen for at skabe opmærksomhed blandt udviklere og ingeniører om bagsiden af AI-medaljen.
Et værktøj på godt og ondt
Selv om listen indeholder mange eksempler på, hvordan kunstig intelligens kan være skadeligt, mener David Dao ikke, at kunstig intelligens i sig selv er en negativ kraft.
»AI er et kraftfuldt værktøj. Det kan gøre utroligt positive ting i verden, som man fx kan se med Microsoft AI eller Googles AI for Social Good, men det kan også misbruges, og en af listens mål er at vise, at det sker lige nu.«
»Kunstig intelligens misbruges af individer, virksomheder og nationalstater på frygtelige måder!«
Demokratisering og modteknologi
De problemer David Dao skitserer er mangfoldige, og kommer sandsynligvis til at kræve flere forskellige løsninger. David Dao sætter selv fokus på to: demokratisering af teknologien via blockchain-teknologi og modteknologi, såkaldt ”contestational technology”.
I den sidste kategori findes blandt andet ad-blockers, software som gør dig bevidst om de digitale spor du efterlader på internettet og andre browser-plug-ins, som identificerer tvivlsomme links eller isolerer Facebook-aktivitet fra andre hjemmesider, så Facebook ikke kan spore din aktivitet på andre hjemmesider.
Demokratiseringen er mere kompliceret. David Dao håber på, at hvis man kan sørge for, at den mest avancerede AI-research er skrevet med indbygget privatlivsbeskyttelse, kan det blive mindre attraktivt at producere sin egen, privatlivskrænkende AI.
»Fra et teknologiperspektiv tror jeg at decentralisering hjælper. AI-viden og -udvikling skal deles frit, så de bedste AI-modeller ikke ejes af nogen, men bliver delt mellem alle individer.«
»Når den bedste AI-forskning kun er offentligt tilgængeligt, med privatlivsbeskyttelse bagt ind i kernen, ville lande have incitament til at samarbejde.«
David Dao arbejder selv på at skrive decentraliseret AI, så det kan frigøres fra de store teknologivirksomheders greb, blandt andet gennem projektet Kara, som gør maskinlæringsdata tilgængelige for medicinalforskere, uden at bryde patienternes privatliv.

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.