Se liste med uretfærdig, manipulerende eller overvågende kunstig intelligens

13. november 2018 kl. 05:122
Se liste med uretfærdig, manipulerende eller overvågende kunstig intelligens
Illustration: Jakub Jirsak/Bigstock.
Awful AI – frygtelig kunstig intelligens – er en liste over uhyggelige måder, kunstig intelligens bruges på i dag. Forfatteren håber på at skabe opmærksomhed om misbrug af kunstig intelligens.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Kunstig intelligens er fremtiden. Det er et fast mantra i teknologiindustrien, og der er måske noget om snakken. Fra Siri til Deepmind til identifikation af lungekræft. Kunstig intelligens dukker op i mange facetter af vores liv.

Men det er ikke altid en positiv ting, mener David Dao, ph.d.-studerende ved ETH Zurich DS3Lab og forfatter til listen Awful AI.

Listen er en oversigt over forskellige måder, AI bliver brugt negativt på. Den indeholder alt fra billedtagging-algoritmer, der identificerer billeder af sorte mennesker som gorillaer til Cambridge Analyticas valgmanipulation til overvågningssystemer, der kan identificere dig ud fra din gangart.

Det alle listens elementer har til fælles er, at de på den ene eller den anden måde er uretfærdige, manipulerende eller overvågende.

For meget hype

David Dao har forsket i AI siden 2011, og det var som en del af industrien, han først bemærkede, at kunstig intelligens blev ekstremt hyped.

Artiklen fortsætter efter annoncen

»Kunstig intelligens er en ny måde at programmere på, og som alle teknologier i tidlige stadier, er den fejlbehæftet. Den er let at angribe, har bias, er urimelig og uigennemsigt,« skriver han i en e-mail til Version2.

»Det er en holdning de deler i det videnskabelige community. En af mine venner, som arbejder hos Google, sagde engang til mig: Hvis du vidste det, jeg ved om kunstig intelligens, ville du ikke kunne sove om natten.«

Ifølge David Dao er industrien blevet fanget i så meget hype, at kunstig intelligens bliver anset som en universel løsning på alle problemer. Han lavede Awful AI-listen for at skabe opmærksomhed blandt udviklere og ingeniører om bagsiden af AI-medaljen.

Et værktøj på godt og ondt

Selv om listen indeholder mange eksempler på, hvordan kunstig intelligens kan være skadeligt, mener David Dao ikke, at kunstig intelligens i sig selv er en negativ kraft.

Artiklen fortsætter efter annoncen

»AI er et kraftfuldt værktøj. Det kan gøre utroligt positive ting i verden, som man fx kan se med Microsoft AI eller Googles AI for Social Good, men det kan også misbruges, og en af listens mål er at vise, at det sker lige nu.«

»Kunstig intelligens misbruges af individer, virksomheder og nationalstater på frygtelige måder!«

Demokratisering og modteknologi

De problemer David Dao skitserer er mangfoldige, og kommer sandsynligvis til at kræve flere forskellige løsninger. David Dao sætter selv fokus på to: demokratisering af teknologien via blockchain-teknologi og modteknologi, såkaldt ”contestational technology”.

I den sidste kategori findes blandt andet ad-blockers, software som gør dig bevidst om de digitale spor du efterlader på internettet og andre browser-plug-ins, som identificerer tvivlsomme links eller isolerer Facebook-aktivitet fra andre hjemmesider, så Facebook ikke kan spore din aktivitet på andre hjemmesider.

Demokratiseringen er mere kompliceret. David Dao håber på, at hvis man kan sørge for, at den mest avancerede AI-research er skrevet med indbygget privatlivsbeskyttelse, kan det blive mindre attraktivt at producere sin egen, privatlivskrænkende AI.

»Fra et teknologiperspektiv tror jeg at decentralisering hjælper. AI-viden og -udvikling skal deles frit, så de bedste AI-modeller ikke ejes af nogen, men bliver delt mellem alle individer.«

»Når den bedste AI-forskning kun er offentligt tilgængeligt, med privatlivsbeskyttelse bagt ind i kernen, ville lande have incitament til at samarbejde.«

David Dao arbejder selv på at skrive decentraliseret AI, så det kan frigøres fra de store teknologivirksomheders greb, blandt andet gennem projektet Kara, som gør maskinlæringsdata tilgængelige for medicinalforskere, uden at bryde patienternes privatliv.

2 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
1
14. november 2018 kl. 23:22

En anden form for demokratisering kunne være et forbud mod AI patenter. Alle skal have ret til at bruge disse her teknikker uden at blive forfulgt af advokater.