Neurolog og AI-professor: Sådan undgår vi at lave onde algoritmer

robot automatisering robotics RPA
Hvis vi følger tre retningslinjer for, hvordan algoritmer skal opføre sig overfor mennesker, er chancen for, at AI ender med at skade os mindre, lyder det fra AI-professor.

Algoritmerne sniger sig ind alle steder.

Og selvom det endnu ikke er lykkedes os som videnssamfund at skabe kunstig intelligens som sådan, er der allerede algoritmer rundt omkring, der varetager en række helt specifikke opgaver.

Derfor mener professor i Computer Science ved University of California Stuart Russell, som også er adjunkt professor i neurologisk kirurgi, at vi skal forholde os kritisk til, hvordan vi instruerer vores algoritmer til at udføre de forholdsvis simple opgaver, vi beder dem om i dag.

Læs også: Lektor: Fremtidens kryptovaluta er anonym og har kighul til politiet

I en TED-talk beskriver han, hvordan man meget nemt kan komme galt af sted med at være for specifik i sin opgavedefinition.

»Tag for eksempel en simpel kaffehenter-robot. ‘Hent kaffe’, lyder dens opgave. Hvis man ikke programmerer den med andre underliggende opgaver for øje, så risikerer man, at den springer over i kaffekøen eller det, der er værre for at opfylde dens hovedformål bedst og hurtigst muligt,« fortæller Stuart Russell.

»Når nogle forsøger at slukke den, så slår den sin kontakt fra, for man kan ikke hente kaffe, når man er død. Det ved en målrettet robot, så den holder sig selv i live for enhver pris.«

Læs også: Pseudokode kan være det sværeste programmeringssprog at mestre

Han bruger desuden det antikke eksempel med Kong Midas for at understrege sin pointe.

»Kong Midas bad ifølge sagnet om, at alt han rørte måtte blive til guld. Det blev det, og han døde af sult og i dyb ensomhed. Vi skal virkelig tænke over, hvad vi spørger AI om hjælp til, samt hvordan vi spørger.«

Tre regler

Ifølge professoren er der derfor tre regler, man skal forsøge at trække ned over en AI eller en algoritme, der skal træffe beslutninger, der har med mennesker at gøre.

Læs også: Ny Kali Linux tæmmer skyens GPU-kræfter - er dit kodeord stærkt nok?

»Den første regel er, at den skal gøre, hvad den kan for, at menneskene den kommer i berøring med har det godt. Dermed fjerner man muligheden for, at den skader mennesker for at holde sig selv i live eller for at udføre den snævre opgave,« forklarer Stuart Rusell. Ifølge professoren skal dette faktisk sættes over robottens eller algoritmens hovedformål.

»Derudover skal den være ydmyg. Den skal vide, at kaffen ikke er noget værd, hvis andre kommer noget til skade, og hvis den bliver i tvivl om, hvorvidt der sker noget rigtigt eller forkert, skal den tøve.«

Til sidst forklarer Stuart Rusell - og dette er klart den største udfordring både i forhold til algoritmer og en overordnet AI - at robotten skal vide, hvad der er rigtigt og forkert. I bedste fald skal den selv lære det ved at betragte mennesker eller gennemgå data om mennesker.

Læs også: Forskere snyder Googles videogenkendelse til at se, hvad de ønsker

Dette sidste, tredje punkt handler om at informere robotten eller algoritmen om alt det uden om dens opgave. Man skal lære den om køkultur, om at betale for kaffen. Det er også klart det sværeste, for alle mennesker er forskellige, og derudover skal der også tages hensyn til samfundets bedste, fortæller Stuart Rusell.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk

Følg forløbet

Kommentarer (3)

Torben Mogensen Blogger

Det lyder lidt som en variant af disse:

  1. En robot må ikke gøre et menneske fortræd, eller, ved ikke at gøre noget, lade et menneske komme til skade.

  2. En robot skal adlyde ordrer givet af mennesker, så længe disse ikke er i konflikt med første lov.

  3. En robot skal beskytte sin egen eksistens, så længe dette ikke er i konflikt med første eller anden lov.

Det er kun den tredje lov, der ikke direkte er dækket af Russels regler. Til gengæld har den noget vævende om rigtigt og forkert, som ikke er konkret nok til at kunne bruges. Og forslaget om at observere mennesker for at finde ud af, hvad der er rigtigt eller forkert opførsel kan ende med at gå direkte imod formålet.

Torben Mogensen Blogger

Rækkefølgen af Asimovs love er faktisk super vigtig :-)

https://xkcd.com/1613/

Faktisk er rækkefølge to (1, 3, 2) hvad vi forventer af mennesker: De behøver ikke at adlyde ordrer, hvis det skader andre mennesker eller dem selv. xkcd kalder det en frustrerende verden, men hvis AI'en er selvbevidst, vil det være ondskabsfuldt at bede den om at ødelægge sig selv. Så faktisk er den rækkefølge at foretrække for selvbevidste AI'er. Også for meget dyre maskiner: Hvis enhver kan beordre en maskine til at gøre skade på sig selv, og de med sikkerhed adlyder, så kan det gå hen og blive dyrt.

Det er et større problem, at lovene er meget absolutte: Konsekvenserne af en handling kan ikke altid forudsiges, kun sandsynliggøres. Hvis et menneske udfører en handling, der der medfører en lille risiko for skade, så er det robottens pligt at hindre mennesket i at udføre denne handling (så længe dette kan gøres uden at skade nogle mennesker). Det er grundlæggende problemet i filmen I Robot: Den store AI beslutter at hindre mennesker i at gøre noget som helst, fordi enhver handling de kan tage, kan skade dem. Der er også blandet lidt ind om individer kontra samfund for at give AI'en en undskyldning for rent faktisk at skade individuelle mennesker, der forsøger at hindre dens plan, men det er ikke relevant for problemet med lovenes absolutte karakter.

Log ind eller opret en konto for at skrive kommentarer

Pressemeddelelser

Affecto Denmark reaches highest Microsoft Partner level

Affecto Denmark, a leading provider of data-driven solutions, has reached the highest level in the Microsoft partner ecosystem: Managed Partner.
22. jun 2017

Innovate your business with Affecto's IoT Explorer Kit

Are you unsure if Internet of Things fits your business strategy?
31. maj 2017

Big Data Lake Summit: Fast and Trusted Insights

If you want to outpace, outsmart and outperform your competition in a digital world, you need trusted data that can be turned into actionable business insights at speed.
24. apr 2017