Kunstig intelligens kan være med til at modarbejde mobning og sexchikane på arbejdspladsen.
Det amerikanske selskab NexLP har hos 50 forskellige selskaber implementeret bots, som skal være i stand til at få øje på mobning og sexchikane i arbejdspladsens e-mails, chatbeskeder og dokumenter.
Det skriver Theguardian.com.
Botten, der går under navnet '#MeTooBot', analyserer forskellige indikatorer i kollegaers interne chatbeskeder, e-mails og dokumenter, der kan virke chikanerende eller krænkende over for modtageren – eksempelvis en seksuelt ladet chatbesked.
Hvis chatbotten konkluderer, at en person eksempelvis har sendt en besked med seksuelt uønsket og ubehageligt indhold til en kollega, kan botten markere beskeden som chikanerende og sende den videre til den medarbejder i selskabet, der er ansvarlig for at håndtere denne type sager.
Til gengæld vil selskabet bag botten, NexLP, ikke afsløre, præcis hvilke faktorer der alarmerer botten om den asociale adfærd.
Subtil mobning
Både NexLP og eksperter ser problemer i, hvor subtil mobning og chikane kan være, både i forhold til diversiteten i sproget og i forhold til, hvor mange former chikane kan antage.
Det kan eksempelvis være svært for en bot at identificere et billede af en kønsdel, eller hvis en medarbejder anvender slang og emojis til at chikanere en medarbejder.
Ligeledes mener professor og underviser i kunstig intelligens på Harvard University Brian Subirana, at det kan være svært at beskytte fortroligheden i den data, som botten indsamler og sender videre til den medarbejder, der håndterer sådanne sager.
Ligeledes er Sam Smethers, administrerende direktør hos en interesseorganisationen for kvinders rettigheder kaldet Fawcett Society, bekymret for, hvad teknologien bliver brugt til i sidste ende:
»Vi vil følge med i, hvordan teknologien udvikles, hvem der står bag den, og om metoden bruges til at promovere en arbejdskultur uden chikane og med ligestilling, eller om det blot er endnu en måde, hvorpå man kan kontrollere sine ansatte på,« siger Sam Smethers til The Guardian.