Gæstebloggen

Etiske intentioner er ikke nok ved kunstig intelligens

Etisk kunstig intelligens opnås ikke med udvalg, politik og samtale. Det er alt sammen fine intentioner, men for at lykkes kræver det dybe tekniske kompetencer og en stærk sammenkobling til forretningen.

Troels A. Jacobsen er uddannet civilingeniør fra DTU inden for fysik og nanoteknologi. Til daglig rådgiver Troels virksomheder hos Accenture inden for teknologistrategi samt enterprise arkitektur, og så er han ansvarlig for Accentures danske afdeling for teknologistrategi. Illustration: Accenture

Når regeringen i marts nedsatte et dataetisk udvalg, så er det kulminationen på meget polemik i medierne over det sidste års tid. Og det er såmænd rigtig fornuftigt.

Udfordringen er dog, at samtale ikke løser den etiske udfordring ved at anvende kunstig intelligens. Etiske intentioner kan bære os et stykke ad vejen, men for at føre intentionerne ud i virkeligheden kræver det hardcore teknisk indsigt og udvikling.

En undersøgelse udarbejdet af Forbes Insights for Accenture viser, at de virksomheder, der er længst fremme inden for kunstig intelligens, har fokus på etik.

92 pct. af dem, der er længst fremme træner aktivt deres ansatte i etik, har etiske udvalg og evaluerer deres indsatser ud fra etiske overvejelser.

Danske virksomheder er dog typisk ikke så langt endnu, men det kommer helt sikkert med den voksende anvendelse af kunstig intelligens.

Lige nu er vi på et niveau i Danmark, hvor kunstig intelligens stadig primært anvendes i chatrobotter, kundeservice samt simpel procesoptimering. Her er etik ikke en stor udfordring.

Den virkelige udfordring kommer, når vi begynder at anvende kompleks teknologi og machine learning.

Vi taler helt andre processer end fx simpel kundeservice. Hvis du fx i en bank gør brug af kunstig intelligens til at vurdere, hvem der må låne penge, og hvem der ikke må.

Så kræver det foruden veldefinerede processer for, hvad der kvalificerer til et lån, og hvad der ikke gør, også et løbende datareview af afgørelserne. Den kunstige intelligens kan nemlig opbygge en forudindtagethed baseret på de data, som den bliver fodret med.

Udfordringen ved kompleks teknologi og kunstig intelligens er, at man ikke umiddelbart kan forklare, hvorfor den kunstige intelligens vælger at gøre, som den gør.

Du er nødt til at have et ekstra lag teknologi, der kan hjælpe med at redegøre for beslutningsprocessen. Det bliver tvingende nødvendigt fremadrettet – ikke kun fordi det er det rigtige at gøre, men blandt andet også som følge af GDPR og krav om transparens fra bestyrelser, ledelsesgrupper og forbrugere.

Det er teknologi, som blandt andet Danske Bank allerede har implementeret for at kunne forklare, hvorfor de blokerer bestemte kreditkort-transaktioner.

Et meget konkret eksempel, som har været debatteret i USA, er risikovurderings-algoritmer, som er en slags kunstig intelligens, der hjælper retssystemet i USA med at vurdere sandsynligheden for, om en person, der tidligere er dømt, begår en ny kriminel handling.

Tanken er, at dommerne i retsvæsnet bruger vurderingen fra algoritmen til fx at beslutte, om den tiltalte skal holdes fængslet inden en retssag, hvilke typer rehabiliteringsydelser tiltalte skal tilbydes, og hvor hård en dom tiltalte skal have.

Udfordringen er, at algoritmen beviseligt flere gange har givet racistiske vurderinger – uden hold i virkeligheden. Så, hvad der startede som en god intention for at effektivisere og forhindre forudindtagethed, endte med præcis det modsatte. På trods af de gode intentioner.

Indtil videre kun et løfte

Der er mange positive initiativer omkring etik, men ingen har virkelig svaret på etik i kunstig intelligens endnu. For eksempel har jeg set mange, også gode, etiske retningslinjer målrettet kunstig intelligens.

De er dog mere som den hippokratiske ed, læger aflægger med lægeløftet, men hvor man efterfølgende ikke har adgang til patientjournaler for at forstå, hvad lægen helt specifikt har gjort. Der er brug for noget væsentlig mere specifikt og teknisk end blot en etisk ed.

Og det er den retning, vi skal bevæge os i. Det kræver tunge specialister og efteruddannelse, så de ansatte bedre forstår muligheder og udfordringer ved kunstig intelligens. Og så kræver det ikke mindst dybdegående reviews af de anbefalinger, som den kunstige intelligens kommer frem til.

Vi har indtil videre alle de rigtige og gode intentioner, og regeringens dataetiske udvalg er afgjort et godt skridt på vores rejse mod etisk kunstig intelligens.

Men jeg opfordrer til, at vi i fællesskab erkender, at etisk kunstig intelligens på ingen måde kommer i mål drevet af gode intentioner alene. Lad os sætte mere fokus på den datatekniske dialog, få flere AI-eksperter ind i organisationerne og ikke mindst uddanne de rette eksperter, der både kan tale ind i den tekniske og den forretningsmæssige dialog.

Kommentarer (4)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Bjarne Nielsen

Overraskende apropos forekommer søndagens Aflyttet på Radio 24/7:

https://www.24syv.dk/programmer/aflyttet/52285392/det-digitale-diktatur?...

Her diskuteres det, hvordan teknikken gør et i forvejen skævt magtforhold endnu mere skævt; hvordan vi som mennesker i et hastigt accelerende tempo bliver mere og mere transparente, mens staten og virksomheder bliver mere og mere ugennemsigtige.

Og omfordelingen af magt sælges som effektivisering og bekvemmelighed (og tryghed, vil jeg tilføje for egen regning, for forudsigelighed og tryghed er nært forbundne, og tryghed er et helt grundlæggende behov).

Men kan omfordeling af magt til de allerede magtfulde nogensinde være etisk? Her hjælper det ikke noget, at den magtfulde tvinges til at (bort-)forklare sine bevæggrunde, hvis magtforholdet gør, at det ikke gør nogen forskel.

Det virker mest af alt som en sminket gris, og trods parfumen, så lugter det altså stadig af gris!

  • 8
  • 0
Jakob Skov

Det vil være tidskrævende at nå til et punkt hvor de avancerede teknikker retmæssigt kan anvendes på persondata som sådan. For det første ville jeg foretrække at man laver mytteri imod den retning digitaliseringsstyrelsens officielle 2016-2020 plan "Bedre brug og deling af data" tolkes. Planen kommer før det der skal ligge til grund herfor er tilstrækkeligt belyst, hvorfor "dataetisk udvalg" er blevet en del af retningen.

For det første, i stedet for at samle alt i en enkelt overordnet datasilo så man kan bruge den til at smadre siloerne i det eksisterende system, ville en mere proper måde være at lave det enorme overblik man forsøger at omgå. I anledning af GDPR kunne en gennemgribende undersøgelse af hvor data hentes fra og hvor de går hen i alle offentlige instanser gøre det lettere at se hvor de lette og ufarlige optimeringsmuligheder er, så man bilateralt mellem siloerne bedre kan udnytte muligheder (Det vil "desværre" mest være kommunale muligheder og i mindre omfang staten og regionerne). Lav i samme ombæring en "API-strategi", så man i første omgang kan sikre at data har ens formateringer og samarbejd med dansk statistik om at ensarte hvordan tallene fremkommer. Det vil tage lang tid og mange svenske regnskove, men jeg er sikker på at der i længden vil være nok føde mellem kommunal og kommunal endsige kommunal og statslig myndighed til at skabe et godt udgangspunkt for rigtig mange store fordele. En "dataenes grudlov" vil også kunne gøres betydeligt lettere at udforme, så IT-folk, læger og forskere i mindre grad sidder med de overordnede komplekse spørgsmål om proportionalitet i deres dagligdag!

For det andet, er hverken subjekter eller forskere/udviklere tjent med at samtykke-indhentning ved registerforskning ikke er "proportionalt". Samtykke har været en hjørnesten i den menneskelige forskning, ihf. siden anden verdenskrig og man må sige at tidligere fravigelser netop viser hvorfor det er nødvendigt. Idag styres alt brug udfra videnskabsetiske vurderinger og pålægger nogen betydelige krav efter modtagelse af data! På den anden side arbejder nogen med at lave styringsværktøjer for den enkelte, så det vil være muligt at tage mere specifikt stilling til hvad man vil tillade af anvendelse af data og hvad man ikke vil. Det vil i sig selv stille alle uendeligt meget bedre fremover, hvis man kan udforme en sådan løsning og eventuelt tage diskussionerne om kategoriseringer, defaults og tidsperspektiver derudfra. Det kan også give muligheder for at løsne lidt på de videnskabsetiske krav da noget herefter overlades til subjektet!

Selv efter disse omvæltninger vil der være nogen betragtelige pædagogiske, etiske og ligerets-udfordringer ved de avancerede værktøjer, afhængigt af projektet og udgangsdataene.
Jeg er sikker på at jeres medarbejdere er rigtig dygtige og meget bevidste om de grundlæggende problemstillinger, men som du selv gør opmærksom på skal de udvikles til at mitigere nogen af disse problemer i værktøjerne så de på sigt bliver mere acceptable. Men idet vi mangler fundamentet, er det svært at bygge bygningen!

  • 1
  • 0
Jens Madsen

Når mennesker tager en beslutning, kan vi altid spørge hvorfor, og få et svar. Der er altid krav til dokumentation om hvorfor, og vi har ret til, at få svar. Hvis der ikke kan gives en begrundelse, er der noget der tyder på, at afgørelsen er taget på baggrund af racisme, religion, eller social status.

Kunstig intelligens må ikke medføre, at vi ikke mere kan få forklaring af årsagen til afgørelser.

Og vi skal altid have lov til, at kunne anke en afgørelse.

  • 0
  • 0
Log ind eller Opret konto for at kommentere
IT Company Rank
maximize minimize