Professor: Udviklere og ingeniører lades i stikken i debat om AI-etik

29. december 2021 kl. 03:458
Professor: Udviklere og ingeniører lades i stikken i debat om AI-etik
Illustration: ITU.
Der er stadig store problemer med etikken i AI-udvikling. Men svaret er ikke, at ingeniører skal være bedre mennesker, mener professor.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Et stort, internationalt forskningshold satte sig for nyligt for at undersøge et nagende spørgsmål: Hvorfor fungerer nogle medicinske AI-systemer dårligere for grupper med en bestemt etnisk herkomst end andre, når der ikke er nogen kendt korrelation mellem den information, der er tilgængelig i de medicinske billeder, og en persons oprindelse?

Log ind og læs videre
Du kan læse indholdet og deltage i debatten ved at logge ind eller oprette dig som ny bruger, helt gratis.
8 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
8
7. januar 2022 kl. 12:00

At der er forskel på mennesker, er ikke nyt, at det meste forskning er udført af hvide mænd, er heller ikke nyt, at medicin produkter hovedsageligt er testet på unge hvide mænd, kom lidt bag på en engelsk forsker, for ca. 5 år siden, da hun ville vide hvorfor smertestillende medicin blev solgt i lige de doser, som de nu kom i. Hendes forskning viste nemlig, at doserne passede meget præcist på, hvad en ung hvis mand, havde behov for, men ikke på kvinder, og andre etniske grupper.

Så er det kun skidt, at AI opdager, at der er forskel på mennesker, selvom den forskel er tabu? En Asiat på 45kg har næppe brug for samme mængde medicin, som en hvid på 110kg, måske de endda har brug for forskellig medicin, fordi der er mere end en forskel på dem.

6
2. januar 2022 kl. 16:34

It's turtles all they way down.

Men kommentar #1 er det første sted ML nævnes, selvom man godt kan formode at artiklen mener ML, når den skriver AI.

Vi så de første AI-systemer (i betydningen "ekspertsystemer") for 30+ år siden. Dengang var der ikke meget ML involveret i commercielle systemer. Det meste var binære valg eller relativt små værdisæt, ML kommer ind i billedet med større værdi- og datasæt, samt muligheden for at behandle disse.

AI har været misbrugt i forbindelse med meget simple logiske valg fx i spil. At AI nu også bruges om ML er en følge af udviklingen og ikke nødvendigvis misbrug af termen, men klassisk AI kunne (i princippet) altid gøre rede for hvordan et resultat blev nået. Det er ofte ikke tilfældet med ML - endnu. Og for mange af os vil ML være "skildpadder hele vejen ned".

5
30. december 2021 kl. 10:42

Eksempelvis kunne det være at folk med oprindelse i Mellemøsten har en større tendens til en kræftform i forhold til en anden.

Den kunne så være genetisk, hvilket i sig selv er lidt uha.

Og så kunne det være et udslag af en livsform, hvilket måske er mere tænkeligt, og endnu mere uha.

Bottom line er dog, at når man træner en AI algoritme, så bør man have et bredt etnisk udsnit med.

OG fortælle systemet detaljer som etnisk oprindelse, religion etc. for det betyder faktisk noget.

Man kan ikke på den ene side klage over at algoritmerne diskriminerer etniske grupper, og på den anden side kræve at disse ikke indgår i ligningen.

4
30. december 2021 kl. 09:00

Og når mennesker er involveret i beslutninger vikles problemer, statistik og svar ind i følelser, hvad enten du er ingeniør, læge, professor ... Det kan nok så megen lovgivning, etik eller politisk korrekthed ikke ændre.

3
30. december 2021 kl. 08:03

I øvrigt interessant at AI finder raceforskelle, jeg troede alle racer var "lige". Måske de etiske dilemmaer ligger i at AI ikke er politisk korrekt, og finder nogle ting som ikke burde kunne findes i følge den korrekte opfattelse.

Eller vi berøringsangst. Eksempelvis kunne det være at folk med oprindelse i Mellemøsten har en større tendens til en kræftform i forhold til en anden. Får vi en bedre behandling hvis det ikke tages med i betragtning?

2
29. december 2021 kl. 21:24

Emnet er både spændende og relevant, men jeg blev helt ærligt ikke klogere af at læse artiklen.

Altså det er ikke noget nyt, at vi som ingeniører påvirker vores omverden. Da jeg tilbage i 80'erne læste til ingeniør havde vi et fag som hed Teknologi og Samfund. Jeg har svært ved at se der kan være ret meget nyt, ud over at alt går meget hutigere i dag.

I øvrigt interessant at AI finder raceforskelle, jeg troede alle racer var "lige". Måske de etiske dilemmaer ligger i at AI ikke er politisk korrekt, og finder nogle ting som ikke burde kunne findes i følge den korrekte opfattelse.

1
29. december 2021 kl. 13:02

Men ofte bliver de oversolgt som magi, og det er bare statistik. Og statistik er blot evnen til at lave virkelig gode gæt. Du er aldrig sikker og der er altid en fejlmargin - så hvad er du villig til at lade være op til et gæt?

Shklovski har en vigtig pointe at AI og ML modeller "bare er statistik".

Men det er kunstigt at spørge om man er "villig til at lade det være op til et gæt".

For de områder man slipper modellerne løs på, er ikke f.eks. om der er åben fraktur på lårbenet eller ej.

Det er de områder hvor den menneskelige stillingtagen også er et gæt eller en vurdering. Det er problemstillinger uden deterministisk afgørbarhed.

I skak er det uden tvivl algoritmen man skal lytte til. Hævet over enhver tvivl.

Ved et væld af sociale myndigheders afgørelser, er det menneskers vurderinger man skal lytte til.

I feltet mellem de to yderpoler, er der muligheder og faldgruber.

I så skal man skelne imellem algoritmisk beslutningstagen, statistisk assisteret begrundelse og statistisk assisteret rankering.

Og så er der lige den landmine, at det naturlige sprog alle benytter både til at tale om etik og evidens, i sig selv er en statistisk model, som knytter ord til tilstrækkeligt ensartede mønstre, som virkeligheden viser os.