Twitter indrømmer: Billedbeskæring med AI var diskriminerende

Illustration: Bigstock/Itakdalee
Det var korrekt, da en Twitter-bruger påpegede, at tjenestens algoritme til billedbeskæring foretrak hvide ansigter frem for sorte.

Twitter fik sidste år kritik, da en algoritme til at bestemme, hvordan billeder skal beskæres, viste sig at være mere tilbøjelig til at skære sorte personer fra, og lade hvide personer blive i billedet.

Twitter-brugeren @bascule testede den gang beskæring med et billede, der øverst har et portræt af den amerikanske senator Mitch McConnell, som er hvid, og nederst tidligere præsident Barack Obama.

Her valgte Twitters beskæring fotoet af den hvide senator. I et senere tweet skrev @bascule:

»Flere, der svarede på min tweet, har prøvet alle mulige grundige slags 'tweaks' for at få andre resultater. Det forbigår min originale pointe med mit eksperiment: Jeg prøvede bare at finde to nogenlunde ens udseende billeder og (hånden på hjertet) ville se hvad resultatet var.«

Et bestemt ‘tweak’ – nemlig at øge kontrasten på det ene billede – afslører problemet, mente Twitter-brugeren, som testede med to billeder af Barack Obama, hvor det ene har højere kontrast, og er mere sort:

»Algoritmen synes at foretrække en lysere Obama frem for en mørkere.«

Nu har selskabets egne interne undersøgelser sat tal på problemet, skriver vores søstermedie DataTech, der citerer Zdnet.

En rapport fra Twitter viser en forskel på 4 procent mellem hvide mennesker og sorte mennesker. Værre ser det ud mellem køn, hvor kvinder foretrækkes over mænd med en forskel på 7 procent. Til gengæld fandt undersøgelsen ikke tegn på, at modellen foretrækker bestemte kropsdele, når billeder skal beskæres.

Det sociale medie valgte allerede sidste at justere den automatiske beskæring af billeder og i højere grad give brugere mulighed for at vælge.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (14)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#1 Henrik Eriksen

Ville det ikke være omvendt i en ørken? Dér ville hvide falde mere i med baggrunden, og mørke ville være tydeligere?

Jeg synes det er lidt pjattet at kalde noget 'racistisk' ud fra noget som fysikken ligesom dikterer. Det kan da ikke overraske, at hvidt lyser mere op på en spraglet/mørk baggrund end en mørk farve gør?

  • 14
  • 7
#5 Kjeld Flarup Christensen

Det er komplet skørt at bruge ordet diskriminerede omkring AI. Algoritmerne afspejler jo blot virkeligheden som den så ud i går, og med en vis sandsynlighed også i dag.

Jeg kan gå med til at AI afslører diskrimination i det materiale som det er fodret med.

Men det kan altså også afspejle, at sorte er underrepræsenterede i f.eks. politik. Eller bare slet og ret en minoritet.

Husk på AI algoritmerne på den statistik den er blevet fodret med, ikke den virkelighed man gerne så!

  • 10
  • 1
#6 Bjarne Nielsen

Husk på AI algoritmerne på den statistik den er blevet fodret med, ikke den virkelighed man gerne så!

Statistik? Det lyder mere, som "monkey see, monkey do". Og hvis det er den fordrukne onkel med den lumre humor som efterabes, så har vi ulykken.

Og "her er nogle data, find selv på nogle regler" kan hurtigt køre af sporet, og finde nogle "regel", som i bedste fald er absurde eller utilstrækkelige. Det ikoniske eksempel er algoritmen, som skulle kunne skelne imellem huskyer og ulve, men da man kiggede nærmere efter, så havde modellen "lært" af træningsdata, hvis billedet havde sne, så var det bombesikkert en ulv. Hvad jo virkede fint i laboratoriet, men ikke overlever at møde virkeligheden.

Der er ikke noget objektivt over AI eller ML. Det formes af, hvad vi valgte at anse som værende relevant og rigtigt, uanset om det valg er bevidst eller ubevidst. Og resultatet som oftest helt ugennemskueligt, og små nuancer af nærmest arbritrær karakter vil kunne gøre en dramatisk forskel. Til gengæld står vi klar til at efterrationalisere:

Men det kan altså også afspejle, at sorte er underrepræsenterede i f.eks. politik. Eller bare slet og ret en minoritet.

Alle kan lære at køre gokart imponerende hurtigt på lukkede baner, men der er grund til, at vi har køreprøver og færdselskontrol, når der er tale om biler og bilister, som slippes løs i virkeligheden. AI havarikommision NU!

  • 3
  • 0
#8 Børge Svingalius

Husk på AI algoritmerne på den statistik den er blevet fodret med, ikke den virkelighed man gerne så!

Det er en ofte overset pointe, og en sjældent ført diskussion om teknologi kan siges at være neutral eller ej. Det afhænger først og fremmest af hvad man forstår ved neutral, for der er forskel på om noget er værdineutralt eller absolut neutralt. Absolut neutralitet kan sandsynligvis kun tilskrives matematik, logik og geometri, da det er de eneste elementer der kan forklares uden om erfaringen (og dermed er upåvirket af menneskelig ageren og derfor kan være neutral), hvorfor alt andet er afledninger af selve væren i verden (lidt langhåret, I know, men hæng på). Med denne pointe in mente, kan vi sige at ingen teknologi er absolut neutral, og vi må erkende at enhver teknologi følger en bestemt logik/vej - eller det vil sige, ikke nødvendigvis teknologien/artefakten i sig selv, men den kontekst teknologien er blevet skabt i/befinder sig i/udvikler sig til.

En hammer kan bruges til mange ting, men du kan ikke bruge den som megafon, medmindre den modificeres så meget at vi ikke kan genkende det oprindelige formål, ligeså vel som en fodermaskine til mink (der er nogle i reserve!) ikke kan bruges til hjernekirurgi. De tilhører forskellige logikker/brugsmiljøer, der er bestemt af en kontekst der er langt videre end selve genstanden. Eksempelvis giver en hammer ikke megen mening, hvis ikke der er noget at hamre på, og måske mere vigtigt hvis ikke der er en god grund til det - eksempelvis ville en hammer være overflødig hvis vi alle havde hamre istedet for hænder, eller hvis verden ikke havde objekter der kunne tåles at hamre på.

Det var en lang pointe... AI giver ikke mening hvis ikke vi har en gigantisk mængde af data, stor regnekraft og et ønske om hurtigt at løse opgaver med en approximeret success. Hele idéen med AI er at lade maskinen fuldføre opgaver som normalt set er hensat til menneskehænder, fordi opgaverne er meget komplekse - eller fordi det vurderes at disse opgaver bærer elementer der har en moralsk/etisk dimension, vi normalt forbinder med menneskelige dyder (nogle vil argumentere for at disse to er det samme - at etik og moral er problemer af kompleks karakter, ikke andet).

Der er dog en vigtig pointe, som jeg føler tit bliver overset i debatten om kunstig intelligens, og det er at al data er "taget ud af verden", ikke "givet" - der er altid en rettethed, ligesom med alt andet der involverer mennesker og deres erfaringer.

Men hvorfor er det så et problem der er specielt prævalent ift. kunstig intelligens spørger du nok?

Kunstig intelligens fungerer i konteksten af meget data, rigtig meget data, faktisk så meget data at det umiddelbart kunne virke til at være en udtømmende virkelighedsforklarende mængde (hvis vi tænker tanken om AI til ende), det vil sige en mængde hvor vi har en umiddelbar tiltro til at der er tale om en objektiv repræsentation af virkeligheden - og dermed at den intelligens der 'dømmer' også må være objektiv.

Men hvis al data er rettet (ligesåvel som udvælgelsen af data er rettet) vil den ikke være neutral -men denne ikke-neutralitet er ekstra farlig, netop fordi "den udgiver sig" for at være objektiv og neutral (qua datamængde). Derudover er subjektiviteten langt vanskeligere at pinpointe (end ved menneskers domme), fordi domsgrundlagende er mere komplekse og obskure og sværere at følge trådene igennem - kryds-korrelationerne kan være ganske anseelige i størrelse jo, og bliver dermed mindre genstand for kritisk analyse - specielt mht. de strukturelle antagelser.

Så kan der skrives en hel bog for sig, om de mekanismer og det miljø dataficering bedst egner sig til (og dermed bliver rettet mod), og de mekanismer, miljøer, livsanskuelser og virkelighedsforklarende modi der langsomt vil træde i baggrunden til fordel for 'en datadrevet virkelighed' ~ nogle vil argumentere for at det er noget værre hippie-snak og at alle facetter af det menneskelige liv kan underkastes rationel-logisk granskning og forklares hermed. Til de siger jeg:

lol har I nogensinde hørt Gramsespektrum?

:)

  • 4
  • 0
#9 Kjeld Flarup Christensen

Absolut neutralitet kan sandsynligvis kun tilskrives matematik

AI er skam også 100% neutral

ud fra de data den er blevet fodret med altså. Deri afviger det ikke ret meget fra mennesker, som er lige så neutrale som deres opvækst.

Og en algoritme som siger, at sorte og hvide er lige (indsæt whatever), er heller ikke neutral. Der findes statistikker, som klart dokumenterer forskelle.

Og AI vil naturligvis også kunne finde det mønster som ligger i statistikken. Hvis altså statistikken passer.

  • 2
  • 2
#10 Bjarne Nielsen

Der findes statistikker, som klart dokumenterer forskelle.

Og AI vil naturligvis også kunne finde det mønster som ligger i statistikken.

Mønstre er ikke kausalitet: https://www.tylervigen.com/spurious-correlations

Og der står mennesker bag al statistik:

"There are three kinds of lies: lies, damned lies, and statistics."

https://en.wikipedia.org/wiki/Lies,_damned_lies,_and_statistics

Men noget skal AI/ML nok finde, også noget som almindeligt tænkende mennesker aldrig ville tage alvorligt.

  • 2
  • 1
#11 Henrik Sørensen

Man kan også fremhæve, at når man angiver et signalement, så er man "diskriminerende":

Man angiver data som højde, kropsbygning, hår-,øjen- og hudfarve. Men... hvis man ikke angiver fx. en hudfarve, antager man, at personen har samme hudfarve som "vidnet".

Al data behandles ud fra det ståsted, som behandler/afsender har. Dvs. hvis man skal finde én person i en gruppe af hvide, og denne person, man leder efter, fx. er sort, så forklarer man, at man leder efter en sort. Ergo noget, som får personen til at skille sig ud fra mængden (farve, antal arme etc.)

  • 2
  • 0
#12 Henrik Eriksen

AI kan ikke gennemskue alt (endnu).

Lad os sætte (for nu at holde hudfarver ude af det), at rødhårede er overrepræsenteret i kriminalstatistikken.

En AI som for forelagt data om alle hårfarver, vil konkludere at fordi de rødhårede generelt er mere kriminelle end andre hårfarver, og vægte sandsynligheden for at der sker noget kriminelt i et miljø med mange rødhårede noget højere. Samtidig, hvis der er sket noget kriminelt et sted, så er det nok ham den rødhårede der har gjort det.

Det vil betyde at tilliden til rødhårede generelt daler, rødhårede vil have sværere ved at få jobs, oftere blive udsat for udokumenterede anklager som yderligere vil belaste deres muligheder for at få jobs, dermed indkomst og dermed uddannelse til dem selv og/eller deres børn.

For at klare sig, må flere og flere rødhårede blive småkriminelle, lave plat og svindel og for nogens vedkommende vil det glide over i mere alvorlig kriminalitet.

De udokumenterede anklager bliver nu færre og færre, fordi de faktisk ikke er udokumenterede længere: Det* var* ham den rødhårede der udførte forbrydelsen.

Disse forhold får tilliden til rødhårde til at dale endnu mere, og den onde cirkel kan fortsætte. Der bliver tale om en selvopfyldende profeti.

Men alle vil nu mene at AI har ret, fordi dens forudsigelser om rødhåredes miljøer og opførsel generelt passer fint.

Det er det bias som AI skal slås med i dag. Bare ikke omkring rødhårede, men omkring hudfarve.

Ikke-hvide har et århundreder gammlet efterslæb, skabt af hvide mænd som først har forbudt farvede at lære at læse, og derefter har kaldt dem dumme fordi "de ikke engang kan læse!"

  • 6
  • 4
#13 Malthe Høj-Sunesen

AI er skam også 100% neutral

ud fra de data den er blevet fodret med altså. Deri afviger det ikke ret meget fra mennesker, som er lige så neutrale som deres opvækst.

Det meste data som opsamles i psykologiske eksperimenter er weird:

Western, Educated, Industrialized, Rich, Democratic

Det giver en bias. Data vil altid give en bias, især hvis data ikke renses på nogen måde. AI'en er som sådan helt ligeglad med hudfarve, så AI'en er ikke diskriminerende. Data, som opsamlet og behandlet af fejlbarlige mennesker, derimod, kan være ubevidst diskriminerende.

  • 2
  • 2
#15 Henrik Eriksen

Heldigvis forholder det sig ikke sådan. Det ved man, fordi tusindvis af forskere, med ubegrænsede midler, har ledt efter strukturel racisme i et halvt århundrede, uden at finde skyggen af bevis for det.

Aha. Hvor har de ledt henne? I USA?

Og hvor er de rapporter om hvide mænd som bliver skudt eller kvalt af sorte politimænd henne?

Eller glemte du noget, såsom en smiley eller < ironi > </ ironi >

  • 5
  • 2
Log ind eller Opret konto for at kommentere