Twitter undskylder for race-bias i algoritme til beskæring af billeder

Flere bruger har påvist, hvordan det sociale medie Twitter har tilbøjelighed til at fokusere på hvide ansigter frem for sorte, når billeder skal beskæres.

Twitter har undskyldt for at have race-bias i den algoritme, som bruges til billedbeskæring på det sociale medie.

Det skriver The Guardian.

Undskyldningen kommer i kølvandet på, at flere brugere har påvist, hvordan billeder på det sociale medie har tilbøjelighed til at fokusere på hvide ansigter frem for sorte, når billeder bliver beskåret automatisk.

Ifølge Twitter er algoritmen blevet testet for bias, inden den blev taget i brug, men nu har det sociale medie måtte erkende, at det ikke er blevet gjort tilstrækkeligt grundigt.

Når brugere uploader store eller lange billeder til Twitter, har algoritmen sørget for, at billederne blev beskåret, så de ikke fyldte så meget i feedet på det sociale medie. Algoritmen er udviklet til at fokusere på de væsentligste dele af billedet og sortere resten fra.

Men i weekenden opdagede flere brugere, at algoritmen ofte sorterer sorte ansigter fra frem for hvide, når det skal beskære billeder til at passe til feedet.

En talsperson for Twitter har i en udtalelse erkendt, at man skal tilbage til tegnebrættet med algoritmen.

»Vores team har testet for bias, inden vi tog modellen i brug, og der fandt vi ikke tegn på race- eller kønsbias. Men ud fra disse eksempler (fra brugerne, red.) står det klart, at vi skal lave flere analyser. Vi vil fortsætte med at dele, hvad vi lærer, og hvilke beslutninger vi tager, og vi vil dele vores analyse, så andre kan gennemgå og efterligne den,« lød det ifølge The Guardian i udtalelsen fra Twitter.

Se et af brugernes eksempler nedenfor. Flere eksempler kan findes her.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (1)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#1 Bjarne Nielsen

I disse videokonferencetider, så virker det åbenbart også betydeligt bedre med at indsætte andre baggrunde, hvis man er et blegansigt.

Det er heller ikke så lang tid siden (et år måske?) at jeg læste om en udlejer, som havde installeret låse med ansigtsgenkendelse på fordørene, og det virkede så rigtigt dårligt for de lejere, som ikke var hvide. Var det mon en bug eller en feature?

Husk i den forbindelse på, at dette er tydelige eksempler på uventet bias i algoritmer. Twitter skulle endda eksplicit have testet for det, og alligevel sker det. Gad vide hvor mange kedelige bias, som går under radaren, fordi de ikke er så tydelige? Og i situationer som er meget mindre grinagtige?

PS: Jeg er twitter-noob; jeg har først lige opdaget, at man kan klikke på "previewet", hvis man vil se originalen.

  • 0
  • 0
Log ind eller Opret konto for at kommentere