Gratis værktøjer skal spotte algoritmernes fordomme

Illustration: IBM
En åben værktøjskasse med ni algoritmer skal begrænse bias og diskrimination i machine learning-modeller.

Bias, fordomme og diskrimination er ikke bare noget der foregår i den fysiske verden. Det finder i den grad også sted i de algoritmer, der blandt andet bruges til ansigtsgenkendelse og en lang række beslutningsprocesser.

Nu har IBM lanceret en værktøjskasse med navnet 'Fairness 360', som scanner for tegn på bias i algoritmer.

I den første udgivelse af Fairness 360, også navngivet AIF360 Python Package, finder man ni forskellige algoritmer, hvis mål er at afbøde bias. Det er et sæt af fairness- målinger på datasæt og machine learning-modeller.

Læs også: DeepMind-forskere tackler black box-problem i algoritme til øjenlæger

Sådan vil IBM afbøde bias undervejs i machine learning model. Illustration: IBM

Åbner den sorte boks

Behovet for nye former for indsigt i algoritmerne skyldes blandt andet, at udviklere ofte ikke ved, hvilke beslutninger der tages med deres kunstige intelligens og hvorfor.

Kunstig intelligens er kendt som en black box, en sort boks. IBM's værktøj vil gøre AI-beslutninger mere gennemsigtige, så udviklere kan se, hvilke faktorer der bruges i den kunstige intelligens.

Softwaren er cloud-baseret og open source, og den virker til de mest kendte AI-frameworks, inklusiv Watson, Tensorflow, SparkML, AWS SageMaker og AzureML

Du kan finde Fairness 360 på Github

Læs også: Microsoft lancerer nye forretningsapps med AI

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (0)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Log ind eller Opret konto for at kommentere