IBM går med i Linux-samarbejde om troværdig AI

Den brede offentlighed skal kunne stole på kunstig intelligens, lyder det fra it-kæmpen.

Der skal gøres op med den sorte kasse, som machine learning og ai undertiden kan være. Det mener IBM, ifølge Zdnet.

»Når AI modnes, skal det være på en måde, offentligheden kan sætte deres tillid til,Alt for ofte, hvad vi hører, er AI er en sort boks, de forstår ikke, hvordan det kom til dets resultater, der er bias i modellerne, der skal være mere retfærdighed ... Vi har hørt det højt og tydeligt , og vi følte, at det var på tide at hjælpe industrien med at komme videre,« udtaler Todd Moore, som er vicechef for Open Technology i IBM til ZDNet.

Derfor vil it-giganten nu deltage i samarbejdet Linux Foundation AI.

Det er et leverandørneutralt forum til fremme af kunstig intelligens, herunder Deep Learning i form af open source-projekter. Samarbejdets medlemmer er blandt andre AT&T, Baidu, Ericsson, Nokia og Huawei.

IBM har allerede udgivet en række open source-værktøjer, der skal gøre det nemmere at skabe pålidelige AI-systemer. Det drejer sig blandt andet om 'AI Fairness 360 Toolkit' som giver udviklere og datavidenskabsfolk redskaber til at opdage og afhjælpe bias i machine learning-modeller og datasæt.

En andet værktøjskasse fra virksomheden er 'AI Explainability 360 Toolkit', som er et sæt af algoritmer, kode, guider, tutorials og demoer, som skal gøre det nemmere at fortolke og forklare maskinlæringsmodeller.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (2)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Kenn Nielsen

»Når AI modnes, skal det være på en måde, offentligheden kan sætte deres tillid til,Alt for ofte, hvad vi hører, er AI er en sort boks, de forstår ikke, hvordan det kom til dets resultater, der er bias i modellerne, der skal være mere retfærdighed ... Vi har hørt det højt og tydeligt , og vi følte, at det var på tide at hjælpe industrien med at komme videre,«

Vi har lagt mærke til at der er berettiget kritik af AI/DeepLearning.
Kritikken er at det er "en sort boks" der spytter ubegrundede vejledninger/afgørelser/løsninger ud.
Fuldstændigt som hvis man i gamle dage spurgte oraklet.
Det kritiseres også, at "den sorte boks" giver svar som - ugennemsigtigt -lægger vægt på de kriterier der prioriteres af opgavestilleren. Bias.
Man ønsker en retfærdig(!) sort boks. - altså en usynlig Bias...

Derfor giver vi jer nu:
Et værktøj til nemmere at træne AI til nøjagtigt den slags bias som opgavestilleren ønsker.
For at imødekomme kritikerne, har vi brugt ordet Fairness i navnet:
'AI Fairness 360 Toolkit'

K

  • 2
  • 2
Michael Erichsen

Jeg var til en teknisk konference for nylig, hvor der blev talt en del om optimering af Machine Learning fra en IBM'er. Jeg stillede spørgsmålet om det tvivlsomme i at optimere dårlige algoritmer og ikke-repræsentative data. Til min overraskelse blev jeg henvist til en del IBM-forskning om, hvad de kalder "AI Bias" og også en liste over værktøjer til at afdække dette fra både IBM og andre leveradører.
Jeg har i efterhånden mange år diskuteret de politiske aspekter af AL/ML/osv., ikke mindst overvågning fra både firmaer og myndigheder, men synes faktisk, at det er interessant, hvad de kigger på.
Et par links:
https://www.research.ibm.com/5-in-5/ai-and-bias/
https://www.research.ibm.com/artificial-intelligence/trusted-ai/
https://www.ibm.com/blogs/think/2019/06/making-monitoring-ai-bias-a-litt...

Og ellers er Birkholms og Frøhlichs bog om "De skjulte algoritmer" jo altid værd at nævne, hvis man skulle få et tilbagefald til godtroenhed :-)

Mvh Michael Erichsen

  • 0
  • 0
Log ind eller Opret konto for at kommentere
IT Company Rank
maximize minimize