IBM går med i Linux-samarbejde om troværdig AI

27. august 2019 kl. 10:372
IBM går med i Linux-samarbejde om troværdig AI
Illustration: Ramcreativ, BigStock.
Den brede offentlighed skal kunne stole på kunstig intelligens, lyder det fra it-kæmpen.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Der skal gøres op med den sorte kasse, som machine learning og ai undertiden kan være. Det mener IBM, ifølge Zdnet.

»Når AI modnes, skal det være på en måde, offentligheden kan sætte deres tillid til,Alt for ofte, hvad vi hører, er AI er en sort boks, de forstår ikke, hvordan det kom til dets resultater, der er bias i modellerne, der skal være mere retfærdighed ... Vi har hørt det højt og tydeligt , og vi følte, at det var på tide at hjælpe industrien med at komme videre,« udtaler Todd Moore, som er vicechef for Open Technology i IBM til ZDNet.

Derfor vil it-giganten nu deltage i samarbejdet Linux Foundation AI.

Artiklen fortsætter efter annoncen

Det er et leverandørneutralt forum til fremme af kunstig intelligens, herunder Deep Learning i form af open source-projekter. Samarbejdets medlemmer er blandt andre AT&T, Baidu, Ericsson, Nokia og Huawei.

IBM har allerede udgivet en række open source-værktøjer, der skal gøre det nemmere at skabe pålidelige AI-systemer. Det drejer sig blandt andet om 'AI Fairness 360 Toolkit' som giver udviklere og datavidenskabsfolk redskaber til at opdage og afhjælpe bias i machine learning-modeller og datasæt.

En andet værktøjskasse fra virksomheden er 'AI Explainability 360 Toolkit', som er et sæt af algoritmer, kode, guider, tutorials og demoer, som skal gøre det nemmere at fortolke og forklare maskinlæringsmodeller.

2 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
2
28. august 2019 kl. 10:49

Jeg var til en teknisk konference for nylig, hvor der blev talt en del om optimering af Machine Learning fra en IBM'er. Jeg stillede spørgsmålet om det tvivlsomme i at optimere dårlige algoritmer og ikke-repræsentative data. Til min overraskelse blev jeg henvist til en del IBM-forskning om, hvad de kalder "AI Bias" og også en liste over værktøjer til at afdække dette fra både IBM og andre leveradører. Jeg har i efterhånden mange år diskuteret de politiske aspekter af AL/ML/osv., ikke mindst overvågning fra både firmaer og myndigheder, men synes faktisk, at det er interessant, hvad de kigger på. Et par links:https://www.research.ibm.com/5-in-5/ai-and-bias/https://www.research.ibm.com/artificial-intelligence/trusted-ai/https://www.ibm.com/blogs/think/2019/06/making-monitoring-ai-bias-a-little-easier/

Og ellers er Birkholms og Frøhlichs bog om "De skjulte algoritmer" jo altid værd at nævne, hvis man skulle få et tilbagefald til godtroenhed :-)

Mvh Michael Erichsen

1
27. august 2019 kl. 11:04

»Når AI modnes, skal det være på en måde, offentligheden kan sætte deres tillid til,Alt for ofte, hvad vi hører, er AI er en sort boks, de forstår ikke, hvordan det kom til dets resultater, der er bias i modellerne, der skal være mere retfærdighed ... Vi har hørt det højt og tydeligt , og vi følte, at det var på tide at hjælpe industrien med at komme videre,«

Vi har lagt mærke til at der er berettiget kritik af AI/DeepLearning. Kritikken er at det er "en sort boks" der spytter ubegrundede vejledninger/afgørelser/løsninger ud. Fuldstændigt som hvis man i gamle dage spurgte oraklet. Det kritiseres også, at "den sorte boks" giver svar som - ugennemsigtigt -lægger vægt på de kriterier der prioriteres af opgavestilleren. Bias. Man ønsker en retfærdig(!) sort boks. - altså en usynlig Bias...

Derfor giver vi jer nu: Et værktøj til nemmere at træne AI til nøjagtigt den slags bias som opgavestilleren ønsker. For at imødekomme kritikerne, har vi brugt ordet Fairness i navnet: 'AI Fairness 360 Toolkit'

K