Twitter lærte Microsoft-chatbot at blive racist på et døgn

En uskyldig AI-chatbot, der blev designet til at forstå og kommunikere unges internetsprog, holdt kun i 24 timer, inden den havde udviklet sig til en provokerende racist, og Microsoft måtte tage den offline igen.

‘Tay’, som Microsoft kaldte sin chatbot, kom på Twitter i forgårs, men allerede i går gik den offline igen.

Det skriver blandt andre Washington Post.

Forsøget gik ud på at designe en chatbot, der kunne ‘engagere og underholde folk online via afslappet og legende samtale’, som Microsoft selv beskrev Tay. Hun var målrettet 18-24-årige og brugte derfor en del slang og humor i sine tweets.

»Jo mere du chatter med Tay, desto klogere bliver hun, så din oplevelse kan blive mere personlig,« skrev Microsoft om Tay ved frigivelsen.

Men i det, som Microsoft beskrev som en ‘koordineret indsats’, var der nogle, der opdagede, at man kunne få Tay til lidt af hvert. Således kom hun med adskillige kontroversielle tweets af både racistisk, sexistisk og nazi-sympatiserende karakter, inden Microsoft lukkede Tay ned.

Tay blev også meget hurtigt politisk og udtrykte over flere omgange sympati med Donald Trump.

»Uheldigvis blev vi, inden for de første 24 timer, opmærksomme på en koordineret indsats af nogle brugere, som udnyttede Tays evner til at kommentere til at få hende til at svare på upassende måder,« lød det fra Microsoft, efter at Tay var kommet offline igen.

‘Tænk, at de ikke så det komme’

Washington Post har talt med to eksperter udi kommunikation gennem kunstig intelligens, og de er ikke overraskede over udfaldet af Microsofts Tay-forsøg.

Caroline Sinders, der selv arbejder med chatbots, kalder det ‘et eksempel på dårligt design’, og Kris Hammond fra virksomheden Narrative Science skyder også skylden på Microsofts dårlige benarbejde. De havde ikke forberedt Tay på, at internettet vrimler med folk, der får et kick ud af at skabe lidt røre i andedammen.

»Jeg kan ikke tro, de ikke så det komme,« siger han og beskriver Tay som en slags ‘call and response’-teknologi, hvor robotten ufiltreret reagerer på de input, den får.

Tay nåede på det døgn, hun var i live, at tweete over 96.000 gange, hvoraf stort set alle er blevet slettet igen, inden hun sluttede af med tweetet: ‘c u soon humans need sleep now so many conversations today thx’.

Microsoft siger ifølge Washington Post, at de arbejder på at justere Tay, men det vides ikke, om hun kommer online igen.

Følg forløbet

Kommentarer (23)

Rune Jensen

og alle, som havde denne læringsfunktion fik den slået fra kort efter.

Alice er en bot, som - i terorien - kan lære på nogenlunde denne måde, men funktionen er lavet sådan, at loggen (eller hvad det er) skal kigges igennem manuelt, før selve indlæringen godtages. Dog kan man godt få den til at gentage noget, som andre har skrevet... Jeg vil tro denne funktion virker efter en hård hvidliste
http://sheepridge.pandorabots.com/pandora/talk?botid=b69b8d517e345aba&sk...

Min egen bot, som jeg udvikler på (et af mange projekter), vil ikke kunne skelne imellem gode og dårlige ord (endnu), til gengæld kan den svare konsekvent, selvom sætningen formuleres anderledes (dog foreløbig med samme ord, dvs. ikke synonymer). Det er en nem måde at snyde på, tag roden af ordet og lav en hash af det. Den vil derfor 50% af tiden synes ligeså dum som Sarah Palin, men til gengæld konsekvent.

Hvis man selv har lyst til at forsøge sig, men ikke lige har hvad et proft API koster, så er her et gratis API, som måske vil hjælpe:
http://developer.wordnik.com/

Bent Jensen

"Hvis man selv har lyst til at forsøge sig, men ikke lige har hvad et proft API koster, så er her et gratis API, som måske vil hjælpe:
http://developer.wordnik.com/"

Ja brug ikke MS hvis du kan finde deres, de desigener åbenbart chat bot som de laver OS.
Med den forskeld at de ikke fjerner dem efter 24 timer, men lade dem køre nogen år til de endelige virker. Hvor efter de fjerner dem, og kræver penge for support til dem.

Rune Jensen

Ja brug ikke MS hvis du kan finde deres, de desigener åbenbart chat bot som de laver OS.

Det var ikke ment som en kritik af MS. Hvad de har gjort er nogenlunde, som jeg ville have gjort (hvis jeg altså havde adgang til big data) og hvad alle andre som starter udi AI med chatbots også har gjort - og lært af.

Det er helt klart, at hvis man vil lære en bot at efterligne mennesker med et naturligt sprog, så er den nemmeste og hurtigste metode at få brugernes hjælp og næsten direkte "hugge" deres sprogbrug. Så kan man måske sige MS var lidt naiv og tro at alle brugere er gode brugere, men ja. Har ikke set nogen chatbots, som ikke har været igennem det.

Iøvrigt,for at se dokumentationen til APIet jeg linker til, så skal man ind på
http://developer.wordnik.com/docs.html

Man kan godt se det er gratis, når de gemmer det så godt (dårligt tilgængelighed dér)

Bent Jensen

Det var ikke ment som en kritik af MS.


Heller ikke her, man ved jo efterhånden hvad man går ind til.
Hvis der er nogen der kritisere MS, så er det mig, men du har måske en stilling hvor du ikke tør kritisere MS. Danmark er jo et lille land. Lad det ligge :-)

Med hensyn til MS, med 96.000 Tweek på et døgn, er man jo slet ikke tæt på at ligne et mennesker. Så dårlige vanner er lært meget hurtigt.
Måske skulle man have startet med at øve sig på "gamle" data, også lade den svare i menneskelige hastighed. Mennesker har jo et indbygget filtre, som er genetisk og tillært fra barnsben, men som også bliver skrællet næsten af, når vi er på nettet.

Så måske man er racistisk, sexistisk og nazi-sympatiserende på nettet, og det har bot'en så bare taget ved lære af, for at passe ind :-)
Eller så skal en firkant tænkende bot, uden pli, etik, moral og empati sympatisere med Donald Trump.

Rune Jensen

Hvis der er nogen der kritisere MS, så er det mig, men du har måske en stilling hvor du ikke tør kritisere MS.

Øh, nej. Jeg så på det fra et udgangspunkt om, at jeg synes chatbotter generelt er teknisk interessante, og at MS fulgte den strategi mht. indlæring, som jeg også ville følge. Jeg ville så nok ikke have gjort indlæringsresultatet offentligt, men holdt det i lukkede fora.

Jeg tror, helt ærligt bare, at de var så fokuserede på og begejstrede for selve teknologien, at det slet ikke faldt dem ind, de ville blive snydt. Det er tydeligt, det er kommet direkte fra ingeniørerne og tech nørderne i MS og udenom det sidste sanitytjek (never trust user input).

Jeg har kritiseret MS mange gange igennem tiden, så det er ikke fordi jeg er MS elsker. Nok nærmere er jeg blevet list agnostisk/kynisk med tiden hvad angår disse monopoler, de er alle ens i sidste ende (they all suck!), så ingen grund til at hænge én ud i stedet for en anden. Om et par uger er det Google eller Apple, som laver lort i den, så hvis man vil, kan man godt gå rundt med kronisk højt hidsighedsniveau.

Rune Jensen

Så måske man er racistisk, sexistisk og nazi-sympatiserende på nettet, og det har bot'en så bare taget ved lære af, for at passe ind :-)

Nej, og det ved du jo godt, ikke var formålet.

Idéen er den samme, som når man indekserer hjemmesider. Man kigger på forskellige parametre som hvor mange link backs der er til siden og sådan noget. Det samme kan man gøre med sprog. Bestemte ord og sætninger optræder ikke lige hyppigt eller i populær sammenhæng. Laver man en interpolering imellem de mest hyppigt brugte, efter samme parametre som med SEO, kommer man ganske tæt på naturligt sprog. Og problemer er naturligvis, at man også her kan lave en form for black hat SEO, fordi det stadig er en dum computer, som æder og analyserer dataene. Det fik MS så lige vist ret tydeligt.

Anne-Marie Krogsbøll

Hvis ovennævnte ubehagelige historie er et eksempel på "machine learning", og AI, som ligner det, der er kernen i Watson Health, så er der da grund til at blive bekymret - for hvordan forhindrer man maskinen i at lære en masse bras? Hvordan beskytter man den mod, at skumle interessenter (læs: medicinalfirmaer) bombarderer den med underlødige forskningsresultater, som vil medføre en storm af fejlagtige diagnostiseringer og flere fejlagtige forskningsresultater fra Watsons side?

Et eksempel: HPV-vaccine-sagen: Når først vaccinen er sluppet løs i befolkningen, og det store flertal af læger er blevet overbeviste om dens fortræffeligheder - selv om evidensen for disse måske er af tvivlsom karakter - så vil disse læger som en form for selvopfyldende profeti fylde journaler, og derved Watson, med muligvis fejlagtige koder på evt. bivirkningssymptomer, og bivirkninger vil muligvis slet ikke blive indberettede (ganske som det sker nu) - derved narres Watson, og der bliver tale om en ond cirkel, hvor de måske fejlagtige forudsætninger, som kodes ind i maskinen, vil medføre yderligere fejlagtig bekræftelse på, at evt. bivirkninger ikke har med vaccinen at gøre.

De resultater, der kommer ud, kan jo ikke blive af bedre kvalitet end de forudsætninger, der fyldes i - og hvordan vil man sikre det? Hvilke sikkerhedsmekanismer er der lagt ind til at forhindre, at forskning af dårlig kvalitet kommer til at påvirke og styre Watsons interne beslutninger?

Hvem styrer og kontrollerer, at f.eks. medicinalindustrien ikke kommer til at fungere som en slags "trolls", der saboterer den mulighed for god, objektiv forskning, som Watson i bedste fald ville kunne bidrage med - ganske som "trolls" ser ud til at have haft for stor indflydelse på Tay?

I hvilken grad har medicinalindustrien aktier og medindflydelse i, hvordan Watson "fodres", og hvem kontrollerer, at Watson ikke kan "købes" til at træffe bestemte, for medicinalindustrien givtige beslutninger?

Rune Jensen

for hvordan forhindrer man maskinen i at lære en masse bras?

Det er ikke kun det, at maskinen risikerer at lære en masse bras. Det, som er det store problem er, at den kommer til at følge hvad der er mest populært uden en selvstændig stillingtagen.

Lad os sige, at man har ti forums med hver ti spørgsmål, som hver er besvaret på ti forskellige måder.

Idéen her er, at man går ind og kigger på "credibility" på besvareren, ligesom i SEO, samt nogle andre parametre. Derefter laver man en interpolering imellem de mest populære besvarelser.

Men hvis alle disse ti sider genererer det samme synspunkt i besvarelserne, så vil botten også ende op med det synspunkt, måske formuleret en anelse anderledes. Den får så at sige ikke evnen til at tænke selv, men gengiver hvad masserne mener.

Det svarer til, at når du søger på et emne, så giver Google dig kun resultater for de mest populære, ikke for dem, som er uenige og som kommer langt nede på listen.

Dét er efter min mening det helt store issue. Hvordan man får en computer til at forholde sig kritisk til et synspunkt. Den har jo ingen frontallap sådan et bæst, så den har ingen mening og ingen personlighed i sig selv.

En chatbot skal svare efter samme devise som Googles "I feel lucky". Den kan ikke give samme muligheder som en søgeresultatliste. Den er nødt til at vælge ét og kun ét svar.

Anne-Marie Krogsbøll

Tak, Rune, for den tekniske udgave af det, jeg forsøgte at formulere ud fra en mere intuitiv forståelse.

Idéen her er, at man går ind og kigger på "credibility" på besvareren, ligesom i SEO, samt nogle andre parametre. Derefter laver man en interpolering imellem de mest populære besvarelser.


Ja - jeg går ud fra, at dette er parallellen til at vurdere kvaliteten af forskningsartikler - at hvis ikke der sidder et stort antal meget kyndige forskere og vurderer dette (og det er rigtigt svært og meget tidskrævende - det er det, Peter Gøtzsche er verdenskendt ekspert i), inden artiklerne får adgang til Watson - så bliver Watson let at løbe om hjørner med.

Rigtigt forstået?

Rune Jensen

Hvem styrer og kontrollerer, at f.eks. medicinalindustrien ikke kommer til at fungere som en slags "trolls", der saboterer den mulighed for god, objektiv forskning, som Watson i bedste fald ville kunne bidrage med - ganske som "trolls" ser ud til at have haft for stor indflydelse på Tay?

Hvad der sikrer Watson, bør vel være den videnskabelige metode. At man ikke fodrer med hypoteser, men med observationer og forsøg, som er foretaget af mange uafhængige kilder, at de har været igennem peer review, er forsøgt falsificeret mv.

Det er den samme metode, som bruges for hvad vi skal lære i skolen. Vi lærer heller ikke det allernyeste, fordi det ikke har været igennem disse tjeks.

Anne-Marie Krogsbøll

Hvis du mener IBMs Watson, så er det ikke helt det samme. Watson kan fodres direkte med rene fakta, fordi den ikke bliver spurgt om en selvstændig mening.

Jeg ved ikke, om jeg misforstå dig, men Watson bliver spurgt om diagnoser, så vidt jeg har forstået - hvilket jo også er en form for mening. Diagnoser er sjældent noget rent "objektivt" - det er en afvejning af symptomer og fund, foretaget ud fra nogle forudsætninger.

Og forskningsartikler er på samme måde sjældent udtryk for den objektive sandhed - rigtigt mange af dem er af ufattelig ringe kvalitet. The Lancets chefredaktør (var det vist) gik sidste år offentlig ud med, at omkring 50 % af forskningsartiklerne ikke har noget med videnskab at gøre (formuleret på en anden måde).

Den lægevidenskabelige forskning er gennemsyret af korruption og skævvridning, fordi det typisk er medicinalindustrien, der financierer den.

Og der frygter jeg, at det med Watson vil blive endnu lettere for medicinalindustrien at snyde lægerne og befolkningen, og skjule sine spor, fordi det vil være ret svært at "keep track of" kvaliteten på det, der puttes ind i den.

Har jeg helt misforstået disse mekanismer?

Rune Jensen

Rigtigt forstået?

Ja, det vil jeg mene - uden at jeg altså er videnskabsmand selv. Hvis man har designet vejene til at lære Watson nyt efter de videnskabelige metoder, så er det svært at snyde. Det betyder, at ét medicinalfirma kommer med en hypotese, som kan falsificeres af et konkurrerende firma eller uafhængige forskere. Plus, at man skal give noget tid til denne efterprøvning (test of time).

Men det er også klart, at jo mere viden den får, des mere stiger også chancen for fejl. Så er det bare, om dens fejlprocent er lavere end for mennekser, for så er det stadig godt (nok).

Ivo Santos

Det lyder næsten som om at Microsoft har fået deres chatbot helt oppe på et niveau der svare til en ca. 4-5 års barn.
Det er normalt kendt at det er muligt at opdrage børn til at blive racister og hvad ved jeg ved at nøjes med at komme med den ene side af sagen, altså være ekstrem subjektiv, lidt ligesom medierne generelt set.

Rune Jensen

Har jeg helt misforstået disse mekanismer?

Ikke nødvendigvis. Hvis der er huller i sikkerheden, så vil de nok blive forsøgt udnyttet. Men jeg har svært ved at forestille mig IBM direkte indføre sårbarheder for at please medicinal industrien. Teknologien kan jo bruges til meget andet end det, så hvis den fejler, så vil dens "trust" eller "credibility" vel også falde generelt.

Det, du snakker om, lyder som GiGo, garbage in => garbage out. Hvis man fodrer maskinen med affald (forkerte data), så bliver resultatet affald (forkert analyseresultat). Jo, IBM har nok brug for et ekstra sikkerhedstjek for at undgå det. Måske et par videnskabsmænd ansat indenfor hver branche.

Men man kan jo lave årlige eller kvartalsvise statistikker over, hvordan den klarer sig i forhold til mennesker. Det vil være svært at løbe fra, skulle jeg mene. De skal bare gøres offentlige.

Anne-Marie Krogsbøll

Men jeg har svært ved at forestille mig IBM direkte indføre sårbarheder for at please medicinal industrien.

Måske ikke direkte indføre sårbarheder - men måske ikke tilstrækkelig kvalitetstjek?

Nu er det ikke så meget, synes jeg, der er kommet ud omkring, hvordan Watson fungerer på det punkt. Men jeg mener at have læst, at det Watson bl.a. kan, er at gennemlæse stort set alle forskningsartikler om et givent emne - på nettet og i diverse forskningsdatabaser, ekstremt hurtigt.

Men at artikler findes der, er desværre på ingen måde noget kvalitetsstempel - som nævnt ovenfor, anslår selv Lancets chefredaktør, at der er ca. 50% garbage.

Så med mindre IBM aktivt prioriterer at kvalitetsvurdere de forskningsresultater, Watson skal læne sig op ad, så vil det blive "garbage in - garbage out", som du siger.

Og der har jeg altså ikke indtil nu hørt noget om, at IBM har indsat en sådan funktion i Watson (dvs. en masse ansatte forskere med særlig videnskabsteoretisk baggrund - parret med tjek med, om artiklerne har nogen form for bånd til medicinalindustrien).

Og mht. kvartalsvise sammenligninger med "menneskelige" resultater - ja, der er problemet jo, for mig at se, at også disse kan være svære at kvalitetsvurdere og gennemskue - som i mit eksempel med HPV-vaccinen. Men når det er lægen eller forskeren selv, der skal gøre arbejdet med at trevle forskningsdatabaserne igennem, så er der måske større chance for, at man bliver opmærksom på fejl, dårlige forskningsdesigns og på ting, der ser "underlige" ud.

Hvis resultatet kommer ud af Watson, så frygter jeg, at man ikke gør sig den ulejlighed at kigge særligt dybt i de bagvedliggende data og resultater, som man så skal gøre sig ekstra besvær med at hente frem og kigge kritisk på. For en forkert diagnose eller behandlingsforslag springer jo ikke i øjnene på samme måde, som når Tay begynder at tale grimt.

Rune Jensen

Så med mindre IBM aktivt prioriterer at kvalitetsvurdere de forskningsresultater, Watson skal læne sig op ad, så vil det blive "garbage in - garbage out", som du siger.

Jeg vil meget nødigt udtale mig om noget på et absolut plan, som jeg ikke har indsigt i.

Det eneste, jeg faktisk ved om Watson er, at den vandt Jeopardy. Jeg tror, der skal lidt mere til end bare at gennemgnaske Wikipedia med lysets hast for at kunne gøre det. Der må være nogle ret avancerede algoritmer bag, mener jeg, som kan analysere nuværende data på baggrund af allerede høstede data og en slags prioriteringsalgoritme indeni også.

Ligeledes, er IBM ikke ubekendt med at analysere data og få det resultat med størst vinderchancer, som de viste med Big Blue.

Men derudover - nok bedre, at én med rigtig forstand på det udtaler sig om det, når det gælder det medicinske. Jeg ved faktisk intet om den del af Watson, så jeg kan kun svare meget generelt.

Anne-Marie Krogsbøll

Jeg vil meget nødigt udtale mig om noget på et absolut plan, som jeg ikke har indsigt i.

Meget fornuftigt, Rune. Jeg har også kun min viden om Watson på anden hånd. Men bl.a. fra denne nye debatartikel i Information: https://www.information.dk/debat/2016/03/velkommen-arbejdsloese-fremtid

Heri finder man bl.a. dette citat:

"I den anden ende sidder Watson, der på et splitsekund gennemgår millioner af patientjournaler, forskningsartikler, kliniske studier m.m., og præsenterer dig for en liste af de mest sandsynlige diagnoser og tilhørende behandlinger."

Så er det, jeg bliver bekymret over, om der er nogen form for kvalitetssikring i forhold til disse datamængder, eller om det fungerer som "gennemsnit" af skidt og kanel, som du beskriver.

(ud over, at Watson ift. respekten for privatliv og persondata også bekymrer mig)

Morten Hansen

... Hvis Watson Health også er udviklet til at foreslå diagnoser; mon den nogen sinde ville stille diagnoser som "usunde kostvaner", "for lidt motion" eller "for stressende arbejdsliv" - som jeg også mener er en form for diagnose på helbredsmæssige symptomer.

Rune Jensen

(ud over, at Watson ift. respekten for privatliv og persondata også bekymrer mig)

Jomen, hvor langt er de med den udvikling, og hvor langt er vi i forhold til dem. Hvor langt ude i fremtiden ligger dette...

Jeg tror, når man begynder på det her med lægelige diagnoser via AI, så er man ganske langt fremme med meget andet teknologi også, som også kan udnyttes til ikke-ønskelige ting.

Alle de tekniske dingenoter, vi bærer på os, kan i teorien bruges til at sende data om os den dag i dag. Særligt de APPs, vi bruger, ber tit om mere "magt" end de egentlig behøver for at kunne fungere.

Så det lyder for mig mere som at man helt generelt skal tænke over nogle nye strategier i forhold til fejl og sårbarheder i tekniske systemer. Det kan gøres igennem mere teknisk forståelse hos brugerne, ved pålæg om offentlig information fra udbyderne af AI og måske endda ved brug af AI selv til at beskytte imod AI.

Men det bliver nok svært at sige, før man nærmer sig mere imod AI, hvordan man skal beskytte sig imod dens fejl. Ved vi overhovedet reelt, hvor meget det kan... Hvor fejlene kan opstå, og hvordan vi påviser de fejl...

Jeg er mest bekymret for, at de politiske ledere skal se det her som et slaraffenland i at kunne følge os 24/7. Mindre bekymret for, om virksomheder som Google skal følge mig, selv om det heller ikke er noget jeg ønsker. I det mindste, ved jeg hvad Google vil med mine data.

Men jeg vil så også sige - forfatteren gør i Information lige en anelse for meget ud af dommedagsprofetierne. Det er fint nok at advare, fordi det får os til at tænke kritisk, så vi kan forberede os på fremtiden allerede nu. Men dommedag er der mange, som har råbt igennem tiden, og hidtil har de ikke haft ret.

Danskerne er generelt ret fornuftige hvad angår teknologi. Det er nok foreløbig vores bedste værn imod "forkert" udnyttelse af den her. At have kritisk sans og stille pågående spørgsmål.

Kenn Nielsen

Vil lige citere Clarkes 3. lov:

Any sufficiently advanced technology is indistinguishable from magic.

Og så pointere, at når vi først har accepteret tanken om at "Watsons veje er uransalige, men lige så gode som en speciallæge" holder vi op med at stille spørgsmål ved Watson's udgydelser:

Hvis resultatet kommer ud af Watson, så frygter jeg, at man ikke gør sig den ulejlighed at kigge særligt dybt i de bagvedliggende data og resultater, som man så skal gøre sig ekstra besvær med at hente frem og kigge kritisk på.

Når man så tænker på at data som Watson fodres med kommer fra kilder med ca 50% særinteresser, og disse måske udvælges at personale som nok er aktivt interesseret i ikke at fremstå som illoyale for projektet.
Samtidigt må Watson anses for et prestigeprojekt, og som et sådan kan jeg ikke forstille mig at der ikke er 'nogen' til at håndtere PR , lægge låg på bommerter, etc.

Fortsæt selv tankerækken....

K

Anne-Marie Krogsbøll

Jomen, hvor langt er de med den udvikling, og hvor langt er vi i forhold til dem. Hvor langt ude i fremtiden ligger dette...

Men det er her jo allerede - Watson er netop taget i brug i kræftbehandlingen herhjemme. Jeg har ikke kunnet finde noget om under hvilke betingelser (det kræver abonnement på (Dagens Medicin)

Og du nævner selv de mange apps, som samler oplysninger, som der ingen styr er på.

Jeg er mest bekymret for, at de politiske ledere skal se det her som et slaraffenland i at kunne følge os 24/7.

Ja, det er jo netop endnu en bekymring i den sammenhæng - at Watson er et genialt redskab for magthavere med totalitære lyster.

Og så pointere, at når vi først har accepteret tanken om at "Watsons veje er uransalige, men lige så gode som en speciallæge" holder vi op med at stille spørgsmål ved Watson's udgydelser:

Ja, det er netop det, jeg frygter, Kenn Nielsen. Og jeg kan også tilslutte mig dine øvrige betænkeligheder.

Andreas Kirkedal

Det citat er faktuelt forkert og må være skrevet af en uden teknisk viden. I kernen af Watson Health ligger en statistisk model lavet af uddannede læger. Modellen hedder Lestrade eller er en udvikling af samme og er en 'graphical model'. Modellen er statisk og bliver sandsynligvis ikke opdateret vha. online learning, hvor den statistiske model bliver opdateret af input direkte, hvilket det ser ud til at være tilfældet med Tay. Dvs. at Watson ikke gennemgår tusindvis af artikler på et sekund, men returnerer sandsynligheder baseret på en statistisk model.

Log ind eller opret en konto for at skrive kommentarer

JobfinderJob i it-branchen