johnny lüchau bloghoved

Mens du venter på en chatbot der virker

I Danmark er den velfungerende chatbot lidt ligesom som den afskyelige snemand; der er mennesker som påstår de har set den, de peger på utydelige fodspor i sneen og måske kan de fremvise et sløret foto der ligner lidt, hvis man altså holder det i en bestemt vinkel og har en god fantasi.

De mennesker kalder vi chatbot-sælgere.

På trods af de talrige chatbot-projekter ude i fædrelandet, så er der stadig ingen der har kunnet fremvise en velfungerende chatbot, altså en chatbot som (billigt) kan svare på en lang række forskelligartede spørgsmål og dermed forhindre en (dyr) telefonsamtale.

Der er heller ikke udsigt til det, for den vigtigste forudsætning for at sådan én kan føre en (for brugeren) udbytterig samtale, er ikke til stede. Nede under chatbot'en ligger noget meget avanceret kode som hører ind under det vi insisterer på at kalde kunstig intelligens, nemlig Natural Language Processing (NLP).

NLP på dansk fungerer dårligt, fordi vi er et lille sprogområde og fordi man ikke rigtigt kan genbruge det arbejde der er lavet på f.eks. engelsk, da vores sprog er helt anderledes. Man skal næsten starte helt fra bunden, hvilket kræver mange ressourcer, og som det er lige nu, er der ingen producent, som kan eller vil, løfte den opgave alene.

Hvis man så alligevel vælger at kaste penge efter en chatbot, så vil man opleve at der skal bruges enorme mængder arbejdskraft på at skrive eller omskrive de svar den skal fodres med og så skal den sørme også "trænes".

Der er mange fejlslagne projekter derude, men kun de færreste vil stå frem og fortælle om det. I sidste uge trådte Tønder kommune frem og fortalte om deres dårlige erfaringer, men de fleste chatbot-fiaskoer fejes ind under gulvtæppet.

Men hvad skal vi så finde på?

Hvis man tænker lidt over hvorfor både private firmaer, statslige organer og kommunerne drømmer om chatbotter, så findes der faktisk initiativer som kan hjælpe dem i retning af deres mål.
Grundlæggende handler det jo om at lede kunder eller borgere over i en billigere kanal, selvbetjening, og så håbe at de får løst deres problem dér. På engelsk kalder man begrebet for "call deflection".

Det sted de fleste starter med at lede efter svar, er på firmaets hjemmeside. Det er ofte den selvsamme side man ønsker at "optimere" med en chatbot, fordi siden ikke løser opgaven, altså gør brugeren i stand til at finde det svar han eller hun søger. På hjemme- eller hjælpesiderne er der typisk et søgefelt på toppen og bag søgefeltet gemmer sig en søgemaskine, af en eller anden slags.
Sådan en søgemaskine, hvad enten den er "gratis" open source eller en kommerciel søgemaskine, så skal den konfigureres for at søge optimalt på dit indhold. Og her bliver der sprunget over hvor gærdet er lavest!

Hvordan bliver man klogere af at få 7534 hits på sin søgning?

Vi er alle sammen vant til at bruge Google og 75% af os klikker på de første to resultater på listen. Og det er jo fordi vi er vant til at Google rammer plet. Den vane tager vi jo med os alle de steder vi søger, så hvis man udstiller noget viden til kunder eller borgere, så skal man også have en ordentlig søgemaskine bag. Og den skal tunes!

Nogle af de steder hvor mange firmaer sjusker lidt med deres søgemaskine, er f.eks. at de glemmer at lave en synonym-ordbog, eller at lave en liste med fyldord (altså ”at”, ”og” osv) som skal ekskluderes fra søgninger og ind i mellem glemmer man også at lave fuld tekst-indeksering.
Hvis man f.eks. tager en udbredt open-source søgemaskine som Apache Solr, så kommer den med en synonyms.txt file og en stopwords.txt file. De er enten tomme eller indeholder lidt tekst til at starte på, men det er meningen man skal bruge dem aktivt.

Prøv at finde prisen på Karrusel på Legos danske hjemmeside, ved først at skrive ”hvad koster karrusel” og dernæst at søge med ”hvad er prisen for karrusel”. Hvis der var en vedligeholdt synonymordbog på webstedet, så ville man ikke få henholdsvis 48 og 21 hits.

På samme måde kan man søge med sætningen ”hvad koster det at lære dansk” og så ”pris dansk” på forskellige kommunale sites og få virkelig spøjse resultater. Én af dem gav mig over 7500 hits på en søgning med førstnævnte sætning og de første 3-4 stykker handlede om noget helt andet, fordi fyldordene va repræsenteret i større antal end i den artikel jeg ledte efter.

En klassiker jeg fandt på 7 ud af 10 websider, var at søgningen ikke tog min kontekst med. Altså, selvom jeg havde klikket mig ned i en kategori som f.eks. ”Barnepasning” inden jeg søgte, så fik jeg bunker af hits fra andre kategorier. Sjusk!

Der er sikkert folk der ved meget mere om at konfigurere søgemaskiner, men min pointe er bare at rigtigt mange websider med information, som skal gøre folk selvhjulpne, kan gøres meget bedre.

"Nu skriver jeg alt hvad jeg ved om emnet i en artikel og så publicerer vi det"

Man kan også hjælpe sin søgemaskine, ved at skrive eller omskrive hjælpe-artiklerne efter devisen "ét spørgsmål, ét svar" i stedet for lange artikler, indeholdende alt hvad vi ved om et emne. Hvis du laver dine hjælpe-artikler om på den måde, bliver de meget kortere og mere præcise. Det er nemmere for søgemaskinen at arbejde med og faktisk hjælper du også en eventuelt fremtidig chatbot, for den skal også "fodres" med korte, præcise svar.

Best practise indenfor knowledge management (som det her jo er en variant af) er at skrive spørgsmålet i overskriften og svaret på det i første sætning. Det kan kombineres, så du supplerer dine ”lange” artikler med korte, relaterede FAQ’er og forbinder dem. Man kan også vælge at holde de lange artikler indenfor firmaet eller organisationen, og nøjes med at stille de korte FAQ’er til rådighed for publikum i apps og på websider.

Det bringer os jo til spørgsmålet om hvilket software man skal bruge. Det er ikke ualmindeligt at man bare bruger det CMS man allerede bruger til sit website eller måske et andet system, som man også bruger til andre ting. Det er ikke nogen god idé, uanset hvad din webmaster siger.

Det kan godt betale sig at bruge noget software der er beregnet til formålet. Det kan være alt fra happyfox.com over Zendesk til eGain, men hovedsagen er at det er bygget til at administrere medarbejder- og kundevendt viden. Det betyder som regel at man kan indtaste keywords, forventede søgefraser den skal svare på, relevante links til relaterede artikler, billeder, film og hele molevitten. Og så skal det naturligvis kunne styre udløbsdatoer og artiklerne skal kunne trækkes ud via et API og formateres så det passer til den kontekst de vises i. Og jeg kunne blive ved.

Lyder det som hårdt arbejde at få kunder og borgere gjort mere selvhjulpne? Så har du hørt helt rigtigt. Det koster hjernemuller og knofedt og ingen chatbot i verden kan redde dig fra det.

Men, det giver dig noget værdifuldt at lave imens du venter på en chatbot der virker.

Relateret indhold

Kommentarer (4)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Andreas Kirkedal

Hej Johnny

Jeg synes du har en god pointe i at man skal have en god struktur og søgemaskine, så man kan finde information på sin hjemmeside, men du bekræfter mit indtryk af, at du er en halvstuderet røver, når du påstår at NLP hører under kunstig intelligens.

Alternativt går den søgemaskine du bruger kun tilbage til ca. 2006 og har brug for at blive tunet.

NLP har i lang tid været regelbaseret og det meste velfungerende kommercielle NLP er en blanding af regelbaserede og statistiske NLP modeller.

Derudover kan jeg nævne at konceptet 'stopord' kommer fra NLP (aka computational linguistics) og selvom der er mange generelle stopord på et sprog er der som regel fag-/domænespecifikke stopord, som man skal finde med en termfrekvensanalyse. Det samme holder i mindre grad for synonymer.

Søgning kan koges ned til at man gerne vil matche en søgestreng til et dokument. Klassisk vægter man ordene i et dokument med f.eks. TF-IDF (Term Frequency-Inverse Document Frequency) og man behandler søgestrengen på samme måde for at lave et match mellem dokument og søgestreng i en vector-space model. TF-IDF har rødder i NLP og information retrieval.

Jeg synes din pointe om at gøre en hjemmeside 'mere søgbar' er god, men du bør forbedre dit kendskab til NLP. En god begynderbog er https://web.stanford.edu/~jurafsky/slp3/

  • 0
  • 1
Hans Nielsen

Er jo også den eneste måde at finde noget på Version2.

Måstte selv vise dette fix til en kommunal medarbejder, som ikke kunne finde noget, som jeg bare skulle kunne finde på deres hjemmeside.

Og er stadigt på mange sider, med avanceret søgning langt den bedste måde at finde noget på. Mange hjemmesider har taget konsekvensen og har indraget google når man søger på deres sidder.

Klogt og nemt på den korte banne og lige nu.


Men tilbage til bot. Har version2 hørt noget mere fra Tønder kommune, og er det loveligt at have alle de link og integreringer på en kommunal hjemmeside.

https://www.version2.dk/artikel/toender-kommune-chatbot-pilot-kaempe-arb...

Der tænkes på

https://toender.dk/

https://www.instagram.com/toenderkommune/

https://www.youtube.com/user/ToenderKommune/

https://www.facebook.com/toenderkom/

https://twitter.com/ToenderKommune/

https://www.linkedin.com/company/tonder-kommune/

  • 0
  • 0
Leif Neland

Hvis man kunne få lov at lave en søgning selv, kunne det være en begyndelse.

Hvis jeg søger på "Mellemgasfordeler Toyota", så vil jeg have de artikler, der indeholder "Mellemgasfordeler" OG "Toyota", ikke dem der bare indeholder et af ordene.

Og jeg vil have mulighed for at skrive "Mellemgasfordeler Toyota -benzin", hvis jeg ikke vil have benzin i søgeordet.

I stedet for at forsøge at proppe intelligens ind i maskinen, så lad være med at ignorere brugerens intelligens.

  • 2
  • 0
Log ind eller Opret konto for at kommentere
IT Company Rank
maximize minimize