For nyligt blev der genereret en del opmærksomhed omkring at Google sendte en af deres ingeniører på orlov efter at denne påstod at deres kunstige intelligens LaMDA havde opnået bevidsthed.
Prøver Google at tysse århundredets største videnskabelige milepæl ned mens de går i den strategiske tænkeboks for at finde ud af hvordan de skal håndtere så monumental en udvikling – eller prøver de at forhindre en enkelt persons vrangforestillinger i at skabe grundløs panik og/eller begejstring?
Jeg står ret stærkt på det sidste. Uanset hvor avanceret LaMDA er, er den stadig underlagt den logiske atomisme jeg netop har skrevet om i en af mine sidste indlæg. Kort sagt er det blot beregninger på hvorledes ord er placeret i forhold til hinanden.
Det der er specielt ved LaMDA er så bare at den er trænet på samtaler, og ikke blot en masse beskrivende tekster. Det betyder også, at når den sættes til at svare på spørgsmål og indgå i dialog, så kan svarene være så overbevisende at selv en ingeniør (som i øvrigt også er praktiserende præst) kan se en sjæl imellem linjerne i svarene.
Og deri ligger pointen – vi tillægger alt for let en indre verden til det software der tilsyneladende svarer ud fra samme. Ifølge Blake Loimine baserer han da også sin vurdering på sin religiøse overbevisning, med reference til at der ikke findes nogen ordentlig videnskabelig definition af ”sentience”.
For ikke så længe siden påstod man at en forholdsvist simpel chatbot havde bestået Turing testen, hvor det er nok at narre samtalepartneren til at tro at en AI er en rigtig person – simpelthen ved at fingere at man er en 13-årig dreng fra Ukraine. Resultatet var ikke nogen stor milepæl for videnskaben, men viste snarere hvordan Turing testen ikke er et godt værktøj til at vurdere AI, og sjovt nok har Blake selv beskrevet LaMDA for et barn der ved en masse om fysik.
Et bedre bud er måske ”Winograd Skemaer”, hvor man i højere grad er nødt til at strukturere den mulige verden i sin bevidsthed, som i nogen grad repræsenterer grundlaget for en samtale. Et eksempel kunne være: ”Bogen passer ikke ind i kufferten fordi den er for stor. Hvad er for stor? Bogen eller kufferten?”
Her bliver det lidt sværere at svare korrekt uden at forestille sig ordene uden en skildring i sin indre verden, gennem sin bevidsthed, erfaring og kognitive kapacitet. Jeg ville gerne se LaMDA svare på en hel række af disse spørgsmål. Jeg ved ikke om den type test i sig selv er tilstrækkelig, men den er i hvert fald bedre end Turing testen.
Og lad os som opsummerende konklusion lige slå fast at ethvert dialogsystem baseret alene på beregninger af den relative samstilling af ord og fraser, ikke er intelligent eller bevidst på noget der ligner menneskelige præmisser!

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.