Dette indlæg er alene udtryk for skribentens egen holdning.

Har Googles AI opnået bevidsthed?

Af Erik David Johnson21. juni kl. 20:365
Artiklen er ældre end 30 dage

For nyligt blev der genereret en del opmærksomhed omkring at Google sendte en af deres ingeniører på orlov efter at denne påstod at deres kunstige intelligens LaMDA havde opnået bevidsthed. 

Prøver Google at tysse århundredets største videnskabelige milepæl ned mens de går i den strategiske tænkeboks for at finde ud af hvordan de skal håndtere så monumental en udvikling – eller prøver de at forhindre en enkelt persons vrangforestillinger i at skabe grundløs panik og/eller begejstring?

Jeg står ret stærkt på det sidste. Uanset hvor avanceret LaMDA er, er den stadig underlagt den logiske atomisme jeg netop har skrevet om i en af mine sidste indlæg. Kort sagt er det blot beregninger på hvorledes ord er placeret i forhold til hinanden. 

Det der er specielt ved LaMDA er så bare at den er trænet på samtaler, og ikke blot en masse beskrivende tekster. Det betyder også, at når den sættes til at svare på spørgsmål og indgå i dialog, så kan svarene være så overbevisende at selv en ingeniør (som i øvrigt også er praktiserende præst) kan se en sjæl imellem linjerne i svarene. 

Artiklen fortsætter efter annoncen

Og deri ligger pointen – vi tillægger alt for let en indre verden til det software der tilsyneladende svarer ud fra samme. Ifølge Blake Loimine baserer han da også sin vurdering på sin religiøse overbevisning, med reference til at der ikke findes nogen ordentlig videnskabelig definition af ”sentience”.

For ikke så længe siden påstod man at en forholdsvist simpel chatbot havde bestået Turing testen, hvor det er nok at narre samtalepartneren til at tro at en AI er en rigtig person – simpelthen ved at fingere at man er en 13-årig dreng fra Ukraine. Resultatet var ikke nogen stor milepæl for videnskaben, men viste snarere hvordan Turing testen ikke er et godt værktøj til at vurdere AI, og sjovt nok har Blake selv beskrevet LaMDA for et barn der ved en masse om fysik. 

Et bedre bud er måske ”Winograd Skemaer”, hvor man i højere grad er nødt til at strukturere den mulige verden i sin bevidsthed, som i nogen grad repræsenterer grundlaget for en samtale. Et eksempel kunne være: ”Bogen passer ikke ind i kufferten fordi den er for stor. Hvad er for stor? Bogen eller kufferten?” 

Her bliver det lidt sværere at svare korrekt uden at forestille sig ordene uden en skildring i sin indre verden, gennem sin bevidsthed, erfaring og kognitive kapacitet. Jeg ville gerne se LaMDA svare på en hel række af disse spørgsmål. Jeg ved ikke om den type test i sig selv er tilstrækkelig, men den er i hvert fald bedre end Turing testen.

Og lad os som opsummerende konklusion lige slå fast at ethvert dialogsystem baseret alene på beregninger af den relative samstilling af ord og fraser, ikke er intelligent eller bevidst på noget der ligner menneskelige præmisser!

5 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
5
1. juli kl. 01:19

Der er natuligvis meget begrænsning i at skulle forstå verden udelukkende ud fra tekster. Til sammenligning er det også svært at forklare en blind mand farven blå.

Jeg mener dog også vi overvurderer menneskets kapaciteter, katalysatorer, evne, motiver og drivkræfter. Og ofte ophøjer disse til et næsten overnaturligt niveau "vi er ikke dyr" (hvilket måske netop tydeligøre vore primitivetet og kognative begrænsninger).

2
23. juni kl. 09:10

Jamen så vil jeg da lege djævlens advokat og spørge hvornår / hvordan vi kan afgøre at nogen / noget er / har en selvstændig bevidsthed, for problemet er at vi som teknikere vil til enhver tid kunne afvise at en maskine har selvstændig bevidsthed med de argumenter der er nævnt.

For at gøre det hele værre bør man også tænke på at mennesker kan "omprogrammeres" aka. hjernevaskes hvilket rent teknisk godt kan omformuleres til at vi slet ikke har nogen "selvstændig bevidsthed" men bare et program som trækker på de data som er gemt i de små grå.

3
25. juni kl. 08:13

Hej Maciej, Jeg har i disse to interviews sagt lidt om hvad det vil sige at være menneske og have en bevidsthed, som jeg mener AI i bedste tilfælde kan simulere. Kort sagt handler det om at vi mennesker transcenderer nuet gennem historier og sprogspil der bygger på fortiden og rækker ind i fremtiden, og derved repræsenterer oplevelsen af mulige verdener. Jeg hører gerne hvad du tænker om disse:

https://ida.dk/viden-og-netvaerk/idas-podcast/techtopia/techtopia-episoder-2022/techtopia-242-hvorfor-er-siri-saa-dum

https://podcasts.google.com/feed/aHR0cHM6Ly9mZWVkLnBvZGJlYW4uY29tL2VkYjUwL2ZlZWQueG1s/episode/ZWRiNTAucG9kYmVhbi5jb20vYzllMmFhMGQtMDIyOC01MTllLTk1MDgtMTZjNWI3NzI4ZGMz?sa=X&ved=0CAUQkfYCahcKEwiwwsuw-cf4AhUAAAAAHQAAAAAQAQ

1
22. juni kl. 12:30

Giver mindelser om [Weizenbaum 1976] og Eliza . Eliza var et yderst simpelt samtalesystem som Weizenbaum lavede forsøg med. Han lavede en udgave han kaldte DOCTOR, en "Rogerian Psychotherapist" hvor "patienten" har en aktiv rolle i samtalen, og hvor "DOCTOR" i vidt omfang blot smider "patientens" vendinger tilbage i hovedet på patienten.

Weizenbaum iagttog dengang vantro at brugerne antropomorfiserede systemet og opfattede det som en rigtig samtalepartner. Se fx side 6: "Once my secretary [...som vidste det var et computerprogram...] started conversing with it. After only a few interchanges with it, she asked me to leave the room". Side 7: "Another widespread [...] reactin to the ELIZA program was the spread of a belief that it demonstrated a general solution to the problem of computer understanding of natural language". Side 189: "... people who knew little or nothing about computers ... would, after conversing with it for a time, insist, in spite of my explanations, that the machine really understood them."

Googles Lamda-ingeniør må formodes både at kende programmet og at vide meget om computere. Alligevel er det nærliggende at tro at ingeniøren er faldet for den samme illusion som Wezenbaums (lidt anekdotiske) forsøgspersoner.

Jeg tror heller ikke Lamda er heeelt der hvor man kan tale om en selvstændig, intelligent bevidsthed, singulariteten. Men det er helt sikkert spændende, i forhold til at kunne lave flydende interaktion via tale med computere (eller skriftlige chatbotter; jeg har blot en fortid inden for talesystemer), også i udgaver hvor man ikke er i nærheden af intelligens.

Joseph Weizenbaum: Computer Power and Human Reasoning, W H Freeman, 1976. (Bogen kan stadig anbefales).

4
25. juni kl. 08:22

Hej Hans

Af hjertet tak for dit fantastiske indlæg, som nærmest burde være en supplerende artikel. Jeg synes du har nogle gode, spændende pointer som jeg helt sikkert er enig i.

Jeg har faktisk for nyligt været inde i Techtopia og snakke om Lamda og denne menneskeliggørelse du nævner, sammen med forfatter og debattør Thomas Telving, som har skrevet bogen "Killing Sophia", hvor han dykker meget mere ned i denne menneskeliggørelse og hvad det betyder for os og vores interaktion med AI-agenter nu og i fremtiden:

https://telving.dk/killing-sophia/