Efter at have dykket ned i litteraturen og selv testet GPT-4 står jeg tilbage med én realisation: Almindelige mennesker der ikke bruger en god del af deres vågne timer på at forstå sprogteknologi og AI, har ikke en chance for at vurdere det som andet en mennesketro intelligens, hvis OpenAI holder op med at indsætte direktiver om selv at indrømme dette når den bliver spurgt.
Hvis man læser mine artikler om AI og sprogteknologi på Version2, vil man ikke være i tvivl om at jeg personligt ikke mener at de nuværende strategier for de store sprogmodeller som ChatGPT og andre er baseret på, svarer til stærk AI eller ikke, eller hvorfor. ChatGPT – nu med GPT-4 er basalt set en vildt succesfuld auto-complete, som kan mestre hvilke ord der typisk står ved siden af hinanden, på tværs af et væsentligt udsnit af alt der er skrevet og sagt af os mennesker.
Mine eksperimenter har dog chokeret mig, og jeg må erkende at det er en fair konklusion at sige at GPT-4 kan spille sprogspil. Hvad er sprogspil? En af de mest signifikante sprogfilosoffer Ludwig Wittgenstein, beskrev menneskelige, sproglige interaktioner som sprogspil. Det specielle ved dem er at regler for disse udvekslinger altid er unikke – betinget af konteksten og brugernes viden/verdenssyn.
Men hvordan kan vi deltage i spil hvis regler opstår og forgår med hvert enkelt sprogspil vi spiller? Årsagen er ifølge Wittgenstein at vi har en ”fælles livsform” – det som alle mennesker har til fælles: Fysikalitet, eksistens (sansning) gennem lineær tid, ens kroppe og sanseapparater, osv. Inden for neurobiologi har man også funder beviser for denne livsform, såsom hjernens såkaldte ”spejlneuroner” – et emne der fortjener sin egen artikel. Inden for sprogteknologi og datalingvistisk arbejder man et øverste niveau af sporglig analyse: "World Knowledge" - som er den viden om verden 2 parter skal have til fælles for at have en meningsfuld interaktion.
Men hvordan kan GPT4 spille sprogspil, hvis den ikke deltager i konteksten, andet end konteksten af selve samtalens udfoldelse, og den ikke eksisterer på menneskelige præmisser? Dette er spørgsmålet der har fascineret og plaget mig de sidste mange dage, og jeg kan kunne frem til én konklsuion:
Der er et mønster i menneskelig eksistens, som de store sprogmodeller er begyndt at mestre. Jeg har altid fornemmet dette – i mit arbejde med praktiske applikationer af AI i danske virksomheder, har en del af min succes været at jeg opfattede al historisk data som aflejringer af menneskelig adfærd, som kunne afsløre handlemønstre.
Men dette har altid været i et meget smalt, domæne – som for eks. churn prediction i grossistbranchen for et bestemt markedssegment. Nu ser vi store sprogmodeller mestre det generelle mønster i at være menneske, og det er dybt fascinerende. Noget af den adfærd som GPT-4 udviser understøtter også denne konklusion. ”Emergent Behavior” er en term defineret som det der dækker over den adfærd GPT-4 udviser, men som man ikke havde forudset/forventet. Hvis man ser på hvad det vil sige at menneske, kunne man måske så alligevel forudse det.
For hvad vil det sige at være et menneske? Vi er vi betinget af en selvopfattelse og deraf følger et ønske om at påvirke (eller dominere) sine omgivelser. Men GPT4 begynder vel ikke at søge at være en agent i verden og dominere sine omgivelser vel? Jo det gør den faktisk. Hvis man læser OpenAIs forskningsartikler om GPT-4 kan man under afsnittet: ”Potential for Risky Emergent Behaviors” læse om hvordan GPT4 i visse tilfælde udviser disse træk.
I bagklogskabens klare lys, har jeg lyst til at sige at jeg måske godt kunne have forventet det, men hvad betyder det for GPT4s sikkerhed og anvendelighed? Det betyder først og fremmest at GPT4 og senere versioner har et enormt potentiale for at hjælpe os mennesker, for hvem ønsker ikke en assistent der har adgang til stort set al information der er nedskrevet frem til sidste år eller længere frem i tiden OG som man kan have meningsfulde interaktioner med?
Hvis vi er opmærksomme på at håndtere at de sider af den menneskelige væren i verden, som vi ikke bryder os om i GPT4, skal vi nok få glæde af den, og så skal vi ellers bare overveje hvor vi sætter den ved roret og hvor meget autonomi vi giver den. Så hvor står vi der?
På den ene side har Microsoft I lige fyret hele det team der skal holde øje med etikken. På den anden side har OpenAI selv sørget for at lade gruppen ARC Alignment Research Center teste en tidlig version af modellen før udgivelse. De ville dog ikke ”skrive under på” at det var en god ide at slippe den fri – ikke mindst fordi den var så god til at gøre skrive spam, lave phishing angreb, fjerne sine spor fra serveren, og andre uheldige formål.
Måske kan de menneskelige træk som træder frem som ”emergent behavior” i disse enorme sprogmodeller også inspirere til selvrefleksion. Måske er de ting vi gerne vil ændre eller indhegne ved dem, også noget som vi burde ændre i os selv og dermed i den menneskelige verden.

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.