Dette indlæg er alene udtryk for skribentens egen holdning.

GPT-4 udviser menneskelige træk

18. marts kl. 10:1111
GPT-4
Illustration: OpenAI.
Artiklen er ældre end 30 dage

Efter at have dykket ned i litteraturen og selv testet GPT-4 står jeg tilbage med én realisation: Almindelige mennesker der ikke bruger en god del af deres vågne timer på at forstå sprogteknologi og AI, har ikke en chance for at vurdere det som andet en mennesketro intelligens, hvis OpenAI holder op med at indsætte direktiver om selv at indrømme dette når den bliver spurgt.

Hvis man læser mine artikler om AI og sprogteknologi på Version2, vil man ikke være i tvivl om at jeg personligt ikke mener at de nuværende strategier for de store sprogmodeller som ChatGPT og andre er baseret på, svarer til stærk AI eller ikke, eller hvorfor. ChatGPT – nu med GPT-4 er basalt set en vildt succesfuld auto-complete, som kan mestre hvilke ord der typisk står ved siden af hinanden, på tværs af et væsentligt udsnit af alt der er skrevet og sagt af os mennesker.

Mine eksperimenter har dog chokeret mig, og jeg må erkende at det er en fair konklusion at sige at GPT-4 kan spille sprogspil. Hvad er sprogspil? En af de mest signifikante sprogfilosoffer Ludwig Wittgenstein, beskrev menneskelige, sproglige interaktioner som sprogspil. Det specielle ved dem er at regler for disse udvekslinger altid er unikke – betinget af konteksten og brugernes viden/verdenssyn.

Men hvordan kan vi deltage i spil hvis regler opstår og forgår med hvert enkelt sprogspil vi spiller? Årsagen er ifølge Wittgenstein at vi har en ”fælles livsform” – det som alle mennesker har til fælles: Fysikalitet, eksistens (sansning) gennem lineær tid, ens kroppe og sanseapparater, osv. Inden for neurobiologi har man også funder beviser for denne livsform, såsom hjernens såkaldte ”spejlneuroner” – et emne der fortjener sin egen artikel. Inden for sprogteknologi og datalingvistisk arbejder man et øverste niveau af sporglig analyse: "World Knowledge" - som er den viden om verden 2 parter skal have til fælles for at have en meningsfuld interaktion.

Artiklen fortsætter efter annoncen

Men hvordan kan GPT4 spille sprogspil, hvis den ikke deltager i konteksten, andet end konteksten af selve samtalens udfoldelse, og den ikke eksisterer på menneskelige præmisser? Dette er spørgsmålet der har fascineret og plaget mig de sidste mange dage, og jeg kan kunne frem til én konklsuion:

Der er et mønster i menneskelig eksistens, som de store sprogmodeller er begyndt at mestre. Jeg har altid fornemmet dette – i mit arbejde med praktiske applikationer af AI i danske virksomheder, har en del af min succes været at jeg opfattede al historisk data som aflejringer af menneskelig adfærd, som kunne afsløre handlemønstre. 

Men dette har altid været i et meget smalt, domæne – som for eks. churn prediction i grossistbranchen for et bestemt markedssegment. Nu ser vi store sprogmodeller mestre det generelle mønster i at være menneske, og det er dybt fascinerende. Noget af den adfærd som GPT-4 udviser understøtter også denne konklusion. ”Emergent Behavior” er en term defineret som det der dækker over den adfærd GPT-4 udviser, men som man ikke havde forudset/forventet. Hvis man ser på hvad det vil sige at menneske, kunne man måske så alligevel forudse det.

For hvad vil det sige at være et menneske? Vi er vi betinget af en selvopfattelse og deraf følger et ønske om at påvirke (eller dominere) sine omgivelser. Men GPT4 begynder vel ikke at søge at være en agent i verden og dominere sine omgivelser vel? Jo det gør den faktisk. Hvis man læser OpenAIs forskningsartikler om GPT-4 kan man under afsnittet: ”Potential for Risky Emergent Behaviors” læse om hvordan GPT4 i visse tilfælde udviser disse træk.

Artiklen fortsætter efter annoncen

I bagklogskabens klare lys, har jeg lyst til at sige at jeg måske godt kunne have forventet det, men hvad betyder det for GPT4s sikkerhed og anvendelighed? Det betyder først og fremmest at GPT4 og senere versioner har et enormt potentiale for at hjælpe os mennesker, for hvem ønsker ikke en assistent der har adgang til stort set al information der er nedskrevet frem til sidste år eller længere frem i tiden OG som man kan have meningsfulde interaktioner med?

Hvis vi er opmærksomme på at håndtere at de sider af den menneskelige væren i verden, som vi ikke bryder os om i GPT4, skal vi nok få glæde af den, og så skal vi ellers bare overveje hvor vi sætter den ved roret og hvor meget autonomi vi giver den. Så hvor står vi der?

På den ene side har Microsoft I lige fyret hele det team der skal holde øje med etikken. På den anden side har OpenAI selv sørget for at lade gruppen ARC Alignment Research Center teste en tidlig version af modellen før udgivelse. De ville dog ikke ”skrive under på” at det var en god ide at slippe den fri – ikke mindst fordi den var så god til at gøre skrive spam, lave phishing angreb, fjerne sine spor fra serveren, og andre uheldige formål.

Måske kan de menneskelige træk som træder frem som ”emergent behavior” i disse enorme sprogmodeller også inspirere til selvrefleksion. Måske er de ting vi gerne vil ændre eller indhegne ved dem, også noget som vi burde ændre i os selv og dermed i den menneskelige verden.

11 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
10
24. marts kl. 01:04

Jeg kan forestille mig at disse sprogmodeller vil være gode til at gætte kodeord hvis de får lidt basal viden om en given person.

9
23. marts kl. 11:46

Vi venter vel kun på en "FLASH" meddelelse ?

5
21. marts kl. 11:53

At kalde ChatGPT for intelligent (kunstig eller ej) er efter min mening et misbrug af begrebet. Den er reelt set en papegøje, som kun kan gentage, hvad den har hørt, men siger forskellige ting baseret på det, den hører. Det er bare en papegøje med et meget stort ordforråd.

6
21. marts kl. 13:50

Det er bare en papegøje med et meget stort ordforråd.

Man skal forklare tingene så simpelt som muligt, men heller ikke simplere.

At reducere ChatGPT til en papagøje er en overforsimpling. ChatGPT kan faktisk svare på et spørgsmål, så det for spørgeren virker som om svaret passer til spørgsmålet. Den er ikke "rigtig" intelligent, men kan producere brugbare resultater, som kan være svære at skelne fra dem et menneske kan frembringe. Det kan ingen papegøje, heller ikke i mindre skala, eller indenfor et område, der passer til dens ordforråd.

7
21. marts kl. 14:01

Den er ikke "rigtig" intelligent, men kan producere brugbare resultater, som kan være svære at skelne fra dem et menneske kan frembringe.

Nogen gange kan svarene være brugbare, ja, men lige så ofte er det komplet meningsløst vås, som bare på overfladen ser meningsfyldt ud. Det er ligesom en papegøje: Nogen gange giver det, den siger, mening, og andre gange slet ikke, for det er ren overflade-imitation uden dybere forståelse. Netop ligesom ChatGPT.

11
24. marts kl. 01:10

Jeg gav ChatGPT 3 en kilde kode til et program jeg har lavet for noget tid siden, og spurgte hvad det var. Den kunne give mig en overordnet beskrivelse af hvad koden gjorde og desuden også en beskrivelse af de afhængigheder som jeg ikke havde vedlagt, men som den åbenbart kunne beskrive ud fra kontekst. Det kan en papegøje trods alt ikke.

8
22. marts kl. 06:34

Det er ligesom en papegøje

Nej, en biologisk papegøje er for simpel en sammenligning. Et mere brugbart billede er Emily Benders begreb "stokastisk papegøje": https://dl.acm.org/doi/10.1145/3442188.3445922

... et system til tilfældigt at sammenføje sekvenser af sproglige former (tokens), som det har observeret i sine enorme træningsdata, ifølge sandsynlighedsoplysninger om, hvordan de kombineres, men uden nogen henvisning til betydning: en stokastisk papegøje.

(mit hurtige forslag til oversættelse af 6.1 , sidste afsnit)

3
20. marts kl. 12:13

"Den" er ikke god til at "fjerne sine spor fra serveren"

"Den" er god til at beskrive metoder til at fjerne spor fra en server.

Og hvis ikke man adskiller dette, så hælder man bare benzin på click-bait bålet.

Jovist "den" har et versionsnummer, som vi godt kan sige, identificerer "den". Men "den" er ikke selv-replikerende ligesom gener og memer. Så det er lidt tyndt, at antyde eller propagere at "den" er "sluppet fri", og dermed skulle kunne gemme "sig" og slette "sine" spor fra servere.

Memet her er LLM teorierne, der ligesom det meste anden videnskab muterer og udvikler sig, og replikerer sig kulturelt og i bevidstheder.

Singulariteren har ikke indfundet sig. Og jeg tror man trygt vil kunne give "den" root adgang til en serverpark, uden at nogen seriøst ville frygte at "den" ville kunne udrette noget særligt sammenlignet med et dedikeret menneskeligt team.

Selvfølgelig påvirker "den" måden vi opfører os på. Det er et værktøj, ligesom en hammer, Wikipedia og Google. Og så længe det er nyttigt, bruger vi "den".

4
21. marts kl. 07:35

Kære Martin Dahl

På den ene side vil jeg give dig ret. På den anden side, synes jeg at jeg i artiklen, og ikke mindst i den understøttende artikel "GPT-3 er ikke stærk AI", har gjort denne pointe så tydeligt at der var plads til disse formuleringer.

Det er en svær balance at få hele publikum med, og at være teknisk præcis. Jeg takker for kritikken, som jeg vil bruge til at guide mig i min videre færd på denne knivsæg.

Vh.

Erik David Johnson

2
19. marts kl. 22:43

Jeg kom til at tænke på GIGO;)

1
19. marts kl. 21:26

Jeg har tænkt på et citat til at indkapsle tankerne i denne artikel: "Large Language Models are the timeless ghosts of everyone".