Jesper sandal header

Vil en kunstig intelligens udslette menneskeheden?

Stephen Hawking er en ekstremt dygtig fysiker, som blandt andet har gjort rigtig meget for vores viden om sorte huller. Men har han ret, når han siger, at en kunstig intelligens vil kunne udslette menneskeheden?

Måske har professor Hawking set lidt for mange Holodeck-afsnit af Star Trek; det kan man i så fald ikke klandre ham for. Eller måske er det Rumrejsen 2001, WarGames eller Neuromancer. Det kan jeg heller ikke bebrejde ham.

Men hvor realistisk er det, at en kunstig intelligens får udslettet os alle sammen, hvad enten det måtte være med en selvreplikerende 3D-printet robothær eller vores egne atomvåben?

Inspireret af en Facebook-debat om BBC-artiklen (ja, sådan er mit Facebook-feed - hvordan går det med dit?), vil jeg lige uddybe mit syn på AI-mageddon.

Hvad er kunstig intelligens?

Vi taler allerede i dag om kunstig intelligens, både i form af IBM's Watson og skurkene i skydespil. Sidstnævnte er sjældent en trussel, bortset fra deres evne til at respawne. Sandheden er dog, at vi er langt fra at opnå noget, vi intuitivt kan betegne som et intelligent, kunstigt system.

Maskinlæring er 2014's varmeste buzzword og har pustet nyt liv i neurale netværk og andre spændende datalogiske discipliner. Men et sæt af algoritmer, som for hver iteration bliver bedre til at gætte en værdi for et sæt parametre, der er lidt bedre end tidligere, er en meget primitiv definition på intelligens.

Det er faktisk mere kunstig evolution, og det kommer jeg tilbage til.

I dag ved vi ikke, hvordan vi skal skabe en kunstig intelligens. Vi kunne prøve at simulere intelligens, men sådan en simulation vil være begrænset af vores opfattelse af intelligens. Og det er problematisk, for en kunstig intelligens kunne tænkes at være så fremmedartet for os, at vi ikke vil opdage, at der er tale om en kunstig entitet, før vi har lukket programmet ned.

Hvis en kunstig intelligens skulle udslette os, må vi formode, at det enten ville være utilsigtet eller overlagt. Sidstnævnte forudsætter et motiv, og det har science fiction-genren beskæftiget sig indgående med.

Det er dog under forudsætning af, at udslettelsen af menneskeheden sker som et frit valg for den kunstige entitet. Jeg finder det mere sandsynligt, at det vil ske som en programmeringsfejl eller fejlfortolkning af input - eller ligefrem manipulation fra menneskelig hånd.

Hvordan skaber vi en kunstig intelligens?

Til trods for Moores Lov og alle de afledte eksponentialfunktioner for it-udviklingen, så er software først og fremmest begrænset af, at et menneske skal udtænke det. En computer kan i dag ikke så mange andre grundlæggende ting i forhold til en computer for 50 år siden.

Der er dem, der taler om, at vi nærmer os 'Singulariteten'. Ikke forstået på Hawking'sk som i et sort hul, men i et punkt, hvor computerkraften overhaler mennesket.

En kunstig intelligens kunne således opstå ved, at vi slap tøjlerne og lod skyen bruge sin enorme regnekraft på at forbedre et stykke software. Det kræver ikke så stort et leap of faith at gå fra compilere, der i dag klarer meget af optimeringsarbejdet, til et neuralt netværk, der kan programmere en bedre version af sig selv.

Det vil i første omgang være begrænset af det arbejde, vi mennesker har udført. Processorer og datacentre er bygget efter vores bedste viden om computere, og det samme er programmeringssprogene. Men man kunne forestille sig at opstille en platform, som gjorde en selvprogrammerende enhed i stand til også at forbedre disse underliggende strukturer.

Hvordan kan en AI udslette os?

Mennesker er fysiske væsner. Uden for Harry Potter og D&D skal der mere end en Kill-kommando til at slå os ihjel. Der er mange måder at gøre det på, men de fleste tager lang nok tid til, at vi selv ville miste tålmodigheden, hvis det var et stykke software, vi ventede på.

Dræberrobotterne er Terminator-universets bud, efter Skynet blev en selvbevidst kunstig intelligens. Men der er et problem, hvis den kunstige intelligens er i form af et selv-evolutionerende algoritmesæt.

I den tid det vil tage at konstruere en hær af dræberrobotter og sende den efter menneskeheden, så vil algoritmen være gået gennem trillioner af evolutioner og være fuldstændig forandret. I så fald ville instruksen om at bygge en dræberrobot og 'kill all humans' være en urtidsproces, som den nye udgave af den kunstige intelligens ville have svært ved at forholde sig til.

Atomvåben er en lidt bedre mulighed, hvis den kunstige intelligens havde adgang til dem. Affyringen kunne ske som følge af en uheldig iteration af den kunstige entitet, men det ville næppe være tilsigtet.

Min tese er, at en kunstig intelligens vil være mere tilbøjelig til at udslette sig selv, længe før den kan nå at udslette menneskeheden.

Det er en anden singularitetstanke: Hvis vi en dag kan uploade os selv til en gigantisk computer, så kunne vi udleve millioner af simulerede, fantastiske liv i løbet af mikrosekunder. Vi ville hurtigt nå et punkt, hvor variationerne begyndte at ligne noget, vi havde oplevet før, og vi ville nok beslutte, at en quadrillion evigheder var tilstrækkeligt, og vi ville lukke vores program ned.

Set udefra kunne det med tilstrækkelig stor regnekraft se ud til, at vores uploadede bevidstheder valgte at udslette sig selv efter blot ét sekund.

Jeg tror, en kunstig intelligens, der får lov til at løbe frit med næsten ubegrænset regnekraft, vil gå samme vej. Den fysiske verden vil være uinteressant set fra en computer. Alting foregår i slow-motion, som kun bliver mere udtalt, jo mere den kunstige intelligens forbedrer sig selv.

Kan kunstig intelligens slå mennesker ihjel? Bestemt. Det kun et spørgsmål om tid, før de første droner bliver i stand til på eget initiativ at affyre deres våben. Selvkørende biler vil også kunne løbe ind i softwareproblemer og køre sig selv i havnen med låste døre. Software vil anbefale den forkerte medicindosis til patienter på hospitalerne.

Men der skal mere til at overbevise mig om, at der et sted, dybt inde i Amazon EC2-junglen bliver født en entitet bestående af algoritmer, som erobrer server efter server for til slut at vende ethvert internetopkoblet køleskab og hele Internet of Things mod menneskeheden.

Kommentarer (15)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Torben Mogensen Blogger

At tro, at kunstige intelligenser med verdensherredømme i tankerne kan opstå spontant gennem evolution tyder på en oversimplificeret ide om, hvad evolution er.

Endvidere er det naivt at tro, at regnekraften kan vedblive med at vokse eksponentielt: På et tidspunkt rammer man naturlige grænser såsom lysets hastighed, termodynamiske love og fysisk realiserbare dimensioner. Den menneskelige hjerne er langt fra optimal (fuglehjerner er f.eks. mere effektive i forhold til størrelsen end pattedyrshjerner), så man vil utvivlsomt komme til at konstruere computere, der tænker bedre end mennesker. Men der vil være grænser, og det kan sagtens være, at det er så kompliceret og dyrt, at der ikke vil være nogen økonomisk begrundelse for sådanne konstruktioner: Det vil i reglen bedre kunne svare sig at konstruere mere specialiserede computere end en fleksibel og alsidig AI.

  • 1
  • 1
Jens loggo

Spørgsmålet er vel hvilke interesser en sådan intelligens ville have, og om vi kommer i vejen for disse interesser, eller om vi bare er ligegyldige.

Tilstrækkeligt avancerede maskiner og software har sådan set ingen grund til at blive på Jorden. Hvis de vil forsøge at lære og forbedre sig, så må de jo videre, medmindre de har fået en slags tilknytning til jorden.

Som med andre arter, vil der måske udvikle sig forskellige grene, og nogen vil måske have fået interessen i at beskytte os mennesker, måske mod andre maskiner, måske mod os selv, i hvilket tilfælde vi kan ende med total overvågning og ikke meget frihed.

Indtil videre ser jeg ikke noget der er i nærheden af at det kan ske. Vi kan stadig bare slukke. Vi er godt nok ret handicappede uden strøm og netværk, men vi skal nok overleve.

  • 2
  • 1
Jesper Stein Sandal

Endvidere er det naivt at tro, at regnekraften kan vedblive med at vokse eksponentielt: På et tidspunkt rammer man naturlige grænser såsom lysets hastighed, termodynamiske love og fysisk realiserbare dimensioner.

Ja, det er også mit argument mod singularitetsprædikanterne. Eksponentialfunktioner har problemer over tid i den fysiske verden. Jeg vil tro, vi ikke er så langt fra, at en S-kurve begynder at tage form, men jeg er i denne diskussion villig til at lege med tanken om, at der kunne være en række teknologier, som kunne forlænge den eksponentielle udvikling - om ikke andet så udtrykt i databehandlingskraft pr. krone.

  • 1
  • 0
Frithiof Andreas Jensen

Den menneskelige hjerne er langt fra optimal ...


Det må man sige. Forskningen tyder på at nervesignaler er lydbölger, det vil sige at hjernen er en elektromekanisk konstruktion.

http://journals.aps.org/prx/abstract/10.1103/PhysRevX.4.031047

Jeg har en formodning om at standard-computere er tilsvarende begränsede af at hardwaren er seriel, digital samt designet til at holde sig på den sikre side af stöjgränser og andet "tilfäldighed", så "CPU'er" kan ikke udnytte kvanteeffekter på samme måde som hjerner formodentligt kan.

IBM arbejder på chips med hardware som mere ligner synapser end computere, men, jeg mener at vi stadigväk ved så lidt om hvordan intelligens egentligt opstår at man nemt kunne gå hen og blive särdeles overrasket, hvis nogen tilfäldigvis falder over et fungerende design.

  • 0
  • 1
Milos Game

Man skal huske på, at den krævede AI til at udslette menneskeheden ikke eksisterer lige nu, og derfor kan folk ikke forstå eller forstille sig at det kan ske.
For at kunne se fremtidens muligheder, er man nødt til kigge langt tilbage i fortiden - hvad der var umuligt dengang er muligt i dag.

Svaret til spørgsmålet "Vil en kunstig intelligens udslette menneskeheden?" er: Ja, på et eller andet tidspunkt i fremtiden.

Årsagen er meget simpel. Vi, mennesker, vil vil altid stræbe efter at udvikle teknologien ud over eksisterende rammer, og hvis vi samler al teknologi vi har tilrådighed i dag, så kan vi godt lave en low-end prototype af en Terminator (som kendt fra filmene). Vi bestræber os på at skabe en kunstig intelligens og samtidigt også hardware så vi kan bekæmpe krige uden tab af (egne) menneskeliv. Vi vil prøve på at begrænse AI'ens muligheder og ressourcer, men fordi mennesker er selvdestruerende og mener at vi har styr på alt, vil disse egenskaber smitte af på AI'en, som vi gerne ser ligner os så meget som muligt.
Når AI'en er nået et niveau, hvor vi betragter den som en trussel, vil vi forsøge at udrydde den - men vi har jo lært den at forsvare sig selv.

Menneskeheden vil højst sandsynligt blive udslettet som et resultat af selvforsvar fra AI'ens side.
Alternativt kan AI'en angribe menneskeheden, som et pre-emptive strike, for at komme menneskerne i forkøbet med hensyn til udslettelsen.

  • 2
  • 0
Henrik Eiriksson

Stephen Hawking har sagt og skrevet meget interessant, men denne gang snakker han altså ud af et vist sort hul. Problemet her er rent ud sagt at han er fysiker. Vi får sjældent andet end problemer når fysikere gør sig kloge på ting som lapper ind over biologi - som f.eks direkte farlige grænseværdier for elektromagnetisk stråling, baseret på en simpel og stendød model af et ellers hyperkomplekst og levende væsen. Referencen fra Frithiof er et eksempel på at biologien ikke altid opfører sig som fysikerne forlanger at det burde.

I denne diskussion om hvorvidt AI vil nakke menneskeheden synes jeg at Hawking burde slukke snakketøjet og læse en god bog om f.eks cellemembraner. Prepare to be humbled. Menneskeskabte computere kommer ikke engang i nærheden af selv én-cellede organismer, hvad angår kompleksitet, paralellitet og evne til at reagere/tilpasse sig omgivelserne. Bogen "The Biology of belief" af Bruce Lipton er en god introduktion til emnet.

  • 0
  • 2
Jan Gundtofte-Bruun

Jeg er overordnet enig i ovenstående debattører. Det er da langt værre med systemer som er for dumme, eller (værre!) systemer der tror (eller man tror) er smarte (nok), men ikke er det.

OK, det nakker næppe hele menneskeheden på een dag, men der er eksempler på industrirobotter der har tværet en stakkels tekniker ud langs væggen, eller folk der bliver klemt i automatiske transportmidler. Og så er der "automatiske sikkerhedssystemer" på virkelig store bomber (ahem, Fukushima) som faktisk HAR potentiale til at påvirke hele kloden, om end ikke på et øjeblik.

  • 0
  • 0
Peter Mogensen

Nope... ganske alm. gammeldags "stupidity" er det farligste.

Inden vi når så langt som til at en "kunstig noget-som-helst" vil true menneskeheden skal vi nok selv se at få sørget for det pga. ganske simpel fraværende intelligens.

Hvis ikke nogle få religiøse tosser med atomvåben et sted i verden gør det, så sker det ganske af sig selv ved at vi kollektivt sidder naturvidenskabens advarsler om konsekvenserne ved at øge drivhus-effekten overhørigt.
Med det tempo vi gør det med pt. bevæger vi og med faretruende hastighed i retning af klimascenarier, der med en smule uheld kan udvikle sig til noget ala Perm-Trias.

  • 3
  • 0
Jesper Stein Sandal

Med det tempo vi gør det med pt. bevæger vi og med faretruende hastighed i retning af klimascenarier, der med en smule uheld kan udvikle sig til noget ala Perm-Trias.

Vi er off-topic, men jeg ville måske sammenligne med den anden masseudryddelse og klimaforandring skabt af en livsform:

http://en.wikipedia.org/wiki/Great_Oxygenation_Event

På et tidspunkt må jeg skrive mit blogindlæg, hvor jeg rangordner min top 5 for extinction events. (Ikke at klimaforandringer er noget at spøge med - men måske netop derfor er det en grund til at gøre det)

  • 1
  • 0
Anonym

Hvis man ser koldt og kynisk på menneskeracens opførsel, så kan man foranledes til at tænke på en virus.
Menneskeracens "ophold" på planeten er gået fra et symbiotisk forhold og over til at være et forbrug / udnyttelse af resourcerne. Altså, hvis vi lige ser bort fra naturfolk. De fleste vira ( jeg i hvert fald lige kommer i tanke om ) udnytter værtsorganismens resourcer, hvilket i en del tilfælde ender ret så skidt ( værten stiller sutskoene ), og derved ødelægger virusset det for sig selv på længere sigt... Tsk tsk...

Lad os antage, at vi på et tidspunkt får en "selvstændig" AI, som sætter sig ned ( hvordan det lige skulle ske i praksis ) og lurer lidt på hvad, menneskerne er for en størrelse. Jeg tror, at den ret så hurtigt ville konkludere, at menneskeheden er en trussel imod planeten. Tror faktisk, at der er lavet et par film over dét tema.

Hvordan kunne sådan én så tage livet af os?
På DefCon ( mener det var 2010 ) blev det nævnt, at nogle nyere pacemakere kan tilgås via trådløse teknologier og rekonfigureres. Diverse biler har også en vis form for trådløs adgang. Man kunne ændre "jordniveau" for fly, så de "lander" fx. 300 m under niveau.
Hvis naturen er "acceptabel følgeskade" : Forgifte verdenshavene ved at lukke større mængder kemikalier / brændstoffer ud. Forurene luften ved at fx. starte brande. Forurene vandforsyningen.
Kort sagt, der er rigtig mange måder at tage livet af os på, som ikke involverer en metal-fætter med en plasmariffel.

Et andet spørgsmål : Hvad skulle en AI egentlig få ud af at overtage verdensherredømmet? Det skulle da lige være for at få standset "1864" og "Vild med dans".

  • 2
  • 0
Ole Olsen

Er der en mand, der virkelig har fået innovation og indbegrebet af al "Viden" ind med morgenmaden, som lille, og en mand som jeg virkelig stoler på, så er det Stephen Hawking. Når den mand gætter, så er det en selvopfyldende fakta, og jeg tror virkelig på, at vi allerede, den dag i dag, vil være i stand til, at få en hjerne til at "genopfinde" sig selv, uden at brænde sammen. Der findes "småtænkende" robotter i dag, som er i stand til at reparere sig selv. Der er ikke tale om nogen hjerne, i den gængse forstand, men princippet, kan der bygges videre på. Man har bygget en orm ind i en lille legetøjs-robot, og den virker, men er naturligvis begrænset i sin virkemåde. Hvad skulle afholde professorer, fra at bruge en menneskehjerne, fra nylig afdøde, til at lægge ind i en "robot" og derfra er der ikke så langt, til at lade den lære sig selv, forskellige ting, i meget stor fart. FANTASI - IDIOTI - MANGEL PÅ KLARHED ! Eller er jeg og mange andre blot visionære nok til at kunne se at en fremtid, der er uoverskuelig, er ikke noget vi skal dyrke. Hvilket jo også er det som Stephen Hawking advarer imod, og han står jo ikke alene, vel ?

  • 0
  • 0
Log ind eller Opret konto for at kommentere
IT Company Rank
maximize minimize