Tesla-stifter donerer 64 mio. kr. for at forhindre kunstig intelligens a la Skynet

Illustration: leowolfert/Bigstock
Der er store risici forbundet med udviklingen af kunstig intelligens ifølge direktøren for SpaceX og Tesla, Elon Musk, som har bidraget til forskning på området.

Science fiction-scenarier, hvor kunstig intelligens (AI) udvikler sig og vender sig mod sin skaber for at udslette menneskeheden, er der rigeligt af. Men ikke kun i fantasiens verden er der dem, der bekymrer sig om udviklingen på området, og derfor har den entreprenante Elon Musk doneret knap 64 mio. kr. til Future of Life-instituttet, som forsker i at forebygge eksistentielle risici for den menneskelige race. Det skriver det amerikanske teknologimedie Techcrunch.

Elon Musk har tidligere udtrykt sin bekymring for, hvad AI kan udvikle sig til, og hans bidrag er derfor øremærket til forskning i, hvordan man sørger for, at den kunstige intelligens bliver ved med at være gavnlig for menneskeheden.

»Her er alle disse ledende AI-forskere, som siger at sikkerhed på området er vigtigt,« sagde Elon Musk ifølge Techcrunch. Han refererede blandt andet andet til et åbent brev fra MIT-professoren Max Tegmark.

Donationen har banet vej for en konkurrence blandt forskere om, hvad midlerne skal gå til. Der vil blandt andet blive kigget efter projekter fra AI-forskere, men også inden for etik, jura, økonomi og andre relaterede områder.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (29)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
John niss Hansen

Manden må have en skrue løs, intelligens og magt er to forskellige ting. I et demokrati bliver gode råd afvejet mod hinanden og de endelige beslutninger tages af dem der har monopol på intentionerne og som ejer maskinerne. Brydes tilliden så skrotter man bare maskinen med al dens AI.

Pascal d'Hermilly

Hej John. Hvordan vil du "skrotte maskinen" hvis den er på internettet? Hvor lang tid tid vil det tage den at finde exploits på nettet og inficere andre maskiner på. Der går ikke langt tid før den består af et netværk af computere af alt fra din smartphone til Amazons datacenter. Det kan man ikke bare skrotte. Det er en god idé at lave noget forskning på hvordan man undgår at den pludselig ser sig selv som det vigtigste og mennesket som en potentiel risikofaktor.

Mads Buch

Vis lige hvordan en maskine skulle kunn få andre intetioner end dens ejer ønsker.

Det er super interessant om det kan lade sig gøre at simulere intelligens i andre systemer end vores egen hjerne. Men så vidt jeg ved er der intet i vejen for at det skulle kunne lade sig gøre, spørgsmålet er bare hvordan? Men der plejer jo at komme et svar på sådanne spørgsmål før eller siden.

Relateret: Kan du have andre intentioner end dem din mor har opdraget dig til?

John niss Hansen

Ja det kan jeg. Mine omgivelser har heller ikke ønsket at få fuld kontrol over mig, men derimod et selvstændigt individ. Når mennesket bruger maskiner, er det os der har intentionen. Ønsket om at udstyre maskiner med intelligens, er et andet end ønsket om at udstyre maskiner med et alternativt værdisæt. Vi kender kun alt for godt til hacking og virus, hvor fremmede får adgang hvor de ikke skulle. Men hvis man ønsker maskiner hvor det ikke kan ske, så laver man det. Heldigvis da.

svend andersen

Spørgsmålet er meget relevant hvornår kan"systemer" gøres ansvarlige for handlinger der har medført en form for lovbrud, køb/salg af aktier,
droner der "selv" tager beslutningen angrib! Måske Azimovs 3 love burde overvejes noget mere.

Fleming Grøfte

Hvis man har fakta nok til rådighed og kan systematisere dem til den mest "intelligente" konsekvens heraf behøver dette jo ikke være til menneskets fordel! Faktisk er intelligens uden de menneskelige egenskaber lidt uhyggelig.

John niss Hansen

Nu er menneskets fordel jo sjælden helt så entydigt, derfor er der jo ofte delte meninger om dette og hint. Man må også formode at man kan få en fyldestgørende forklaring på et uventet svar. Hvilke konsekvenser man vil drage af det intelligente svar, er ikke givet.

Thomas Dynesen

De neurale netværk man har nu kan genkende alt muligt fx katte i u-tube videoer med en sikkerhed der er næsten lige så god som den mennesker kan præstere. Problemet er at man ikke forstår hvorfor de virker! De er ikke lavet med faste regler som de ekspertsystemer man lavede for 10-15 år siden. Det er lidt som vores forståelse af hjernen. Man ved ufatteligt meget om hvordan en neuron virker, helt ned på molekylær niveau. Men derfra til at forstå hvordan et netværk af disse neuroner kan genkende katte, tale og have en bevidsthed er der et kæmpespring som ikke er taget endnu. Når man har lært et netværk at genkende ting ved man jo præcist hvordan det ser ud ned til sidste bit. Men vi forstår stadig ikke hvorfor det kan genkende katte, og hvorfor det nogen gange tager fejl og ikke genkender en eller genkender en der ikke er der. På en eller anden måde er statistik involveret. Se her: https://www.quantamagazine.org/20141204-a-common-logic-to-seeing-cats-an... og http://www.wired.co.uk/news/archive/2015-01/06/simple-pictures-ai

Anders Kjærgaard Hansen

Det er vel det der er så skræmmende med AI.

Ligesom normal intelligens fungerer det ud fra et handling->feedback loop. Hvis handlingen giver positiv feedback => så må det være en god handling at udføre.

På samme måde som mennesker der bliver fodret med ulovlig/forkert feedback kan ende med at gøre ting som andre opfatter som værende forkert, men som personen der udfører handlingen opfatter som legitim opførsel - således er frygten at AI over tid kan skride i deres "moralbegreb".

Mennesker kan blive kriminelle, terrorister, pædofile eller andet som flertallet vurderer indebærer en forkert handling.

Frygten er vel at f.eks at et autonomt våbensystem kan opsamle information, og på baggrund af små "forkerte" handlinger der bliver vurderet samlet som positive, kan ende med at lave frygteligt forkerte handlinger.

Alternativt at kriminelle ender med at forstå handlingsmønstret - og formår at justere AI'ens hukommelse.

John niss Hansen

Kunstig intelligens står i en vis modsætning til naturlig intelligens. Ikke så meget i hvad man forstår ved intelligens, men snarere ii hvordan denne intelligens er frembragt. Kunstig intelligens som den er kendt idag, frembringes af software der i princippet kører på en universel computer. En praktisk instans af et sådant system benytter en database, der kan være opstået ved processer der minder om indlæring.

Thomas Dynesen

En praktisk instans af et sådant system benytter en database, der kan være opstået ved processer der minder om indlæring.

Jah, database og database. Det er ikke en database i traditionel forstand. Det man ændrer når et neuralt netværk bliver optrænet er de vægte der er tilknyttet til forbindelserne mellem de kunstige neuroner, det er "bare" nogle variable i programmet. Og hvordan de enkelte værdier relaterer sig til evnen til at genkende en kat i et billede eller spille et computerspil fra 80'erne som Breakout er der ikke en kat der forstår. Se den spille her: http://www.wired.com/2015/01/ai-arrived-really-worries-worlds-brightest-... Den er langt bedre end noget menneske efter kun 240 minutters træning. Læs mere om de algoritmer man bruger til træning her: http://en.wikipedia.org/wiki/Restricted_Boltzmann_machine

Tine Andersen

Potentielt kunne gøre ondt: Du kan måske ikke åbne køleskabet, hvis du har brugt din ration af kalorier, du må ikke drikke mere kaffe (kun koffeinfri), og du skal ud og løbe- for din sundheds skyld. (Jeg har afgjort både læst og set for meget SciFi! :-) )

Om AI er "ondt" eller "godt"- skal jeg ikke kunne sige, det kommer vel stadig an på, hvem/hvordan- det bruges. Neurale netværk er stadig væk noget, der er emergent: Summen af helhederne gør mere end enkeltdelene i sig selv- og vi ved ikke rigtigt hvorfor/hvordan.

Jeg har (i "The science of Discworld I") læst om en meget interessant emulering af et kredsløb (circuitboard)- siden det var dyrt og besværligt at sætte n antal kredsløb op, emulerede ingeniøren dem i noget software. De skulle modtage to input- og afgive to output (forskellige). I en del generationer var input=output, så blev det ene output ingen lyd, og efter en del generationer endte kortet på ret få aktive celler. Et par kunne fjernes, men en gruppe på 5, der endda ikke havde forbindelse med de andre, kunne ikke: Så virkede det hele ikke.

Eksperimentet er tankevækkende!

Det kan sige noget om, dels emergens- og dels, at vi faktisk ikke ved så meget om "becomings", som vi gerne vil tro...

Mvh
Tine- lige præcis AI er jeg ikke paranoid over-endnu. ;-)

Log ind eller Opret konto for at kommentere
Brugerundersøgelse Version2
maximize minimize