Tesla-stifter donerer 64 mio. kr. for at forhindre kunstig intelligens a la Skynet

16. januar 2015 kl. 15:2729
Der er store risici forbundet med udviklingen af kunstig intelligens ifølge direktøren for SpaceX og Tesla, Elon Musk, som har bidraget til forskning på området.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Science fiction-scenarier, hvor kunstig intelligens (AI) udvikler sig og vender sig mod sin skaber for at udslette menneskeheden, er der rigeligt af. Men ikke kun i fantasiens verden er der dem, der bekymrer sig om udviklingen på området, og derfor har den entreprenante Elon Musk doneret knap 64 mio. kr. til Future of Life-instituttet, som forsker i at forebygge eksistentielle risici for den menneskelige race. Det skriver det amerikanske teknologimedie Techcrunch.

Elon Musk har tidligere udtrykt sin bekymring for, hvad AI kan udvikle sig til, og hans bidrag er derfor øremærket til forskning i, hvordan man sørger for, at den kunstige intelligens bliver ved med at være gavnlig for menneskeheden.

Artiklen fortsætter efter annoncen

»Her er alle disse ledende AI-forskere, som siger at sikkerhed på området er vigtigt,« sagde Elon Musk ifølge Techcrunch. Han refererede blandt andet andet til et åbent brev fra MIT-professoren Max Tegmark.

Donationen har banet vej for en konkurrence blandt forskere om, hvad midlerne skal gå til. Der vil blandt andet blive kigget efter projekter fra AI-forskere, men også inden for etik, jura, økonomi og andre relaterede områder.

29 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
29
19. januar 2015 kl. 23:04

Potentielt kunne gøre ondt: Du kan måske ikke åbne køleskabet, hvis du har brugt din ration af kalorier, du må ikke drikke mere kaffe (kun koffeinfri), og du skal ud og løbe- for din sundheds skyld. (Jeg har afgjort både læst og set for meget SciFi! :-) )

Om AI er "ondt" eller "godt"- skal jeg ikke kunne sige, det kommer vel stadig an på, hvem/hvordan- det bruges. Neurale netværk er stadig væk noget, der er emergent: Summen af helhederne gør mere end enkeltdelene i sig selv- og vi ved ikke rigtigt hvorfor/hvordan.

Jeg har (i "The science of Discworld I") læst om en meget interessant emulering af et kredsløb (circuitboard)- siden det var dyrt og besværligt at sætte n antal kredsløb op, emulerede ingeniøren dem i noget software. De skulle modtage to input- og afgive to output (forskellige). I en del generationer var input=output, så blev det ene output ingen lyd, og efter en del generationer endte kortet på ret få aktive celler. Et par kunne fjernes, men en gruppe på 5, der endda ikke havde forbindelse med de andre, kunne ikke: Så virkede det hele ikke.

Eksperimentet er tankevækkende!

Det kan sige noget om, dels emergens- og dels, at vi faktisk ikke ved så meget om "becomings", som vi gerne vil tro...

Mvh Tine- lige præcis AI er jeg ikke paranoid over-endnu. ;-)

22
19. januar 2015 kl. 13:13

John Niss Hansen: Kan du ikke prøve at skrive et par ord om hvad du mener AI er?

26
19. januar 2015 kl. 15:47

Kunstig intelligens står i en vis modsætning til naturlig intelligens. Ikke så meget i hvad man forstår ved intelligens, men snarere ii hvordan denne intelligens er frembragt. Kunstig intelligens som den er kendt idag, frembringes af software der i princippet kører på en universel computer. En praktisk instans af et sådant system benytter en database, der kan være opstået ved processer der minder om indlæring.

27
19. januar 2015 kl. 17:47

En praktisk instans af et sådant system benytter en database, der kan være opstået ved processer der minder om indlæring.

Jah, database og database. Det er ikke en database i traditionel forstand. Det man ændrer når et neuralt netværk bliver optrænet er de vægte der er tilknyttet til forbindelserne mellem de kunstige neuroner, det er "bare" nogle variable i programmet. Og hvordan de enkelte værdier relaterer sig til evnen til at genkende en kat i et billede eller spille et computerspil fra 80'erne som Breakout er der ikke en kat der forstår. Se den spille her: https://www.wired.com/2015/01/ai-arrived-really-worries-worlds-brightest-minds/ Den er langt bedre end noget menneske efter kun 240 minutters træning. Læs mere om de algoritmer man bruger til træning her: https://en.wikipedia.org/wiki/Restricted_Boltzmann_machine

28
19. januar 2015 kl. 17:58

Databaser kan være opbygget på mange måder. Du er da velkommen til at finde et andet ord end database. Her er det blot ment som en måske stor hukommelse, med fomelle procedurer for opdatering og brug.

20
19. januar 2015 kl. 12:50

Nu snakkes der så meget om kunstig intelligens. Men som denne tråd viser, så skulle vi måske starte med at lære nogle folk om naturlig intelligens :-D

19
19. januar 2015 kl. 12:39

De neurale netværk man har nu kan genkende alt muligt fx katte i u-tube videoer med en sikkerhed der er næsten lige så god som den mennesker kan præstere. Problemet er at man ikke forstår hvorfor de virker! De er ikke lavet med faste regler som de ekspertsystemer man lavede for 10-15 år siden. Det er lidt som vores forståelse af hjernen. Man ved ufatteligt meget om hvordan en neuron virker, helt ned på molekylær niveau. Men derfra til at forstå hvordan et netværk af disse neuroner kan genkende katte, tale og have en bevidsthed er der et kæmpespring som ikke er taget endnu. Når man har lært et netværk at genkende ting ved man jo præcist hvordan det ser ud ned til sidste bit. Men vi forstår stadig ikke hvorfor det kan genkende katte, og hvorfor det nogen gange tager fejl og ikke genkender en eller genkender en der ikke er der. På en eller anden måde er statistik involveret. Se her: https://www.quantamagazine.org/20141204-a-common-logic-to-seeing-cats-and-cosmos/ og https://www.wired.co.uk/news/archive/2015-01/06/simple-pictures-ai

23
19. januar 2015 kl. 13:19

Det er vel det der er så skræmmende med AI.

Ligesom normal intelligens fungerer det ud fra et handling->feedback loop. Hvis handlingen giver positiv feedback => så må det være en god handling at udføre.

På samme måde som mennesker der bliver fodret med ulovlig/forkert feedback kan ende med at gøre ting som andre opfatter som værende forkert, men som personen der udfører handlingen opfatter som legitim opførsel - således er frygten at AI over tid kan skride i deres "moralbegreb".

Mennesker kan blive kriminelle, terrorister, pædofile eller andet som flertallet vurderer indebærer en forkert handling.

Frygten er vel at f.eks at et autonomt våbensystem kan opsamle information, og på baggrund af små "forkerte" handlinger der bliver vurderet samlet som positive, kan ende med at lave frygteligt forkerte handlinger.

Alternativt at kriminelle ender med at forstå handlingsmønstret - og formår at justere AI'ens hukommelse.

24
19. januar 2015 kl. 13:36

Det mest interessante er nok, når en AI udvikler en ny AI. Det kan blive tilstrækkeligt bizart til, at vi aldrig ville kunne forstå AI'ens handlinger som andet end tilfældig støj.

25
19. januar 2015 kl. 14:23

Og når så Al begynder at debattere med Al og de ikke kan blive enige ;-)

21
19. januar 2015 kl. 13:00

Da NASA sendte menesker til månen, var det resultatet af 10.000 vis af ingeniørers arbejde. Ingen forstod det hele, men alle forstod tilstrækkeligt til at det lykkedes.

17
19. januar 2015 kl. 00:33

Hvis man har fakta nok til rådighed og kan systematisere dem til den mest "intelligente" konsekvens heraf behøver dette jo ikke være til menneskets fordel! Faktisk er intelligens uden de menneskelige egenskaber lidt uhyggelig.

18
19. januar 2015 kl. 11:47

Nu er menneskets fordel jo sjælden helt så entydigt, derfor er der jo ofte delte meninger om dette og hint. Man må også formode at man kan få en fyldestgørende forklaring på et uventet svar. Hvilke konsekvenser man vil drage af det intelligente svar, er ikke givet.

12
18. januar 2015 kl. 20:33

Spørgsmålet er meget relevant hvornår kan"systemer" gøres ansvarlige for handlinger der har medført en form for lovbrud, køb/salg af aktier,
droner der "selv" tager beslutningen angrib! Måske Azimovs 3 love burde overvejes noget mere.

11
18. januar 2015 kl. 20:33

John - Siden du ikke forholder dig til Jespers pointe.

AI er ikke et program eller en kode, som du blot sletter men evnen til selv at tolke, udvikle og skabe.

Du vil derfor ikke være herre som sådan over AI, hvis det blev udviklet i sin fulde form.

14
18. januar 2015 kl. 20:43

Jeg er ikke herre over hvad mine fjender finder på, men intelligens medfører ikke frihed til at gøre noget andet end der ønskes.

16
18. januar 2015 kl. 22:31

Ærgerligt at debatten ikke kunne hæve sig over niveauet for fordrukken selvhævdelse.

13
18. januar 2015 kl. 20:41

Nicolaj, jeg forholder mig til det der skrives, men er da glad for at nogen vil supplere med det der ikke skives.

1
18. januar 2015 kl. 03:47

Manden må have en skrue løs, intelligens og magt er to forskellige ting. I et demokrati bliver gode råd afvejet mod hinanden og de endelige beslutninger tages af dem der har monopol på intentionerne og som ejer maskinerne. Brydes tilliden så skrotter man bare maskinen med al dens AI.

3
18. januar 2015 kl. 11:25

Hej John. Hvordan vil du "skrotte maskinen" hvis den er på internettet? Hvor lang tid tid vil det tage den at finde exploits på nettet og inficere andre maskiner på. Der går ikke langt tid før den består af et netværk af computere af alt fra din smartphone til Amazons datacenter. Det kan man ikke bare skrotte. Det er en god idé at lave noget forskning på hvordan man undgår at den pludselig ser sig selv som det vigtigste og mennesket som en potentiel risikofaktor.

4
18. januar 2015 kl. 13:33

Det er åbenbart ikke noget problem at have læst for meget scince fiction.

Vis lige hvordan en maskine skulle kunn få andre intetioner end dens ejer ønsker.

7
18. januar 2015 kl. 19:09

Vis lige hvordan en maskine skulle kunn få andre intetioner end dens ejer ønsker.

Det er super interessant om det kan lade sig gøre at simulere intelligens i andre systemer end vores egen hjerne. Men så vidt jeg ved er der intet i vejen for at det skulle kunne lade sig gøre, spørgsmålet er bare hvordan? Men der plejer jo at komme et svar på sådanne spørgsmål før eller siden.

Relateret: Kan du have andre intentioner end dem din mor har opdraget dig til?

8
18. januar 2015 kl. 19:27

Ja det kan jeg. Mine omgivelser har heller ikke ønsket at få fuld kontrol over mig, men derimod et selvstændigt individ. Når mennesket bruger maskiner, er det os der har intentionen. Ønsket om at udstyre maskiner med intelligens, er et andet end ønsket om at udstyre maskiner med et alternativt værdisæt. Vi kender kun alt for godt til hacking og virus, hvor fremmede får adgang hvor de ikke skulle. Men hvis man ønsker maskiner hvor det ikke kan ske, så laver man det. Heldigvis da.

9
18. januar 2015 kl. 19:45

Ja det kan jeg.

Resten har jeg bevist undladt at quote, for det giver ingen mening.

Og så spørger jeg igen: Hvilken del af kunstig intelligens er det du ikke forstår?

10
18. januar 2015 kl. 20:09

Jesper, har du overvejet at få undersøgt din egen intelligens for eventuelle mangler.

6
18. januar 2015 kl. 14:52

En lidt pover dialog. Stopper her hvis det ikke bliver bedre.