Eksperter lover at udvikle kunstig intelligens for menneskehedens gode

13. januar 2015 kl. 08:5114
I et brev lover en række eksperter, at de kun vil udvikle kunstig intelligens for menneskehedens gode, efter fysikeren Stephen Hawking advarede mod at kunstig intelligens kan blive menneskets endeligt.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

En gruppe mennesker, blandt andre videnskabsmanden Stephen Hawking og iværksætteren Elon Musk har underskrevet et brev, som forpligter til at arbejde for at forskning i kunstig intelligens kommer menneskeheden til gode. Det skriver BBC News.

Brevet er skrevet af non-profitorganisationen, Future of Life Institute, som søger at fjerne risici, der kan udslette menneskeheden.

I december advarede netop Stephen Hawking om at kunstig intelligens havde potentialet til at gøre det af med menneskeheden. Han påtalte blandt andet farerne ved at overlade udviklingen af kunstigt intelligente enheder til andre kunstigt intelligente enheder, da de vil udvikle sig ud af menneskehedens kontrol.

Efter Hawkings udtalelser valgte organisationen at skrive et brev, hvor kyndige indenfor kunstig intelligens skriver under på, at de vil arbejde for det gode. Og eksperter indenfor kunstig intelligens, robotmagere, programmører, fysikere, etikere og mange andre har underskrevet det åbne brev.

Artiklen fortsætter efter annoncen

Instituttet skriver i brevet, hvordan der er bred konsensus omkring, at forskning i kunstig intelligens gør fremskridt, og derfor har en øget indflydelse på samfundet. Ved hjælp af mange forskellige forskningsmetoder, er der gjort store fremskridt indenfor områder som talegenkendelse, billedanalyse, førerløse biler, oversættelse og robotbevægelser, og fremtidige opfindelser vil have muligheden for at gå endnu længere, står der i brevet.

Men, advarer de, forskningen skal matches af en stor forsigtighed for at undgå, de skader kunstig intelligens kan gøre. Blandt andet ved at kigge på de økonomiske effekter af kunstig intelligens, da de smarte systemer kan gøre millioner arbejdsløse.

På længere sigt skal forskerne sikre, at hvis enheder kommer til at styre infrastruktursystemer, skal de sikre, at der er begrænsninger på, så skaderne ikke bliver for store, hvis systemerne bryder sammen.

Vores systemer med kunstig intelligens skal gøre, hvad vi vil have dem til at gøre, siger brevet.

14 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
13
16. januar 2015 kl. 09:02

Jeg er slet ikke overbevist om at vi nogensinde får kunstig intelligens, der kan føre til en teknologisk singularitet, men hvis man som forsker er overbevist om at det faktisk er muligt og samtidig tror at man kan undgå singulariteten med en hensigtserklæring, så er man for dum til at arbejde med kunstig intelligens.

12
14. januar 2015 kl. 12:21

Jeff Hawkins fra Numenta har et interessant indlæg til debatten her:http://youtu.be/cz-3WDdqbj0?t=45m12s

Kort fortalt: Vi skal ikke bekymre os om intelligens isoleret set, da det er selv-replikering som er farlig. "Dumme hjerner" som er hvad vi ser i dag, som blot kopierer Neocortex's evne til at lære og opbygge kraftfulde modeller, er ikke noget vi skal frygte.

10
14. januar 2015 kl. 11:56

Nu er der vist ingen tvivl at Robocop filmen præciserer et meget godt problem, for i filmen er Robocop ikke i stand til anholde skurken, og sådan en begrænsning må en robot/ AI aldrig have, hvis eller når der engang bliver udviklet sådan en polit AI. I øvrigt har historien bevist at det de mest kriminelle er de superrige samt de magtfulde.

9
14. januar 2015 kl. 11:24

Måske skulle Stephen Hawkings holde sig til fysikken.

Menneskeheden er langt mere truet af manglende intelligens end af kunstig intelligens.

Eksempelvis kunne såvel terrorister som overvågningsliderlige politikere godt bruge noget intelligens - kunstig eller ej.

8
14. januar 2015 kl. 11:04

En robot med en vis lighed med et menneske vil have mindst én stor fordel. Den kan let bevæge sig rundt i omgivelser indrettet til mennesker. En robotstøvsuger kan jo ikke åbne en dør. Personligt vil jeg foretrække, at de ikke alt for meget ligner et gummi-menneske, de skal helst ligne det, de er: En maskine. Om vi skal have 5-10 robotter til hver sit formål kommer meget an på, hvor meget de fylder.

Min rædsel er at skulle stå og diskutere med en intelligent og forudseende robot a la Sirius Cybernetics. En der hele tiden har forslag og anbefalinger ("Andre mennesker, der har fået gjort rent, har også købt en lørdagskylling!"). Og det er nok netop det, vi vil få.

11
14. januar 2015 kl. 12:20

Min rædsel er at skulle stå og diskutere med en intelligent og forudseende robot a la Sirius Cybernetics.

"Jeg kan køre op," sagde elevatoren, "eller ned." "Fint," sagde Zarphod, "vi skal op." "Eller ned," mindede elevatoren ham om. "Ja, udmærket, op tak." Der blev et øjebliks tavshed. "Det er vældigt rart at køre ned," sagde elevatoren håbefuldt. "Er det det?" "Kanon." "Det var godt," sagde Zarphod, "og kan vi så køre op?" "Må jeg have lov til at spørge," sagde elevatoren med sin rareste, mest fornuftsprægede stemme, "om De har overvejet alle de muligheder, der ligger i at køre ned?" . . .

6
13. januar 2015 kl. 18:29

Måske skulle man starte med at definere kunstig intelligens nærmere. Kræver en selvkørende bil AI eller blot avancerede algoritmer? Jeg vil være ganske tilfreds med kunstig intelligens i en kartoffelgryde der selv kan justere at lukke damp ud når kartoflerne er ved at koge over. En sådan gryde beslutter nok ikke at udrydde menneskeheden.

Og sikke en fin liste. Hvad med alle de forskere og eksperter der ikke skriver under på denne liste?

Men vi kan jo sikre det hele ved at give robotterne nogle Asimov-lignende love. Med den ekstra lov tilføjet at de ikke må Google efter "legal loophole" og lignende :-/

5
13. januar 2015 kl. 15:15

Vi kommer til at få flere og flere robotter og maskiner med højere grad af automatisering (intelligens?). Det synes jeg er helt fint. Det er også vigtigt da vi lever generelt længere og som samfund bliver ældre og derfor har brug for hjælpemidler til fysisk krævende og manuelt arbejde.

Derimod synes jeg det er forkert at man stræber efter at lave robotter til at efterligne mennesker med ansigter og mimik. En robot er en maskine med høj grad af automatisering og mere eller mindre autonom styring, men det er et stykke hardware ikke en person. Jeg har ikke lyst at man skal have et personligt forhold til en maskine, eller kommer til at opfatte en robot som et menneske, eller værre forveksle et menneske med en robot.

En robot-støvsuger et rigtigt godt hjælpemiddel som kan hjælpe med rengøring men jeg ville nødig have at den var udformet som en mannequin udklædt som rengøringsassistent.

Der er også et drive i retning af at en enkelt robot skal kunne alle funktioner. Det udfra en ide om at et menneske kan gøre alle funktionerne derfor skal en robot efterligne og se ud som et menneske, med to arme, to ben og et ansigt. Men mennesket er ikke bedste løsning, feks. til at bære tunge byrder ville det have været bedre med fire ben. Når jeg lodder ville jeg ønske at et menneske havde fire arme ikke kun to.

I stedet for en enkelt robot er bygget til alle funktioner, vil jeg til privat brug ville hellere have 5-10 robotter der hver er specialisere til bestemte funktioner. På samme måde som vi ikke bare har en husholdningsmaskine til alle opgaver. Hvem har lyst til at opvaskemaskinen også blev brugt til tøjvask? ;-)

Hvad synes du? Skal robotter efterligne og se ud som mennesker eller skal de være en maskine specialiseret til bestemte formål?

4
13. januar 2015 kl. 13:35

Jeg ser der nemt kan komme problemer mht hvem der har ansvaret hvis noget går galt.

1. eksempel

Hvem har ansvaret hvis den fuldautomatiske googlebil kører en mand ned?

  • Udvikleren af softwaren der har lavet en fejl?
  • Google?
  • Ejeren (som sidder på bagsædet og læser avis)?

2. eksempel

Dette er et tænkt eksempel som tager næste skridt indenfor AI i brug. AI der bygger AI.

BuildYourOwnVehicle er en application der bygger softwaren til en bil udfra dine ønsker om køreegenskaber til din helt personlige bil. Hvem har ansvaret hvis en fuldautomatisk BuildYourOwnVehicle bil kører en mand ned?

  • Dig som udvikler af din egen bil, som kun har benyttet en simpel gui?
  • Udvikleren af BuildYourOwnVehicle der har lavet en fejl, men som aldrig har set skyggen af netop din bil og dennes konfiguration?
  • Google?
  • Ejeren (som sidder på bagsædet og læser avis)?
3
13. januar 2015 kl. 12:42

Meget apropos den nye film Automata

Det er ikke et spørgsmål om det sker, men hvornår det sker at kunstig intelligens render fra os.

2
13. januar 2015 kl. 11:07

Er det kunstig intelligens hvis vi skal fortælle dem hvad de skal lave?

1
13. januar 2015 kl. 10:45

Helt enig. Hvis vi først lader kunstig intelligens udvikle kunstig intelligens så går der ikke længe før vi får AM (Harlan Ellinson reference her)