Autonome droner laver første succesfulde angreb uden menneskelig indblanding

Illustration: jules.costa / Bigstock
Krigsdroner er blevet brugt i mange år, men indtil nu har det været under menneskeligt opsyn.

En libysk drone har under den såkaldte 'Operation PEACE STORM' med stor succes angrebet et mål helt uden menneskelig indblanding. Det fremgår af en FN-rapport, skriver Ifl Science

»Logistics convoys and retreating HAF were subsequently hunted down and remotely engaged by the unmanned combat aerial vehicles or the lethal autonomous weapons systems such as the STM Kargu-2 (see annex 30) and other loitering munitions,« lyder det i FN-rapporten, der fortsætter:

»The lethal autonomous weapons systems were programmed to attack targets without requiring data connectivity between the operator and the munition: in effect, a true 'fire, forget and find' capability.«

Fjenden ved ikke, hvad den skal gøre

En af de primære styrker ved de autonome droner er ifølge FN-rapporten, at fjendtlige styrker ikke ved, hvordan de skal reagere, når de autonome droner slår til.

»Units were neither trained nor motivated to defend against the effective use of this new technology and usually retreated in disarray," the report reads. "Once in retreat, they were subject to continual harassment from the unmanned combat aerial vehicles and lethal autonomous weapons systems, which were proving to be a highly effective combination,« skriver FN.

Det fremgår ikke entydigt, om nogen døde ved operationen, men det står eksplicit, at dronerne var "highly effective" og i stand til at "inflict significant casualties" på fjendens Pantsir S-1 jord-til-luft missilsystemer.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (29)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#1 Johnny Lüchau Blogger

Artiklen får det til at lyde som om FN ligefrem roser denne type algoritme-krigsførelse, men det er bestemt ikke tilfældet. I rapporten fremgår det at brugen af autonome droner til angreb på mennesker er i strid med FN resolution 1970 .

Ethvert anstændigt menneske må tage stærkt afstand fra at man eksperimenterer med selv-flyvende dræbermaskiner, uanset hvem der rammes. Ifølge alle andre end Elon Musk er vi årtier fra at have selvkørende biler, så hvordan kan man overhovedet komme på den tanke at man kan bruge autonome droner til føre krig?

Tech-chauvinismen når nye højder. I mere end én forstand.

  • 43
  • 3
#2 Henrik Sørensen

Ethvert anstændigt menneske må tage stærkt afstand fra at man eksperimenterer med selv-flyvende dræbermaskiner

Og så er vi inde over etik...

Scenarie: OPFOR sender raketter ind over bebyggede områder. Autonome droner opfanger affyringen, nedskyder raketten kort efter affyring, imens en anden udskadeliggører launcher og alt inden for 10 m radius. Resultat: 3-4 Tango uskadeliggjort . Trussel nedkæmpet og fremtidig affyring fra samme hold er fjernet. Det har jeg personligt intet imod.

Enhver teknologi kan bruge positivt og negativt. Og begge former vil vi se anvendt

Men, så må jeg være et "uanstændigt menneske", og det har jeg det fint med.

Men, hvis folk hellere ser, at raketterne ryger ned i befolkede områder...

  • 11
  • 7
#3 Ditlev Petersen
  • 7
  • 5
#4 mikkel Holm

Scenarie: OPFOR sender raketter ind over bebyggede områder. Autonome droner opfanger affyringen, nedskyder raketten kort efter affyring, imens en anden udskadeliggører launcher og alt inden for 10 m radius. Resultat: 3-4 Tango uskadeliggjort . Trussel nedkæmpet og fremtidig affyring fra samme hold er fjernet. Det har jeg personligt intet imod.

Terror grupper har det med at bruge civile som skjold. Hvordan vil du programmere AI'en til at håndtere den problemstilling? For mig at se er det ikke muligt. Det er hele tiden en opvejning og derfor behov for et menneske til at vurdere, om målet opvejer risikoen for uskyldige tab. Det kan der ikke gøres med 0- og 1-taller.

  • 16
  • 1
#5 Henrik Sørensen

Terror grupper har det med at bruge civile som skjold.

Det er en situation, man ikke kan komme ud af - ansvaret ligger helt og holdent på gruppens skuldre.

Har personligt observeret grupperinger engagere styrker og derefter forsvinde ind i hospitaler etc. for at sikre, at styrkerne ikke optog kampen.

En drone vil i større grad kunne engagere et lokalt mål og derved holde følgeskader til et minimum...

En drone med et mindre sprænghoved ville kunne reducere følgeskaderne med et præcist strike. Istedet for at jævne et område med jorden.

  • 2
  • 7
#6 Henrik Sørensen

Det er hele tiden en opvejning og derfor behov for et menneske til at vurdere, om målet opvejer risikoen for uskyldige tab.

Det er meget let at sidde for et keyboard og tage de beslutninger. Men når man står på jorden og har et splitsekund til at reagere, er situationen en helt anden : "Tager du skudet og derved neutraliserer truslen nu og fremover men derved risikerer at ramme en uskyldig i baggrunden, eller lader du være og risikerer livet på dig selv og andre?"

Min egen beslutning vil og har været at bekæmpe truslen men samtidig forsøge at reducere følgeskader. Er truslen iblandt civile skjold, er følgeskader desværre at forvente, og såfremt situationen er som i mit eksempel (en affyrring mod befolkede områder), så er følgeskaderne acceptable.

  • 4
  • 5
#7 Malthe Høj-Sunesen

Det er en situation, man ikke kan komme ud af - ansvaret ligger helt og holdent på gruppens skuldre.

Man kan lade være med at komme ind i situationen, ved at undlade at "engagere" (som det hedder, fordi angribe el. slå ihjel er for grimt) affyringspunktet automatisk.

Men siger Genevekonventionen virkelig at drab af civile er ok, bare man kan skyde ansvaret over på de fjender, som man prøver at dræbe?

  • 8
  • 1
#8 Henrik Sørensen

Man kan lade være med at komme ind i situationen, ved at undlade at "engagere" (som det hedder, fordi angribe el. slå ihjel er for grimt) affyringspunktet automatisk

Og derved tillader man at våbensystemet fortsætter imod sit mål med større skader til følge. Grupperingerne kunne jo også lade være med at anvende det våbensystem, som gør, at man indsætter dronerne til at starte med.

Men siger Genevekonventionen virkelig at drab af civile er ok, bare man kan skyde ansvaret over på de fjender, som man prøver at dræbe?

Man er i asymmetrisk krigsførelse op imod fjender, som ikke tager sig af konventioner. Og i de tilfælde bliver problemet større : skal man være "the good boy" og overholde ALLE konventioner, eller skal man forsøge at reducere følgeskader og beskytte sig befolkning?

  • 4
  • 5
#9 Carsten R

@Henrik - Du har ret i at nogle mennesker altid opfører sig uanstændigt, og at alle mennesker engang imellem også gør. Om du er terrorist eller frihedskæmper afhænger af hvilken side i konflikten du er på. Se blot i Belarus - alle styrets modstandere er terrorister, mens vi i Vesten synes at deres krav er rimelige. Disse autonome våben medvirker ikke til at nedskalere konflikter, tværtimod. "Hvis nogle af mine bliver dræbt vil jeg svare igen med mine midler" Ja, det er nemt at sidde ved et keyboard versus at stå på landjorden med en trussel imod sig, og selvfølgelig må man tage beslutninger på splitsekunder i den situation - men beslutninger taget efter overvejelser, diskussion og anderkendte etiske regler, er som regel de bedste beslutninger. Og autonome våben løser ingen konflikter og burde ikke være tilladt.

  • 8
  • 1
#10 Henrik Sørensen

Og autonome våben løser ingen konflikter og burde ikke være tilladt.

Generelt burde konflikter løses ved, at man sætter sig ned og bliver enige - desværre er det "for svært" og langt lettere at slå på hinanden :-(

Uanset hvad, så kommer vi til at se flere og flere autonome systemer. I stil med, at personnelminer er blevet forbudt, så bruger fx. Japan "autonomous area denial systems" til beskyttelse af fx. kystlinjer... Flottere betegnelse for samme system, og sådan omgås lovgivningen.

Darkstar projektet og Sydkoreas Sentry er gode eksempler på disse. "AI Assisted Unmanned Arial Based Area Denial Systems" (der var godt nok mange A'er i dén forkortelse - AIAUABADS) kunne vinde frem, selvom det "blot" er en drone, som enten kan fjernstyres eller køre autonomt, og hvor den størstedelen af tiden opererer autonomt.

  • 1
  • 2
#13 Malthe Høj-Sunesen

Og derved tillader man at våbensystemet fortsætter imod sit mål med større skader til følge.

Ja, hvis man ikke sender infanteri el. specialstyrker ind.

Jeg siger ikke, at man ikke skal angribe tilbage. Men jeg opponerer meget stærkt imod at man bare automatisk sender AGM afsted mod ikke-bekræftede mål. Iron Dome - ingen problemer, der angriber man et aktivt mål. Men at sende et missil afsted uden at være sikker på hvad man rammer - det er nogo.

skal man være "the good boy" og overholde ALLE konventioner

Ja. Det skal man. Ellers kan vores fine principper være absolut ligegyldige. Hvis man har ratificeret en konvention skal den overholdes. Punktum. Det er en hjørnesten i civiliserede samfund. At overtræde et princip trækker andre overtrædelser med sig, se: Tele2-sagen, telelogning.

Og igen: Siger Genevekonventionen virkelig at drab af civile er ok, bare man kan skyde ansvaret over på de fjender, som man prøver at dræbe?

  • 8
  • 1
#15 Ditlev Petersen

man skal forsøge at reducere civile tab

Og at man ikke direkte må angribe civile. Man må heller ikke bruge gas mod civile eller fjendens tropper (dog undtaget statens egne borgere). Man må ikke smide fosfor mod civile, men nok mod miltær (hvis formålet er at lægge røg ud, ikke hvis formålet er at kvæle folk. Ofrene vil sikkert vide at prise forskellen). Som jeg har forstået det.

Så man må næsten alt, hvis de civile ofre ikke er de primære, og man ikke lige kan finde på noget andet.

Man må i øvrigt ikke bombe et hospital, selv om fjenden har sneget sig derind, uden at give et passende varsel.

Mord er juridisk en ret kompliceret affære.

Hvordan skal »SKYNET« forrestenm kunne se forskel på en soldat og en redningsarbejder med maske og stålhjelm? På den blå trekant? På hvilken afstand? I hvilken belysning? Gennem røg?

  • 5
  • 0
#16 Henrik Sørensen

Hvordan skal »SKYNET« forrestenm kunne se forskel på en soldat og en redningsarbejder med maske og stålhjelm?

Samme problem er på landjorden, hvor man skal skelne imellem en "civil" og en "illegal combatant"...

Man må i øvrigt ikke bombe et hospital, selv om fjenden har sneget sig derind, uden at give et passende varsel.

Det er også overtrædelse af konventionen at snige sig derind..

  • 1
  • 5
#17 Henrik Eriksen

Og igen: Siger Genevekonventionen virkelig at drab af civile er ok, bare man kan skyde ansvaret over på de fjender, som man prøver at dræbe?

Som andre nævner, er problemet at vi ofte må bekæmpe fjender som ikke overholder reglerne. Og vi kan jo ikke bare sidde med hænderne i skødet og trække på skuldrene mens de angriber os, fordi der desværre går en civilist foran dem.

Vi kommer faktisk tilbage til den skamredne hest med togvognen som er på vej til at slå fem mennesker ihjel, men vi kan skifte sporet, så den i stedet rammer en person.

Vi må vel være enige om, at det er bedre at ramme og tilintetgøre en angrebsgruppe og i dén proces slå ti uskyldige ihjel, frem for at lade angrebsgruppen fortsætte og slå hundrede uskyldige ihjel?

  • 1
  • 0
#18 Karsten Bang

Nu bliver der kun snakket om krig mod terror.

Det er jo ikke den eneste form for krig der er. Hvis våben ikke kræver menneskelig indblanding, bliver krig så ikke risikofrit?

Hvis Rusland pludselig sender en million droner ind over Polen og Baltikum, så kan de nedkæmpe 4 mindre lande uden risiko for egne borgere. Ingen politisk diskussion om, at det kan koste menneskeliv af egne borgere. Nu handler det kun om kroner og ører.

Jeg synes det scenarie lyder meget som oprustningen af Atom-våben. Omkostningsfrie angreb.

(Ja selvf. ikke omkonstningsfrit hvis fjenden har lignende våben ... derfor oprustningen)

  • 5
  • 0
#19 Henrik Sørensen

Helt korrekt, Karsten. Der er andre former for konflikter. Nu var det blot det eksempel, jeg brugte.

Tænker man tanken helt ud som illustreret i https://www.youtube.com/watch?v=9fa9lVwHHqg , så er det en uhyggelig trussel, man er nødt til at tage alvorligt.

Dvs. være sig at forsvare sig imod det men også behandle dem som reelle våbensystemer, man kan komme op imod eller indfører i sit arsenal.

  • 2
  • 0
#20 Tobias Skytte

Vi må vel være enige om, at det er bedre at ramme og tilintetgøre en angrebsgruppe og i dén proces slå ti uskyldige ihjel, frem for at lade angrebsgruppen fortsætte og slå hundrede uskyldige ihjel?

Nej. Problemet her er at du kan ikke være sikker på at den formodede angrebsgruppe faktisk er skyldig og du kan heller ikke være sikker på hvad den formodede gruppe laver i fremtiden da ingen kan spå om fremtiden. Det er der talrige eksempler på hvor 'vi' (dvs. vores allierede) f. eks har drone bombet en uskyldig bryllups kortage..

Med dit argument kan man forsvare alting. F. Eks. at det er bedre at internere eller slå en masse ihjæl som har en bestemt religion fordi man har den opfattelse at det er dem der forsager en masse kriminalitet eller på anden vis er uønsket af majoriteten af samfundet. Husk at i enhver konflikt er der mindst to sider og den enes terrorist er den andens frihedskæmper. Tingene er ikke så simple.

  • 6
  • 0
#21 Henrik Eriksen

Nej. Problemet her er at du kan ikke være sikker på at den formodede angrebsgruppe faktisk er skyldig [...]

Mener du at et menneske kan afgøre dét 100% præcist?

Det er lidt ligesom med førerløse biler: Jeg forlanger ikke af et automatisk system at det skal være fejlfrit. Jeg forlanger kun, at det laver væsentlig færre fejl end mennesker ville i en tilsvarende situation.

Jeg kan på ingen måde begejstres over nye våbentyper, og alle alternativer til krig er at foretrække, men jeg må erkende at krige åbenbart er uundgålige. Derfor hilser jeg trods alt en udvikling velkommen, hvis den kan reducere mængden af skade på civile og civilt material.

  • 1
  • 0
#23 Malthe Høj-Sunesen

Vi må vel være enige om, at det er bedre at ramme og tilintetgøre en angrebsgruppe og i dén proces slå ti uskyldige ihjel

Jeg bliver aldrig enig med dig i, at mord på uskyldige er bedre end ikke at slå uskyldige ihjel. Aldrig. Det kan heller ikke på noget tidspunkt være den ikke-aggresives ansvar om den aggresive part slår nogen ihjel.

Vi skal bekæmpe vores fjender med alle tænkelige midler. Men ikke for enhver tænkelig pris. Og for at være helt ærlig: Hvis vi legitimerer mord og drab på uskyldige civile, så giver vi køb på det, som gør vores samfund civilt. Så er vi trukket ned på fjendens niveau. Hvis vi skal have noget at kæmpe for, så skal det sguda være at vi er moralsk bedre mennesker. Ikke at vores etik er marginalt mindre dårlig.

  • 2
  • 3
#24 Henrik Eriksen

Og hvilke indikationer har vi på at softwaren til disse droner laver væsentligt færre fejl?

Det ved jeg ikke noget om.

Jeg reagerer mest på den her "Uha-en-AI-der-automatisk-kan-myrde-løs"-reaktion, som om det helt automatisk er forfærdeligt at en maskine kan slå ihjel på egen hånd.

Peronligt synes jeg at dét i det hele taget at slå mennesker ihjel er forfærdeligt.

Men da krig er uungåelig, så foretrækker jeg våben der laver så lidt skade på civile som muligt. Og hvis en drone laver mindre skader på civile end menneskelige soldater ville kunne, så synes jeg det er bedre.

  • 0
  • 0
#25 Henrik Eriksen

Jeg bliver aldrig enig med dig i, at mord på uskyldige er bedre end ikke at slå uskyldige ihjel. Aldrig. Det kan heller ikke på noget tidspunkt være den ikke-aggresives ansvar om den aggresive part slår nogen ihjel.

Jo, men hvis vi ikke kan forsvare os mod angribere uden at det går ud over civile, skal vi så bare lad dem myrde mange flere civile? Fordi 'Det er jo deres ansvar!'

Vi skal bekæmpe vores fjender med alle tænkelige midler. Men ikke for enhver tænkelig pris. Og for at være helt ærlig: Hvis vi legitimerer mord og drab på uskyldige civile, så giver vi køb på det, som gør vores samfund civilt. Så er vi trukket ned på fjendens niveau. Hvis vi skal have noget at kæmpe for, så skal det sguda være at vi er moralsk bedre mennesker. Ikke at vores etik er marginalt mindre dårlig.

Når vi går i krig, legitimerer vi altid mord på uskyldige civile, i den forstand at det i praksis ikke kan undgås. Jo, hvis to hære mødes ude i ørkenen, men det er jo sjældent at man i dén grad kan blive enige om spillereglerne.

Og jeg må indrømme at jeg er uforstående over for det 'moralsk korrekte' i at undlade at neutralisere en fjende fordi et mindre antal uskyldige vil gå til i processen, hvis fjendens fortsatte eksistens vil give mange, mange flere tab af uskyldige .. ?

Ville du heller ikke trække i stangen til skiftesporet i trolley-eksperimentet så du redder fem i stedet for en?

  • 0
  • 0
#26 Thomas Hansen

Og hvis en drone laver mindre skader på civile end menneskelige soldater ville kunne, så synes jeg det er bedre.

Og hvor i nyheden ser du noget om at dette er tilfældet? Jeg forstår ikke rigtigt hvad dine pointer er?

Vi har pt. ingen dokumentation for 1. Hvordan dronerne virker 2. Hvor gode de er til at vælge korrekte mål 3. Info om at de laver mindre skader end alternativer 4. Info om hvad pokker der er af sikkerhedsforanstaltninger hvis vi pludseligt opdager at dronerne er kommet frem til at skoler er det optimale mål, for så kan børnene slet ikke nå at blive gamle nok til at lave terror.

Okay den sidste er overdrevet, for det der i virkeligheden skræmmer mig er hvordan du vælger at forsvare et nyt system til krigsførelse som ikke styres direkte af mennesker, uden at have bare tilnærmelsesvis svar på 1-3.

  • 0
  • 2
#27 Henrik Eriksen

Okay den sidste er overdrevet, for det der i virkeligheden skræmmer mig er hvordan du vælger at forsvare et nyt system til krigsførelse som ikke styres direkte af mennesker, uden at have bare tilnærmelsesvis svar på 1-3.

Jeg forsvarer det som sådan ikke. Jeg opponerer blot (som jeg også skrev tidligere) mod denne automatreaktion: Nyt våben => Med kunstig intelligens =>Forfærdeligt!

Hvis der i morgen blev annonceret et nyt våben, som via AI kunne prikke en hvilken som helst potentiel morder (eller terrorist) ud med 100% sikkerhed, og ombringe ham umiddelbart før han udførte sin forbrydelse, ville der igen vælte 'hvad nu hvis'er ud af træværket fra folk som bliver skræmt fra vid og sans på grund af ordet 'AI'.

I fire år har vi haft en gal man siddende ved siden af den røde knap, og folk trækker på skuldrene. Der udvikles et nyt våben som måske kan begrænse civile tab under et angreb: HJÆLP! Det er helt ude af kontrol!

  • 1
  • 0
#29 Thomas Hansen

Nyt våben => Med kunstig intelligens =>Forfærdeligt!

Nyt våben => Med kunstig intelligens =>Fantastisk!

Forskellen er at nogen af os stiller os kritiske overfor denne udvikling og gerne vil vide mere, men det lader til at du blåstempler projektet og så må evt. problemer løses når vi engang opdager at de er der.

ud med 100% sikkerhed, og ombringe ham

You have got to be kidding me... Og hvis der dagen efter kommer en sprøjte der kan genoplive folk længe efter de er omkommet, så behøver vi ikke engang at være 100% sikre, faktisk bliver det hele komplet ligegyldigt for vi kan bare genoplive ofrene for terror. Det er da en fantastisk ide...

Hvis du fortsat har tænkt dig at bruge umulige scenarier til at argumentere for at en løsning er god, så ved jeg sku ikke helt hvordan vi skal holde debatten på et fornuftigt plan.

  • 0
  • 0
Log ind eller Opret konto for at kommentere