AI-teknologi kan skabe en ny æra for hackere og sikkerhedsfolk

Illustration: Virrage Images/Bigstock
I fremtiden kan vi ifølge en række sikkerhedseksperter forvente, at AI-teknologi spiller en stor rolle, når det gælder hackerangreb og beskyttelsen mod disse.

Det kommer måske til at tage en årrække, men det er ikke forudbestemt, at fremtidens hackerangreb vil blive udført af mennesker. Det skriver den amerikanske udgave af Computerworld.

AI-teknologi ser lovende ud i forhold til at revolutionere it-sikkerheden og vurderes samtidig at blive det foretrukne værktøj, når hackere vil igangsætte et hackerangreb.

Arkitekterne bag Cyber Grand Challenge, en konkurrence sponsoreret af det amerikanske forsvarsagentur Darpa, gav et billede af, hvor kraftfuld AI-teknologien er. Syv supercomputere i konkurrence mod hinanden viste, at maskiner er i stand til at finde sårbarheder i software og derefter patche dem.

I teorien kan teknologien bruges til at perfektionere enhver kodetype og fritage koden for fejl, der kan udnyttes.

Men hvad hvis teknologien blev brugt til ondsindede formål? Udviklingen i fremtidens it-sikkerhed kan med andre ord have banet vejen for en helt ny æra for hackere.

Automatiserede angreb er skræmmende

Cyberkriminelle kan eksempelvis bruge kapaciteten til at scanne software for tidligere ikke-kendte sårbarheder for derefter at udnytte dem.

Men i modsætning til mennesker kan AI-teknologien gøre det langt mere effektivt. Hacks, der er kendt som værende tidskrævende, kan pludselig gøres billigt og hurtigt, hvis scenariet bliver en realitet.

I en tid, hvor industrien udvikler selvkørende biler, avancerede robotter og andre automatiseringer, er det imidlertid en risiko, som sikkerhedseksperterne er klar over.

»Teknologi er altid skræmmende,« siger David Melski, der er Vice President for forskning i sikkerhedsfirmaet GrammaTech.

GrammaTech var blandt de firmaer, der deltog i Cyber Grand Challenge i august. Firmaet overvejer nu, hvordan de kan bruge teknologien til at hjælpe leverandører af IoT enheder med at gøre dem mere sikre.

Det er ikke svært for sikkerhedseksperterne at forestille sig en potentielt mørk side af teknologien. En side, hvor AI kan bygge eller kontrollere cybervåben. David Melski henviser til sagen om Stuxnet, som var en ondsindet orm, der var designet til at afbryde Irans nukleare program.

»Det er dybt foruroligende at forestille sig noget lignende Stuxnet blive automatiseret,« siger David Melski.

Teknologien er endnu ikke udviklet

»Jeg vil ikke give nogen gode ideer. Men AI-drevne teknologier, der trawler internettet for sårbarheder, kan være en realitet i fremtiden,« udtaler sikkerhedsfirmaet SentineOnes CEO, Tomer Weingarten.

Strømliningen af cyberkriminalitet er allerede en realitet. På det sorte marked kan man eksempelvis købe 'rent-a-hacker'-services.

Tomer Waingarten finder det ikke urealistisk, at disse services i sidste ende får inkorporeret AI-teknologi, der kan designe angrebsstrategier, launche angrebet og udregne omkostningerne, hvilket hackerne så kan sidde og nyde godt af.

Mange tech-virksomheder snakker om AI-teknologi, men der er ikke en virksomhed, der endnu har haft succes med at udvikle en 'sand' AI-teknologi.

Industrien har i stedet udviklet teknologier, der er bedre til at spille visse typer spil bedre end mennesket, teknologi, der fungerer som digitale assistenter, og teknologi, der diagnosticerer sjældne sygdomme.

Sikkerhedsfirmaer som Cylance har brugt en underkategori af AI-teknologi, machine learning til at stoppe malware, hvor de har bygget matematiske modeller baseret på en masse forskellige typer malware.

»Ultimativt ender man op med en statistisk sandsynlighed for, om en given fil er 'god' eller 'dårlig'. I mere end 99 procent af tilfældene fungerer machine learning til at opdage malware,« fortæller chefforsker i Cylance, Jon Miller og tilføjer:

»Vi fortsætter med at fodre vores modeller med ny data. Jo mere data, desto mere præcis bliver modellen.«

Maskiner vs. maskiner

Jon Miller forklarer, at en af ulemperne ved at benytte sig af machine learning er, at det er meget dyrt.

»Vi bruger en halv million dollars (3.511.150 kroner, red.) om måneden på computermodeller. Pengene er brugt på at lease cloud computer-services fra Amazon til at køre modellerne,« siger Jon Miller.

Ifølge Jon Miller vil enhver, der forsøger at bruge AI-teknologi ondsindet, opleve at stå over for en række udfordringer, herunder at sikre sig programmører, der rent faktisk kan udvikle det.

Indtil nu er de mest almindelige hackerangreb udført ved forskellige former for phishing, eller fordi folk glemmer at opgradere deres software med den nyeste patch.

Ifølge direktøren for cyberintelligence i sikkerhedsfirmaet Darktrace, Justin Fier, kan machine learning og AI-teknologier hjælpe med at løse nogle af de problemer, men det er kun et spørgsmål om tid, før hackerne opgraderer deres arsenal.

Justin Fier antager, at kampen mellem sikkerhedsfirmaer og hackere vil være med AI-teknologi på begge frontlinjer.

»Det ser ud, som om vi er på vej ind i en tid og verden, hvor cyberkrigsførelsen kommer til at være en kamp mellem maskinerne,« siger Justin Fier.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (1)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Log ind eller Opret konto for at kommentere