AI-teknologi kan skabe en ny æra for hackere og sikkerhedsfolk

29. november 2016 kl. 10:321
I fremtiden kan vi ifølge en række sikkerhedseksperter forvente, at AI-teknologi spiller en stor rolle, når det gælder hackerangreb og beskyttelsen mod disse.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Det kommer måske til at tage en årrække, men det er ikke forudbestemt, at fremtidens hackerangreb vil blive udført af mennesker. Det skriver den amerikanske udgave af Computerworld.

AI-teknologi ser lovende ud i forhold til at revolutionere it-sikkerheden og vurderes samtidig at blive det foretrukne værktøj, når hackere vil igangsætte et hackerangreb.

Arkitekterne bag Cyber Grand Challenge, en konkurrence sponsoreret af det amerikanske forsvarsagentur Darpa, gav et billede af, hvor kraftfuld AI-teknologien er. Syv supercomputere i konkurrence mod hinanden viste, at maskiner er i stand til at finde sårbarheder i software og derefter patche dem.

I teorien kan teknologien bruges til at perfektionere enhver kodetype og fritage koden for fejl, der kan udnyttes.

Artiklen fortsætter efter annoncen

Men hvad hvis teknologien blev brugt til ondsindede formål? Udviklingen i fremtidens it-sikkerhed kan med andre ord have banet vejen for en helt ny æra for hackere.

Automatiserede angreb er skræmmende

Cyberkriminelle kan eksempelvis bruge kapaciteten til at scanne software for tidligere ikke-kendte sårbarheder for derefter at udnytte dem.

Men i modsætning til mennesker kan AI-teknologien gøre det langt mere effektivt. Hacks, der er kendt som værende tidskrævende, kan pludselig gøres billigt og hurtigt, hvis scenariet bliver en realitet.

I en tid, hvor industrien udvikler selvkørende biler, avancerede robotter og andre automatiseringer, er det imidlertid en risiko, som sikkerhedseksperterne er klar over.

»Teknologi er altid skræmmende,« siger David Melski, der er Vice President for forskning i sikkerhedsfirmaet GrammaTech.

GrammaTech var blandt de firmaer, der deltog i Cyber Grand Challenge i august. Firmaet overvejer nu, hvordan de kan bruge teknologien til at hjælpe leverandører af IoT enheder med at gøre dem mere sikre.

Det er ikke svært for sikkerhedseksperterne at forestille sig en potentielt mørk side af teknologien. En side, hvor AI kan bygge eller kontrollere cybervåben. David Melski henviser til sagen om Stuxnet, som var en ondsindet orm, der var designet til at afbryde Irans nukleare program.

»Det er dybt foruroligende at forestille sig noget lignende Stuxnet blive automatiseret,« siger David Melski.

Teknologien er endnu ikke udviklet

»Jeg vil ikke give nogen gode ideer. Men AI-drevne teknologier, der trawler internettet for sårbarheder, kan være en realitet i fremtiden,« udtaler sikkerhedsfirmaet SentineOnes CEO, Tomer Weingarten.

Strømliningen af cyberkriminalitet er allerede en realitet. På det sorte marked kan man eksempelvis købe 'rent-a-hacker'-services.

Tomer Waingarten finder det ikke urealistisk, at disse services i sidste ende får inkorporeret AI-teknologi, der kan designe angrebsstrategier, launche angrebet og udregne omkostningerne, hvilket hackerne så kan sidde og nyde godt af.

Mange tech-virksomheder snakker om AI-teknologi, men der er ikke en virksomhed, der endnu har haft succes med at udvikle en 'sand' AI-teknologi.

Industrien har i stedet udviklet teknologier, der er bedre til at spille visse typer spil bedre end mennesket, teknologi, der fungerer som digitale assistenter, og teknologi, der diagnosticerer sjældne sygdomme.

Sikkerhedsfirmaer som Cylance har brugt en underkategori af AI-teknologi, machine learning til at stoppe malware, hvor de har bygget matematiske modeller baseret på en masse forskellige typer malware.

»Ultimativt ender man op med en statistisk sandsynlighed for, om en given fil er 'god' eller 'dårlig'. I mere end 99 procent af tilfældene fungerer machine learning til at opdage malware,« fortæller chefforsker i Cylance, Jon Miller og tilføjer:

»Vi fortsætter med at fodre vores modeller med ny data. Jo mere data, desto mere præcis bliver modellen.«

Maskiner vs. maskiner

Jon Miller forklarer, at en af ulemperne ved at benytte sig af machine learning er, at det er meget dyrt.

»Vi bruger en halv million dollars (3.511.150 kroner, red.) om måneden på computermodeller. Pengene er brugt på at lease cloud computer-services fra Amazon til at køre modellerne,« siger Jon Miller.

Ifølge Jon Miller vil enhver, der forsøger at bruge AI-teknologi ondsindet, opleve at stå over for en række udfordringer, herunder at sikre sig programmører, der rent faktisk kan udvikle det.

Indtil nu er de mest almindelige hackerangreb udført ved forskellige former for phishing, eller fordi folk glemmer at opgradere deres software med den nyeste patch.

Ifølge direktøren for cyberintelligence i sikkerhedsfirmaet Darktrace, Justin Fier, kan machine learning og AI-teknologier hjælpe med at løse nogle af de problemer, men det er kun et spørgsmål om tid, før hackerne opgraderer deres arsenal.

Justin Fier antager, at kampen mellem sikkerhedsfirmaer og hackere vil være med AI-teknologi på begge frontlinjer.

»Det ser ud, som om vi er på vej ind i en tid og verden, hvor cyberkrigsførelsen kommer til at være en kamp mellem maskinerne,« siger Justin Fier.

1 kommentar.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger