Uvod
Generativna umjetna inteligencija – sustavi umjetne inteligencije sposobni za stvaranje novog sadržaja ili predviđanja – pojavljuje se kao transformativna snaga u kibernetičkoj sigurnosti. Alati poput OpenAI-jevog GPT-4 pokazali su sposobnost analize složenih podataka i generiranja teksta nalik ljudskom, omogućujući nove pristupe obrani od kibernetičkih prijetnji. Stručnjaci za kibernetičku sigurnost i donositelji poslovnih odluka u svim industrijama istražuju kako generativna umjetna inteligencija može ojačati obranu od napada koji se stalno razvijaju. Od financija i zdravstva do maloprodaje i vlade, organizacije u svakom sektoru suočavaju se sa sofisticiranim pokušajima krađe identiteta (phishing), zlonamjernim softverom i drugim prijetnjama kojima bi generativna umjetna inteligencija mogla pomoći u suzbijanju. U ovom bijelom dokumentu ispitujemo kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti , ističući primjene u stvarnom svijetu, buduće mogućnosti i važna razmatranja za usvajanje.
Generativna umjetna inteligencija razlikuje se od tradicionalne analitičke umjetne inteligencije ne samo po otkrivanju obrazaca već i po stvaranju sadržaja - bilo da simulira napade za uvježbavanje obrane ili stvara objašnjenja na prirodnom jeziku za složene sigurnosne podatke. Ova dvostruka sposobnost čini je mačem s dvije oštrice: nudi moćne nove obrambene alate, ali akteri prijetnji također je mogu iskoristiti. Sljedeći odjeljci istražuju širok raspon slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti, od automatizacije otkrivanja phishinga do poboljšanja odgovora na incidente. Također raspravljamo o prednostima koje ove inovacije umjetne inteligencije obećavaju, uz rizike (poput "halucinacija" umjetne inteligencije ili zlouporabe od strane suparnika) kojima organizacije moraju upravljati. Konačno, pružamo praktične savjete koji će pomoći tvrtkama da procijene i odgovorno integriraju generativnu umjetnu inteligenciju u svoje strategije kibernetičke sigurnosti.
Generativna umjetna inteligencija u kibernetičkoj sigurnosti: Pregled
Generativna umjetna inteligencija u kibernetičkoj sigurnosti odnosi se na modele umjetne inteligencije – često modele velikih jezika ili druge neuronske mreže – koji mogu generirati uvide, preporuke, kod ili čak sintetičke podatke kako bi pomogli u sigurnosnim zadacima. Za razliku od isključivo prediktivnih modela, generativna umjetna inteligencija može simulirati scenarije i proizvoditi izlaze čitljive ljudima (npr. izvješća, upozorenja ili čak uzorke zlonamjernog koda) na temelju svojih podataka za obuku. Ova se sposobnost koristi za predviđanje, otkrivanje i reagiranje na prijetnje na dinamičnije načine nego prije ( Što je generativna umjetna inteligencija u kibernetičkoj sigurnosti? - Palo Alto Networks ). Na primjer, generativni modeli mogu analizirati opsežne zapisnike ili spremišta obavještajnih podataka o prijetnjama i proizvesti sažet sažetak ili preporučenu radnju, funkcionirajući gotovo kao "pomoćnik" umjetne inteligencije sigurnosnim timovima.
Rane implementacije generativne umjetne inteligencije za kibernetičku obranu pokazale su se obećavajućima. Godine 2023. Microsoft je predstavio Security Copilot , pomoćnika za sigurnosne analitičare pokretanog GPT-4, koji pomaže u identificiranju kršenja i filtriranju 65 bilijuna signala koje Microsoft svakodnevno obrađuje ( Microsoft Security Copilot je novi GPT-4 AI pomoćnik za kibernetičku sigurnost | The Verge ). Analitičari mogu uputiti ovaj sustav prirodnim jezikom (npr. „Sažmi sve sigurnosne incidente u posljednja 24 sata“ ), a copilot će izraditi koristan narativni sažetak. Slično tome, Googleova umjetna inteligencija za obavještajne podatke o prijetnjama koristi generativni model pod nazivom Gemini kako bi omogućila konverzacijsko pretraživanje kroz Googleovu ogromnu bazu podataka o prijetnjama, brzo analizirajući sumnjivi kod i sažimajući nalaze kako bi pomogla lovcima na zlonamjerni softver ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Ovi primjeri ilustriraju potencijal: generativna umjetna inteligencija može probaviti složene, velike podatke o kibernetičkoj sigurnosti i predstaviti uvide u pristupačnom obliku, ubrzavajući donošenje odluka.
Istovremeno, generativna umjetna inteligencija može stvoriti vrlo realističan lažni sadržaj, što je blagodat za simulaciju i obuku (i, nažalost, za napadače koji izrađuju socijalni inženjering). Kako prelazimo na specifične slučajeve upotrebe, vidjet ćemo da sposobnost generativne umjetne inteligencije da sintetizira i analizira informacije podupire njezine brojne primjene u kibernetičkoj sigurnosti. U nastavku ćemo se pozabaviti ključnim slučajevima upotrebe, od sprječavanja krađe identiteta (phishinga) do razvoja sigurnog softvera, s primjerima kako se svaki primjenjuje u različitim industrijama.
Ključne primjene generativne umjetne inteligencije u kibernetičkoj sigurnosti
Slika: Ključni slučajevi upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti uključuju kopilote umjetne inteligencije za sigurnosne timove, analizu ranjivosti koda, adaptivno otkrivanje prijetnji, simulaciju napada nultog dana, poboljšanu biometrijsku sigurnost i otkrivanje phishinga ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ).
Otkrivanje i sprječavanje krađe identiteta (phishing)
Phishing ostaje jedna od najraširenijih kibernetičkih prijetnji, varajući korisnike da kliknu na zlonamjerne poveznice ili otkriju vjerodajnice. Generativna umjetna inteligencija primjenjuje se za otkrivanje pokušaja krađe identiteta (phishinga) i jačanje obuke korisnika za sprječavanje uspješnih napada. S obrambene strane, modeli umjetne inteligencije mogu analizirati sadržaj e-pošte i ponašanje pošiljatelja kako bi uočili suptilne znakove krađe identiteta (phishinga) koje filtri temeljeni na pravilima mogu propustiti. Učenjem iz velikih skupova podataka o legitimnim naspram lažnih e-poruka, generativni model može označiti anomalije u tonu, formulacijama ili kontekstu koje ukazuju na prijevaru - čak i kada gramatika i pravopis više ne otkrivaju tu činjenicu. Zapravo, istraživači Palo Alto Networksa primjećuju da generativna umjetna inteligencija može identificirati „suptilne znakove phishing e-poruka koje bi inače mogle proći neotkrivene“, pomažući organizacijama da budu korak ispred prevaranata ( Što je generativna umjetna inteligencija u kibernetičkoj sigurnosti? - Palo Alto Networks ).
Sigurnosni timovi također koriste generativnu umjetnu inteligenciju za simulaciju phishing napada za obuku i analizu. Na primjer, Ironscales je predstavio alat za simulaciju phishinga pokretan GPT-om koji automatski generira lažne phishing e-poruke prilagođene zaposlenicima organizacije ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Ove e-poruke izrađene umjetnom inteligencijom odražavaju najnovije taktike napadača, dajući osoblju realnu praksu u prepoznavanju phishing sadržaja. Takva personalizirana obuka ključna je jer sami napadači usvajaju umjetnu inteligenciju kako bi stvorili uvjerljivije mamce. Važno je napomenuti da, iako generativna umjetna inteligencija može proizvesti vrlo uglađene phishing poruke (prošla su vremena lako uočljivog lošeg engleskog), branitelji su otkrili da umjetna inteligencija nije nepobjediva. Godine 2024. istraživači IBM Securityja proveli su eksperiment uspoređujući phishing e-poruke koje su napisali ljudi s onima koje je generirala umjetna inteligencija, i „iznenađujuće, e-poruke generirane umjetnom inteligencijom i dalje je bilo lako otkriti unatoč njihovoj ispravnoj gramatici“ ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). To sugerira da ljudska intuicija u kombinaciji s detekcijom potpomognutom umjetnom inteligencijom i dalje može prepoznati suptilne nedosljednosti ili signale metapodataka u prijevarama napisanim umjetnom inteligencijom.
Generativna umjetna inteligencija pomaže obrani od krađe identiteta (phishing) i na druge načine. Modeli se mogu koristiti za generiranje automatiziranih odgovora ili filtera koji testiraju sumnjive e-poruke. Na primjer, AI sustav mogao bi odgovoriti na e-poruku s određenim upitima kako bi provjerio legitimnost pošiljatelja ili koristiti LLM za analizu poveznica i privitaka e-pošte u sandboxu, a zatim sažeti svaku zlonamjernu namjeru. NVIDIA-ina sigurnosna platforma Morpheus pokazuje moć umjetne inteligencije u ovom području – koristi generativne NLP modele za brzu analizu i klasifikaciju e-poruka, a utvrđeno je da poboljšava otkrivanje spear-phishing e-poruka za 21% u usporedbi s tradicionalnim sigurnosnim alatima ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). Morpheus čak profilira obrasce komunikacije korisnika kako bi otkrio neobično ponašanje (poput korisnika koji iznenada šalje e-poruke na mnogo vanjskih adresa), što može ukazivati na kompromitirani račun koji šalje phishing e-poruke.
U praksi, tvrtke u različitim industrijama počinju vjerovati umjetnoj inteligenciji za filtriranje e-pošte i web prometa za napade socijalnog inženjeringa. Financijske tvrtke, na primjer, koriste generativnu umjetnu inteligenciju za skeniranje komunikacija u potrazi za pokušajima lažnog predstavljanja koji bi mogli dovesti do prijevare putem elektroničkih komunikacija, dok pružatelji zdravstvenih usluga primjenjuju umjetnu inteligenciju za zaštitu podataka pacijenata od kršenja povezanih s phishingom. Generiranjem realističnih scenarija phishinga i identificiranjem obilježja zlonamjernih poruka, generativna umjetna inteligencija dodaje snažan sloj strategijama sprječavanja phishinga. Zaključak: Umjetna inteligencija može pomoći u bržem i preciznijem otkrivanju i razoružavanju phishing napada , čak i kada napadači koriste istu tehnologiju za unapređenje svoje igre.
Otkrivanje zlonamjernog softvera i analiza prijetnji
Moderni zlonamjerni softver se stalno razvija – napadači generiraju nove varijante ili prikrivaju kod kako bi zaobišli antivirusne potpise. Generativna umjetna inteligencija nudi nove tehnike za otkrivanje zlonamjernog softvera i razumijevanje njegovog ponašanja. Jedan pristup je korištenje umjetne inteligencije za generiranje „zlih blizanaca“ zlonamjernog softvera : istraživači sigurnosti mogu unijeti poznati uzorak zlonamjernog softvera u generativni model kako bi stvorili mnoge mutirane varijante tog zlonamjernog softvera. Na taj način učinkovito predviđaju promjene koje bi napadač mogao napraviti. Ove varijante generirane umjetnom inteligencijom zatim se mogu koristiti za obuku antivirusnih sustava i sustava za otkrivanje upada, tako da se čak i modificirane verzije zlonamjernog softvera prepoznaju u prirodi ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). Ova proaktivna strategija pomaže u prekidanju ciklusa u kojem hakeri malo mijenjaju svoj zlonamjerni softver kako bi izbjegli otkrivanje, a branitelji se moraju svaki put boriti da napišu nove potpise. Kao što je navedeno u jednom industrijskom podcastu, sigurnosni stručnjaci sada koriste generativnu umjetnu inteligenciju za „simulaciju mrežnog prometa i generiranje zlonamjernih korisnih tereta koji oponašaju sofisticirane napade“, testirajući svoju obranu na stres od cijele obitelji prijetnji, a ne od jednog slučaja. Ovo adaptivno otkrivanje prijetnji znači da sigurnosni alati postaju otporniji na polimorfni zlonamjerni softver koji bi se inače provukao.
Osim detekcije, generativna umjetna inteligencija pomaže u analizi zlonamjernog softvera i obrnutom inženjerstvu , što su tradicionalno radno intenzivni zadaci za analitičare prijetnji. Veliki jezični modeli mogu biti zaduženi za ispitivanje sumnjivog koda ili skripti i objašnjavanje jednostavnim jezikom što bi kod trebao učiniti. Primjer iz stvarnog svijeta je VirusTotal Code Insight , značajka Googleovog VirusTotala koja koristi generativni model umjetne inteligencije (Googleov Sec-PaLM) za izradu sažetaka potencijalno zlonamjernog koda na prirodnom jeziku ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). To je u biti „vrsta ChatGPT-a posvećena sigurnosnom kodiranju“, koja djeluje kao analitičar zlonamjernog softvera umjetne inteligencije koji radi 24/7 kako bi pomogao ljudskim analitičarima da razumiju prijetnje ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). Umjesto da proučava nepoznatu skriptu ili binarni kod, član sigurnosnog tima može dobiti trenutno objašnjenje od umjetne inteligencije – na primjer, „Ova skripta pokušava preuzeti datoteku s XYZ poslužitelja, a zatim izmijeniti postavke sustava, što ukazuje na ponašanje zlonamjernog softvera.“ To dramatično ubrzava odgovor na incidente, jer analitičari mogu trijažirati i razumjeti novi zlonamjerni softver brže nego ikad prije.
Generativna umjetna inteligencija također se koristi za pronalaženje zlonamjernog softvera u ogromnim skupovima podataka . Tradicionalni antivirusni programi skeniraju datoteke u potrazi za poznatim potpisima, ali generativni model može procijeniti karakteristike datoteke, pa čak i predvidjeti je li zlonamjerna na temelju naučenih obrazaca. Analizirajući atribute milijardi datoteka (zlonamjernih i benignih), umjetna inteligencija može otkriti zlonamjernu namjeru tamo gdje ne postoji eksplicitni potpis. Na primjer, generativni model mogao bi označiti izvršnu datoteku kao sumnjivu jer njezin profil ponašanja „izgleda“ kao blaga varijacija ransomwarea koji je vidio tijekom obuke, iako je binarna datoteka nova. Ovo otkrivanje temeljeno na ponašanju pomaže u suzbijanju novog ili zero-day zlonamjernog softvera. Googleov AI za obavještajne podatke o prijetnjama (dio Chronicle/Mandiant) navodno koristi svoj generativni model za analizu potencijalno zlonamjernog koda i „učinkovitiju i djelotvorniju pomoć sigurnosnim stručnjacima u borbi protiv zlonamjernog softvera i drugih vrsta prijetnji.“ ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ).
S druge strane, moramo priznati da napadači i ovdje mogu koristiti generativnu umjetnu inteligenciju – za automatsko stvaranje zlonamjernog softvera koji se prilagođava. Zapravo, sigurnosni stručnjaci upozoravaju da generativna umjetna inteligencija može pomoći kibernetičkim kriminalcima u razvoju zlonamjernog softvera koji je teže otkriti ( Što je generativna umjetna inteligencija u kibernetičkoj sigurnosti? - Palo Alto Networks ). Model umjetne inteligencije može se uputiti da više puta mijenja zlonamjerni softver (mijenjajući njegovu strukturu datoteka, metode šifriranja itd.) dok ne izbjegne sve poznate antivirusne provjere. Ova suprotstavljena upotreba sve je veća briga (ponekad se naziva "zlonamjerni softver pokretan umjetnom inteligencijom" ili polimorfni zlonamjerni softver kao usluga). O takvim ćemo rizicima raspravljati kasnije, ali to naglašava da je generativna umjetna inteligencija alat u ovoj igri mačke i miša koju koriste i branitelji i napadači.
Sveukupno, generativna umjetna inteligencija poboljšava obranu od zlonamjernog softvera omogućujući sigurnosnim timovima da razmišljaju kao napadač – generirajući nove prijetnje i rješenja interno. Bilo da se radi o proizvodnji sintetičkog zlonamjernog softvera za poboljšanje stope otkrivanja ili korištenju umjetne inteligencije za objašnjenje i obuzdavanje stvarnog zlonamjernog softvera pronađenog u mrežama, ove tehnike primjenjuju se u svim industrijama. Banka može koristiti analizu zlonamjernog softvera vođenu umjetnom inteligencijom za brzu analizu sumnjivog makroa u proračunskoj tablici, dok se proizvodna tvrtka može osloniti na umjetnu inteligenciju za otkrivanje zlonamjernog softvera usmjerenog na industrijske kontrolne sustave. Proširivanjem tradicionalne analize zlonamjernog softvera generativnom umjetnom inteligencijom, organizacije mogu brže i proaktivnije reagirati na kampanje zlonamjernog softvera nego prije.
Obavještajni podaci o prijetnjama i automatizirana analiza
Organizacije su svakodnevno bombardirane podacima o prijetnjama - od novootkrivenih pokazatelja kompromitiranja (IOC) do analitičkih izvješća o novim hakerskim taktikama. Izazov za sigurnosne timove je prosijavanje kroz ovu poplavu informacija i izvlačenje praktičnih uvida. Generativna umjetna inteligencija pokazala se neprocjenjivom u automatizaciji analize i korištenja obavještajnih podataka o prijetnjama . Umjesto ručnog čitanja desetaka izvješća ili unosa u bazu podataka, analitičari mogu koristiti umjetnu inteligenciju za sažimanje i kontekstualizaciju informacija o prijetnjama brzinom stroja.
Jedan konkretan primjer je Googleov za analizu prijetnji , koji integrira generativnu umjetnu inteligenciju (model Gemini) s Googleovim obiljem podataka o prijetnjama od Mandianta i VirusTotala. Ova umjetna inteligencija pruža „razgovorno pretraživanje u Googleovom ogromnom repozitoriju obavještajnih podataka o prijetnjama“ , omogućujući korisnicima da postavljaju prirodna pitanja o prijetnjama i dobiju sažete odgovore ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Na primjer, analitičar bi mogao pitati: „Jesmo li vidjeli neki zlonamjerni softver povezan s grupom prijetnji X koji cilja našu industriju?“ , a umjetna inteligencija će izvući relevantne informacije, možda napominjući „Da, grupa prijetnji X bila je povezana s phishing kampanjom prošli mjesec pomoću zlonamjernog softvera Y“ , zajedno sa sažetkom ponašanja tog zlonamjernog softvera. To dramatično smanjuje vrijeme prikupljanja uvida koji bi inače zahtijevali ispitivanje više alata ili čitanje dugih izvješća.
Generativna umjetna inteligencija također može povezati i sažeti trendove prijetnji . Može pregledati tisuće objava na blogovima o sigurnosti, vijesti o kršenju sigurnosti i razgovore na dark webu, a zatim generirati sažetak „najvećih kibernetičkih prijetnji ovog tjedna“ za brifing CISO-a. Tradicionalno je ova razina analize i izvještavanja zahtijevala značajan ljudski napor; sada dobro podešen model može to izraditi u sekundama, a ljudi samo pročišćavaju izlaz. Tvrtke poput ZeroFoxa razvile su FoxGPT , generativni alat umjetne inteligencije posebno dizajniran za „ubrzavanje analize i sažimanja obavještajnih podataka u velikim skupovima podataka“, uključujući zlonamjerni sadržaj i podatke o krađi identiteta ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Automatizacijom teškog posla čitanja i unakrsnog povezivanja podataka, umjetna inteligencija omogućuje timovima za obavještajne podatke o prijetnjama da se usredotoče na donošenje odluka i odgovor.
Drugi slučaj upotrebe je konverzacijsko traženje prijetnji . Zamislite sigurnosnog analitičara koji komunicira s AI asistentom: „Pokažite mi znakove krađe podataka u posljednjih 48 sati“ ili „Koje su najveće nove ranjivosti koje napadači iskorištavaju ovog tjedna?“ AI može interpretirati upit, pretraživati interne zapisnike ili vanjske obavještajne izvore i odgovoriti jasnim odgovorom ili čak popisom relevantnih incidenata. To nije nategnuto – moderni sustavi za upravljanje sigurnosnim informacijama i događajima (SIEM) počinju uključivati upitivanje prirodnim jezikom. IBM-ov QRadar sigurnosni paket, na primjer, dodaje generativne AI značajke u 2024. kako bi analitičarima omogućio da „postave […] specifična pitanja o sažetom putu napada“ incidenta i dobiju detaljne odgovore. Također može „interpretirati i sažeti vrlo relevantne obavještajne podatke o prijetnjama“ ( Kako se generativna AI može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). U osnovi, generativna AI pretvara planine tehničkih podataka u uvide veličine chata na zahtjev.
U svim industrijama ovo ima velike implikacije. Pružatelj zdravstvene zaštite može koristiti umjetnu inteligenciju kako bi bio u tijeku s najnovijim skupinama ransomwarea koje ciljaju bolnice, bez potrebe da analitičar bude posvećen istraživanju s punim radnim vremenom. SOC maloprodajne tvrtke može brzo sažeti nove taktike zlonamjernog softvera na POS uređajima prilikom informiranja IT osoblja trgovine. A u vladi, gdje se podaci o prijetnjama iz različitih agencija moraju sintetizirati, umjetna inteligencija može izraditi objedinjena izvješća koja ističu ključna upozorenja. Automatizacijom prikupljanja i interpretacije obavještajnih podataka o prijetnjama , generativna umjetna inteligencija pomaže organizacijama da brže reagiraju na nove prijetnje i smanjuje rizik od propuštanja kritičnih upozorenja skrivenih u buci.
Optimizacija sigurnosno-operativnog centra (SOC)
Centri za sigurnosne operacije poznati su po zamoru od upozorenja i ogromnoj količini podataka. Tipični analitičar SOC-a mogao bi se svakodnevno probijati kroz tisuće upozorenja i događaja, istražujući potencijalne incidente. Generativna umjetna inteligencija djeluje kao multiplikator sile u SOC-ovima automatizirajući rutinski rad, pružajući inteligentne sažetke, pa čak i orkestrirajući neke odgovore. Cilj je optimizirati tijekove rada SOC-a kako bi se ljudski analitičari mogli usredotočiti na najkritičnija pitanja dok se kopilot umjetne inteligencije bavi ostalim.
Jedna od glavnih primjena je korištenje generativne umjetne inteligencije kao „kopilota analitičara“ . Microsoftov Security Copilot, spomenut ranije, primjer je toga: „dizajniran je da pomogne sigurnosnom analitičaru u radu, a ne da ga zamijeni“, pomažući u istragama i izvješćivanju o incidentima ( Microsoft Security Copilot je novi GPT-4 AI asistent za kibernetičku sigurnost | The Verge ). U praksi to znači da analitičar može unijeti sirove podatke - zapisnike vatrozida, vremensku crtu događaja ili opis incidenta - i zatražiti od umjetne inteligencije da ih analizira ili sažme. Kopilot bi mogao izbaciti narativ poput: „Čini se da je u 2:35 ujutro uspjela sumnjiva prijava s IP adrese X na poslužitelju Y, nakon čega su uslijedili neobični prijenosi podataka, što ukazuje na potencijalni proboj tog poslužitelja.“ Ova vrsta neposredne kontekstualizacije neprocjenjiva je kada je vrijeme ključno.
Kopiloti s umjetnom inteligencijom također pomažu u smanjenju opterećenja trijaže 1. razine. Prema podacima iz industrije, sigurnosni tim može potrošiti 15 sati tjedno samo sortirajući oko 22 000 upozorenja i lažno pozitivnih rezultata ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). S generativnom umjetnom inteligencijom, mnoga od tih upozorenja mogu se automatski trijažirati - umjetna inteligencija može odbaciti ona koja su očito benigna (uz dano obrazloženje) i istaknuti ona koja zaista trebaju pažnju, ponekad čak i predložiti prioritet. Zapravo, snaga generativne umjetne inteligencije u razumijevanju konteksta znači da može unakrsno korelirati upozorenja koja se mogu činiti bezopasnima sama po sebi, ali zajedno ukazuju na napad u više faza. To smanjuje vjerojatnost propuštanja napada zbog „umora od upozorenja“.
Analitičari SOC-a također koriste prirodni jezik s umjetnom inteligencijom kako bi ubrzali pretragu i istrage. SentinelOneova Purple AI platforma, na primjer, kombinira sučelje temeljeno na LLM-u s podacima o sigurnosti u stvarnom vremenu, omogućujući analitičarima da „postavljaju složena pitanja o pretraživanju prijetnji jednostavnim jezikom i dobiju brze i točne odgovore“ ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Analitičar bi mogao upisati: „Jesu li ikakve krajnje točke komunicirale s domenom badguy123[.]com u posljednjih mjesec dana?“ , a Purple AI će pretraživati logove kako bi odgovorio. To analitičaru štedi pisanje upita za bazu podataka ili skripti – umjetna inteligencija to radi „ispod haube“. To također znači da mlađi analitičari mogu obavljati zadatke koji su prije zahtijevali iskusnog inženjera vještog u jezicima upita, učinkovito podižući tim kroz pomoć umjetne inteligencije . Doista, analitičari izvještavaju da generativno usmjeravanje umjetne inteligencije „povećava njihove vještine i stručnost“ , jer mlađi zaposlenici sada mogu dobiti podršku za kodiranje ili savjete za analizu na zahtjev od umjetne inteligencije, smanjujući ovisnost o stalnom traženju pomoći od starijih članova tima ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ).
Još jedna optimizacija SOC-a je automatizirano sažimanje i dokumentiranje incidenata . Nakon što se incident riješi, netko mora napisati izvješće – zadatak koji mnogi smatraju zamornim. Generativna umjetna inteligencija može uzeti forenzičke podatke (sistemske zapisnike, analizu zlonamjernog softvera, vremenski okvir radnji) i generirati prvu verziju izvješća o incidentu. IBM ugrađuje ovu mogućnost u QRadar tako da se "jednim klikom" može izraditi sažetak incidenta za različite dionike (rukovoditelje, IT timove itd.) ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). To ne samo da štedi vrijeme, već i osigurava da se u izvješću ništa ne previdi, budući da umjetna inteligencija može dosljedno uključiti sve relevantne detalje. Slično tome, za usklađenost i reviziju, umjetna inteligencija može ispunjavati obrasce ili tablice dokaza na temelju podataka o incidentu.
Rezultati iz stvarnog svijeta su uvjerljivi. Rani korisnici Swimlaneovog SOAR-a (orkestracija sigurnosti, automatizacija i odgovor) vođenog umjetnom inteligencijom izvještavaju o ogromnim porastima produktivnosti – Global Data Systems, na primjer, vidio je da njihov SecOps tim upravlja puno većim brojem slučajeva; jedan je direktor rekao da bi „ono što danas radim sa 7 analitičara vjerojatno zahtijevalo 20 članova osoblja bez“ automatizacije pokretane umjetnom inteligencijom ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti ). Drugim riječima, umjetna inteligencija u SOC-u može umnožiti kapacitet . U svim industrijama, bilo da se radi o tehnološkoj tvrtki koja se bavi sigurnosnim upozorenjima u oblaku ili proizvodnom pogonu koji prati OT sustave, SOC timovi mogu postići brže otkrivanje i odgovor, manje propuštenih incidenata i učinkovitije poslovanje prihvaćanjem generativnih AI asistenata. Radi se o pametnijem radu – omogućavanju strojevima da obrađuju repetitivne i podatkovno opterećene zadatke kako bi ljudi mogli primijeniti svoju intuiciju i stručnost tamo gdje je to najvažnije.
Upravljanje ranjivostima i simulacija prijetnji
Identificiranje i upravljanje ranjivostima – slabostima u softveru ili sustavima koje napadači mogu iskoristiti – ključna je funkcija kibernetičke sigurnosti. Generativna umjetna inteligencija poboljšava upravljanje ranjivostima ubrzavanjem otkrivanja, pomaganjem u određivanju prioriteta zakrpa, pa čak i simuliranjem napada na te ranjivosti kako bi se poboljšala pripremljenost. U biti, umjetna inteligencija pomaže organizacijama da brže pronađu i poprave rupe u svom oklopu te proaktivno testiraju obranu prije nego što to učine pravi napadači.
Jedna značajna primjena je korištenje generativne umjetne inteligencije za automatizirani pregled koda i otkrivanje ranjivosti . Velike baze koda (posebno naslijeđeni sustavi) često imaju sigurnosne nedostatke koji ostaju nezapaženi. Generativni modeli umjetne inteligencije mogu se obučiti na sigurnim praksama kodiranja i uobičajenim obrascima grešaka, a zatim ih primijeniti na izvorni kod ili kompilirane binarne datoteke kako bi pronašli potencijalne ranjivosti. Na primjer, istraživači tvrtke NVIDIA razvili su generativni AI cjevovod koji bi mogao analizirati kontejnere naslijeđenog softvera i identificirati ranjivosti „s visokom točnošću - do 4× brže od ljudskih stručnjaka.“ ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). Umjetna inteligencija je u biti naučila kako izgleda nesiguran kod i mogla je skenirati desetljećima star softver kako bi označila rizične funkcije i biblioteke, znatno ubrzavajući inače spor proces ručne revizije koda. Ovakav alat može promijeniti pravila igre za industrije poput financija ili vlade koje se oslanjaju na velike, starije baze koda - umjetna inteligencija pomaže u modernizaciji sigurnosti otkrivanjem problema za koje bi osoblju mogli trebati mjeseci ili godine da ih pronađe (ako ikada).
Generativna umjetna inteligencija također pomaže u tijekovima rada upravljanja ranjivostima obradom rezultata skeniranja ranjivosti i njihovim određivanjem prioriteta. Alati poput Tenableovog ExposureAI-a koriste generativnu umjetnu inteligenciju kako bi analitičarima omogućili ispitivanje podataka o ranjivostima jednostavnim jezikom i dobivanje trenutnih odgovora ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). ExposureAI može „sažeti cijeli put napada u narativu“ za određenu kritičnu ranjivost, objašnjavajući kako bi je napadač mogao povezati s drugim slabostima kako bi ugrozio sustav. Čak preporučuje radnje za sanaciju i odgovara na dodatna pitanja o riziku. To znači da kada se objavi novi kritični CVE (uobičajene ranjivosti i izloženosti), analitičar može pitati umjetnu inteligenciju: „Jesu li neki od naših poslužitelja pogođeni ovim CVE-om i koji je najgori scenarij ako ne instaliramo zakrpu?“ i dobiti jasnu procjenu iz vlastitih podataka skeniranja organizacije. Kontekstualiziranjem ranjivosti (npr. ova je izložena internetu i na poslužitelju visoke vrijednosti, pa je glavni prioritet), generativna umjetna inteligencija pomaže timovima da pametno zakrpe s ograničenim resursima.
Osim pronalaženja i upravljanja poznatim ranjivostima, generativna umjetna inteligencija doprinosi testiranju prodiranja i simulaciji napada – u biti otkrivanju nepoznatih ranjivosti ili testiranju sigurnosnih kontrola. Generativne adversarne mreže (GAN), vrsta generativne umjetne inteligencije, korištene su za stvaranje sintetičkih podataka koji oponašaju stvarni mrežni promet ili ponašanje korisnika, što može uključivati skrivene obrasce napada. Studija iz 2023. predložila je korištenje GAN-ova za generiranje realističnog prometa napada nultog dana za obuku sustava za otkrivanje upada ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). Uključivanjem scenarija napada koje je izradila umjetna inteligencija u IDS (koji ne riskiraju korištenje stvarnog zlonamjernog softvera na produkcijskim mrežama), organizacije mogu trenirati svoju obranu da prepozna nove prijetnje bez čekanja da ih one pogode u stvarnosti. Slično tome, umjetna inteligencija može simulirati napadača koji ispituje sustav – na primjer, automatski isprobavajući različite tehnike iskorištavanja u sigurnom okruženju kako bi vidio hoće li neka uspjeti. Američka Agencija za napredne istraživačke projekte u području obrane (DARPA) ovdje vidi obećanje: njihov AI Cyber Challenge za 2023. godinu eksplicitno koristi generativnu umjetnu inteligenciju (poput modela velikih jezika) za „automatsko pronalaženje i ispravljanje ranjivosti u softveru otvorenog koda“ kao dio natjecanja ( DARPA ima za cilj razvoj umjetne inteligencije i autonomnih aplikacija kojima ratnici mogu vjerovati > Ministarstvo obrane SAD-a > Vijesti Ministarstva obrane ). Ova inicijativa naglašava da umjetna inteligencija ne pomaže samo u krpanju poznatih rupa; aktivno otkriva nove i predlaže rješenja, zadatak koji je tradicionalno ograničen na vješte (i skupe) istraživače sigurnosti.
Generativna umjetna inteligencija može čak stvoriti inteligentne honeypotove i digitalne blizance za obranu. Startupi razvijaju sustave mamaca pokretane umjetnom inteligencijom koji uvjerljivo oponašaju stvarne poslužitelje ili uređaje. Kao što je objasnio jedan izvršni direktor, generativna umjetna inteligencija može „klonirati digitalne sustave kako bi oponašala stvarne i namamila hakere“ ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). Ovi honeypotovi generirani umjetnom inteligencijom ponašaju se poput stvarnog okruženja (recimo, lažni IoT uređaj koji šalje normalnu telemetriju), ali postoje isključivo kako bi privukli napadače. Kada napadač cilja mamac, umjetna inteligencija ih je u biti prevarila da otkriju svoje metode, koje branitelji zatim mogu proučiti i koristiti za jačanje stvarnih sustava. Ovaj koncept, pokretan generativnim modeliranjem, pruža napredan način preokretanja situacije protiv napadača , koristeći obmanu koju poboljšava umjetna inteligencija.
U svim industrijama, brže i pametnije upravljanje ranjivostima znači manje povreda sigurnosti. U zdravstvenoj IT industriji, na primjer, umjetna inteligencija može brzo uočiti ranjivu zastarjelu biblioteku u medicinskom uređaju i potaknuti ispravak firmvera prije nego što je napadač iskoristi. U bankarstvu, umjetna inteligencija može simulirati napad iznutra na novu aplikaciju kako bi osigurala da podaci o korisnicima ostanu sigurni u svim scenarijima. Generativna umjetna inteligencija stoga djeluje i kao mikroskop i kao tester stresa za sigurnosnu poziciju organizacija: osvjetljava skrivene nedostatke i vrši pritisak na sustave na maštovite načine kako bi se osigurala otpornost.
Sigurno generiranje koda i razvoj softvera
Talenti generativne umjetne inteligencije nisu ograničeni samo na otkrivanje napada – oni se protežu i na stvaranje sigurnijih sustava od samog početka . U razvoju softvera, generatori AI koda (poput GitHub Copilota, OpenAI Codexa itd.) mogu pomoći programerima da brže pišu kod predlažući isječke koda ili čak cijele funkcije. S aspekta kibernetičke sigurnosti osigurava se sigurnost ovih dijelova koda koje predlaže umjetna inteligencija i koristi se umjetna inteligencija za poboljšanje praksi kodiranja.
S jedne strane, generativna umjetna inteligencija može djelovati kao pomoćnik u kodiranju koji ugrađuje najbolje sigurnosne prakse . Razvojni programeri mogu potaknuti AI alat na "Generiraj funkciju za resetiranje lozinke u Pythonu" i idealno dobiti kod koji je ne samo funkcionalan, već i slijedi sigurne smjernice (npr. pravilna validacija unosa, zapisivanje, rukovanje pogreškama bez curenja informacija itd.). Takav pomoćnik, obučen na opsežnim primjerima sigurnog koda, može pomoći u smanjenju ljudskih pogrešaka koje dovode do ranjivosti. Na primjer, ako razvojni programer zaboravi dezinficirati korisnički unos (otvarajući vrata SQL injekciji ili sličnim problemima), umjetna inteligencija bi to mogla uključiti prema zadanim postavkama ili ih upozoriti. Neki AI alati za kodiranje sada se fino podešavaju s podacima usmjerenim na sigurnost kako bi služili upravo toj svrsi - u biti, umjetna inteligencija uparuje programiranje sa sigurnosnom sviješću .
Međutim, postoji i druga strana: generativna umjetna inteligencija može jednako lako uvesti ranjivosti ako se ne upravlja pravilno. Kao što je primijetio sigurnosni stručnjak Sophosa Ben Verschaeren, korištenje generativne umjetne inteligencije za kodiranje je „u redu za kratak, provjerljiv kod, ali rizično kada se neprovjereni kod integrira“ u produkcijske sustave. Rizik je u tome što umjetna inteligencija može proizvesti logički ispravan kod koji je nesiguran na načine koje nestručnjak možda neće primijetiti. Štoviše, zlonamjerni akteri mogli bi namjerno utjecati na javne modele umjetne inteligencije tako što će ih zasipati ranjivim obrascima koda (oblik trovanja podataka) tako da umjetna inteligencija predloži nesiguran kod. Većina programera nisu stručnjaci za sigurnost , pa ako umjetna inteligencija predloži prikladno rješenje, mogli bi ga koristiti slijepo, ne shvaćajući da ima manu ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). Ova zabrinutost je stvarna - zapravo, sada postoji OWASP Top 10 popis za LLM-ove (modele velikih jezika) koji navodi uobičajene rizike poput ovog pri korištenju umjetne inteligencije za kodiranje.
Kako bi se suprotstavili tim problemima, stručnjaci predlažu „borbu protiv generativne umjetne inteligencije generativnom umjetnom inteligencijom“ u području kodiranja. U praksi to znači korištenje umjetne inteligencije za pregled i testiranje koda koji je napisao drugi AI (ili ljudi). Umjetna inteligencija može pregledati nove izmjene koda puno brže od ljudskog pregledatelja koda i označiti potencijalne ranjivosti ili logičke probleme. Već vidimo alate koji se pojavljuju i integriraju u životni ciklus razvoja softvera: kod se piše (možda uz pomoć umjetne inteligencije), zatim ga generativni model obučen na principima sigurnog koda pregledava i generira izvješće o svim problemima (npr. korištenje zastarjelih funkcija, nedostajuće provjere autentifikacije itd.). NVIDIA-ino istraživanje, spomenuto ranije, koje je postiglo 4× brže otkrivanje ranjivosti u kodu, primjer je korištenja umjetne inteligencije za sigurnu analizu koda ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ).
Nadalje, generativna umjetna inteligencija može pomoći u stvaranju sigurnih konfiguracija i skripti . Na primjer, ako tvrtka treba implementirati sigurnu infrastrukturu u oblaku, inženjer bi mogao zamoliti umjetnu inteligenciju da generira konfiguracijske skripte (infrastruktura kao kod) s ugrađenim sigurnosnim kontrolama (poput pravilne segmentacije mreže, uloga IAM-a s najmanjim privilegijama). Umjetna inteligencija, obučena na tisućama takvih konfiguracija, može stvoriti osnovnu liniju koju inženjer zatim fino podešava. To ubrzava sigurno postavljanje sustava i smanjuje pogreške u konfiguraciji – čest izvor incidenata sigurnosti u oblaku.
Neke organizacije također koriste generativnu umjetnu inteligenciju kako bi održale bazu znanja o sigurnim obrascima kodiranja. Ako programer nije siguran kako sigurno implementirati određenu značajku, može upitati internu umjetnu inteligenciju koja je učila iz prošlih projekata i sigurnosnih smjernica tvrtke. Umjetna inteligencija može vratiti preporučeni pristup ili čak isječak koda koji je usklađen s funkcionalnim zahtjevima i sigurnosnim standardima tvrtke. Ovaj pristup koriste alati poput Secureframeove automatizacije upitnika , koja izvlači odgovore iz politika tvrtke i prošlih rješenja kako bi osigurala dosljedne i točne odgovore (u biti generiranje sigurne dokumentacije) ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Koncept se prevodi u kodiranje: umjetna inteligencija koja „pamti“ kako ste nešto sigurno implementirali prije i vodi vas da to ponovno učinite na taj način.
Ukratko, generativna umjetna inteligencija utječe na razvoj softvera tako što čini sigurno kodiranje dostupnijim . Industrije koje razvijaju puno prilagođenog softvera - tehnologija, financije, obrana itd. - imaju koristi od umjetne inteligencije kao kopilota koji ne samo da ubrzavaju kodiranje, već djeluju i kao stalno budni sigurnosni preglednici. Uz pravilno upravljanje, ovi alati umjetne inteligencije mogu smanjiti uvođenje novih ranjivosti i pomoći razvojnim timovima da se pridržavaju najboljih praksi, čak i ako tim nema sigurnosnog stručnjaka uključenog u svaki korak. Rezultat je softver koji je od prvog dana otporniji na napade.
Podrška za odgovor na incidente
Kada se dogodi kibernetički incident – bilo da se radi o izbijanju zlonamjernog softvera, kršenju podataka ili prekidu rada sustava zbog napada – vrijeme je ključno. Generativna umjetna inteligencija sve se više koristi za podršku timovima za odgovor na incidente (IR) u bržem suzbijanju i saniranju incidenata i s više informacija pri ruci. Ideja je da umjetna inteligencija može preuzeti dio istražnog i dokumentacijskog tereta tijekom incidenta, pa čak i predložiti ili automatizirati neke radnje odgovora.
Jedna od ključnih uloga umjetne inteligencije u IR-u je analiza i sažimanje incidenata u stvarnom vremenu . Usred incidenta, odgovornicima bi mogli biti potrebni odgovori na pitanja poput „Kako je napadač ušao?“ , „Koji su sustavi pogođeni?“ i „Koji bi podaci mogli biti kompromitirani?“ . Generativna umjetna inteligencija može analizirati zapisnike, upozorenja i forenzičke podatke iz pogođenih sustava te brzo pružiti uvide. Na primjer, Microsoft Security Copilot omogućuje odgovorniku na incidente da unese različite dokaze (datoteke, URL-ove, zapisnike događaja) i zatraži vremensku crtu ili sažetak ( Microsoft Security Copilot je novi GPT-4 AI asistent za kibernetičku sigurnost | The Verge ). Umjetna inteligencija bi mogla odgovoriti: „Proboj je vjerojatno započeo phishing e-poštom korisniku JohnDoe u 10:53 GMT koja je sadržavala zlonamjerni softver X. Nakon što je izvršen, zlonamjerni softver stvorio je stražnja vrata koja su dva dana kasnije korištena za bočno kretanje prema financijskom poslužitelju, gdje je prikupljao podatke.“ Imati ovu koherentnu sliku u minutama, a ne satima, omogućuje timu da puno brže donosi informirane odluke (poput toga koje sustave izolirati).
Generativna umjetna inteligencija također može predložiti akcije obuzdavanja i sanacije . Na primjer, ako je krajnja točka zaražena ransomwareom, alat umjetne inteligencije mogao bi generirati skriptu ili skup uputa za izolaciju tog računala, onemogućavanje određenih računa i blokiranje poznatih zlonamjernih IP adresa na vatrozidu – u biti izvršavanje prema playbooku. Palo Alto Networks napominje da je generativna umjetna inteligencija sposobna „generirati odgovarajuće radnje ili skripte na temelju prirode incidenta“ , automatizirajući početne korake odgovora ( Što je generativna umjetna inteligencija u kibernetičkoj sigurnosti? - Palo Alto Networks ). U scenariju u kojem je sigurnosni tim preopterećen (recimo, rašireni napad na stotinama uređaja), umjetna inteligencija bi čak mogla izravno izvršiti neke od ovih radnji pod unaprijed odobrenim uvjetima, djelujući poput mlađeg odgovarača koji neumorno radi. Na primjer, agent umjetne inteligencije mogao bi automatski resetirati vjerodajnice za koje smatra da su kompromitirane ili staviti u karantenu hostove koji pokazuju zlonamjernu aktivnost koja odgovara profilu incidenta.
Tijekom odgovora na incident, komunikacija je ključna – i unutar tima i sa zainteresiranim stranama. Generativna umjetna inteligencija može pomoći izradom izvješća ili sažetaka o ažuriranju incidenta u hodu . Umjesto da inženjer prekine rješavanje problema kako bi napisao ažuriranje e-poštom, mogao bi pitati umjetnu inteligenciju: „Sažmite što se do sada dogodilo u ovom incidentu kako biste obavijestili rukovoditelje.“ Umjetna inteligencija, nakon što je primila podatke o incidentu, može izraditi sažet sažetak: „Od 15 sati, napadači su pristupili 2 korisnička računa i 5 poslužitelja. Zahvaćeni podaci uključuju zapise klijenata u bazi podataka X. Mjere suzbijanja: VPN pristup za kompromitirane račune je opozvan, a poslužitelji izolirani. Sljedeći koraci: skeniranje mehanizama trajnosti.“ Osoba koja odgovara na incident zatim može brzo provjeriti ili prilagoditi ovo i poslati, osiguravajući da su zainteresirane strane obaviještene o točnim i ažurnim informacijama.
Nakon što se prašina slegne, obično se priprema detaljno izvješće o incidentu i sastavljaju naučene lekcije. Ovo je još jedno područje gdje podrška umjetne inteligencije briljira. Može pregledati sve podatke o incidentu i generirati izvješće nakon incidenta koje obuhvaća uzrok, kronologiju, utjecaj i preporuke. IBM, na primjer, integrira generativnu umjetnu inteligenciju kako bi stvorio „jednostavne sažetke sigurnosnih slučajeva i incidenata koji se mogu podijeliti sa zainteresiranim stranama“ pritiskom na gumb ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Pojednostavljenjem izvještavanja nakon radnji, organizacije mogu brže implementirati poboljšanja i imati bolju dokumentaciju za potrebe usklađenosti.
Jedna inovativna upotreba usmjerena prema budućnosti su simulacije incidenata vođene umjetnom inteligencijom . Slično načinu na koji se može provesti vježba za slučaj požara, neke tvrtke koriste generativnu umjetnu inteligenciju za provođenje scenarija incidenata "što ako". Umjetna inteligencija može simulirati kako bi se ransomware mogao širiti s obzirom na raspored mreže ili kako bi insajder mogao ukrasti podatke, a zatim ocijeniti učinkovitost trenutnih planova odgovora. To pomaže timovima da pripreme i usavrše scenarije prije nego što se dogodi stvarni incident. To je kao da imate savjetnika za odgovor na incidente koji se stalno poboljšava i koji neprestano provjerava vašu spremnost.
U industrijama s visokim ulozima poput financija ili zdravstva, gdje su zastoji ili gubitak podataka zbog incidenata posebno skupi, ove IR mogućnosti potaknute umjetnom inteligencijom vrlo su atraktivne. Bolnica koja doživi kibernetički incident ne može si priuštiti dugotrajne prekide rada sustava – umjetna inteligencija koja brzo pomaže u obuzdavanju doslovno bi mogla spasiti život. Slično tome, financijska institucija može koristiti umjetnu inteligenciju za obradu početne trijaže sumnjivog upada prijevare u 3 ujutro, tako da je do trenutka kada dežurni ljudi budu online, mnogo pripremnog posla (odjava pogođenih računa, blokiranje transakcija itd.) već obavljeno. Poboljšanjem timova za odgovor na incidente generativnom umjetnom inteligencijom , organizacije mogu značajno smanjiti vrijeme odziva i poboljšati temeljitost svog rješavanja, u konačnici ublažavajući štetu od kibernetičkih incidenata.
Bihevioralna analitika i otkrivanje anomalija
Mnogi kibernetički napadi mogu se otkriti uočavanjem odstupanja od „normalnog“ ponašanja – bilo da se radi o korisničkom računu koji preuzima neuobičajenu količinu podataka ili mrežnom uređaju koji iznenada komunicira s nepoznatim hostom. Generativna umjetna inteligencija nudi napredne tehnike za analizu ponašanja i otkrivanje anomalija , učenje normalnih obrazaca korisnika i sustava, a zatim označavanje kada nešto izgleda čudno.
Tradicionalno otkrivanje anomalija često koristi statističke pragove ili jednostavno strojno učenje na određenim metrikama (skokovi korištenja CPU-a, prijava u neobično vrijeme itd.). Generativna umjetna inteligencija može to ići dalje stvaranjem nijansiranijih profila ponašanja. Na primjer, model umjetne inteligencije može s vremenom unijeti prijave, obrasce pristupa datotekama i navike e-pošte zaposlenika te formirati višedimenzionalno razumijevanje „normalnosti“ tog korisnika. Ako taj račun kasnije učini nešto drastično izvan svoje norme (poput prijave iz nove zemlje i pristupa mnoštvu HR datoteka u ponoć), umjetna inteligencija bi otkrila odstupanje ne samo na jednoj metrici, već kao cijeli obrazac ponašanja koji ne odgovara profilu korisnika. U tehničkom smislu, generativni modeli (poput autoenkodera ili sekvencijalnih modela) mogu modelirati kako „normalno“ izgleda, a zatim generirati očekivani raspon ponašanja. Kada stvarnost izađe izvan tog raspona, označava se kao anomalija ( Što je generativna umjetna inteligencija u kibernetičkoj sigurnosti? - Palo Alto Networks ).
Jedna praktična primjena je u praćenju mrežnog prometa . Prema istraživanju iz 2024. godine, 54% američkih organizacija navelo je praćenje mrežnog prometa kao glavni slučaj upotrebe umjetne inteligencije u kibernetičkoj sigurnosti ( Sjeverna Amerika: glavni slučajevi upotrebe umjetne inteligencije u kibernetičkoj sigurnosti diljem svijeta 2024. ). Generativna umjetna inteligencija može naučiti normalne komunikacijske obrasce mreže poduzeća - koji poslužitelji obično međusobno komuniciraju, koje se količine podataka kreću tijekom radnog vremena u odnosu na noć itd. Ako napadač počne izvlačiti podatke s poslužitelja, čak i polako kako bi izbjegao otkrivanje, sustav temeljen na umjetnoj inteligenciji mogao bi primijetiti da „Poslužitelj A nikada ne šalje 500 MB podataka u 2 sata ujutro na vanjsku IP adresu“ i podići upozorenje. Budući da umjetna inteligencija ne koristi samo statička pravila, već i model ponašanja mreže koji se razvija, može uhvatiti suptilne anomalije koje statička pravila (poput „upozorenja ako podaci > X MB“) mogu propustiti ili pogrešno označiti. Ova prilagodljiva priroda čini otkrivanje anomalija vođeno umjetnom inteligencijom moćnim u okruženjima poput mreža bankarskih transakcija, infrastrukture u oblaku ili flota IoT uređaja, gdje je definiranje fiksnih pravila za normalno naspram abnormalnog izuzetno složeno.
Generativna umjetna inteligencija također pomaže s analizom ponašanja korisnika (UBA) , što je ključno za uočavanje insajderskih prijetnji ili kompromitiranih računa. Generiranjem osnovne linije svakog korisnika ili entiteta, umjetna inteligencija može otkriti stvari poput zlouporabe vjerodajnica. Na primjer, ako Bob iz računovodstva iznenada počne ispitivati bazu podataka kupaca (nešto što nikada prije nije radio), model umjetne inteligencije za Bobovo ponašanje označit će to kao neobično. Možda se ne radi o zlonamjernom softveru - mogao bi se raditi o slučaju krađe i korištenja Bobovih vjerodajnica od strane napadača ili o Bobovom istraživanju gdje ne bi smio. U svakom slučaju, sigurnosni tim dobiva unaprijed obavijest za istragu. Takvi UBA sustavi vođeni umjetnom inteligencijom postoje u raznim sigurnosnim proizvodima, a tehnike generativnog modeliranja povećavaju njihovu točnost i smanjuju lažne alarme uzimajući u obzir kontekst (možda je Bob na posebnom projektu itd., što umjetna inteligencija ponekad može zaključiti iz drugih podataka).
U području upravljanja identitetom i pristupom, otkrivanje deepfakeova sve je veća potreba – generativna umjetna inteligencija može stvarati sintetičke glasove i videozapise koji zavaravaju biometrijsku sigurnost. Zanimljivo je da generativna umjetna inteligencija također može pomoći u otkrivanju ovih deepfakeova analizom suptilnih artefakata u zvuku ili videu koje je ljudima teško primijetiti. Primjer smo vidjeli s Accentureom, koji je koristio generativnu umjetnu inteligenciju za simuliranje bezbrojnih izraza lica i uvjeta kako bi obučio svoje biometrijske sustave za razlikovanje stvarnih korisnika od deepfakeova generiranih umjetnom inteligencijom. Tijekom pet godina, ovaj pristup pomogao je Accentureu da eliminira lozinke za 90% svojih sustava (prelazeći na biometriju i druge čimbenike) i smanji napade za 60% ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). U osnovi, koristili su generativnu umjetnu inteligenciju za jačanje biometrijske autentifikacije, čineći je otpornom na generativne napade (izvrstan primjer borbe umjetne inteligencije protiv umjetne inteligencije). Ova vrsta modeliranja ponašanja – u ovom slučaju prepoznavanje razlike između živog ljudskog lica i lica sintetiziranog umjetnom inteligencijom – ključna je jer se sve više oslanjamo na umjetnu inteligenciju u autentifikaciji.
Detekcija anomalija pokretana generativnom umjetnom inteligencijom primjenjiva je u svim industrijama: u zdravstvu, praćenje ponašanja medicinskih uređaja radi znakova hakiranja; u financijama, praćenje trgovačkih sustava radi nepravilnih obrazaca koji bi mogli ukazivati na prijevaru ili algoritamsku manipulaciju; u energetici/komunalnim uslugama, promatranje signala kontrolnog sustava radi znakova upada. Kombinacija širine (promatranje svih aspekata ponašanja) i dubine (razumijevanje složenih obrazaca) koju generativna umjetna inteligencija pruža čini je moćnim alatom za uočavanje pokazatelja kibernetičkog incidenta poput igle u plastu sijena. Kako prijetnje postaju prikrivenije, skrivajući se među normalnim operacijama, ova sposobnost preciznog karakteriziranja „normalnog“ i upozoravanja kada nešto odstupa postaje ključna. Generativna umjetna inteligencija stoga služi kao neumorni stražar, uvijek učeći i ažurirajući svoju definiciju normalnosti kako bi pratio promjene u okruženju i upozoravajući sigurnosne timove na anomalije koje zaslužuju detaljniji pregled.
Mogućnosti i prednosti generativne umjetne inteligencije u kibernetičkoj sigurnosti
Primjena generativne umjetne inteligencije u kibernetičkoj sigurnosti donosi mnoštvo mogućnosti i koristi organizacijama koje su spremne prihvatiti ove alate. U nastavku sažimamo ključne prednosti koje generativnu umjetnu inteligenciju čine uvjerljivim dodatkom programima kibernetičke sigurnosti:
-
Brže otkrivanje i odgovor na prijetnje: Generativni AI sustavi mogu analizirati ogromne količine podataka u stvarnom vremenu i prepoznati prijetnje mnogo brže od ručne ljudske analize. Ova prednost u brzini znači ranije otkrivanje napada i brže suzbijanje incidenata. U praksi, sigurnosni nadzor vođen umjetnom inteligencijom može otkriti prijetnje za koje bi ljudima trebalo mnogo više vremena da ih povežu. Brzim reagiranjem na incidente (ili čak autonomnim izvršavanjem početnih odgovora), organizacije mogu dramatično smanjiti vrijeme zadržavanja napadača u svojim mrežama, minimizirajući štetu.
-
Poboljšana točnost i pokrivenost prijetnji: Budući da kontinuirano uče iz novih podataka, generativni modeli mogu se prilagoditi prijetnjama koje se razvijaju i uhvatiti suptilnije znakove zlonamjerne aktivnosti. To dovodi do poboljšane točnosti otkrivanja (manje lažno negativnih i lažno pozitivnih rezultata) u usporedbi sa statičkim pravilima. Na primjer, umjetna inteligencija koja je naučila obilježja phishing e-pošte ili ponašanja zlonamjernog softvera može identificirati varijante koje nikada prije nisu viđene. Rezultat je šira pokrivenost vrsta prijetnji - uključujući nove napade - jačajući ukupnu sigurnosnu poziciju. Sigurnosni timovi također dobivaju detaljne uvide iz analize umjetne inteligencije (npr. objašnjenja ponašanja zlonamjernog softvera), omogućujući precizniju i ciljaniju obranu ( Što je generativna umjetna inteligencija u kibernetičkoj sigurnosti? - Palo Alto Networks ).
-
Automatizacija ponavljajućih zadataka: Generativna umjetna inteligencija izvrsna je u automatizaciji rutinskih, radno intenzivnih sigurnosnih zadataka – od pregledavanja logova i sastavljanja izvješća do pisanja skripti za odgovor na incidente. Ova automatizacija smanjuje opterećenje ljudskih analitičara , oslobađajući ih da se usredotoče na strategiju visoke razine i složeno donošenje odluka ( Što je generativna umjetna inteligencija u kibernetičkoj sigurnosti? - Palo Alto Networks ). Svakodnevne, ali važne zadatke poput skeniranja ranjivosti, revizije konfiguracije, analize aktivnosti korisnika i izvještavanja o usklađenosti može obaviti (ili barem izraditi prve nacrte) umjetna inteligencija. Obradom ovih zadataka brzinom stroja, umjetna inteligencija ne samo da poboljšava učinkovitost već i smanjuje ljudske pogreške (značajan faktor u povredama).
-
Proaktivna obrana i simulacija: Generativna umjetna inteligencija omogućuje organizacijama prelazak s reaktivne na proaktivnu sigurnost. Pomoću tehnika poput simulacije napada, generiranja sintetičkih podataka i obuke temeljene na scenarijima, branitelji mogu predvidjeti i pripremiti se za prijetnje prije nego što se materijaliziraju u stvarnom svijetu. Sigurnosni timovi mogu simulirati kibernetičke napade (phishing kampanje, izbijanja zlonamjernog softvera, DDoS itd.) u sigurnim okruženjima kako bi testirali svoje odgovore i učvrstili sve slabosti. Ova kontinuirana obuka, koju je često nemoguće temeljito izvesti samo ljudskim naporom, održava obranu oštrom i ažurnom. Slično je kibernetičkoj "vježbi zaštite od požara" - umjetna inteligencija može baciti mnoge hipotetske prijetnje na vašu obranu kako biste mogli vježbati i poboljšavati se.
-
Povećanje ljudske stručnosti (umjetna inteligencija kao multiplikator snage): Generativna umjetna inteligencija djeluje kao neumorni mlađi analitičar, savjetnik i asistent u jednom. Manje iskusnim članovima tima može pružiti smjernice i preporuke koje se obično očekuju od iskusnih stručnjaka, učinkovito demokratizirajući stručnost u timu ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). To je posebno vrijedno s obzirom na nedostatak talenata u kibernetičkoj sigurnosti – umjetna inteligencija pomaže manjim timovima da učine više s manje. S druge strane, iskusni analitičari imaju koristi od umjetne inteligencije koja se nosi s teškim poslovima i otkriva neočite uvide, koje zatim mogu potvrditi i na temelju njih djelovati. Ukupni rezultat je sigurnosni tim koji je daleko produktivniji i sposobniji, pri čemu umjetna inteligencija pojačava utjecaj svakog ljudskog člana ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti ).
-
Poboljšana podrška odlučivanju i izvještavanju: Prevođenjem tehničkih podataka u uvide prirodnog jezika, generativna umjetna inteligencija poboljšava komunikaciju i donošenje odluka. Voditelji sigurnosti dobivaju jasniju vidljivost problema putem sažetaka generiranih umjetnom inteligencijom i mogu donositi informirane strateške odluke bez potrebe za raščlanjivanjem sirovih podataka. Slično tome, međufunkcionalna komunikacija (s rukovoditeljima, službenicima za usklađenost itd.) poboljšava se kada umjetna inteligencija priprema lako razumljiva izvješća o sigurnosnom stanju i incidentima ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). To ne samo da gradi povjerenje i usklađenost u sigurnosnim pitanjima na razini vodstva, već i pomaže u opravdavanju ulaganja i promjena jasnim artikuliranjem rizika i nedostataka koje je otkrila umjetna inteligencija.
U kombinaciji, ove prednosti znače da organizacije koje koriste generativnu umjetnu inteligenciju u kibernetičkoj sigurnosti mogu postići jaču sigurnosnu poziciju s potencijalno nižim operativnim troškovima. Mogu odgovoriti na prijetnje koje su prije bile neodoljive, pokriti praznine koje nisu bile nadzirane i kontinuirano se poboljšavati putem povratnih informacija vođenih umjetnom inteligencijom. U konačnici, generativna umjetna inteligencija nudi priliku za iskorištavanje protivnika usklađivanjem brzine , opsega i sofisticiranosti modernih napada s jednako sofisticiranom obranom. Kao što je pokazalo jedno istraživanje, više od polovice poslovnih i kibernetičkih lidera očekuje brže otkrivanje prijetnji i povećanu točnost korištenjem generativne umjetne inteligencije ( [PDF] Global Cybersecurity Outlook 2025 | Svjetski ekonomski forum ) ( Generativna umjetna inteligencija u kibernetičkoj sigurnosti: Sveobuhvatan pregled LLM-a ... ) – što svjedoči o optimizmu oko prednosti ovih tehnologija.
Rizici i izazovi korištenja generativne umjetne inteligencije u kibernetičkoj sigurnosti
Iako su prilike značajne, ključno je pristupiti generativnoj umjetnoj inteligenciji u kibernetičkoj sigurnosti otvorenih očiju za rizike i izazove . Slijepo povjerenje u umjetnu inteligenciju ili njezina zlouporaba mogu uvesti nove ranjivosti. U nastavku navodimo glavne probleme i zamke, zajedno s kontekstom za svaki od njih:
-
Neprijateljska upotreba od strane kibernetičkih kriminalaca: Iste generativne sposobnosti koje pomažu braniteljima mogu osnažiti napadače. Akteri prijetnji već koriste generativnu umjetnu inteligenciju za izradu uvjerljivijih phishing e-poruka, stvaranje lažnih persona i deepfake videa za društveni inženjering, razvoj polimorfnog zlonamjernog softvera koji se stalno mijenja kako bi izbjegao otkrivanje, pa čak i automatizaciju aspekata hakiranja ( Što je generativna umjetna inteligencija u kibernetičkoj sigurnosti? - Palo Alto Networks ). Gotovo polovica (46%) čelnika kibernetičke sigurnosti zabrinuta je da će generativna umjetna inteligencija dovesti do naprednijih neprijateljskih napada ( Generativna umjetna inteligencija sigurnost: Trendovi, prijetnje i strategije ublažavanja ). Ova „utrka u naoružanju umjetnom inteligencijom“ znači da kako branitelji usvajaju umjetnu inteligenciju, napadači neće mnogo zaostajati (zapravo, u nekim područjima mogu biti ispred, koristeći neregulirane alate umjetne inteligencije). Organizacije moraju biti spremne na prijetnje poboljšane umjetnom inteligencijom koje su češće, sofisticiranije i teže ih je pratiti.
-
Halucinacije i netočnost umjetne inteligencije: Generativni modeli umjetne inteligencije mogu proizvesti izlaze koji su uvjerljivi, ali netočni ili obmanjujući – fenomen poznat kao halucinacija. U sigurnosnom kontekstu, umjetna inteligencija može analizirati incident i pogrešno zaključiti da je uzrok određena ranjivost ili može generirati neispravan skript za sanaciju koji ne uspijeva obuzdati napad. Ove pogreške mogu biti opasne ako se shvate doslovno. Kao što NTT Data upozorava, „generativna umjetna inteligencija može uvjerljivo izbaciti neistinit sadržaj, a taj se fenomen naziva halucinacije... trenutno ih je teško potpuno eliminirati“ ( Sigurnosni rizici generativne umjetne inteligencije i protumjera te njezin utjecaj na kibernetičku sigurnost | NTT DATA Group ). Prekomjerno oslanjanje na umjetnu inteligenciju bez provjere moglo bi dovesti do pogrešno usmjerenih napora ili lažnog osjećaja sigurnosti. Na primjer, umjetna inteligencija može lažno označiti kritični sustav kao siguran kada nije, ili obrnuto, izazvati paniku „otkrivanjem“ kršenja koje se nikada nije dogodilo. Rigorozna validacija izlaza umjetne inteligencije i uključivanje ljudi u proces donošenja kritičnih odluka ključni su za ublažavanje ovog rizika.
-
Lažno pozitivni i negativni rezultati: Vezano uz halucinacije, ako je model umjetne inteligencije loše obučen ili konfiguriran, mogao bi previše prijaviti benignu aktivnost kao zlonamjernu (lažno pozitivni rezultati) ili, još gore, propustiti stvarne prijetnje (lažno negativni rezultati) ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti ). Prekomjerni lažni alarmi mogu preopteretiti sigurnosne timove i dovesti do umora od alarma (poništavajući upravo dobitke učinkovitosti koje je umjetna inteligencija obećala), dok propuštena otkrivanja ostavljaju organizaciju izloženom. Podešavanje generativnih modela za pravu ravnotežu je izazovno. Svako okruženje je jedinstveno i umjetna inteligencija možda neće odmah optimalno raditi odmah po instalaciji. Kontinuirano učenje je također mač s dvije oštrice – ako umjetna inteligencija uči iz povratnih informacija koje su iskrivljene ili iz okruženja koje se mijenja, njezina točnost može fluktuirati. Sigurnosni timovi moraju pratiti performanse umjetne inteligencije i prilagođavati pragove ili davati korektivne povratne informacije modelima. U kontekstima s visokim ulozima (poput otkrivanja upada za kritičnu infrastrukturu), možda je razborito pokretati prijedloge umjetne inteligencije paralelno s postojećim sustavima neko vrijeme kako bi se osiguralo da se usklađuju i nadopunjuju, a ne da se sukobljavaju.
-
Privatnost i curenje podataka: Generativni AI sustavi često zahtijevaju velike količine podataka za obuku i rad. Ako su ti modeli temeljeni na oblaku ili nisu pravilno izolirani, postoji rizik od curenja osjetljivih informacija. Korisnici mogu nenamjerno unijeti vlasničke podatke ili osobne podatke u AI uslugu (zamislite da zatražite od ChatGPT-a da sažme povjerljivo izvješće o incidentu), a ti podaci mogu postati dio znanja modela. Doista, nedavna studija otkrila je da 55% ulaza u generativne AI alate sadrži osjetljive ili osobno prepoznatljive podatke , što izaziva ozbiljnu zabrinutost zbog curenja podataka ( Sigurnost generativne AI: Trendovi, prijetnje i strategije ublažavanja ). Osim toga, ako je AI obučen na internim podacima i upitan je na određene načine, mogao bi poslati nekome drugome. Organizacije moraju provoditi stroge politike rukovanja podacima (npr. korištenje lokalnih ili privatnih AI instanci za osjetljivi materijal) i educirati zaposlenike o tome da ne lijepe tajne informacije u javne AI alate. Propisi o privatnosti (GDPR itd.) također dolaze do izražaja – korištenje osobnih podataka za obuku AI bez odgovarajućeg pristanka ili zaštite moglo bi biti u suprotnosti sa zakonima.
-
Sigurnost i manipulacija modelom: Generativni modeli umjetne inteligencije sami po sebi mogu postati mete. Protivnici bi mogli pokušati trovati model , dajući zlonamjerne ili obmanjujuće podatke tijekom faze obuke ili ponovne obuke kako bi umjetna inteligencija naučila netočne obrasce ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti ). Na primjer, napadač bi mogao suptilno otrovati podatke o prijetnji tako da umjetna inteligencija ne prepozna napadačev vlastiti zlonamjerni softver kao zlonamjeran. Druga taktika je ubrizgavanje prompta ili manipulacija izlazom , gdje napadač pronalazi način da izda ulaze umjetnoj inteligenciji koji uzrokuju da se ponaša na neželjene načine - možda da ignorira njezine sigurnosne ograde ili da otkrije informacije koje ne bi smjela (poput internih uputa ili podataka). Osim toga, postoji rizik od izbjegavanja modela : napadači izrađuju ulaz posebno dizajniran da prevare umjetnu inteligenciju. To vidimo u primjerima suparništva - blago poremećeni podaci koje čovjek vidi kao normalne, ali ih umjetna inteligencija pogrešno klasificira. Osiguravanje sigurnosti lanca opskrbe umjetnom inteligencijom (integritet podataka, kontrola pristupa modelu, testiranje robusnosti protivnika) novi je, ali nužan dio kibernetičke sigurnosti prilikom implementacije ovih alata ( Što je generativna umjetna inteligencija u kibernetičkoj sigurnosti? - Palo Alto Networks ).
-
Prekomjerno oslanjanje i erozija vještina: Postoji manji rizik da bi se organizacije mogle previše oslanjati na umjetnu inteligenciju i dopustiti da ljudske vještine atrofiraju. Ako mlađi analitičari počnu slijepo vjerovati rezultatima umjetne inteligencije, možda neće razviti kritičko razmišljanje i intuiciju potrebnu za situacije kada umjetna inteligencija nije dostupna ili je u krivu. Scenarij koji treba izbjegavati je sigurnosni tim koji ima izvrsne alate, ali nema pojma kako funkcionirati ako ti alati postanu neispravni (slično pilotima koji se previše oslanjaju na autopilota). Redovite vježbe obuke bez pomoći umjetne inteligencije i poticanje načina razmišljanja da je umjetna inteligencija asistent, a ne nepogrešivi prorok, važni su za održavanje oštrine ljudskih analitičara. Ljudi moraju ostati konačni donositelji odluka, posebno za odluke s velikim utjecajem.
-
Etički izazovi i izazovi usklađenosti: Korištenje umjetne inteligencije u kibernetičkoj sigurnosti postavlja etička pitanja i moglo bi izazvati probleme s usklađenošću s propisima. Na primjer, ako sustav umjetne inteligencije pogrešno implicira zaposlenika kao zlonamjernog insajdera zbog anomalije, to bi moglo nepravedno oštetiti ugled ili karijeru te osobe. Odluke koje donosi umjetna inteligencija mogu biti neprozirne (problem „crne kutije“), što otežava objašnjenje revizorima ili regulatorima zašto su poduzete određene radnje. Kako sadržaj generiran umjetnom inteligencijom postaje sve rašireniji, osiguranje transparentnosti i održavanje odgovornosti ključno je. Regulatori počinju pomno ispitivati umjetnu inteligenciju – Zakon EU o umjetnoj inteligenciji, na primjer, nametnut će zahtjeve za „visokorizične“ sustave umjetne inteligencije, a umjetna inteligencija u kibernetičkoj sigurnosti mogla bi spadati u tu kategoriju. Tvrtke će se morati snalaziti u tim propisima i eventualno se pridržavati standarda poput Okvira za upravljanje rizicima umjetne inteligencije NIST-a kako bi odgovorno koristile generativnu umjetnu inteligenciju ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Usklađenost se proteže i na licenciranje: korištenje modela otvorenog koda ili modela trećih strana može imati uvjete koji ograničavaju određene upotrebe ili zahtijevaju poboljšanja dijeljenja.
Ukratko, generativna umjetna inteligencija nije čarobni štapić – ako se ne implementira pažljivo, može uvesti nove slabosti čak i dok rješava druge. Studija Svjetskog ekonomskog foruma iz 2024. istaknula je da ~47% organizacija navodi napredak u generativnoj umjetnoj inteligenciji od strane napadača kao primarnu brigu, što je čini „najzabrinjavajućim utjecajem generativne umjetne inteligencije“ na kibernetičku sigurnost ( [PDF] Global Cybersecurity Outlook 2025 | Svjetski ekonomski forum ) ( Generativna umjetna inteligencija u kibernetičkoj sigurnosti: Sveobuhvatan pregled LLM-a ... ). Stoga organizacije moraju usvojiti uravnotežen pristup: iskoristiti prednosti umjetne inteligencije dok istovremeno rigorozno upravljaju tim rizicima putem upravljanja, testiranja i ljudskog nadzora. Zatim ćemo raspravljati o tome kako praktično postići tu ravnotežu.
Budući izgledi: Razvoj uloge generativne umjetne inteligencije u kibernetičkoj sigurnosti
Gledajući unaprijed, generativna umjetna inteligencija spremna je postati sastavni dio strategije kibernetičke sigurnosti - a isto tako i alat koji će kibernetički protivnici nastaviti iskorištavati. Dinamika igre mačke i miša će se ubrzati, s umjetnom inteligencijom s obje strane ograde. Evo nekoliko uvida u to kako bi generativna umjetna inteligencija mogla oblikovati kibernetičku sigurnost u nadolazećim godinama:
-
Kibernetička obrana proširena umjetnom inteligencijom postaje standard: Do 2025. i kasnije možemo očekivati da će većina srednjih i velikih organizacija u svoje sigurnosne operacije uključiti alate temeljene na umjetnoj inteligenciji. Baš kao što su antivirusni programi i vatrozidovi danas standardni, kopiloti umjetne inteligencije i sustavi za otkrivanje anomalija mogli bi postati osnovne komponente sigurnosnih arhitektura. Ti će alati vjerojatno postati specijaliziraniji - na primjer, različiti modeli umjetne inteligencije fino podešeni za sigurnost u oblaku, za praćenje IoT uređaja, za sigurnost aplikacijskog koda i tako dalje, a svi će raditi usklađeno. Kao što jedno predviđanje navodi, „2025. godine generativna umjetna inteligencija bit će sastavni dio kibernetičke sigurnosti, omogućujući organizacijama da se proaktivno brane od sofisticiranih i promjenjivih prijetnji“ ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti ). Umjetna inteligencija će poboljšati otkrivanje prijetnji u stvarnom vremenu, automatizirati mnoge radnje odgovora i pomoći sigurnosnim timovima da upravljaju znatno većim količinama podataka nego što bi to mogli ručno.
-
Kontinuirano učenje i prilagodba: Budući generativni AI sustavi u kibernetičkom okruženju bit će bolji u učenju u hodu iz novih incidenata i obavještajnih podataka o prijetnjama, ažurirajući svoju bazu znanja gotovo u stvarnom vremenu. To bi moglo dovesti do istinski adaptivne obrane – zamislite AI koja ujutro sazna o novoj phishing kampanji koja pogađa drugu tvrtku, a do poslijepodneva je već prilagodila filtere e-pošte vaše tvrtke kao odgovor. Sigurnosne usluge AI-a temeljene na oblaku mogle bi olakšati ovu vrstu kolektivnog učenja, gdje anonimizirani uvidi iz jedne organizacije koriste svim pretplatnicima (slično dijeljenju obavještajnih podataka o prijetnjama, ali automatizirano). Međutim, to će zahtijevati pažljivo rukovanje kako bi se izbjeglo dijeljenje osjetljivih informacija i spriječilo napadače da unose loše podatke u dijeljene modele.
-
Konvergencija talenata za umjetnu inteligenciju i kibernetičku sigurnost: Skup vještina stručnjaka za kibernetičku sigurnost razvijat će se i uključivat će vještinu u umjetnoj inteligenciji i znanosti o podacima. Baš kao što današnji analitičari uče jezike za upite i skriptiranje, sutrašnji analitičari mogli bi redovito fino podešavati modele umjetne inteligencije ili pisati „priručnike“ koje umjetna inteligencija izvršava. Možda ćemo vidjeti nove uloge poput „trenera za umjetnu inteligenciju“ ili „inženjera umjetne inteligencije za kibernetičku sigurnost“ – ljudi koji su specijalizirani za prilagođavanje alata umjetne inteligencije potrebama organizacije, validaciju njihovih performansi i osiguravanje sigurnog rada. S druge strane, razmatranja kibernetičke sigurnosti sve će više utjecati na razvoj umjetne inteligencije. Sustavi umjetne inteligencije bit će izgrađeni sa sigurnosnim značajkama od temelja (sigurna arhitektura, otkrivanje neovlaštenih promjena, zapisnici revizije za odluke umjetne inteligencije itd.), a okviri za pouzdanu umjetnu inteligenciju (pošteni, objašnjivi, robusni i sigurni) vodit će njihovu primjenu u sigurnosno kritičnim kontekstima.
-
Sofisticiraniji napadi pokretani umjetnom inteligencijom: Nažalost, krajolik prijetnji također će se razvijati s umjetnom inteligencijom. Očekujemo češću upotrebu umjetne inteligencije za otkrivanje zero-day ranjivosti, za izradu visoko ciljanog spear phishinga (npr. umjetna inteligencija pretražuje društvene mreže kako bi stvorila savršeno prilagođen mamac) i za generiranje uvjerljivih deepfake glasova ili videozapisa kako bi zaobišla biometrijsku autentifikaciju ili počinila prijevaru. Mogli bi se pojaviti automatizirani agenti za hakiranje koji mogu samostalno provoditi višefazne napade (izviđanje, iskorištavanje, lateralno kretanje itd.) uz minimalan ljudski nadzor. To će prisiliti branitelje da se također oslanjaju na umjetnu inteligenciju - u biti automatizacija naspram automatizacije . Neki napadi mogu se dogoditi brzinom stroja, poput AI botova koji pokušavaju tisuću permutacija phishing e-pošte kako bi vidjeli koja prolazi filtere. Kibernetička obrana morat će raditi sličnom brzinom i fleksibilnošću kako bi pratila ( Što je generativna umjetna inteligencija u kibernetičkoj sigurnosti? - Palo Alto Networks ).
-
Regulacija i etička umjetna inteligencija u sigurnosti: Kako se umjetna inteligencija sve više ugrađuje u funkcije kibernetičke sigurnosti, doći će do većeg nadzora i moguće regulacije kako bi se osiguralo da se ovi sustavi umjetne inteligencije koriste odgovorno. Možemo očekivati okvire i standarde specifične za umjetnu inteligenciju u sigurnosti. Vlade bi mogle postaviti smjernice za transparentnost - npr. zahtijevajući da značajne sigurnosne odluke (poput prekida pristupa zaposlenika zbog sumnje na zlonamjernu aktivnost) ne može donositi umjetna inteligencija sama bez ljudskog pregleda. Mogu postojati i certifikati za sigurnosne proizvode umjetne inteligencije kako bi se kupcima osiguralo da je umjetna inteligencija procijenjena na pristranost, robusnost i sigurnost. Nadalje, međunarodna suradnja mogla bi se proširiti oko kibernetičkih prijetnji povezanih s umjetnom inteligencijom; na primjer, sporazumi o rukovanju dezinformacijama koje stvara umjetna inteligencija ili norme protiv određenog kibernetičkog oružja pokretanog umjetnom inteligencijom.
-
Integracija sa širim ekosustavima umjetne inteligencije i IT-a: Generativna umjetna inteligencija u kibernetičkoj sigurnosti vjerojatno će se integrirati s drugim sustavima umjetne inteligencije i alatima za upravljanje IT-om. Na primjer, umjetna inteligencija koja upravlja optimizacijom mreže mogla bi surađivati s umjetnom inteligencijom za sigurnost kako bi se osiguralo da promjene ne otvaraju rupe u zakonu. Poslovna analitika vođena umjetnom inteligencijom mogla bi dijeliti podatke sa sigurnosnim umjetnom inteligencijom kako bi se povezale anomalije (poput naglog pada prodaje s mogućim problemom s web stranicom zbog napada). U biti, umjetna inteligencija neće živjeti u silosu – bit će dio veće inteligentne strukture poslovanja organizacije. To otvara mogućnosti za holističko upravljanje rizicima gdje bi umjetna inteligencija mogla kombinirati operativne podatke, podatke o prijetnjama, pa čak i podatke o fizičkoj sigurnosti kako bi se dobio 360-stupanjski pogled na sigurnosno stanje organizacije.
Dugoročno, nada je da će generativna umjetna inteligencija pomoći u preokretanju ravnoteže u korist branitelja. Rješavanjem opsega i složenosti modernih IT okruženja, umjetna inteligencija može učiniti kibernetički prostor obranjivijim. Međutim, to je putovanje i bit će poteškoća dok usavršavamo ove tehnologije i učimo im vjerovati na odgovarajući način. Organizacije koje ostaju informirane i ulažu u odgovorno usvajanje umjetne inteligencije za sigurnost vjerojatno će biti one koje će biti najbolje pozicionirane za suočavanje s prijetnjama budućnosti.
Kao što je navedeno u nedavnom Gartnerovom izvješću o trendovima kibernetičke sigurnosti, „pojava generativnih slučajeva upotrebe (i rizika) umjetne inteligencije stvara pritisak za transformaciju“ ( Trendovi kibernetičke sigurnosti: Otpornost kroz transformaciju - Gartner ). Oni koji se prilagode iskoristit će umjetnu inteligenciju kao snažnog saveznika; oni koji zaostaju mogli bi se naći u situaciji da ih nadmašuju protivnici osnaženi umjetnom inteligencijom. Sljedećih nekoliko godina bit će ključno vrijeme u definiranju načina na koji umjetna inteligencija preoblikuje kibernetičko bojno polje.
Praktične poruke za usvajanje generativne umjetne inteligencije u kibernetičkoj sigurnosti
Za tvrtke koje procjenjuju kako iskoristiti generativnu umjetnu inteligenciju u svojoj strategiji kibernetičke sigurnosti, evo nekoliko praktičnih zaključaka i preporuka za odgovorno i učinkovito usvajanje:
-
Započnite s obrazovanjem i obukom: Osigurajte da vaš sigurnosni tim (i šire IT osoblje) razumiju što generativna umjetna inteligencija može, a što ne može učiniti. Osigurajte obuku o osnovama sigurnosnih alata potaknutih umjetnom inteligencijom i ažurirajte svoje programe osvješćivanja o sigurnosti za sve zaposlenike kako bi obuhvatili prijetnje omogućene umjetnom inteligencijom. Na primjer, podučite osoblje kako umjetna inteligencija može generirati vrlo uvjerljive phishing prijevare i lažne pozive. Istovremeno, obučite zaposlenike o sigurnoj i odobrenoj upotrebi alata umjetne inteligencije u njihovom radu. Dobro informirani korisnici imaju manju vjerojatnost da će pogrešno rukovati umjetnom inteligencijom ili postati žrtve napada poboljšanih umjetnom inteligencijom ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ).
-
Definirajte jasne politike korištenja umjetne inteligencije: Tretirajte generativnu umjetnu inteligenciju kao bilo koju moćnu tehnologiju – s upravljanjem. Razvijte politike koje određuju tko može koristiti alate umjetne inteligencije, koji su alati odobreni i u koje svrhe. Uključite smjernice o rukovanju osjetljivim podacima (npr. bez unošenja povjerljivih podataka u vanjske usluge umjetne inteligencije) kako biste spriječili curenje. Na primjer, mogli biste dopustiti samo članovima sigurnosnog tima da koriste internog asistenta umjetne inteligencije za odgovor na incidente, a marketing može koristiti provjerenu umjetnu inteligenciju za sadržaj – svi ostali su ograničeni. Mnoge organizacije sada se izričito bave generativnom umjetnom inteligencijom u svojim IT politikama, a vodeća tijela za standardizaciju potiču politike sigurne upotrebe, a ne izravne zabrane ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Obavezno komunicirajte ova pravila i obrazloženje iza njih svim zaposlenicima.
-
Ublažavanje „sjene umjetne inteligencije“ i praćenje korištenja: Slično kao kod sjene IT-a, „sjena umjetne inteligencije“ nastaje kada zaposlenici počnu koristiti alate ili usluge umjetne inteligencije bez znanja IT-a (npr. programer koristi neovlaštenog asistenta za kod umjetne inteligencije). To može uvesti neviđene rizike. Provedite mjere za otkrivanje i kontrolu nesankcioniranog korištenja umjetne inteligencije . Praćenje mreže može označiti veze s popularnim API-jima umjetne inteligencije, a ankete ili revizije alata mogu otkriti što osoblje koristi. Ponudite odobrene alternative kako dobronamjerni zaposlenici ne bi bili u iskušenju da se pokažu nepoštenima (na primjer, navedite službeni ChatGPT Enterprise račun ako ljudi smatraju da je koristan). Iznošenjem korištenja umjetne inteligencije na vidjelo, sigurnosni timovi mogu procijeniti i upravljati rizikom. Praćenje je također ključno – bilježite aktivnosti i rezultate alata umjetne inteligencije koliko god je to moguće, kako bi postojao revizijski trag za odluke na koje je umjetna inteligencija utjecala ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ).
-
Iskoristite umjetnu inteligenciju u obrani – ne zaostajte: Prepoznajte da će napadači koristiti umjetnu inteligenciju, pa bi to trebala učiniti i vaša obrana. Odredite nekoliko područja s velikim utjecajem gdje bi generativna umjetna inteligencija mogla odmah pomoći vašim sigurnosnim operacijama (možda trijaža upozorenja ili automatizirana analiza zapisnika) i pokrenite pilot projekte. Povećajte svoju obranu brzinom i skalom umjetne inteligencije kako biste se suprotstavili brzorastućim prijetnjama ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Čak i jednostavne integracije, poput korištenja umjetne inteligencije za sažimanje izvješća o zlonamjernom softveru ili generiranje upita za lov na prijetnje, mogu analitičarima uštedjeti sate. Počnite s malim koracima, procijenite rezultate i ponavljajte. Uspjesi će izgraditi argumente za širu primjenu umjetne inteligencije. Cilj je koristiti umjetnu inteligenciju kao multiplikator sile – na primjer, ako phishing napadi preplavljuju vašu službu za korisnike, implementirajte klasifikator e-pošte s umjetnom inteligencijom kako biste proaktivno smanjili taj volumen.
-
Investirajte u sigurne i etičke prakse umjetne inteligencije: Prilikom implementacije generativne umjetne inteligencije slijedite sigurne prakse razvoja i implementacije. Koristite privatne ili samostalno hostane modele za osjetljive zadatke kako biste zadržali kontrolu nad podacima. Ako koristite usluge umjetne inteligencije trećih strana, pregledajte njihove mjere sigurnosti i privatnosti (šifriranje, politike zadržavanja podataka itd.). Uključite okvire za upravljanje rizicima umjetne inteligencije (poput NIST-ovog okvira za upravljanje rizicima umjetne inteligencije ili smjernica ISO/IEC) kako biste sustavno rješavali stvari poput pristranosti, objašnjivosti i robusnosti u svojim alatima umjetne inteligencije ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Također planirajte ažuriranja/zakrpe modela kao dio održavanja – modeli umjetne inteligencije također mogu imati „ranjivosti“ (npr. možda će im trebati ponovna obuka ako počnu lutati ili ako se otkrije nova vrsta neprijateljskog napada na model). Uključivanjem sigurnosti i etike u korištenje umjetne inteligencije gradite povjerenje u rezultate i osiguravate usklađenost s novim propisima.
-
Održavajte ljude u toku: Koristite umjetnu inteligenciju kako biste pomogli, a ne u potpunosti zamijenili, ljudsku prosudbu u kibernetičkoj sigurnosti. Odredite točke odlučivanja gdje je potrebna ljudska validacija (na primjer, umjetna inteligencija može izraditi izvješće o incidentu, ali ga analitičar pregleda prije distribucije; ili umjetna inteligencija može predložiti blokiranje korisničkog računa, ali čovjek odobri tu radnju). To ne samo da sprječava da pogreške umjetne inteligencije ostanu neprovjerene, već i pomaže vašem timu da uči od umjetne inteligencije i obrnuto. Potaknite suradnički tijek rada: analitičari bi se trebali osjećati ugodno propitujući rezultate umjetne inteligencije i provodeći provjere razumnosti. S vremenom ovaj dijalog može poboljšati i umjetnu inteligenciju (putem povratnih informacija) i vještine analitičara. U osnovi, dizajnirajte svoje procese tako da se snage umjetne inteligencije i ljudske snage nadopunjuju - umjetna inteligencija rješava količinu i brzinu, ljudi rješavaju dvosmislenost i konačne odluke.
-
Mjerenje, praćenje i prilagođavanje: Konačno, tretirajte svoje generativne AI alate kao žive komponente vašeg sigurnosnog ekosustava. Kontinuirano mjerite njihovu učinkovitost – smanjuju li vrijeme odziva na incidente? Otkrivaju li prijetnje ranije? Kakav je trend stope lažno pozitivnih rezultata? Tražite povratne informacije od tima: jesu li preporuke AI korisne ili stvaraju buku? Koristite ove metrike za poboljšanje modela, ažuriranje podataka o obuci ili prilagodbu načina na koji je AI integriran. Kibernetičke prijetnje i poslovne potrebe se razvijaju, a vaše AI modele treba periodično ažurirati ili ponovno obučavati kako bi ostali učinkoviti. Imajte plan za upravljanje modelom, uključujući tko je odgovoran za njegovo održavanje i koliko često se pregledava. Aktivnim upravljanjem životnim ciklusom AI-a osiguravate da ostane imovina, a ne obveza.
Zaključno, generativna umjetna inteligencija može značajno poboljšati mogućnosti kibernetičke sigurnosti, ali uspješno usvajanje zahtijeva promišljeno planiranje i kontinuirani nadzor. Tvrtke koje obrazuju svoje ljude, postavljaju jasne smjernice i integriraju umjetnu inteligenciju na uravnotežen i siguran način ubrat će plodove bržeg i pametnijeg upravljanja prijetnjama. Te zaključke pružaju smjernice: kombinirajte ljudsku stručnost s automatizacijom umjetne inteligencije, obuhvatite osnove upravljanja i održavajte agilnost kako se i tehnologija umjetne inteligencije i krajolik prijetnji neizbježno razvijaju.
Poduzimanjem ovih praktičnih koraka, organizacije mogu s pouzdanjem odgovoriti na pitanje „Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti?“ – ne samo u teoriji, već i u svakodnevnoj praksi – i time ojačati svoju obranu u našem sve digitalnijem svijetu vođenom umjetnom inteligencijom. ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti )
Bijele knjige koje biste možda željeli pročitati nakon ove:
🔗 Poslovi koje umjetna inteligencija ne može zamijeniti i koje će poslove umjetna inteligencija zamijeniti?
Istražite globalni pogled na to koje su uloge sigurne od automatizacije, a koje nisu.
🔗 Može li umjetna inteligencija predvidjeti kretanje na burzi?
Detaljniji pogled na ograničenja, otkrića i mitove o sposobnosti umjetne inteligencije da predviđa kretanja na tržištu.
🔗 Na što se generativna umjetna inteligencija može osloniti bez ljudske intervencije?
Shvatite gdje umjetna inteligencija može djelovati samostalno, a gdje je ljudski nadzor i dalje neophodan.