Umelá inteligencia je pre kyberbezpečnosť game changer. Čo všetko so sebou prináša?

August 2024
Autor: Lucia Kobzová

Posledné mesiace prinášajú dramatický nárast popularity umelej inteligencie a to najmä vďaka nástroju ChatGPT. Ten priniesol modernú technológiu širšej verejnosti a AI si už vyskúšal takmer každý z nás. Prepojenie umelej inteligencie s naším každodenným životom preto nie je iba sci-fi, no stalo sa bežnou realitou. Umelá inteligencia tak postupne mení a zasahuje do všetkých oblastí nášho života. Využívajú ju štáty na zlepšenie služieb občanom, nasadzuje sa v zdravotníctve na detegovanie rakoviny, marketéri sa bez nej už takmer nezaobídu, pomáha sledovať občanov na verejných priestranstvách a štáty ju nasadzujú už aj počas vojny na bojisku. Tento trend samozrejme neobišiel ani oblasť kyberbezpečnosti.

O umelej inteligencii sa často hovorí, ako o užitočnom nástroji pre uľahčenie si a zefektívnenie práce. Hoci toto platí aj pre kyberbezpečnostné tímy, hackeri ju taktiež s radosťou využívajú, kde sa dá. Obe strany tak proti sebe bojujú a predbiehajú sa, kto nájde lepšie využitie AI na oklamanie protivníka.

Kto v tom boji napokon zvíťazí? V tomto blogu vám prinášame základný prehľad trendov o využití AI v oblasti kyberbezpečnosti. 

Kto z koho?

Najdôležitejšou otázkou je, kto v tomto boji zvíťazí. Odpoveď nie je taká jednoduchá, ako by sme si mysleli. Hoci by sa mohlo zdať, že AI dáva silný nástroj do rúk kyberkriminálnikom, dáta ukazujú, že stále zaostávajú za obrannými kyberbezpečnostnými tímami. 

Zločinci sú totiž pri nasadzovaní modernej technológie pomerne obozretní. Boja sa možného odhalenia orgánmi činnými v trestnom konaní. V tomto bode teda skôr testujú limity AI a hľadajú spôsoby, ako zostať pred očami zákona skrytí. 

Rovnako ako väčšina ľudí, aj hackeri radi zachovávajú status quo. Pokiaľ to nie je potrebné, radšej svoje techniky nemenia. Mnohé z nich sú totiž časom otestované a ukazujú sa byť efektívne. Nemalo by zmysel snažiť sa ich nahradiť umelou inteligenciou. K celej situácii prispievajú aj takzvané „switching costs“, teda akési náklady potrebné na výmenu používaného softvéru. Nemusí ísť nevyhnutne o finančný kapitál, no za „náklad“ sa považuje napríklad aj čas potrebný na pochopenie a oboznámenie sa s novým nástrojom. Práve tento krok môže značne spomaliť útočné aktivity.

Aké nástroje majú k dispozícii hackeri?

Hackeri majú k dispozícii skutočne veľké množstvo záškodníckych AI nástrojov, ktoré sú vytrénované na malvéri či iných nezákonných dátach. Technológie im pomáhajú pri vytváraní škodlivého kódu, no aj pri zvyšovaní sofistikovanosti phishingových e-mailov.

Medzi tie poprednejšie patrí jednoznačne WormGPT. Ide o neetického dvojníka ChatGPT, ktorý nemá žiadne bezpečnostné a morálne obmedzenia. Má naozaj široké využitie od kompromitácie firemných mailov, cez písanie malvéru až po phishingové kampane. Kúpiť si ho záškodníci môžu na hackerských fórach ako blackhat alternatívu k bežným GPT modelom. Veľkou výhodou pre kriminálnikov je aj vysoká miera anonymity pri jeho používaní. 

Možno tiež pozorovať nárast takzvaných jailbreakov pre veľké jazykové modely (LLM). Ide o spôsoby, akými vie používateľ obísť bezpečnostné opatrenia nástroja. LLM majú rôzne zabezpečenia, aby predchádzali nekalým a neetickým praktikám. Kriminálnici si preto začali vytvárať vlastné nástroje na oklamanie AI ako EscapeGPT či BlackHatGPT. Stále však primárne využívajú ChatGPT za pomoci jailbreakingových služieb. Zistilo sa tiež, že jazykové modely ako GPT-4 vedia zneužívať známe zraniteľnosti, aby hackli webové stránky. Populárnym využitím medzi záškodníkmi je aj vytváranie deepfakov, teda falošných materiálov vytvorených AI. Zločinci si napríklad nechávajú generovať explicitné materiály či teroristický obsah

Hackeri sa aj tak radšej snažia nevyužívať bežne dostupné modely. Neposkytujú im dostatočnú mieru anonymity, aby ich nezákonné aktivity neboli odhalené. OpenAI sa totiž už viackrát podarilo identifikovať kyberkriminálnikov využívajúcich ich chatbota. Práve z tohto dôvodu vznikajú rôzne záškodnícke nástroje. 

Na internete sa objavujú aj nástroje ako FraudGPT. Hoci sa môžeme dočítať o ich výnimočných schopnostiach, nie je celkom isté, či vôbec existujú. Predajcovia totiž neposkytujú žiadnu ukážku iba opis ich údajných parametrov. Zaujímavým trendom je aj skutočnosť, že mnohé ponúkané nástroje od záškodníkov sa snažia nachytať na hruškách a okradnúť iných zločincov. Dark webom koluje množstvo ponúk, no s veľkou pravdepodobnosťou ide o podvody. Medzi falošné nástroje patrí napríklad DarkGPT, WolfGPT, EvilGPT, DarkBARD a iné.

Ako je na tom obrana?

Netreba podceňovať ani schopnosti obranných kyberbezpečnostných tímov pri nasadzovaní umelej inteligencie. Odborníci ju zahŕňajú vo veľkom na zautomatizovanie rutinných úloh a zefektívnenie obranných praktík. Využitie je naozaj široké od pomoci pri detegovaní hrozieb, písaní kódu, analýze nových typov malvéru až po ochranu citlivých údajov. Práve analýzy napísané umelou inteligenciou sa ukazujú byť vysoko efektívne, keďže AI dokáže v priebehu pár minút vyhodnotiť komplexné súvislosti a poskytnúť ich zrozumiteľným spôsobom expertom. Toto môže pomôcť najmä pri riešení kybernetických incidentov, kedy je potrebné rýchlo zanalyzovať problém, aby sa mohli prijať opatrenia na zmiernenie dopadov. Spoločnostiam môžu pomôcť aj pri hľadaní neobvyklých aktivít v rámci siete, čo môže indikovať napadnutie systémov. 

Ďalším užitočným využitím pri obrane je aj začlenenie AI do autentifikačných procesov. To sa už vo veľkej miere deje posledné roky. Ide napríklad o systémy na rozpoznávanie tváre na overenie identity osoby, skenery na otlačok prstov či bezpečnostný mechanizmus CAPTCHA. AI je tiež efektívna pri rozpoznávaní phishingových e-mailov. Dokáže si totiž jednoducho všimnúť preklep v názve stránky, rozoznať podvodného odosielateľa či iné anomálie. 

Aktuálne sa v tomto boji darí o niečo lepšie kyberbezpečákom, no nemusí to tak zostať navždy. Ak spoločnosti poľavia a zaspia, hackeri to rýchlo využijú.