August 2024
Autor: Lucia Kobzová
Posledné mesiace prinášajú dramatický nárast popularity umelej inteligencie a to najmä vďaka nástroju ChatGPT. Ten priniesol modernú technológiu širšej verejnosti a AI si už vyskúšal takmer každý z nás. Prepojenie umelej inteligencie s naším každodenným životom preto nie je iba sci-fi, no stalo sa bežnou realitou. Umelá inteligencia tak postupne mení a zasahuje do všetkých oblastí nášho života. Využívajú ju štáty na zlepšenie služieb občanom, nasadzuje sa v zdravotníctve na detegovanie rakoviny, marketéri sa bez nej už takmer nezaobídu, pomáha sledovať občanov na verejných priestranstvách a štáty ju nasadzujú už aj počas vojny na bojisku. Tento trend samozrejme neobišiel ani oblasť kyberbezpečnosti.
O umelej inteligencii sa často hovorí, ako o užitočnom nástroji pre uľahčenie si a zefektívnenie práce. Hoci toto platí aj pre kyberbezpečnostné tímy, hackeri ju taktiež s radosťou využívajú, kde sa dá. Obe strany tak proti sebe bojujú a predbiehajú sa, kto nájde lepšie využitie AI na oklamanie protivníka.
Kto v tom boji napokon zvíťazí? V tomto blogu vám prinášame základný prehľad trendov o využití AI v oblasti kyberbezpečnosti.
Najdôležitejšou otázkou je, kto v tomto boji
zvíťazí. Odpoveď nie je taká jednoduchá, ako by sme si mysleli. Hoci by sa
mohlo zdať, že AI dáva silný nástroj do rúk kyberkriminálnikom, dáta ukazujú,
že stále zaostávajú za
obrannými kyberbezpečnostnými tímami.
Zločinci sú totiž pri
nasadzovaní modernej technológie pomerne obozretní. Boja sa možného odhalenia
orgánmi činnými v trestnom konaní. V tomto bode teda skôr testujú limity AI a
hľadajú spôsoby, ako zostať pred očami zákona skrytí.
Rovnako ako väčšina ľudí, aj hackeri radi zachovávajú status quo. Pokiaľ
to nie je potrebné, radšej svoje techniky nemenia. Mnohé z nich sú totiž
časom otestované a ukazujú sa byť efektívne. Nemalo by zmysel snažiť sa
ich nahradiť umelou inteligenciou. K celej situácii prispievajú aj
takzvané „switching costs“, teda akési náklady potrebné na výmenu používaného softvéru.
Nemusí ísť nevyhnutne o finančný kapitál, no za „náklad“ sa považuje
napríklad aj čas potrebný na pochopenie a oboznámenie sa s novým
nástrojom. Práve tento krok môže značne spomaliť útočné aktivity.
Hackeri majú
k dispozícii skutočne veľké množstvo záškodníckych AI nástrojov, ktoré sú
vytrénované na malvéri či iných nezákonných dátach. Technológie im pomáhajú pri
vytváraní škodlivého kódu, no aj pri zvyšovaní sofistikovanosti phishingových e-mailov.
Medzi tie poprednejšie patrí jednoznačne WormGPT. Ide
o neetického dvojníka ChatGPT, ktorý nemá žiadne bezpečnostné
a morálne obmedzenia. Má naozaj široké využitie od kompromitácie firemných
mailov, cez písanie malvéru až po phishingové kampane. Kúpiť si ho záškodníci
môžu na hackerských fórach ako blackhat alternatívu k bežným GPT modelom.
Veľkou výhodou pre kriminálnikov je aj vysoká miera anonymity pri jeho
používaní.
Možno tiež pozorovať
nárast takzvaných jailbreakov pre veľké jazykové modely (LLM). Ide
o spôsoby, akými vie používateľ obísť bezpečnostné opatrenia nástroja. LLM
majú rôzne zabezpečenia, aby predchádzali nekalým a neetickým praktikám.
Kriminálnici si preto začali vytvárať vlastné nástroje na oklamanie AI ako
EscapeGPT či BlackHatGPT. Stále však primárne využívajú ChatGPT za pomoci
jailbreakingových služieb. Zistilo sa tiež, že jazykové modely ako GPT-4 vedia zneužívať známe zraniteľnosti, aby
hackli webové stránky. Populárnym využitím medzi záškodníkmi je aj vytváranie
deepfakov, teda falošných materiálov vytvorených AI. Zločinci si napríklad
nechávajú generovať explicitné
materiály či teroristický obsah.
Hackeri sa aj tak
radšej snažia nevyužívať bežne dostupné modely. Neposkytujú im dostatočnú mieru
anonymity, aby ich nezákonné aktivity neboli odhalené. OpenAI sa totiž už
viackrát podarilo identifikovať kyberkriminálnikov využívajúcich ich chatbota.
Práve z tohto dôvodu vznikajú rôzne záškodnícke nástroje.
Na internete sa objavujú aj nástroje ako FraudGPT. Hoci sa môžeme dočítať o ich výnimočných
schopnostiach, nie je celkom isté, či vôbec existujú. Predajcovia totiž
neposkytujú žiadnu ukážku iba opis ich údajných parametrov. Zaujímavým trendom
je aj skutočnosť, že mnohé ponúkané nástroje od záškodníkov sa snažia nachytať
na hruškách a okradnúť iných zločincov. Dark webom koluje množstvo ponúk,
no s veľkou pravdepodobnosťou ide o podvody. Medzi falošné nástroje
patrí napríklad DarkGPT, WolfGPT, EvilGPT,
DarkBARD a iné.
Netreba podceňovať ani
schopnosti obranných kyberbezpečnostných tímov pri nasadzovaní umelej
inteligencie. Odborníci ju zahŕňajú vo veľkom na zautomatizovanie rutinných
úloh a zefektívnenie obranných praktík. Využitie je naozaj široké od
pomoci pri detegovaní hrozieb, písaní kódu, analýze nových typov malvéru až po
ochranu citlivých údajov. Práve analýzy napísané umelou inteligenciou sa
ukazujú byť vysoko efektívne, keďže AI dokáže v priebehu pár minút
vyhodnotiť komplexné súvislosti a poskytnúť ich zrozumiteľným spôsobom
expertom. Toto môže pomôcť najmä pri riešení kybernetických incidentov, kedy je
potrebné rýchlo zanalyzovať problém, aby sa mohli prijať opatrenia na
zmiernenie dopadov. Spoločnostiam môžu pomôcť aj pri hľadaní neobvyklých
aktivít v rámci siete, čo môže indikovať napadnutie systémov.
Ďalším užitočným využitím
pri obrane je aj začlenenie AI do autentifikačných procesov. To sa už vo veľkej
miere deje posledné roky. Ide napríklad o systémy na rozpoznávanie tváre
na overenie identity osoby, skenery na otlačok prstov či bezpečnostný
mechanizmus CAPTCHA. AI je tiež efektívna pri rozpoznávaní phishingových
e-mailov. Dokáže si totiž jednoducho všimnúť preklep v názve stránky,
rozoznať podvodného odosielateľa či iné anomálie.
Aktuálne sa
v tomto boji darí o niečo lepšie kyberbezpečákom, no nemusí to tak zostať
navždy. Ak spoločnosti poľavia a zaspia, hackeri to rýchlo využijú.