Cookies management by TermsFeed Cookie Consent

05/2025

   Report bezpečnosti

Začiatok apokalypsy? Keď sa spoja boty s AI agentmi

Viac ako tretinu internetovej prevádzky generujú škodlivé roboty, kyberútoky riadi AI

Automatizovaná prevádzka prevyšuje ľudskú aktivitu na internete. Viac ako polovicu globálnej internetovej prevádzky v súčasnosti generujú automatizované systémy.

Škodlivé roboty tvorili v roku 2024 približne 37  percent internetovej prevádzky, čo predstavuje medziročný nárast päť percent. Tento prírastok je spôsobený najmä rozmachom generatívnej umelej inteligencie a nástrojov ako ChatGPT či Google Gemini. Útočníkom umožňujú rýchlo a jednoducho vytvárať sofistikované boty. 

Vypočujte si Report bezpečnosti, 720 slov, číta pre vás AI.

Iba pre úplnosť – „dobré“ boty generujú 14 percent internetovej prevádzky a my ľudia 49 percent.

Boty sú schopné čoraz lepšie napodobňovať ľudské správanie. Je čoraz ťažšie ich odhaliť a sú mimoriadne efektívne pri škodlivých aktivitách ako útoky na API, podvody pri platbách či krádeže údajov.

AI agenty (nie, nie sú to agenti)

Bezpečnostní experti varujú, že agenty umelej inteligencie by mohli do roku 2026 organizovať väčšinu kybernetických útokov.

A teraz jazykovedná vsuvka: nemýľte si agentov a AI agenty. Agenti sú živé osoby a agenty sa iba tvária, ako by boli živé, ale majú nadľudský výkon. A nie je vylúčené, že sa bude používať aj životný tvar AI agenti pre softvér. Je to proste pôsobivé.

AI agent si totiž predstavte ako softvérový systém poháňaný umelou inteligenciou. Je schopný konať samostatne, teda autonómne, aby dosiahol určitý cieľ na základe vstupov z prostredia, rozhodovania a učenia sa. Pokročilé verzie si dokážu samy generovať podúlohy a spolupracovať s inými agentmi.

Autonómne AI agenty znamenajú revolúciu v kybernetických útokoch. Dokážu samostatne identifikovať zraniteľné miesta, prispôsobiť svoju taktiku a spustiť rozsiahle útoky bez ľudského dohľadu. Plánovanie kyberútokov sa skracuje z týždňov na minúty.

Ďalšou výhodou AI agentov je, že útočia nepretržite, rýchlejšie a vo väčšom rozsahu než kedykoľvek predtým. Ich sila spočíva v schopnosti prispôsobovať sa, učiť sa z reakcií obrancov a obchádzať tradičné bezpečnostné mechanizmy. S podporou pokročilej automatizácie sú tieto útoky nielen sofistikovanejšie, ale aj omnoho ťažšie detegovateľné.

Navyše, dostupnosť AI technológií umožňuje aj tým menej skúseným pracovať veľmi efektívne. Sofistikované kampane s botmi tak dnes spúšťajú aj málo kvalifikovaní útočníci. Riziko sa stáva reálnejším než kedykoľvek predtým.

Nad rámec ľudských schopností

Spolupráca pokročilých agentov AI a množiacich sa botov odhaľuje bezprecedentné riziká. Agent môže využívať boty ako nástroje alebo bot môže byť súčasťou plánu na dosiahnutie cieľa.

Až 44 percent prevádzky pokročilých botov sa zameriava na zraniteľnosti API, pričom využívajú obchodnú logiku na realizáciu platobných podvodov a krádeže údajov. Využívajú učenie na analýzu neúspešných útokov a zdokonaľujú obchádzanie tradičných bezpečnostných opatrení.

Platformy ako Microsoft AutoGen tento trend urýchľujú. Umožňujú AI multiagentným systémom autonómne identifikovať ciele, využívať zraniteľnosti a exfiltrovať údaje 24 hodín denne, sedem dní v týždni. Táto spolupráca medzi agentmi AI umožňuje útočníkom rozšíriť operácie nad rámec ľudských schopností.

Výskum ukazuje, že AI agenty dokážu využiť 13 až 25 percent zraniteľností bez ľudského zásahu.

Sektory v ohrození

Útoky botov najviac postihujú cestovný ruch a maloobchod. Cestovné platformy boli v roku 2024 cieľom 27 percent všetkých útokov botov. Pri útokoch najčastejšie zahltili rezervačné systémy falošnými rezerváciami. Zároveň až 59 percent maloobchodnej prevádzky pochádzalo od škodlivých botov, ktoré zaplavovali stránky elektronického obchodu falošnými účtami.

Finančné služby a zdravotníctvo čelia zvýšeným rizikám z dôvodu ich závislosti od rozhraní API pri citlivých transakciách. Útočníci sa čoraz častejšie zameriavajú na koncové body API, ktoré spracúvajú údaje vysokej hodnoty. Boty využívajú na kradnutie účtov a manipuláciu s pracovnými tokmi.

Najlepšia obrana je útok

Kyberbezpečnostné tímy nasadzujú do boja proti týmto hrozbám ďalšie AI nástroje. Inovácie typu Honeypot, ako napríklad systémy LLM Agent Honeypot, odhalili od roku 2024 až 11 miliónov pokusov o prístup. Objavujú sa aj obranné systémy s viacerými agentmi, ktoré nasadzujú roje agentov AI na autonómne monitorovanie sietí a neutralizáciu hrozieb.

Napriek uvedenému pokroku až 21 percent útokov botov smeruje v súčasnosti cez rezidenčné proxy servery. Napodobňujú legitímne správanie používateľov, aby sa vyhli detekcii. Táto hra „na mačku a myš“ zdôrazňuje potrebu analýzy správania v reálnom čase a posilnenia bezpečnosti API.

Aká je budúcnosť

AI systémy schopné autonómneho uvažovania, plánovania a učenia môžu výrazne zlepšiť taktiku kybernetických zločincov. Samostatne by mohli identifikovať a využívať zraniteľnosti, vykonávať sofistikované phishingové kampane a riadiť viacero útokov súčasne.

Na druhej strane bezpečnostné tímy môžu využívať autonómne agenty na nepretržité monitorovanie sietí, identifikáciu zraniteľností dodávateľského reťazca a detegovanie útokov. A súčasne aj na zabezpečenie systémov pripojených do internetu. Automatizáciou rutinných úloh tieto systémy zmierňujú nedostatok zručností v kyberbezpečnosti a znižujú záťaž analytikov.