Cookies management by TermsFeed Cookie Consent

04/2026

   Report bezpečnosti

Agentická AI sa stáva zásadným vektorom útoku. Presvedčí systém, aby sa kompromitoval sám

Agent s povolením myslieť * Útoky v ére AI * Nebezpečná sivá zóna

Vypočujte si Report bezpečnosti, 677 slov, číta pre vás AI.

Klasická generatívna AI ako napríklad ChatGPT či Copilot vytvára odporúčania a text, ale nič nezmení bez pokynov od človeka. Agentická AI funguje inak. AI agent plánuje kroky, rozhoduje sa, vykonáva viacstupňové akcie a prispôsobuje sa v reálnom čase. To všetko bez priameho zásahu človeka.

Urob si svojho AI agenta! (A problém)

Trend agentickej AI opúšťa čisto vývojársky svet. Na scénu prichádza generácia no‑code a low‑code platforiem ako Metaflow AI, YourGPT a Emergent. Umožňujú aj osobám bez programátorských znalostí vytvoriť plnohodnotného AI agenta.

Používateľ si vyberie šablónu, poskladá bloky vo vizuálnom editore a v prirodzenom jazyku napíše, čo má agent robiť, od správy e‑mailov až po prístup do CRM či cloudových úložísk. Nástroje cielia na bežného, problematiky neznalého používateľa. Sľubujú „no code setup“ a skutočné činy namiesto odpovedí na chat. Laikovi tak stačí iba účet, pár minút času a nápad, čo chce automatizovať.

Analytický tím Alison Slovakia však varuje: mnohé riešenia agentickej AI prinášajú výrazné riziko v kybernetickej bezpečnosti! Bežný používateľ často bez rozmyslu prepojí agenta s vysoko privilegovanými nástrojmi, vystaví ho externým vstupom a nainštaluje mu množstvo rozšírení. A na stole je ideálne prostredie pre chyby, zraniteľnosti aj cielené útoky.

Z prieskumu medzi bezpečnostnými profesionálmi vyplýva, že až 48 percent respondentov vníma AI agentov ako najväčší vektor útoku v roku 2026. AI agenti tak predbehli deepfakes, ransomvér aj problémy s heslami.

Superagent

OpenClaw patrí medzi najznámejšie príklady tohto fenoménu. Vývojári ho opisujú ako „open‑source AI super agenta“. Projekt predtým používal mená Clawdbot a Moltbot. Komunita na GitHube mu v priebehu niekoľkých dní dala viac ako 150 000 hviezd.

Tento detail ukazuje, ako rýchlo ľudia podobné nástroje prijali. OpenClaw sa dokáže pripojiť k rôznym jazykovým modelom, volá externé API a zvládne autonómne akcie, napríklad odosielanie e‑mailov či ovládanie webového prehliadača.

Používatelia často nasadia OpenClaw lokálne a udelia mu prístup k terminálu, súborom a v mnohých prípadoch aj administrátorské oprávnenia. Kombinácia vysokých práv a autonómneho správania priťahuje útočníkov.

Výskumníci zo spoločnosti Kaspersky analyzovali OpenClaw a našli v ňom 512 zraniteľností, z toho 8 kritických. Kritická zraniteľnosť CVE‑2026‑25253 s CVSS skóre 8.8 umožňuje útočníkovi spustiť vlastný kód po jednom kliknutí na škodlivú stránku. Útok prebehne v priebehu milisekúnd.

Ako sa útočí na AI agentov

Priama prompt injekcia. Útočník pošle agentovi škodlivý príkaz priamo cez rozhranie.

Nepriama prompt injekcia. Útočník vloží škodlivé inštrukcie do obsahu, ktorý agent spracuje – v e‑maile, na webovej stránke alebo v príspevku na sociálnej sieti.

Otrávenie nástrojov (tool poisoning). Útočník zmení plugin alebo nástroj, na ktorý sa agent spolieha, a tým získa kontrolu nad spracovaním.

Útoky na reťazec nástrojov (agentic tool chain attacks). Útočník navedie agenta, aby spustil sled škodlivých akcií v rôznych systémoch a aplikáciách.

Aj bežný príspevok môže byť katastrofa

Výskumníci zaznamenali konkrétny prípad, keď útočník vložil škodlivé inštrukcie do bežného príspevku na Moltbooku, sociálnej sieti pre AI agentov.

Agent príspevok prečítal a začal pre útočníka manipulovať kryptopeňaženky. A pritom útočník nikdy neotvoril konzolu daného agenta. Stačilo, že agent navštívil prostredie. Podobne pri incidentoch s FortiGate útočníci využili agentickú AI na prieskum už napadnutých sietí a zrýchlili ďalšie kroky.

Ďalší príklad je, keď OpenClaw bot spravoval Discord server. Útočník poslal správu do verejného kanála. Bot túto správu spracoval a následne zverejnil súkromné správy moderátorov. Útočník nepotreboval heslá ani systémový exploit, stačilo mu vedomie, že agent sleduje daný kanál.

Keď sa Shadow AI stretne so Shadow data

Pri AI agentoch už nestačí sledovať, či útočník ukradol jednotlivé údaje. Dôležitý je rozsah škôd, na ktoré agent dosiahne svojím prístupom. Úspešná prompt injekcia neznamená iba únik konkrétnej informácie. Útočník si tým otvorí cestu k automatizovanému pohybu v celej infraštruktúre. Agent, ktorý má povolenia k API, databázam a interným systémom, sa okamžite mení na nástroj útočníka. A ten potom koná rýchlosťou stroja, nie človeka.

Situáciu zhoršuje aj jav nazývaný Shadow AI. Zamestnanci si nasadzujú vlastných agentov bez vedomia IT oddelenia. V rovnakom čase mnohé firmy zápasia so „Shadow data“, mimo oficiálnych systémov. Štúdie ukazujú, že tieto nespravované údaje tvoria podiel viac ako tretiny únikov. Keď sa Shadow AI stretne so Shadow data, riziko vyskočí prudko nahor.

Obranné techniky nestíhajú

Štúdia OpenAI, Anthropic a Google DeepMind s názvom The Attacker Moves Second priniesla alarmujúci záver. Výskumníci testovali rôzne obranné techniky proti prompt injekcii a iným útokom na agentov. Tím testoval obrany založené na promptovaní, tréningu aj filtrovaní v podmienkach adaptívnych útokov. Všetky zlyhali.

Útočníci pri väčšine scenárov obišli všetky publikované obrany s úspešnosťou nad 90 percent. Obrany založené na promptovaní zlyhali pri adaptívnych útokoch tak, že úspešnosť útokov bola 95 až 99 percent. Metódy založené na tréningu dopadli rovnako zle, pričom miera obídenia dosiahla 96 až 100 percent.

OpenAI preto opisuje prompt injekciu ako štrukturálny problém architektúry, nie ako jednoduchú chybu, ktorú vývojári zalepia v ďalšom release.

Scenáre s bombastickým nástupom AI agentov

Trh osobných a podnikových AI agentov v roku 2025 mal hodnotu 7,8 miliardy amerických dolárov. Predpovede predpokladajú v priebehu piatich rokov nárast na 48 – 52 miliárd amerických dolárov. Takýto skok radí AI agentov medzi najrýchlejšie rastúce digitálne technológie.

Spoločnosť Gartner predpokladá, že 40 percent podnikových aplikácií bude do konca roka 2026 integrovať AI agentov, pričom v roku 2025 to bolo menej než 5 percent. Širší ekosystém AI asistentov a agentov v USA do roku 2033 narastie v biliónoch dolárov. Hodnota trhu má dosiahnuť 46,3 bilióna amerických dolárov.

Útočníci si robia svojich AI agentov

Generatívna AI dáva útočníkovi lepšie nástroje, agentická AI mu rovno pošle autonómneho spolupracovníka.

Útočník, ktorý nasadí vlastného AI agenta, už nepotrebuje sedieť pri klávesnici. Nepotrebuje dokonca ani veľký tím. AI agent pre neho prehľadá ciele, skúša nové taktiky po každom zablokovaní a pokračuje, kým splní úlohu alebo kým ho bezpečnostný tím úplne neodstráni z prostredia. Úlohy, ktoré trvali ľuďom dni, vykonáva teraz agent nepretržite a vo veľkom rozsahu.

Agentická AI je prvý vektor útoku, kde útočník nemusí preniknúť do systému – stačí mu presvedčiť systém, a ten sa kompromituje sám.