Kdy AI přestává být jen nástrojem
Umělá inteligence dospěla do bodu, kdy už nestačí jen plnit zadané úkoly. Agentic AI představuje zcela novou kategorii systémů, které se nejen učí z dat, ale také aktivně rozhodují a jednají bez toho, aby člověk musel neustále zasahovat. Zatímco běžná generativní AI čeká na prompt a pak vyprodukuje odpověď, Agentic AI dokáže sama vyhodnotit situaci, stanovit si cíl a podniknout kroky k jeho dosažení.
V kyberbezpečnosti to znamená zásadní posun. Místo tradičních systémů, které jen upozorňují na podezřelou aktivitu, vstupují do hry autonomní agenti schopní okamžité reakce. Když se například ransomware pokusí šifrovat data, Agentic AI nejenže útok zastaví, ale zároveň izoluje napadené zařízení, zablokuje škodlivou komunikaci a spustí proces obnovy – a to vše během několika sekund.
Tahle rychlost a samostatnost ale přináší i rizika. Stejnou technologii totiž můžou využít i ti, kteří chtějí firmy napadnout.
Jak útočníci využívají autonomní agenty
Kybernetičtí zločinci už Agentic AI aktivně nasazují. Nejedná se o sci-fi hrozbu budoucnosti, ale o současnou realitu. Výzkumy ukazují, že každý čtvrtý CISO zažil v posledním roce útok vytvořený nebo podporovaný umělou inteligencí.
Vznikají celé ekosystémy spolupracujících AI agentů, kde každý plní specifickou roli. Jeden agent sbírá informace z veřejných zdrojů a vytváří propracované phishingové zprávy přizpůsobené konkrétní oběti. Druhý agent pak provádí krádež přihlašovacích údajů nebo kompromitaci účtu. Třetí agent se postará o praní získaných finančních prostředků. Tyto agenty někdo navrhl tak, aby napodobovaly lidské chování natolik věrně, že dokážou obejít biometrické bezpečnostní systémy a detekční algoritmy.
Další hrozbu představují takzvané Computer Using Agents, které ovládají počítače podobně jako lidé – včetně vzorců psaní na klávesnici, pohybů myši a časování jednotlivých akcí. Díky tomu můžou překonat CAPTCHA testy a další obranné mechanismy určené k odhalení automatizace. Na trhu se navíc objevují služby typu Phishing-as-a-Service a Fraud-as-a-Service, které nabízejí hotová řešení včetně schopnosti obejít vícefaktorové ověření pomocí pokročilých technik jako EvilProxy nebo Tycoon 2FA. Tyto nástroje se běžně prodávají na platformách jako Telegram nebo na dark webu.
Co můžou obránci získat nasazením Agentic AI
Dobrá zpráva je, že bezpečnostní týmy nemusí být jen oběťmi této technologie. Mohou ji využít ke zlepšení své obrany. Agentic AI dokáže pracovat jako neúnavný bezpečnostní analytik, který nepotřebuje spánek ani přestávky.
Autonomní agenti se můžou zaměřit na konkrétní úkoly jako vyhledávání hrozeb, detekci zranitelností nebo identifikaci neobvyklých vzorců v chování uživatelů. Zatímco člověk by potřeboval několik dní na prohledání stovek potenciálních zranitelností, AI agent to zvládne za několik hodin nebo dokonce minut. Navíc se průběžně aktualizuje o nové hrozby z policejních a vládních zpráv o útocích a automaticky přizpůsobuje obranné strategie.
Tato rychlost má obrovský dopad na produktivitu celého týmu. Bezpečnostní experti se můžou věnovat strategickým projektům nebo vývoji nových řešení, místo aby trávili čas rutinním monitorováním a tříděním alertů. Agentic AI také dokáže předvídat chování útočníků, nasazovat návnady a izolovat potenciální hrozby ještě před tím, než se dostanou k důležitým datům nebo systémům. Některé organizace ji už používají i pro tzv. red teaming – tedy simulované útoky na vlastní infrastrukturu za účelem odhalení slabých míst.
Rizika spojená s autonomními systémy
I když Agentic AI nabízí obrovský potenciál, její nasazení není bez komplikací. Autonomní agenti pracují samostatně a jsou hluboce integrováni do IT systémů, což z nich dělá lákavý cíl pro útočníky. Pokud kybernetický zločinec získá kontrolu nad takovým agentem, důsledky můžou být devastující.
Dalším problémem je možnost chybného vyhodnocení situace. AI agent může špatně interpretovat data a samostatně provést nesprávnou akci – třeba zablokovat legitimní uživatele nebo vypnout důležitý systém. Proto se stává nezbytností princip “human-in-the-loop”, kdy člověk má možnost zasáhnout do rozhodování agenta, a “sandboxing”, tedy izolace procesů v kontrolovaném prostředí.
Průzkumy mezi bezpečnostními řediteli ukazují, že 67% organizací plánuje nasadit AI agenty během roku, ale zároveň 37% z nich považuje zabezpečení těchto agentů za nevyřešenou výzvu. Podobně velkým problémem je řízení toho, jak zaměstnanci používají AI nástroje – s tím se potýká 36% firem.
Jak bezpečně implementovat Agentic AI
Odborníci z firmy Sygnia doporučují opatrný a kontrolovaný přístup k implementaci Agentic AI. Místo okamžitého plného nasazení by měla být technologie považována za rozšíření lidských schopností, nikoli jejich náhradu.
Klíčem k úspěchu je začít postupně. Organizace by měly AI agenty nejprve vyzkoušet v prostředí s nízkým rizikem, kde můžou pozorovat jejich chování a výkon. Teprve poté, co tým získá důvěru v jejich schopnosti, je možné přejít k větší autonomii. Vhodné je také nasazení behaviorální analytiky a proaktivních obranných mechanismů včetně návnad pro útočníky.
Každý AI agent by měl mít jasně definované odpovědnosti, pravidla použití, postupy eskalace a etické hranice. Organizace potřebují vypracovat rámec zahrnující provozní i regulační odpovědnost. Zásadní je také kvalita dat, se kterými agenti pracují – musí být přesná, aktuální a dobře strukturovaná, přičemž je nutné respektovat soukromí zaměstnanců i zákazníků a minimalizovat možnou předpojatost.
Bezpečnostní týmy by měly spolupracovat s AI agenty tak, aby jasně definovaly body, kdy je nutný lidský zásah. Důležitá je dokumentace a transparentnost rozhodnutí agentů, aby lidé měli možnost jejich akce přezkoumat a případně zvrátit. Perspektivní přístup představuje vytvoření vícero-agentních rámců, kde jeden agent generuje výsledky a druhý poskytuje konstruktivní zpětnou vazbu – tím vzniká smyčka neustálého zlepšování.
Co nás čeká v následujících letech
Podle analytické firmy Gartner dokáže Agentic AI do roku 2027 zkrátit dobu zneužití kompromitovaných účtů až o 50%. To ale platí pro obě strany – útočníci můžou být rychlejší, ale obránci získávají stejnou výhodu. Pokud organizace dokážou strategicky využít zkušenosti vlastních nebo externích bezpečnostních týmů a promyšleně nasadit Agentic AI, můžou vytvořit nejinteligentnější a nejproaktivnější obranu v historii kyberbezpečnosti.
Výzva spočívá v tom, jak tuto technologii správně implementovat. Vyžaduje to pečlivý návrh, nepřetržité testování, promyšlené plány integrace a neustálé ověřování. Bezpečnostní ředitelé by měli začít předefinovávat své obranné strategie tak, aby byly odolné vůči hrozbám zítřka.
Jedno je jisté – nacházíme se v období zásadní proměny. Máme k dispozici transformativní sílu, která může zásadně změnit pravidla kyberbezpečnosti, ale pouze pokud dokážeme využít její přednosti. A to znamená jednat teď, ne až když bude pozdě.
Zdroj: TechRadar Pro


