Kybernetická bezpečnost
Umělá inteligence prošla dlouhou cestou od systémů založených na pravidlech přes strojové učení až k velkým jazykovým modelům. Teď vstupujeme do další fáze, která přináší Agentic AI – systémy schopné učit se, rozhodovat se a jednat autonomně s minimální lidskou kontrolou. Na rozdíl od generativní AI, která reaguje na vstupy a vytváří výstupy, Agentic AI dokáže nejen porozumět a provést úkol, ale také vyvozovat závěry a přizpůsobovat se nezávisle, aby dosáhla stanovených cílů rychleji.
Tato rychlost a možnost škálování však z ní udělala atraktivní technologii i pro kyberzločince. Už to není jen nápomocný nástroj, ale spíše spolupracovník na straně útočníků. Schopnost zpracovávat text, obrázky i zvuk současně s inteligentním rozhodováním v reálném čase rozšiřuje útočnou plochu organizací a přináší nová rizika kolem přístupových práv, úniku dat a nechtěného odhalení citlivých informací.
Autonomní útoky a podvodné ekosystémy
Kybernetické hrozby se rychle vyvíjejí směrem k plné autonomii. Zatímco žádný podvodný ekosystém ještě není zcela ovládán umělou inteligencí, tento posun se dramaticky zrychluje. Autonomní agenti dokáží komunikovat s reálnými systémy jako e-mailové platformy, databáze nebo kryptoměnové peněženky a pracovat samostatně s cílem získat finanční zisk, přístup k datům nebo ovlivňovat veřejné mínění.
Objevují se multi-agentní podvodné systémy, kde jeden AI agent sbírá informace a vytváří phishingový obsah, druhý provádí krádež přihlašovacích údajů nebo kompromitaci účtů a třetí agent peníze „vypere”. Tyto agenti jsou navrženy tak, aby napodobovaly lidské chování natolik přesně, že dokážou obejít biometrické systémy hodnocení rizik a oklamat systémy detekce podvodů bez odhalení. Výzkumy ukazují, že jeden ze čtyř bezpečnostních ředitelů (CISO) zažil v posledním roce útok generovaný umělou inteligencí, a příchod Agentic AI jen umocní schopnost útočníků provádět masové kampaně s exponenciálním ziskem.
Agentic AI jako ochránce organizací
Agentic AI ale nemusí být nutně nepřítelem. Bezpečnostní týmy mohou tuto technologii využít k vyrovnání se mezi útočníky a obránci a zároveň odlehčit některé z nejnáročnějších úkolů. Díky proaktivnímu a prediktivnímu přístupu budou agentní systémy schopny předvídat chování útočníků, nasazovat návnady a izolovat potenciální hrozby dříve, než se dostanou k nejcennějším datům organizace.
Když jsou AI agenti použiti jako rozšíření interního bezpečnostního týmu, mohou odbourávat hrozby, detekovat zranitelnosti a odhalovat anomálie v chování rychleji a nákladově efektivněji. Díky schopnosti učit se, přizpůsobovat a předvídat lze agenty nasadit k úpravě obranných strategií a dokonce k podpoře simulací útoků, které hledají potenciální slabá místa uvnitř organizace ještě před tím, než dojde k narušení bezpečnosti.
Například AI agent by mohl pracovat jako bezpečnostní analytik pro specifické úkoly, jako je skenování stovek zranitelností za jediný den, a zároveň sledovat nejnovější hrozby z policejních a vládních zpráv o narušeních bezpečnosti a provádět změny pro posílení kybernetické ochrany. Agent by nejen snížil únavu automatizací monitorování, třídění a reakce, ale také umožnil zbytku týmu soustředit se na strategičtější obchodní cíle, například výzkum a vývoj.
Bezpečná implementace vyžaduje opatrnost
Přestože adopce AI v bezpečnostních operačních centrech zrychluje a 67% organizací plánuje nasadit AI agenty během roku, zabezpečení AI agentů (37%) a řízení používání AI nástrojů zaměstnanci (36%) se staly hlavními obavami bezpečnostních ředitelů. S AI agenty pracujícími autonomně a hluboko integrovanými do IT systémů ještě nejsou ochranné mechanismy pro zabezpečení Agentic AI dostatečně vyspělé, a přirozeně existuje riziko, že se stanou primárním cílem útočníků.
Špatné nastavení a chyby v uvažování by také mohly vést k tomu, že AI agenti nesprávně interpretují informace a provádějí chybné akce samostatně. Není překvapením, že lidská kontrola a izolace procesů v kontrolovaných prostředích budou zásadní pro implementaci Agentic AI. Doporučuje se opatrný a kontrolovaný přístup k Agentic AI – používat ji jako posílení zkušeností v oblasti bezpečnosti, nikoli jako náhradu.
Praktické kroky pro organizace
Hybridní přístup, kde bezpečnostní týmy pravidelně kontrolují a nastavují parametry řízení, bude klíčem k úspěšnému nasazení. Začít by se mělo strategií založenou na riziku – s postupným zaváděním AI agentů v nízko-rizikových scénářích a prostředích, kde týmy mohou pozorovat reakce AI agenta před povolením plné autonomie.
Každý AI agent by měl mít jasně definovanou sadu odpovědností, včetně pravidel použití, eskalačních protokolů a etických hranic. Infrastruktura s kvalitními daty je nezbytná – AI agenti musí mít přístup k přesným, aktuálním a strukturovaným datům při zachování soukromí zaměstnanců i zákazníků. Týmy musí spolupracovat s AI agenty a definovat body lidského zásahu, zajistit dokumentaci a porozumění rozhodnutím AI pro plnou transparentnost a možnost přepsat akce.
Budoucnost kybernetické obrany
Podle Gartneru do roku 2027 Agentic AI sníží čas potřebný k zneužití kompromitovaných účtů až o 50% – na druhé straně to také ukazuje její potenciál pomoci bezpečnostním týmům zkrátit čas odhalení narušení bezpečnosti stejným tempem. S kombinovanými zkušenostmi interních nebo externích bezpečnostních a incident response týmů, strategickými rámci a přístupy k implementaci Agentic AI bychom mohli být svědky nejinteligentnějších a nejproaktivnějších obran v kybernetické bezpečnosti.
Bezpečnostní ředitelé musí začít předefinovávat své strategie kybernetické obrany tak, aby byly odolné vůči vznikajícím hrozbám zítřka. Jedna věc je jasná: v situaci plné nejistoty máme nyní transformační sílu, která může zásadně změnit kybernetickou bezpečnost, ale pouze pokud využijeme její silné stránky.
Zdroj: TechRadar Pro


