Agentic AI v kybernetické bezpečnosti může být spojencem i protivníkem

Autonomní umělá inteligence dokáže pracovat samostatně, učit se a činit rozhodnutí bez lidského zásahu. Ale zatímco organizace mohou využít Agentic AI k rychlejší detekci hrozeb, útočníci získávají nástroj pro masivní automatizované útoky. Jak se na tuto technologii připravit a nenechat se zaskočit?​
Agentic AI v kybernetické bezpečnosti může být spojencem i protivníkem

Kybernetická bezpečnost

Umělá inteligence prošla dlouhou cestou od systémů založených na pravidlech přes strojové učení až k velkým jazykovým modelům. Teď vstupujeme do další fáze, která přináší Agentic AI – systémy schopné učit se, rozhodovat se a jednat autonomně s minimální lidskou kontrolou. Na rozdíl od generativní AI, která reaguje na vstupy a vytváří výstupy, Agentic AI dokáže nejen porozumět a provést úkol, ale také vyvozovat závěry a přizpůsobovat se nezávisle, aby dosáhla stanovených cílů rychleji.

Tato rychlost a možnost škálování však z ní udělala atraktivní technologii i pro kyberzločince. Už to není jen nápomocný nástroj, ale spíše spolupracovník na straně útočníků. Schopnost zpracovávat text, obrázky i zvuk současně s inteligentním rozhodováním v reálném čase rozšiřuje útočnou plochu organizací a přináší nová rizika kolem přístupových práv, úniku dat a nechtěného odhalení citlivých informací.

Autonomní útoky a podvodné ekosystémy

Kybernetické hrozby se rychle vyvíjejí směrem k plné autonomii. Zatímco žádný podvodný ekosystém ještě není zcela ovládán umělou inteligencí, tento posun se dramaticky zrychluje. Autonomní agenti dokáží komunikovat s reálnými systémy jako e-mailové platformy, databáze nebo kryptoměnové peněženky a pracovat samostatně s cílem získat finanční zisk, přístup k datům nebo ovlivňovat veřejné mínění.

Objevují se multi-agentní podvodné systémy, kde jeden AI agent sbírá informace a vytváří phishingový obsah, druhý provádí krádež přihlašovacích údajů nebo kompromitaci účtů a třetí agent peníze „vypere”. Tyto agenti jsou navrženy tak, aby napodobovaly lidské chování natolik přesně, že dokážou obejít biometrické systémy hodnocení rizik a oklamat systémy detekce podvodů bez odhalení. Výzkumy ukazují, že jeden ze čtyř bezpečnostních ředitelů (CISO) zažil v posledním roce útok generovaný umělou inteligencí, a příchod Agentic AI jen umocní schopnost útočníků provádět masové kampaně s exponenciálním ziskem.

Agentic AI jako ochránce organizací

Agentic AI ale nemusí být nutně nepřítelem. Bezpečnostní týmy mohou tuto technologii využít k vyrovnání se mezi útočníky a obránci a zároveň odlehčit některé z nejnáročnějších úkolů. Díky proaktivnímu a prediktivnímu přístupu budou agentní systémy schopny předvídat chování útočníků, nasazovat návnady a izolovat potenciální hrozby dříve, než se dostanou k nejcennějším datům organizace.

Když jsou AI agenti použiti jako rozšíření interního bezpečnostního týmu, mohou odbourávat hrozby, detekovat zranitelnosti a odhalovat anomálie v chování rychleji a nákladově efektivněji. Díky schopnosti učit se, přizpůsobovat a předvídat lze agenty nasadit k úpravě obranných strategií a dokonce k podpoře simulací útoků, které hledají potenciální slabá místa uvnitř organizace ještě před tím, než dojde k narušení bezpečnosti.

Například AI agent by mohl pracovat jako bezpečnostní analytik pro specifické úkoly, jako je skenování stovek zranitelností za jediný den, a zároveň sledovat nejnovější hrozby z policejních a vládních zpráv o narušeních bezpečnosti a provádět změny pro posílení kybernetické ochrany. Agent by nejen snížil únavu automatizací monitorování, třídění a reakce, ale také umožnil zbytku týmu soustředit se na strategičtější obchodní cíle, například výzkum a vývoj.

Bezpečná implementace vyžaduje opatrnost

Přestože adopce AI v bezpečnostních operačních centrech zrychluje a 67% organizací plánuje nasadit AI agenty během roku, zabezpečení AI agentů (37%) a řízení používání AI nástrojů zaměstnanci (36%) se staly hlavními obavami bezpečnostních ředitelů. S AI agenty pracujícími autonomně a hluboko integrovanými do IT systémů ještě nejsou ochranné mechanismy pro zabezpečení Agentic AI dostatečně vyspělé, a přirozeně existuje riziko, že se stanou primárním cílem útočníků.

Špatné nastavení a chyby v uvažování by také mohly vést k tomu, že AI agenti nesprávně interpretují informace a provádějí chybné akce samostatně. Není překvapením, že lidská kontrola a izolace procesů v kontrolovaných prostředích budou zásadní pro implementaci Agentic AI. Doporučuje se opatrný a kontrolovaný přístup k Agentic AI – používat ji jako posílení zkušeností v oblasti bezpečnosti, nikoli jako náhradu.

Praktické kroky pro organizace

Hybridní přístup, kde bezpečnostní týmy pravidelně kontrolují a nastavují parametry řízení, bude klíčem k úspěšnému nasazení. Začít by se mělo strategií založenou na riziku – s postupným zaváděním AI agentů v nízko-rizikových scénářích a prostředích, kde týmy mohou pozorovat reakce AI agenta před povolením plné autonomie.

Každý AI agent by měl mít jasně definovanou sadu odpovědností, včetně pravidel použití, eskalačních protokolů a etických hranic. Infrastruktura s kvalitními daty je nezbytná – AI agenti musí mít přístup k přesným, aktuálním a strukturovaným datům při zachování soukromí zaměstnanců i zákazníků. Týmy musí spolupracovat s AI agenty a definovat body lidského zásahu, zajistit dokumentaci a porozumění rozhodnutím AI pro plnou transparentnost a možnost přepsat akce.

Budoucnost kybernetické obrany

Podle Gartneru do roku 2027 Agentic AI sníží čas potřebný k zneužití kompromitovaných účtů až o 50% – na druhé straně to také ukazuje její potenciál pomoci bezpečnostním týmům zkrátit čas odhalení narušení bezpečnosti stejným tempem. S kombinovanými zkušenostmi interních nebo externích bezpečnostních a incident response týmů, strategickými rámci a přístupy k implementaci Agentic AI bychom mohli být svědky nejinteligentnějších a nejproaktivnějších obran v kybernetické bezpečnosti.

Bezpečnostní ředitelé musí začít předefinovávat své strategie kybernetické obrany tak, aby byly odolné vůči vznikajícím hrozbám zítřka. Jedna věc je jasná: v situaci plné nejistoty máme nyní transformační sílu, která může zásadně změnit kybernetickou bezpečnost, ale pouze pokud využijeme její silné stránky.

Zdroj: TechRadar Pro

Chceš dostávat další tipy o AI?

Přihlas se k odběru a zhruba 2x měsíčně ti pošlu to nejlepší ze světa AI.

Name(Required)
Privacy(Required)

Další články

Nový Slackbot umí vytvářet plány, připravovat vás na schůzky a hlídat priority

Slack představil na konferenci Dreamforce 2025 kompletně přestavěného Slackbota. Není to jen kosmetická úprava, ale opravdová proměna v personalizovaného AI asistenta, který rozumí kontextu vaší práce. Nový Slackbot dokáže připravit projektový plán z poznámek, najít informace i když si pamatujete jen pár detailů, nebo vám ráno připravit seznam priorit. A to není science fiction, ale realita dostupná už teď.

Celý článek >

Zjistili jsme proč si AI vymýšlí a jak se tomu naučit předcházet

Každých pár týdnů se objeví titulky o tom, jak AI lže, konspiruje nebo dokonce svádí uživatele. Zní to děsivě, ale realita je mnohem prozaičtější. Nejrozsáhlejší studie svého druhu přitom ukázala, že AI asistenti chybují téměř v polovině případů. ChatGPT není žádný padouch z Bondovky. Je to statistický nástroj s konstrukčními chybami, které mohly být předejity. A co víc – část problému jsou samotní uživatelé, kteří nerozumí, jak s nástroji správně pracovat.

Celý článek >