Agentic AI v kybernetické bezpečnosti může být spojencem i protivníkem

Sdílet
Autonomní umělá inteligence dokáže pracovat samostatně, učit se a činit rozhodnutí bez lidského zásahu. Ale zatímco organizace mohou využít Agentic AI k rychlejší detekci hrozeb, útočníci získávají nástroj pro masivní automatizované útoky. Jak se na tuto technologii připravit a nenechat se zaskočit?​
Agentic AI v kybernetické bezpečnosti může být spojencem i protivníkem

Kybernetická bezpečnost

Umělá inteligence prošla dlouhou cestou od systémů založených na pravidlech přes strojové učení až k velkým jazykovým modelům. Teď vstupujeme do další fáze, která přináší Agentic AI – systémy schopné učit se, rozhodovat se a jednat autonomně s minimální lidskou kontrolou. Na rozdíl od generativní AI, která reaguje na vstupy a vytváří výstupy, Agentic AI dokáže nejen porozumět a provést úkol, ale také vyvozovat závěry a přizpůsobovat se nezávisle, aby dosáhla stanovených cílů rychleji.

Tato rychlost a možnost škálování však z ní udělala atraktivní technologii i pro kyberzločince. Už to není jen nápomocný nástroj, ale spíše spolupracovník na straně útočníků. Schopnost zpracovávat text, obrázky i zvuk současně s inteligentním rozhodováním v reálném čase rozšiřuje útočnou plochu organizací a přináší nová rizika kolem přístupových práv, úniku dat a nechtěného odhalení citlivých informací.

Autonomní útoky a podvodné ekosystémy

Kybernetické hrozby se rychle vyvíjejí směrem k plné autonomii. Zatímco žádný podvodný ekosystém ještě není zcela ovládán umělou inteligencí, tento posun se dramaticky zrychluje. Autonomní agenti dokáží komunikovat s reálnými systémy jako e-mailové platformy, databáze nebo kryptoměnové peněženky a pracovat samostatně s cílem získat finanční zisk, přístup k datům nebo ovlivňovat veřejné mínění.

Objevují se multi-agentní podvodné systémy, kde jeden AI agent sbírá informace a vytváří phishingový obsah, druhý provádí krádež přihlašovacích údajů nebo kompromitaci účtů a třetí agent peníze „vypere”. Tyto agenti jsou navrženy tak, aby napodobovaly lidské chování natolik přesně, že dokážou obejít biometrické systémy hodnocení rizik a oklamat systémy detekce podvodů bez odhalení. Výzkumy ukazují, že jeden ze čtyř bezpečnostních ředitelů (CISO) zažil v posledním roce útok generovaný umělou inteligencí, a příchod Agentic AI jen umocní schopnost útočníků provádět masové kampaně s exponenciálním ziskem.

Agentic AI jako ochránce organizací

Agentic AI ale nemusí být nutně nepřítelem. Bezpečnostní týmy mohou tuto technologii využít k vyrovnání se mezi útočníky a obránci a zároveň odlehčit některé z nejnáročnějších úkolů. Díky proaktivnímu a prediktivnímu přístupu budou agentní systémy schopny předvídat chování útočníků, nasazovat návnady a izolovat potenciální hrozby dříve, než se dostanou k nejcennějším datům organizace.

Když jsou AI agenti použiti jako rozšíření interního bezpečnostního týmu, mohou odbourávat hrozby, detekovat zranitelnosti a odhalovat anomálie v chování rychleji a nákladově efektivněji. Díky schopnosti učit se, přizpůsobovat a předvídat lze agenty nasadit k úpravě obranných strategií a dokonce k podpoře simulací útoků, které hledají potenciální slabá místa uvnitř organizace ještě před tím, než dojde k narušení bezpečnosti.

Například AI agent by mohl pracovat jako bezpečnostní analytik pro specifické úkoly, jako je skenování stovek zranitelností za jediný den, a zároveň sledovat nejnovější hrozby z policejních a vládních zpráv o narušeních bezpečnosti a provádět změny pro posílení kybernetické ochrany. Agent by nejen snížil únavu automatizací monitorování, třídění a reakce, ale také umožnil zbytku týmu soustředit se na strategičtější obchodní cíle, například výzkum a vývoj.

Bezpečná implementace vyžaduje opatrnost

Přestože adopce AI v bezpečnostních operačních centrech zrychluje a 67% organizací plánuje nasadit AI agenty během roku, zabezpečení AI agentů (37%) a řízení používání AI nástrojů zaměstnanci (36%) se staly hlavními obavami bezpečnostních ředitelů. S AI agenty pracujícími autonomně a hluboko integrovanými do IT systémů ještě nejsou ochranné mechanismy pro zabezpečení Agentic AI dostatečně vyspělé, a přirozeně existuje riziko, že se stanou primárním cílem útočníků.

Špatné nastavení a chyby v uvažování by také mohly vést k tomu, že AI agenti nesprávně interpretují informace a provádějí chybné akce samostatně. Není překvapením, že lidská kontrola a izolace procesů v kontrolovaných prostředích budou zásadní pro implementaci Agentic AI. Doporučuje se opatrný a kontrolovaný přístup k Agentic AI – používat ji jako posílení zkušeností v oblasti bezpečnosti, nikoli jako náhradu.

Praktické kroky pro organizace

Hybridní přístup, kde bezpečnostní týmy pravidelně kontrolují a nastavují parametry řízení, bude klíčem k úspěšnému nasazení. Začít by se mělo strategií založenou na riziku – s postupným zaváděním AI agentů v nízko-rizikových scénářích a prostředích, kde týmy mohou pozorovat reakce AI agenta před povolením plné autonomie.

Každý AI agent by měl mít jasně definovanou sadu odpovědností, včetně pravidel použití, eskalačních protokolů a etických hranic. Infrastruktura s kvalitními daty je nezbytná – AI agenti musí mít přístup k přesným, aktuálním a strukturovaným datům při zachování soukromí zaměstnanců i zákazníků. Týmy musí spolupracovat s AI agenty a definovat body lidského zásahu, zajistit dokumentaci a porozumění rozhodnutím AI pro plnou transparentnost a možnost přepsat akce.

Budoucnost kybernetické obrany

Podle Gartneru do roku 2027 Agentic AI sníží čas potřebný k zneužití kompromitovaných účtů až o 50% – na druhé straně to také ukazuje její potenciál pomoci bezpečnostním týmům zkrátit čas odhalení narušení bezpečnosti stejným tempem. S kombinovanými zkušenostmi interních nebo externích bezpečnostních a incident response týmů, strategickými rámci a přístupy k implementaci Agentic AI bychom mohli být svědky nejinteligentnějších a nejproaktivnějších obran v kybernetické bezpečnosti.

Bezpečnostní ředitelé musí začít předefinovávat své strategie kybernetické obrany tak, aby byly odolné vůči vznikajícím hrozbám zítřka. Jedna věc je jasná: v situaci plné nejistoty máme nyní transformační sílu, která může zásadně změnit kybernetickou bezpečnost, ale pouze pokud využijeme její silné stránky.

Zdroj: TechRadar Pro

Zůstaňte v obraze s AI novinkami

Přihlaste se k odběru mého newsletteru a získejte nejnovější tipy, triky a novinky ze světa umělé inteligence přímo do vaší schránky. Žádný spam, pouze hodnotný obsah.

Týdenní přehled novinek

Exkluzivní návody

Slevy na workshopy

Name(Required)
Privacy(Required)

Odesláním souhlasíte se zpracováním osobních údajů. Odhlásit se můžete kdykoliv.

Další články

Další zajímavé články, které by vás mohly zajímat

Tesla Optimus se učí z videí a zvládá úkoly, které dříve patřily jen lidem

Tesla Optimus na nejnovějším videu předvádí, jak umí krájet zeleninu, vysávat nebo zametat téměř stejně jako člověk. Jak se mu to daří a co za tím stojí? Přečtěte si, jaké pokroky humanoidní robot od Tesly...

Pět kroků, jak proměnit pilotní agentní AI v průmyslu v reálný byznysový dopad

Agentní AI slibuje revoluci v průmyslových podnicích, ale většina firem zůstává zaseknutá v nekonečných pilotních projektech bez skutečného dopadu. Jak překonat hlavní bariéry a dostat agentní AI z testovací fáze do ostrého provozu? Objevte pět...

Firmy díky AI šetří čas a zvyšují tržby, ukazuje LinkedIn

Firmy napříč obory masivně zavádějí AI do svých procesů a většina z nich už z této změny těží konkrétní výhody. Jaké benefity jim AI přináší, kde nejvíce pomáhá a jaké trendy LinkedIn ve svém průzkumu...