Stínová AI a náklady na bezpečnostní incidenty
IBM ve své zprávě Cost of a Data Breach Report 2025 zdůrazňuje, že úniky dat spojené s neautorizovaným používáním AI nástrojů stojí firmy v průměru o 670 tisíc dolarů více než běžné bezpečnostní incidenty, s průměrnými náklady dosahujícími až 4,63 milionu dolarů. Tento nárůst představuje zhruba 16% vyšší náklady oproti globálnímu průměru všech úniků, který je 4,44 milionu dolarů. I přesto, že incidenty přímo spojené s AI hlásí “jen” 13% organizací, až 97% z těchto organizací nemá dostatečné přístupové kontroly pro své AI systémy.
Stínová AI označuje situaci, kdy zaměstnanci využívají AI aplikace a nástroje bez vědomí nebo bez schválení IT či bezpečnostních týmů, což zvyšuje expozici datových úniků i možných manipulací s modely umělé inteligence. Pro firmy to znamená nejen finanční ztráty, ale i vážné ohrožení důvěry klientů a obchodní kontinuity.
Bezpečnostní propady a absence AI governance
Z analýzy vyplývá, že 63% organizací, které zažily narušení bezpečnosti související s AI, buď nemá zavedenou politiku AI governance, nebo ji teprve vyvíjí. Navíc pouze 34% z nich pravidelně audituje neautorizované využití AI, což vede k ještě větší nejistotě a neochraně před hrozbami. Tento deficit je klíčovým důvodem rostoucích rizik, protože neřízené AI systémy umožňují snadnější přístup k citlivým datům a manipulaci s nimi, což potvrzuje 60% podíl incidentů vedoucích ke kompromitaci dat u AI-breaches.
Firmy často podceňují význam bezpečnostních procesů v oblasti AI, ačkoli zanedbání těchto kroků zvyšuje nejenom šanci na průnik útočníků, ale také náklady a dopady samotných bezpečnostních incidentů.
Pokročilé útoky a zbraňová AI
Škodliví aktéři nyní čím dál častěji integrují AI do svých útoků, čímž zvyšují jejich účinnost a zároveň ztěžují detekci. Přibližně 16% bezpečnostních incidentů zahrnuje útoky, při kterých útočníci využívají AI nástroje hlavně pro phishing, deepfake nebo sofistikované malware metody. Na trhu se přitom objevují specializované škodlivé modely jako FraudGPT, GhostGPT nebo DarkGPT, které jsou dostupné za nízké ceny a jsou vyvinuty speciálně pro hackování a obcházení bezpečnostních opatření.
Tyto nové hrozby kladou vysoké nároky na zabezpečení a současně demonstrují, jak rychle se kybernetická bezpečnost musí adaptovat na nové AI nástroje, aby byla schopná čelit stále sofistikovanějším útokům.
Úspory a efektivita díky bezpečnostní AI
Na druhé straně zpráva IBM ukazuje, že organizace, které AI a automatizaci využívají systematicky k ochraně svých prostředí, dokážou náklady na únik dat výrazně snížit – dosahují úspor průměrně 1,9 milionu dolarů na incident a zkracují dobu řešení bezpečnostního problému o 80 dní. Tyto firmy též detekují incidenty rychleji (průměr 153 dní oproti 212 dnům u firem bez AI) a efektivněji zastavují jejich šíření.
To potvrzuje, že i když je nasazování bezpečnostních AI technologií stále výzvou, jde o nezbytný krok pro moderní organizace, pokud chtějí zvládat rostoucí rizika spojená s AI.
Zdroj: VentureBeat | IBM Newsroom