Proč firmy selhávají s umělou inteligencí
Když AI projekt nefunguje, většina firem hledá příčinu ve špatném nastavení parametrů, nevhodném modelu nebo dodavateli technologie. Jenže realita je jiná. Nejčastější příčinou selhání jsou špatně spravovaná data a absence governance. Jednoduše řečeno, pokud nemáte pořádek ve svých datech, žádný, byť sebedokonálejší AI model vám nepomůže.
Gartner přímo varuje, že do roku 2027 nebude 60 procent organizací schopno realizovat očekávanou hodnotu z AI projektů právě kvůli nekonsistentní správě dat. Problém je v tom, že i když technicky projekt nasadíte, bez solidního governance frameworku prostě nedosáhnete slibovaných výsledků. A to se týká i nákladů – bez jasných pravidel pro využití, oprávnění a správu životního cyklu dat mohou výpočetní náklady rychle narůst a rizika se rozšiřují.
Mnoho vedoucích pracovníků navíc zápasí s dalším problémem. Mají k dispozici obrovské množství dat, ale trpí informačními silami, zastaralými reporty a lidskými předsudky. Výsledkem jsou dashboardy, které ukazují, co se stalo, ale málokdy vysvětlují, proč to má význam. Cena za to se měří ve zmeškané příležitosti, nezvládnutých rizicích a rozhodnutích učiněných s neúplnými informacemi.
Data governance jako základ úspěchu
Možná jste o data governance slyšeli jako o něčem, co řeší až když už je problém – po selhání auditu, úniku dat nebo když jsou rozhodnutí firmy zjevně špatná kvůli nespolehlivým datům. Data governance zahrnuje práci s hledáním, klasifikací, zabezpečením, uchovávání a monitorování dat po celý jejich životní cyklus. Vytváří rámec pro to, kdo má k datům přístup, jak se sbírají, ukládají a používají.
S nástupem AI se však data governance stává něčím víc – tím, co umožňuje inovace. AI potřebuje data stejně jako motor olej. Firmy, které upřednostňují silnou správu dat, mohou svým AI platformám poskytnout data autentická, spolehlivá a zbavená předsudků, chyb a respektující soukromí jednotlivců. To je ten rozdíl mezi projektem, který selže, a projektem, který přinese hodnotu.
AI governance je pak poměrně nová disciplína, která doplňuje data governance tím, že definuje, jak organizace využívá AI, zajišťuje, že funguje v rámci právních a etických hranic a odpovídá hodnotám firmy i společenským normám. Obě tyto oblasti musí fungovat společně, pokud chcete, aby vaše AI projekty byly úspěšné.

Když governance selže veřejně
Příkladem z praxe je případ Air Canada z loňského roku. Soud v Britské Kolumbii shledal aerolinie odpovědnými poté, co jejich chatbot na webu poskytl zavádějící informace o slevách při smutečních případech. Problém vznikl tím, že model si popletl dvě podobné skutečné politiky a vymyslel spojení mezi nimi. Celý případ ZDE.
Ponaučení z tohoto případu není, že je AI nebezpečná. Jde o to, že politiky a pravidla musí být považovány za autoritativní obsah s verzováním a AI chatboti by měli načítat informace pouze ze schválených zdrojů s lidským ověřením pro citlivá tvrzení. Jinak riskujete nejen reputační škody, ale i konkrétní právní a finanční důsledky.
Co konkrétně udělat pro úspěch
Pokud chcete být v té polovině firem, jejichž AI projekty uspějí, musíte začít s několika základními kroky. První je zajistit, aby vaše data byla připravená pro AI – musí mít důvěryhodný původ, kontext a musíte jim důvěřovat. To znamená, že data jsou spravovaná, sledovatelná a mají nastavená oprávnění.
Prakticky to vyžaduje průběžnou práci ve velkém měřítku. Jasné vlastnictví, opakovatelné procesy a kontinuální testování zajišťují, že data bezpečně proudí na správné místo. Připravenost dat není nástroj, je to proces. A tento proces musí probíhat nepřetržitě.
Druhým krokem je zaměřit se na compliance. Jakmile víte, co máte, můžete podniknout kroky k tomu, aby byla data v souladu s předpisy, bezpečná a bez chyb. Začněte odstraněním redundantních, zastaralých a triviálních dat, které ucpávají vaše systémy. Tato zbytečná data ztěžují dodržování předpisů o ochraně soukromí, činí úniky dat škodlivějšími a způsobují, že vaše AI modely mohou poskytovat podřadné výstupy.
Audit přístupu k datům jako prevence
Neexistuje zřetelnější způsob, jak propojit data a AI governance, než komplexní kontrola řízení přístupu ve firmě. Kdy jste naposledy prověřovali, kdo z vašich zaměstnanců má přístup k jakým datům? Je to zásadní, než začnete používat AI nástroje jako Microsoft Copilot, který může fungovat jako zesilovač jakýchkoliv existujících problémů s nadměrnými oprávněními nebo přílišným sdílením dat.
Studie od společnosti Concentric ukázala, že 15 procent klíčových firemních zdrojů je ohroženo nadměrným sdílením. AI platformy jako Copilot a ChatGPT Teams dědí konfigurace přístupu k datům, takže jejich zavádění do organizace bez odpovídající přípravy může vést k nezamýšleným důsledkům. Pokud má zaměstnanec přístup k určitým souborům, má k nim přístup i jeho Copilot – takže může požádat o plat generálního ředitele nebo citlivé záznamy o výkonu zaměstnanců.
Od dat k akci s agentic AI
Moderní výzva nespočívá ve shromažďování dat – skutečná výzva je v tom, jak je co nejrychleji učinit užitečnými. Zde vstupuje do hry agentic AI s kontextovým katalogem. Na rozdíl od pouhého sumarizování informací aktivně přebírá iniciativu.
Agentic AI systémy dokážou nepřetržitě monitorovat data, propojovat signály napříč různými oblastmi, odhalovat anomálie a zdůrazňovat poznatky, které jsou pro vedoucí pracovníky nejdůležitější. Místo toho, aby firmy reagovaly pozdě, mohou začít předvídat, co je čeká. Například místo pouhého hlášení, že prodeje klesly o pět procent, může agentic AI systém vysledovat pokles ke kampani konkurenta v klíčovém regionu a následně navrhnout cílené kroky k jeho vyrovnání.
Hodnota nespočívá v objemu informací, ale v kontextové relevantnosti a bezprostřednosti poznání. Jde o posun od deskriptivní analytiky, která vysvětluje, co se stalo, k preskriptivní inteligenci, která vede k tomu, co se stane dál. S kontextovým katalogem jako základem přesouvá agentic AI vedení od obdivování dat k jednání na jejich základě – rychleji, dříve a s větší jistotou.
AI jako spojenec vedení
Existuje pokušení považovat AI za náhradu lidského rozhodování. To je však nepřesné i nerozumné. Algoritmy mohou být zkreslené nebo nemusí odpovídat strategii firmy. Budoucnost patří vedoucím, kteří s AI zacházejí jako se spojencem – kopilot, který rozšiřuje dosah, ale nezbavuje odpovědnosti za rozhodnutí.
Agentic AI založená na kontextovém katalogu je navržena právě pro tento spolupracující režim – běží průběžné analýzy, propojuje systémy, testuje scénáře a navrhuje akce, zatímco konečné rozhodnutí zůstává na člověku. Toto partnerství neodstraňuje nejistotu, ale zlepšuje šance na úspěch. Vedoucí získávají schopnost vidět dopředu, nejen zpětně.
Pro firmy to znamená několik konkrétních výhod. Snížené zpoždění, protože není třeba čekat na analytiky, kteří připravují měsíční reporty. Kontextové poznatky přímo navázané na obchodní výsledky. Škálovatelné rozhodování s konzistentním, vysvětlitelným vedením napříč odděleními. A odolnost – systémy, které se přizpůsobují měnícím se podmínkám, místo aby selhaly, když se vzorce změní.
Centralizované governance jako kontrolní věž
Zásadním krokem je zřídit centralizované governance centrum – tenkou kontrolní vrstvu, která se nachází nad vašimi zdroji dat, AI službami a uživatelskými rozhraními. Tato vrstva deklaruje pravidla jednou a vynucuje je všude – konzistentně, měřitelně a s auditním sledováním.
Firmy, které budou v roce 2026 úspěšně škálovat AI, nejsou ty s nejefektnějšími demy. Jsou to firmy, které spravují svá data a AI se stejnou disciplínou, jakou aplikují na finance nebo bezpečnost. Průběžně spravujte metadata, abyste zajistili, že vaše vstupy jsou důvěryhodné a v souladu s předpisy. Vybudujte governance kontrolní vrstvu, aby se vaše modely chovaly předvídatelně a zodpovědně.
Pokud zvládnete tyto dvě věci dobře, nejen že nasadíte více AI projektů – nasadíte AI, která funguje, s nižším rizikovým profilem. V roce 2026 bude rozdíl mezi úspěchem a selháním spočívat právě v tom, jak dobře máte data a governance pod kontrolou.
Zdroje: TechRadar Pro | TechRadar Pro


