Odpovědná AI jako základ firemní strategie
Workday je jedním z lídrů v oblasti firemních systémů a umělé inteligence a dobře ví, že AI není jen
o automatizaci rutinních úkolů nebo zefektivnění práce. Zkušenosti z minulosti, například aféra Cambridge Analytica, ukazují, že algoritmy mohou mít reálné a často negativní dopady na společnost. Proto Workday staví odpovědnost do centra své AI strategie a dbá na to, aby každý krok – od návrhu po implementaci – byl promyšlený z pohledu etiky, udržitelnosti i dopadů na lidi.
Klíčovým prvkem je tzv. Responsible AI Council, tedy rada složená z vedoucích pracovníků napříč technologiemi, produktovým vývojem, diverzitou i právem. Tato rada pravidelně hodnotí a schvaluje nové AI projekty a funguje jako ambasador odpovědného přístupu v celé firmě. Každý produktový tým má navíc svého „šampiona“ odpovědné AI, který dohlíží na to, aby se etické a environmentální otázky řešily už ve fázi nápadu či prototypu.
Praktické kroky: od energetické náročnosti po prevenci biasu
Jedním z největších „strašáků“ současné AI je její environmentální dopad. Datová centra pohánějící AI spotřebovávají obrovské množství vody a energie a už nyní se podílejí na 4 % celosvětových emisí uhlíku. Workday proto plánuje dopředu a pečlivě zvažuje, jaké cloudové služby a datové systémy využít, aby spotřeba energie i zdrojů byla co nejefektivnější. Cílem je najít optimální rovnováhu mezi výkonem AI a její ekologickou stopou – tedy neplýtvat zdroji na řešení, která aktuálně nejsou nezbytná.
Další zásadní oblastí je prevence a odhalování biasu v generativních AI modelech. Tyto modely se učí z dat, která často odrážejí lidské předsudky a diskriminaci. Workday si uvědomuje, že například nasazení AI do HR procesů může vést k nechtěné reprodukci těchto biasů. Proto je klíčové, aby rozhodování AI bylo vždy pod kontrolou člověka a odpovědnost zůstávala na lidské straně. Jak říká profesor Taha Yasseri, „lidé nejsou dokonalým měřítkem, ale minimálně můžeme zajistit, že stroje nebudou horší než my – odpovědnost musí vždy zůstat u lidí.“
Propojení inovací a regulace: cesta k důvěryhodné AI
Workday při budování svých AI systémů využívá rámec NIST Risk Management Framework, což je dobrovolné doporučení, které pomáhá začlenit důvěryhodnost, bezpečnost a etiku do vývoje AI produktů. Firma se na jeho tvorbě podílela i v rámci veřejně-soukromých partnerství a nyní jej aktivně používá interně. Tento přístup umožňuje najít rovnováhu mezi rychlým tempem inovací a potřebou regulace, aniž by byla ohrožena bezpečnost nebo důvěra uživatelů.
Podle Workday regulace inovace nezastavuje, naopak může firmy motivovat k vyšším standardům bezpečnosti a soukromí, než vyžaduje samotná legislativa. Důležité je, aby firmy nebyly jen pasivními příjemci pravidel, ale aktivně se podílely na jejich tvorbě a nastavování best practices.
Výzvy do budoucna: diverzita, inkluze a nezávislý výzkum
V současném politickém klimatu, zejména v USA, je otázka diverzity, inkluze a podpory nezávislého výzkumu AI stále složitější. Workday přiznává, že některé změny v politice mohou být „trochu děsivé“, ale firma je odhodlaná hledat řešení a pokračovat ve výzkumu, který považuje za důležitý pro celou společnost. Odpovědná AI není jednorázový projekt, ale dlouhodobý závazek, který vyžaduje neustálou reflexi a adaptaci na nové výzvy.
Zdroje: TechRadar