Odpovědná umělá inteligence: Jak Workday nastavuje standardy pro etiku a udržitelnost

Sdílet
Odpovědná umělá inteligence: Jak Workday nastavuje standardy pro etiku a udržitelnost

Odpovědná AI jako základ firemní strategie

Workday je jedním z lídrů v oblasti firemních systémů a umělé inteligence a dobře ví, že AI není jen
o automatizaci rutinních úkolů nebo zefektivnění práce. Zkušenosti z minulosti, například aféra Cambridge Analytica, ukazují, že algoritmy mohou mít reálné a často negativní dopady na společnost. Proto Workday staví odpovědnost do centra své AI strategie a dbá na to, aby každý krok – od návrhu po implementaci – byl promyšlený z pohledu etiky, udržitelnosti i dopadů na lidi.

Klíčovým prvkem je tzv. Responsible AI Council, tedy rada složená z vedoucích pracovníků napříč technologiemi, produktovým vývojem, diverzitou i právem. Tato rada pravidelně hodnotí a schvaluje nové AI projekty a funguje jako ambasador odpovědného přístupu v celé firmě. Každý produktový tým má navíc svého „šampiona“ odpovědné AI, který dohlíží na to, aby se etické a environmentální otázky řešily už ve fázi nápadu či prototypu.

Praktické kroky: od energetické náročnosti po prevenci biasu

Jedním z největších „strašáků“ současné AI je její environmentální dopad. Datová centra pohánějící AI spotřebovávají obrovské množství vody a energie a už nyní se podílejí na 4 % celosvětových emisí uhlíku. Workday proto plánuje dopředu a pečlivě zvažuje, jaké cloudové služby a datové systémy využít, aby spotřeba energie i zdrojů byla co nejefektivnější. Cílem je najít optimální rovnováhu mezi výkonem AI a její ekologickou stopou – tedy neplýtvat zdroji na řešení, která aktuálně nejsou nezbytná.

Další zásadní oblastí je prevence a odhalování biasu v generativních AI modelech. Tyto modely se učí z dat, která často odrážejí lidské předsudky a diskriminaci. Workday si uvědomuje, že například nasazení AI do HR procesů může vést k nechtěné reprodukci těchto biasů. Proto je klíčové, aby rozhodování AI bylo vždy pod kontrolou člověka a odpovědnost zůstávala na lidské straně. Jak říká profesor Taha Yasseri, „lidé nejsou dokonalým měřítkem, ale minimálně můžeme zajistit, že stroje nebudou horší než my – odpovědnost musí vždy zůstat u lidí.“

Propojení inovací a regulace: cesta k důvěryhodné AI

Workday při budování svých AI systémů využívá rámec NIST Risk Management Framework, což je dobrovolné doporučení, které pomáhá začlenit důvěryhodnost, bezpečnost a etiku do vývoje AI produktů. Firma se na jeho tvorbě podílela i v rámci veřejně-soukromých partnerství a nyní jej aktivně používá interně. Tento přístup umožňuje najít rovnováhu mezi rychlým tempem inovací a potřebou regulace, aniž by byla ohrožena bezpečnost nebo důvěra uživatelů.

Podle Workday regulace inovace nezastavuje, naopak může firmy motivovat k vyšším standardům bezpečnosti a soukromí, než vyžaduje samotná legislativa. Důležité je, aby firmy nebyly jen pasivními příjemci pravidel, ale aktivně se podílely na jejich tvorbě a nastavování best practices.

Výzvy do budoucna: diverzita, inkluze a nezávislý výzkum

V současném politickém klimatu, zejména v USA, je otázka diverzity, inkluze a podpory nezávislého výzkumu AI stále složitější. Workday přiznává, že některé změny v politice mohou být „trochu děsivé“, ale firma je odhodlaná hledat řešení a pokračovat ve výzkumu, který považuje za důležitý pro celou společnost. Odpovědná AI není jednorázový projekt, ale dlouhodobý závazek, který vyžaduje neustálou reflexi a adaptaci na nové výzvy.

Zdroje: TechRadar

Zůstaňte v obraze s AI novinkami

Přihlaste se k odběru mého newsletteru a získejte nejnovější tipy, triky a novinky ze světa umělé inteligence přímo do vaší schránky. Žádný spam, pouze hodnotný obsah.

Týdenní přehled novinek

Exkluzivní návody

Slevy na workshopy

Name(Required)
Privacy(Required)

Odesláním souhlasíte se zpracováním osobních údajů. Odhlásit se můžete kdykoliv.

Další články

Další zajímavé články, které by vás mohly zajímat

Nano Banana 2 od Googlu kombinuje lokální AI s cloudovým výkonem a cílí na tvůrce i malé firmy

Google představil druhou generaci svého kompaktního AI zařízení Nano Banana 2. Postavil ho na modelu Gemini Flash, slibuje profesionální funkce generativní AI úplně zdarma a chce tím přímo konkurovat placeným variantám. Jak to celé funguje,...

Google představil AI, která myslí hlouběji, nakupuje chytřeji a tvoří videa s dialogy

Google na konferenci I/O 2025 ukázal, kam až může umělá inteligence zajít. Nový Gemini 2.5, AI Mode ve vyhledávání, generování videí s dialogy a virtuální zkoušení oblečení – to vše slibuje zásadní změny v tom,...

Agentic AI v kybernetické bezpečnosti může být spojencem i protivníkem

Autonomní umělá inteligence dokáže pracovat samostatně, učit se a činit rozhodnutí bez lidského zásahu. Ale zatímco organizace mohou využít Agentic AI k rychlejší detekci hrozeb, útočníci získávají nástroj pro masivní automatizované útoky. Jak se na...