Odpovědná umělá inteligence: Jak Workday nastavuje standardy pro etiku a udržitelnost

Sdílet
Odpovědná umělá inteligence: Jak Workday nastavuje standardy pro etiku a udržitelnost

Odpovědná AI jako základ firemní strategie

Workday je jedním z lídrů v oblasti firemních systémů a umělé inteligence a dobře ví, že AI není jen
o automatizaci rutinních úkolů nebo zefektivnění práce. Zkušenosti z minulosti, například aféra Cambridge Analytica, ukazují, že algoritmy mohou mít reálné a často negativní dopady na společnost. Proto Workday staví odpovědnost do centra své AI strategie a dbá na to, aby každý krok – od návrhu po implementaci – byl promyšlený z pohledu etiky, udržitelnosti i dopadů na lidi.

Klíčovým prvkem je tzv. Responsible AI Council, tedy rada složená z vedoucích pracovníků napříč technologiemi, produktovým vývojem, diverzitou i právem. Tato rada pravidelně hodnotí a schvaluje nové AI projekty a funguje jako ambasador odpovědného přístupu v celé firmě. Každý produktový tým má navíc svého „šampiona“ odpovědné AI, který dohlíží na to, aby se etické a environmentální otázky řešily už ve fázi nápadu či prototypu.

Praktické kroky: od energetické náročnosti po prevenci biasu

Jedním z největších „strašáků“ současné AI je její environmentální dopad. Datová centra pohánějící AI spotřebovávají obrovské množství vody a energie a už nyní se podílejí na 4 % celosvětových emisí uhlíku. Workday proto plánuje dopředu a pečlivě zvažuje, jaké cloudové služby a datové systémy využít, aby spotřeba energie i zdrojů byla co nejefektivnější. Cílem je najít optimální rovnováhu mezi výkonem AI a její ekologickou stopou – tedy neplýtvat zdroji na řešení, která aktuálně nejsou nezbytná.

Další zásadní oblastí je prevence a odhalování biasu v generativních AI modelech. Tyto modely se učí z dat, která často odrážejí lidské předsudky a diskriminaci. Workday si uvědomuje, že například nasazení AI do HR procesů může vést k nechtěné reprodukci těchto biasů. Proto je klíčové, aby rozhodování AI bylo vždy pod kontrolou člověka a odpovědnost zůstávala na lidské straně. Jak říká profesor Taha Yasseri, „lidé nejsou dokonalým měřítkem, ale minimálně můžeme zajistit, že stroje nebudou horší než my – odpovědnost musí vždy zůstat u lidí.“

Propojení inovací a regulace: cesta k důvěryhodné AI

Workday při budování svých AI systémů využívá rámec NIST Risk Management Framework, což je dobrovolné doporučení, které pomáhá začlenit důvěryhodnost, bezpečnost a etiku do vývoje AI produktů. Firma se na jeho tvorbě podílela i v rámci veřejně-soukromých partnerství a nyní jej aktivně používá interně. Tento přístup umožňuje najít rovnováhu mezi rychlým tempem inovací a potřebou regulace, aniž by byla ohrožena bezpečnost nebo důvěra uživatelů.

Podle Workday regulace inovace nezastavuje, naopak může firmy motivovat k vyšším standardům bezpečnosti a soukromí, než vyžaduje samotná legislativa. Důležité je, aby firmy nebyly jen pasivními příjemci pravidel, ale aktivně se podílely na jejich tvorbě a nastavování best practices.

Výzvy do budoucna: diverzita, inkluze a nezávislý výzkum

V současném politickém klimatu, zejména v USA, je otázka diverzity, inkluze a podpory nezávislého výzkumu AI stále složitější. Workday přiznává, že některé změny v politice mohou být „trochu děsivé“, ale firma je odhodlaná hledat řešení a pokračovat ve výzkumu, který považuje za důležitý pro celou společnost. Odpovědná AI není jednorázový projekt, ale dlouhodobý závazek, který vyžaduje neustálou reflexi a adaptaci na nové výzvy.

Zdroje: TechRadar

Zůstaňte v obraze s AI novinkami

Přihlaste se k odběru mého newsletteru a získejte nejnovější tipy, triky a novinky ze světa umělé inteligence přímo do vaší schránky. Žádný spam, pouze hodnotný obsah.

Týdenní přehled novinek

Exkluzivní návody

Slevy na workshopy

Name(Required)
Privacy(Required)

Odesláním souhlasíte se zpracováním osobních údajů. Odhlásit se můžete kdykoliv.

Další články

Další zajímavé články, které by vás mohly zajímat

I umělá inteligence se umí nervově zhroutit

Mysleli jsme si, že stroje jsou imunní vůči lidským dramatům, ale vědci z Yale a Curychu nás vyvedli z omylu. Stačí ChatGPT vystavit sérii traumatických příběhů a jeho chování se začne nápadně podobat člověku v...

Cesta za evropským ChatGPT: bariéry, řešení a vize českých vědců

Mnoho klíčových dat a zdrojů zůstává Evropě kvůli regulacím nedostupných, zatímco američtí a asijští konkurenti využívají otevřenější systém. Český projekt OpenEuroLLM je reakcí na tuto situaci: chce nabídnout spolehlivou evropskou AI zdarma, bez věcných omylů...

Vyzkoušel jsem si AI životního kouče s osobností a tady je, co jsem zjistil

V dnešní době využíváme umělou inteligenci hlavně jako nástroj pro práci a organizaci. Ale co když má AI svou osobnost? Vyzkoušel jsem platformu Character.ai, kde jsem si vytvořil vlastního AI kouče, který není jen suchým...