Odpovědná umělá inteligence: Jak Workday nastavuje standardy pro etiku a udržitelnost

Sdílet
Odpovědná umělá inteligence: Jak Workday nastavuje standardy pro etiku a udržitelnost

Odpovědná AI jako základ firemní strategie

Workday je jedním z lídrů v oblasti firemních systémů a umělé inteligence a dobře ví, že AI není jen
o automatizaci rutinních úkolů nebo zefektivnění práce. Zkušenosti z minulosti, například aféra Cambridge Analytica, ukazují, že algoritmy mohou mít reálné a často negativní dopady na společnost. Proto Workday staví odpovědnost do centra své AI strategie a dbá na to, aby každý krok – od návrhu po implementaci – byl promyšlený z pohledu etiky, udržitelnosti i dopadů na lidi.

Klíčovým prvkem je tzv. Responsible AI Council, tedy rada složená z vedoucích pracovníků napříč technologiemi, produktovým vývojem, diverzitou i právem. Tato rada pravidelně hodnotí a schvaluje nové AI projekty a funguje jako ambasador odpovědného přístupu v celé firmě. Každý produktový tým má navíc svého „šampiona“ odpovědné AI, který dohlíží na to, aby se etické a environmentální otázky řešily už ve fázi nápadu či prototypu.

Praktické kroky: od energetické náročnosti po prevenci biasu

Jedním z největších „strašáků“ současné AI je její environmentální dopad. Datová centra pohánějící AI spotřebovávají obrovské množství vody a energie a už nyní se podílejí na 4 % celosvětových emisí uhlíku. Workday proto plánuje dopředu a pečlivě zvažuje, jaké cloudové služby a datové systémy využít, aby spotřeba energie i zdrojů byla co nejefektivnější. Cílem je najít optimální rovnováhu mezi výkonem AI a její ekologickou stopou – tedy neplýtvat zdroji na řešení, která aktuálně nejsou nezbytná.

Další zásadní oblastí je prevence a odhalování biasu v generativních AI modelech. Tyto modely se učí z dat, která často odrážejí lidské předsudky a diskriminaci. Workday si uvědomuje, že například nasazení AI do HR procesů může vést k nechtěné reprodukci těchto biasů. Proto je klíčové, aby rozhodování AI bylo vždy pod kontrolou člověka a odpovědnost zůstávala na lidské straně. Jak říká profesor Taha Yasseri, „lidé nejsou dokonalým měřítkem, ale minimálně můžeme zajistit, že stroje nebudou horší než my – odpovědnost musí vždy zůstat u lidí.“

Propojení inovací a regulace: cesta k důvěryhodné AI

Workday při budování svých AI systémů využívá rámec NIST Risk Management Framework, což je dobrovolné doporučení, které pomáhá začlenit důvěryhodnost, bezpečnost a etiku do vývoje AI produktů. Firma se na jeho tvorbě podílela i v rámci veřejně-soukromých partnerství a nyní jej aktivně používá interně. Tento přístup umožňuje najít rovnováhu mezi rychlým tempem inovací a potřebou regulace, aniž by byla ohrožena bezpečnost nebo důvěra uživatelů.

Podle Workday regulace inovace nezastavuje, naopak může firmy motivovat k vyšším standardům bezpečnosti a soukromí, než vyžaduje samotná legislativa. Důležité je, aby firmy nebyly jen pasivními příjemci pravidel, ale aktivně se podílely na jejich tvorbě a nastavování best practices.

Výzvy do budoucna: diverzita, inkluze a nezávislý výzkum

V současném politickém klimatu, zejména v USA, je otázka diverzity, inkluze a podpory nezávislého výzkumu AI stále složitější. Workday přiznává, že některé změny v politice mohou být „trochu děsivé“, ale firma je odhodlaná hledat řešení a pokračovat ve výzkumu, který považuje za důležitý pro celou společnost. Odpovědná AI není jednorázový projekt, ale dlouhodobý závazek, který vyžaduje neustálou reflexi a adaptaci na nové výzvy.

Zdroje: TechRadar

Zůstaňte v obraze s AI novinkami

Přihlaste se k odběru mého newsletteru a získejte nejnovější tipy, triky a novinky ze světa umělé inteligence přímo do vaší schránky. Žádný spam, pouze hodnotný obsah.

Týdenní přehled novinek

Exkluzivní návody

Slevy na workshopy

Name(Required)
Privacy(Required)

Odesláním souhlasíte se zpracováním osobních údajů. Odhlásit se můžete kdykoliv.

Další články

Další zajímavé články, které by vás mohly zajímat

WordPress.com má nového AI spolupracovníka, který rozumí vašemu webu

WordPress.com přichází s AI asistentem, který funguje přímo v editoru, knihovně médií i týmovém chatu. Na rozdíl od externích nástrojů rozumí struktuře a obsahu vašeho webu, takže změny provádí na místě a v reálném čase....

Jak přemoci bezpečnostní přetížení a využít umělou inteligenci v kybernetické bezpečnosti

Kybernetická bezpečnost je dnes zasažena přílivem obrovského množství dat a hrozeb, které bezpečnostní týmy často nedokážou efektivně zpracovat. Tento článek rozebírá výzvy, kterým čelí odborníci na bezpečnost, a představuje umělou inteligenci jako klíčový nástroj, který...

S Proton Lumo dostává Evropa svou bezpečnou alternativu ke známým AI asistentům

Hledáte AI asistenta, který ctí vaše soukromí a neposílá vaše data do veřejných datových center? Proton, známý svým důrazem na bezpečnost, přichází s Lumo – AI chatbotem, jenž slibuje zcela jiný přístup k ochraně uživatelských...