Roztržka mezi Metou a Evropskou unií kvůli novému kodexu AI

Meta veřejně odmítla podepsat nový evropský kodex praxe pro AI. Tento krok přichází těsně před platností zásadních pravidel EU pro poskytovatele AI modelů. Co za tím stojí a co to může znamenat pro firmy i širokou veřejnost? Čtěte dál — shrnuji hlavní body i sporná místa.
Roztržka mezi Metou a Evropskou unií kvůli novému kodexu AI

Meta vs. EU: prudký rozpor před začátkem regulace AI

Evropská unie v posledních letech razantně posunula debatu o regulaci umělé inteligence. Zavádí nová pravidla, která mají chránit uživatele, ale zároveň vytváří tlak na vývojáře velkých AI systémů. Platforma Meta, jedna z nejvýznamnějších technologických firem světa, však jasně deklarovala nesouhlas s nejnovějším kodexem praxe pro tzv. modely „obecného účelu“ (GPAI).

Jde o dokument, který má podle Bruselu usnadnit firmám cestu ke splnění legislativy. Meta, v čele s šéfem globálních vztahů Joelem Kaplanem, ale argumentuje, že kodex přináší více právních nejistot, než kolik odstraňuje, a ukládá povinnosti, jež prý jdou „daleko za rámec samotného AI Actu“.

Kodex praxe: Co požaduje a proč je kontroverzní?

Evropský kodex praxe je dobrovolná sada opatření, která mají pomoci vývojářům AI lépe se orientovat v nové legislativě. Klíčové body zahrnují nutnost pravidelně aktualizovat dokumentaci o AI nástrojích, zákaz využívání pirátského obsahu pro trénování modelů a povinnost respektovat žádosti majitelů autorských práv ohledně využití jejich děl.

Pro mnoho firem je však jádrem sporu právě rozsah těchto opatření. Meta tvrdí, že některé části kodexu vytvářejí „nepřijatelné právní nejistoty“ a mohou chránit zájmy Evropské unie na úkor dalšího rozvoje AI technologií nejen v Evropě, ale globálně. Zdůrazňuje riziko, že se evropským vývojářům ztíží možnost budovat inovativní projekty na základech těchto technologií.

Zákaz rizikových praktik a silnější důraz na transparentnost

AI Act v EU pracuje s principem posuzování rizik. Některé typy využití AI, například manipulace s lidským chováním nebo sociální skórování, zakazuje rovnou. Další aplikace — biometrika, rozpoznávání obličejů, vzdělávání nebo zaměstnání — spadají do „vysokorizikové“ kategorie a pro ně platí přísnější podmínky. Vývojáři musejí vydávat detailní dokumentaci, dodržovat management rizik i kvality a zaregistrovat své systémy do veřejných registrů.

Kritika přichází od celé řady technologických firem, nejen od Mety. Firmy jako Alphabet (Google), Microsoft nebo Mistral AI opakovaně žádaly Evropskou komisi o odklad zavedení pravidel, avšak komise na svém načasování trvá. Nařízení pro poskytovatele tzv. „AI modelů se systémovým rizikem“ začala platit už 2. srpna. To se týká firem, jako jsou OpenAI, Anthropic nebo právě Meta, které musí uvést do souladu všechny AI produkty uvedené na trh před tímto datem.

Jaká rizika a příležitosti z regulace plynou?

Z pohledu evropských firem i jejich partnerů jde o turbulentní dobu. Přichází povinnost orientovat se v nových pravidlech, zajistit detailní evidenci, zvyšuje se tlak na právní odpovědnost i na vztahy s držiteli práv. Některé firmy mohou vnímat opatření jako ochranu před nekalou konkurencí a podporu etického vývoje AI.

Na druhé straně však hrozí, že přísný přístup sníží atraktivitu Evropy pro vývoj špičkových nástrojů, a tedy i startupů a investorů, což zmiňuje právě i Meta. Evropská unie ale věří, že stanovení jasnějších pravidel nakonec motivuje k bezpečnějšímu a odpovědnějšímu rozvoji AI nejen na Starém kontinentu.

Závěr: Otevřená budoucnost evropské AI

Odmítnutí Metu podepsat kodex EU lze vnímat jako silný protest proti rychlosti i způsobu zavedení regulací. Je otázkou, zda se pod tlakem praxe některé požadavky pozmění nebo upraví. Každopádně, evropská debata o AI není uzavřena, ale naopak nabírá na obrátkách. Pro profesionály, kteří se chtějí ve světě AI nejen zorientovat, ale i uspět, je dnes více než kdy jindy klíčové sledovat vývoj pravidel, požadavků i reakcí klíčových hráčů trhu.

Zdroje: TechCrunch

Chceš dostávat další tipy o AI?

Přihlas se k odběru a zhruba 2x měsíčně ti pošlu to nejlepší ze světa AI.

Name(Required)
Privacy(Required)

Další články

Moderace umělé inteligence přichází pozdě a teenageři už jsou závislí na AI společnících

Umělá inteligence se z cool technologie rychle dostává do fáze, kdy ji její tvůrci musí krotit. Meta i OpenAI postupně zavádějí omezení a bezpečnostní prvky pro své AI chatboty. Studie ukazují, že 70% teenagerů používá AI společníky a někteří se do nich dokonce zamilovávají. Tragické případy vyústily v opatrnější přístup, ale otázkou zůstává, jestli to není příliš pozdě.

Celý článek >

Jak nanomedikamenty, zobrazovací metody a AI společně bojují proti Alzheimerovi a Parkinsonovi?

Neurodegenerativní onemocnění jako Alzheimer nebo Parkinson patří mezi nejtěžší výzvy současné medicíny. Problém není jen v jedné poruše, ale v celé kaskádě selhání v mozku. Výzkumníci teď spojili tři pokročilé technologie: nanomedikamenty, zobrazovací metody a umělou inteligenci. Výsledkem je systém, který dokáže doručit léčivo přesně tam, kam má, a průběžně optimalizovat dávkování podle stavu pacienta.

Celý článek >

Stačí 250 zmanipulovaných dokumentů a velký jazykový model se stane zranitelným

Představte si, že by někdo mohl sabotovat chatbota jen pomocí několika set zmanipulovaných textů. Společnost Anthropic ve spolupráci s britskými bezpečnostními instituty zjistila, že k zavedení zadních vrátek do velkého jazykového modelu stačí pouhých 250 škodlivých dokumentů. Velikost modelu ani objem trénovacích dat na tom nic nemění. Co to znamená pro bezpečnost AI?

Celý článek >