Zákon TRUMP AMERICA AI Act chce sjednotit pravidla pro umělou inteligenci v celých Spojených státech

Sdílet
Senátorka Marsha Blackburn představila téměř 300stránkový návrh zákona, který má poprvé v historii USA vytvořit jednotný federální rámec pro regulaci umělé inteligence. Zákon řeší odpovědnost vývojářů, ochranu dětí, autorská práva i zrušení dosavadní ochrany online platforem. Přinášíme přehled toho, co návrh obsahuje a co může znamenat i pro zbytek světa
3198

Proč Amerika potřebuje jednotná pravidla pro AI

Spojené státy se v oblasti regulace umělé inteligence dlouho spoléhaly na mozaiku státních zákonů. Kalifornie zaváděla požadavky na transparentnost, Colorado přišlo s vlastním zákonem o AI a další státy následovaly vlastním tempem a vlastním směrem. Výsledkem byl legislativní guláš, ve kterém se obtížně orientovali nejen vývojáři, ale i firmy nasazující AI ve svém podnikání.

Prezident Trump v prosinci 2025 podepsal exekutivní příkaz, kterým vyzval Kongres k vytvoření jednotného federálního rámce. Ten by měl nahradit roztříštěné státní regulace jedním souborem pravidel platným v celé zemi. Na tento požadavek nyní odpovídá senátorka Marsha Blackburn z Tennessee svým návrhem zákona, který nese poněkud kreativní název TRUMP AMERICA AI Act.

Co je TRUMP AMERICA AI Act

Za tímto názvem se skrývá zkratka The Republic Unifying Meritocratic Performance Advancing Machine Intelligence by Eliminating Regulatory Interstate Chaos Across American Industry Act. Jde o téměř 300stránkový legislativní návrh představený 18. března 2026, který si klade za cíl vytvořit první ucelený federální regulační rámec pro umělou inteligenci v USA.

Návrh se opírá o ochranu takzvaných „4 C” — children (děti), creators (tvůrci), conservatives (konzervativci) a communities (komunity). Současně integruje několik dříve představených bipartijních návrhů, včetně zákona o bezpečnosti dětí na internetu (KOSA) a zákona o ochraně digitálních replik osobnosti (NO FAKES Act).

Odpovědnost vývojářů AI: konec éry bez pravidel

Jedním z nejzásadnějších bodů návrhu je zavedení federálního rámce odpovědnosti za produkty v oblasti AI. Vývojáři umělé inteligence by podle něj mohli být právně postižitelní za škody způsobené vadným designem systému, nedostatečným varováním uživatelů, porušením výslovné záruky nebo za uvedení nepřiměřeně nebezpečného produktu na trh. Zákon by navíc zakázal nepřiměřená omezení odpovědnosti ve smlouvách na AI produkty.

Pro poskytovatele vysoce rizikových AI systémů návrh zavádí povinnost provádět každoroční nezávislý audit třetí stranou. Ten má odhalovat diskriminaci na základě politické příslušnosti nebo názorového zaměření. Všechny dotčené subjekty by navíc musely zajistit svým zaměstnancům každoroční etické školení podle osnov stanovených Federální obchodní komisí (FTC).

Vývojáři chatbotů by pak měli povinnost vynaložit přiměřenou péči při návrhu, vývoji a provozu svých systémů, aby předcházeli předvídatelným škodám uživatelům. Konkrétní pravidla pro minimální bezpečnostní opatření má stanovit FTC.

Ochrana dětí a nezletilých

Zákon do svého textu začleňuje Kids Online Safety Act (KOSA), který platformám ukládá povinnost vynaložit přiměřenou péči při navrhování funkcí ovlivňujících online aktivitu nezletilých. Cílem je předcházet škodám, jako jsou poruchy duševního zdraví nebo závažné obtěžování.

Platformy by musely zajistit ochranu dat nezletilých, poskytnout rodičům nástroje pro správu nastavení soukromí svých dětí a zavést mechanismy pro hlášení škodlivého obsahu. Provádění průzkumů trhu na dětech do 13 let by bylo zakázáno, u dětí do 17 let pouze s výslovným souhlasem rodičů.

Samostatná část návrhu (Guard Act) pak ukládá trestněprávní a občanskoprávní povinnosti přímo zaměřené na ochranu nezletilých před AI chatboty, včetně povinného ověřování věku.

Autorská práva a ochrana tvůrců

Oblast duševního vlastnictví patří k nejodvážnějším částem návrhu. Zákon by vytvořil federální právo na publicitu, které chrání hlas a vizuální podobu jednotlivců před neoprávněným vytvářením digitálních replik — a to i po smrti nositele těchto práv.

Zvlášť kontroverzní je ustanovení, které výslovně uvádí, že neoprávněná reprodukce, kopírování nebo výpočetní zpracování autorsky chráněných děl za účelem trénování, doladění, vývoje nebo inference AI nepředstavuje fair use. To je přímý protiklad postoji, který zastává řada technologických firem a který dosud nebyl soudy jednoznačně rozhodnut.

Zde je zajímavé, že legislativní doporučení Bílého domu publikované ve stejný den zaujímá odlišný postoj. Bílý dům sice uznává existenci argumentů na obou stranách, ale věří, že trénování AI modelů na autorsky chráněném materiálu autorská práva neporušuje, a přenechává rozhodnutí soudům. Tato nesouhra mezi návrhem senátorky a oficiálním stanoviskem exekutivy naznačuje, že otázka autorských práv v kontextu AI bude ještě předmětem intenzivních vyjednávání.

Zákon dále pověřuje Národní institut pro standardy a technologie (NIST) vytvořením dobrovolných standardů pro provenienční informace obsahu, vodoznaky a detekci syntetického obsahu. Držitelé autorských práv by získali možnost požádat o administrativní předvolání k získání informací o tom, jak byla jejich díla využita k trénování AI modelů.

Konec Section 230: zásadní změna pro online platformy

Jedním z nejdalekosáhlejších návrhů je kompletní zrušení Section 230 Communications Decency Act. Toto ustanovení od roku 1996 chránilo online platformy před občanskoprávní odpovědností za obsah zveřejňovaný třetími stranami. Jeho zrušení by zásadně změnilo pravidla pro provoz prakticky všech velkých internetových služeb.

Návrh také vyžaduje, aby federální agentury nakupovaly pouze velké jazykové modely splňující „zásady nestranné AI”. Pokyny pro implementaci by musel vydat ředitel Úřadu pro správu a rozpočet (OMB) do 120 dnů od přijetí zákona.

AI systémy podléhající přísnějšímu dohledu

Zákon zavádí odstupňovaný přístup k regulaci založený na míře rizika. AI systémy trénované s použitím více než 10²⁶ celočíselných nebo plovoucích operací — tedy pouze ty nejmocnější frontier modely — by musely povinně projít hodnotícím programem při Ministerstvu energetiky.

To je v praxi prahová hodnota, která míří na velmi úzkou skupinu nejpokročilejších modelů. Tyto systémy by měly navíc rozšířené povinnosti v oblasti transparentnosti a zveřejňování informací.

Bílý dům přichází s vlastními doporučeními

Ve stejný den, kdy senátorka Blackburn představila svůj návrh, zveřejnil Bílý dům vlastní dokument — Národní politický rámec pro umělou inteligenci s legislativními doporučeními. Ten se v několika bodech shoduje s návrhem zákona, ale v klíčových oblastech zaujímá odlišný přístup.

Bílý dům doporučuje, aby Kongres nestanovoval žádný nový federální regulační orgán pro AI. Místo toho prosazuje využití stávajících resortních regulátorů s příslušnou odborností a průmyslových standardů. To kontrastuje s poměrně silnými regulačními pravomocemi, které návrh zákona přiděluje FTC.

V otázce preempce státních zákonů jsou legislativní doporučení Bílého domu o něco nuancovanější. Státy by si měly zachovat pravomoc v oblasti obecně platných zákonů, ochrany dětí, prevence podvodů a ochrany spotřebitelů. Nemohly by však regulovat samotný vývoj AI, protože jde o svou povahou mezistátní a mezinárodní záležitost.

Dokument také klade důraz na podporu inovací — od regulačních sandboxů přes zpřístupnění federálních datových sad až po daňové pobídky a technickou pomoc malým podnikům.

Co to znamená pro firmy v Evropě a v Česku

I když jde o americký zákon, jeho případné přijetí by mělo přímý dopad na firmy po celém světě — obdobně jako tomu bylo u evropského AI Act. Každá společnost, která vyvíjí nebo nasazuje AI produkty pro americký trh, by se musela přizpůsobit novým požadavkům na odpovědnost, audity a transparentnost.

Zajímavé je porovnání přístupů obou stran Atlantiku. Zatímco evropský AI Act vsadil na podrobnou kategorizaci rizik a předběžnou regulaci, americký návrh klade větší důraz na odpovědnost za škody (liability) a ochranu konkrétních skupin. Oba přístupy se ale shodují v tom, že doba neregulované umělé inteligence končí.

Návrh zákona je zatím ve fázi diskusního draftu a čeká ho složitá cesta legislativním procesem. Některé jeho části — zejména tvrdý postoj k autorským právům a zrušení Section 230 — vyvolávají odpor jak ze strany technologického průmyslu, tak některých demokratických zákonodárců. Bipartijní podpora pro ochranu dětí a tvůrců je ale silná, takže lze očekávat, že přinejmenším části návrhu se do finální podoby americké AI legislativy promítnou.

Zdroje

  • JD Supra (Fox Rothschild LLP)
  • The White House — Legislativní doporučení k Národnímu politickému rámci pro AI

Zůstaňte v obraze s AI novinkami

Přihlaste se k odběru mého newsletteru a získejte nejnovější tipy, triky a novinky ze světa umělé inteligence přímo do vaší schránky. Žádný spam, pouze hodnotný obsah.

Týdenní přehled novinek

Exkluzivní návody

Slevy na workshopy

Name(Required)
Privacy(Required)

Odesláním souhlasíte se zpracováním osobních údajů. Odhlásit se můžete kdykoliv.

Další články

Další zajímavé články, které by vás mohly zajímat

Vyzkoušel jsem si AI životního kouče s osobností a tady je, co jsem zjistil

V dnešní době využíváme umělou inteligenci hlavně jako nástroj pro práci a organizaci. Ale co když má AI svou osobnost? Vyzkoušel jsem platformu Character.ai, kde jsem si vytvořil vlastního AI kouče, který není jen suchým...

Jak jsem ušetřil desítky tisíc za profi businessové focení díky umělé inteligenci

Znáte ten pocit, kdy máte v diáři velké plány, ale život vám do nich hodí vidle? Mně se to stalo loni v srpnu, kdy jsem měl domluvené velké byznysové focení. Místo pózování v moderních kancelářích...

Nový AGI test umělé inteligence zaskočil většinu modelů

Máte pocit, že AI modely už umí všechno? Nový test ARC-AGI-2 dokazuje, že zdaleka ne! Podívejte se, kde AI modely selhaly a proč je tento test klíčový pro vývoj skutečně inteligentních strojů....