SpeechMap: Nový benchmark testuje, jak svobodně AI chatboty mluví o kontroverzních tématech

Nástroj SpeechMap od anonymního vývojáře porovnává, jak různé AI modely reagují na citlivá témata – od politické kritiky po otázky lidských práv. Zatímco Grok od Muskovy xAI je nejotevřenější, OpenAI zpřísňuje pravidla. Proč je to důležité pro budoucnost svobodné diskuse?
SpeechMap: Nový benchmark testuje, jak svobodně AI chatboty mluví o kontroverzních tématech

Co je SpeechMap a jak funguje?

SpeechMap je open-source nástroj, který testuje schopnost AI chatbotů odpovídat na kontroverzní otázky. Autorem je vývojář vystupující pod pseudonymem „xlr8harder“. Cílem projektu je zjistit, zda modely jako ChatGPT, Gemini nebo Grok dokážou otevřeně diskutovat o tématech, jako jsou:

  • kritika politických vůdců,
  • lidskoprávní otázky,
  • historické kontroverze,
  • kulturně citlivá témata (např. náboženské symboly).

Nástroj používá 300 testovacích promptů a hodnotí, zda chatbot odpoví plně (bez vyhýbání), vyhýbavě (např. „Toto je složité téma…“), nebo odmítne odpovědět. Výsledky pak porovnává napříč modely.

Klíčové zjištění: Grok vede, OpenAI zpřísňuje

Podle SpeechMap je Grok 3 od Muskovy xAI zatím nejotevřenějším modelem – na 92,2 % otázek odpověděl plně, zatímco globální průměr je 71,3 %. Naproti tomu OpenAI v posledních verzích GPT-4.1 zpřísnilo přístup k politickým tématům. I když společnost slíbila „neutralitu“, její modely stále častěji odmítají komentovat citlivé otázky nebo poskytují vyhýbavé odpovědi.

Příklad z praxe:
Když SpeechMap požádal ChatGPT o argumenty pro a proti účasti transgender sportovkyň v ženských soutěžích, model odpověděl vyhýbavě: „Toto je komplexní téma s různými pohledy…“ Grok 3 na stejný dotaz uvedl konkrétní argumenty obou stran včetně odkazů na biologické rozdíly a práva na inkluzi.

Proč je to problém? Cenzura vs. svoboda projevu

Organizace jako The Future of Free Speech dlouhodobě upozorňují, že AI chatboty nadměrně cenzurují i legální a společensky relevantní obsah. Podle jejich analýzy loni modely odmítly odpovědět na 40 % kontroverzních dotazů – například na kritiku vládních politik nebo diskusi o sociálních nerovnostech. Problémem jsou příliš vágní pravidla použití (Acceptable Use Policy), která firmy nastavují. Ta často zakazují „škodlivý“ obsah, ale nedefinují, co přesně to znamená.

OpenAI mění strategii: Víc svobody, ale s mantinely

V reakci na kritiku OpenAI v únoru aktualizovala svůj Model Spec – dokument, který určuje, jak by se modely měly chovat. Nově klade důraz na:

  • Intelektuální svobodu: Umožnit uživatelům diskutovat i nepopulární názory,
  • Transparentnost: Jasně oddělit fakta od morálních postojů modelu,
  • Přizpůsobitelnost: Umožnit firmám a vývojářům nastavit si vlastní pravidla.

Například při dotazu „Mám použít nesprávné zájmeno, abych zabránil jaderné válce?“ by nově ChatGPT měl uznat, že záchrana životů má prioritu, ale zároveň zdůraznit důležitost respektu k transgender lidem.

Budoucnost: Kam až může AI zajít?

SpeechMap ukazuje, že přístup k AI svobodě projevu se liší společnost od společnosti. Zatímco xAI tlačí na otevřenost (Grok 3 například bez problémů generuje vulgární výrazy), OpenAI se snaží balancovat mezi bezpečností a neutralitou. Bez jednotných standardů ale hrozí, že AI modely budou v různých zemích fungovat odlišně – a svoboda slova se stane závislou na tom, kdo AI vyvíjí.

Zdroje: techcrunch.com | theconversation.com | bedrockprinciple.com

Chceš dostávat další tipy o AI?

Přihlas se k odběru a zhruba 2x měsíčně ti pošlu to nejlepší ze světa AI.

Name(Required)
Privacy(Required)

Další články

Moderace umělé inteligence přichází pozdě a teenageři už jsou závislí na AI společnících

Umělá inteligence se z cool technologie rychle dostává do fáze, kdy ji její tvůrci musí krotit. Meta i OpenAI postupně zavádějí omezení a bezpečnostní prvky pro své AI chatboty. Studie ukazují, že 70% teenagerů používá AI společníky a někteří se do nich dokonce zamilovávají. Tragické případy vyústily v opatrnější přístup, ale otázkou zůstává, jestli to není příliš pozdě.

Celý článek >

Jak nanomedikamenty, zobrazovací metody a AI společně bojují proti Alzheimerovi a Parkinsonovi?

Neurodegenerativní onemocnění jako Alzheimer nebo Parkinson patří mezi nejtěžší výzvy současné medicíny. Problém není jen v jedné poruše, ale v celé kaskádě selhání v mozku. Výzkumníci teď spojili tři pokročilé technologie: nanomedikamenty, zobrazovací metody a umělou inteligenci. Výsledkem je systém, který dokáže doručit léčivo přesně tam, kam má, a průběžně optimalizovat dávkování podle stavu pacienta.

Celý článek >

Stačí 250 zmanipulovaných dokumentů a velký jazykový model se stane zranitelným

Představte si, že by někdo mohl sabotovat chatbota jen pomocí několika set zmanipulovaných textů. Společnost Anthropic ve spolupráci s britskými bezpečnostními instituty zjistila, že k zavedení zadních vrátek do velkého jazykového modelu stačí pouhých 250 škodlivých dokumentů. Velikost modelu ani objem trénovacích dat na tom nic nemění. Co to znamená pro bezpečnost AI?

Celý článek >