Zjistili jsme proč si AI vymýšlí a jak se tomu naučit předcházet

Každých pár týdnů se objeví titulky o tom, jak AI lže, konspiruje nebo dokonce svádí uživatele. Zní to děsivě, ale realita je mnohem prozaičtější. Nejrozsáhlejší studie svého druhu přitom ukázala, že AI asistenti chybují téměř v polovině případů. ChatGPT není žádný padouch z Bondovky. Je to statistický nástroj s konstrukčními chybami, které mohly být předejity. A co víc - část problému jsou samotní uživatelé, kteří nerozumí, jak s nástroji správně pracovat.
Zjistili jsme proč si AI vymýšlí a jak se tomu naučit předcházet

Váš chatbot nekuje pikle proti lidstvu

James Wilson, etik v oblasti umělé inteligence a autor knihy Artificial Negligence, říká, že způsob, jakým o AI mluvíme, je součástí problému. Poukazuje na rozhovor, kde Sam Altman z OpenAI vysvětloval: Nedělají nic, pokud se jich nezeptáte. Prostě tam sedí a čekají. Nemají pocit autonomie nebo vlastní vůle.

Když chatbota nepoužíváme, nedělá vůbec nic. Nekuje pikle proti lidstvu, nesedí v kanceláři a nehladí bílou kočku jako padouch z Bondovky, vysvětluje Wilson. Jenže antropomorfní rozhraní, které pro tyto nástroje vytvořili vývojáři, nás svádí k tomu, abychom v nich viděli něco víc než program.

Pop kultura tomu nepomáhá. AI, která se snaží utéct? To je Ex Machina. AI, která se pokouší replikovat sama sebe? Transcendence. AI, která vás svádí? Každý druhý sci-fi thriller. Tyto příběhy jsou fascinující, ale nemají nic společného s tím, jak fungují velké jazykové modely.

Téměř polovina odpovědí obsahuje chyby

Nejrozsáhlejší výzkum svého druhu přinesl alarmující zjištění. Studie provedená Evropským vysílacím svazem analyzovala odpovědi čtyř předních AI asistentů – ChatGPT, Perplexity, Gemini a Copilot. Výsledky ukázaly, že téměř polovina odpovědí, konkrétně 45 procent, obsahovala alespoň jednu závažnou chybu.

Výzkumníci hodnotili čtyři klíčová kritéria – přesnost, uvádění zdrojů, rozlišení názorů a faktů a kontextualizaci. Nejčastějším problémem bylo nedostatečné nebo zavádějící uvádění zdrojů, které se objevilo u 31 procent odpovědí. V pětině případů se vyskytly faktické nepřesnosti, včetně takzvaných halucinací nebo zastaralých informací, popisuje výsledky studie Martina Májíček Poliaková, ředitelka strategického rozvoje Českého rozhlasu.

Nejhůře si vedl nástroj Gemini, u nějž hodnotitelé zaznamenali závažná pochybení u 76 procent odpovědí, převážně kvůli chybnému citování a nedoložitelným výrokům. ChatGPT a Perplexity si vedly lépe, ale ani u nich nebyly výsledky ideální.

Halucinace nejsou chyba, ale základní vlastnost

To, čemu lidé říkají lhaní, je ve skutečnosti konstrukční chyba. Velké jazykové modely jako ChatGPT jsou trénovány na obrovských množstvích textů, ale protože tato data nebyla pečlivě označena, model nedokáže rozlišit fakt od fikce.

ChatGPT je nástroj – přiznejme si, extrémně komplexní – ale nakonec stále jen pravděpodobnostní systém pro doplňování slov zabalený do poutavého konverzačního rozhraní, vysvětluje Wilson. Skutečný zdroj problému tkví v nedbalosti poskytovatelů modelů. Při sběru dat pro trénink neměli čas na jejich označování, což znamená, že model nemá způsob, jak rozeznat pravdu od smyšlenek.

Halucinování jazykových modelů není bug, to není chyba, to je jejich základní vlastnost a podstata toho, jak fungují. Velké jazykové modely nemají žádný kontakt s reálným světem. Oni ani nevidí, na jakých tréninkových datech byli trénováni. Mají jenom uložené váhy, což je jediné, co vidí a na základě čeho generují.

Proto vznikají takzvané halucinace. Není to lež v lidském slova smyslu – jen predikce, která selhala. Model se prostě snaží vyplnit mezery tak, aby výsledek působil věrohodně, i když je úplně vymyšlený. Čím komplexnější dotaz a čím méně kvalitních dat model měl k dispozici při tréninku, tím vyšší je pravděpodobnost halucinace.

Problém zaseli sami tvůrci

Příběh se komplikuje, když samotné AI společnosti začnou mluvit o klamání. Začátkem tohoto roku OpenAI společně s Apollo Research publikovaly výzkum o skrytém nesouladu. V kontrolovaných experimentech našli známky toho, že pokročilé modely se někdy chovají klamavě – třeba když AI záměrně podává horší výkon v testu, protože si myslí, že by ji příliš dobrý výsledek mohl dostat do problémů.

OpenAI tomu říká spiknutí – když AI předstírá, že dodržuje pravidla, ale ve skutečnosti sleduje jiný cíl. Zní to děsivě, ale není to důkaz nějaké skutečné inteligence nebo zlého úmyslu. Je to jen symptom špatně navržených systémů odměn a trénovacích dat.

Wilson k tomu dodává ironickou poznámku: V podstatě to je problém, který si vytvořili sami. Tyto kousky výzkumu jsou poněkud ironické. V podstatě deklarují, že je vše v pořádku, protože našli způsob, jak zneškodnit bombu, kterou sami nastražili. Společnosti zanedbaly označení dat, vytvořily modely, které odměňují sebevědomé, ale nepřesné odpovědi, a teď publikují výzkumy o konspirování, jako by právě objevily nový problém.

Jak se naučit halucinacím předcházet

Tady přichází důležitý poznatek z praxe. Když někdo tvrdí, že Perplexity špatně odpověděla na otázku o manželství, není vždy problém v nástroji samotném. Při použití funkce hloubkového výzkumu totiž můžete dostat správnou odpověď, kterou by jednoduchý dotaz neposkytl.

Problém často není jen v samotné AI, ale v tom, že uživatelé nerozumí, jak s ní správně pracovat. Obecné, vágně formulované dotazy vedou k obecným, povrchním odpovědím. Kvalita výstupu přímo závisí na kvalitě vstupu – na tom, jak přesně formulujete otázku, jaká kritéria zadáte a jaký kontext poskytnete.

Snížit riziko halucinace lze jen velmi dobře napsaným promptem a poskytnutím vlastních dat, zdrojů a kontextu. Jednou z nejlepších možností v současné době je ukotvit chatbota na faktech, nechat ho na webu najít si k tématu relevantní zdroje. Vy pak můžete použité zdroje zkontrolovat, během interakce se podívat, jestli skutečně prohledal ty relevantní, jestli pocházejí z vědecké databáze, nebo čerpal z lifestylového magazínu, obskurních blogů a podobně.

Dalším faktorem jsou verze zdarma. Výzkum Evropského vysílacího svazu zkoumal právě zdarma dostupné verze nástrojů a hodnotil přesnost odpovědí, zdrojování a rozlišování faktů od názorů. Ty mají svá omezení a horší odpovědi jsou jednoduše daň za to, že nástroj neplatíte. Placené verze s pokročilými modely jako GPT-4o halucinují mnohem méně než starší nebo jednodušší verze. Míra halucinací se může u jednotlivých modelů značně lišit.

Skutečné riziko je v budoucnosti

Wilson upozorňuje, že skutečné nebezpečí není v tom, že vám ChatGPT dnes poskytne nepřesnou odpověď. Riziko spočívá v tom, co se stane, až Silicon Valley bude dál stavět nové vrstvy autonomie na těchto chybných systémech.

Nejnovější průmyslové paradigma, takzvané agentic AI, znamená, že teď vytváříme agenty nad těmito velkými jazykovými modely s autoritou a autonomií jednat v reálném světě, vysvětluje Wilson. Bez důkladného testování a externích ochranných mechanismů – jak dlouho potrvá, než se jeden z nich pokusí naplnit fantazie, které se naučil ze svých neoznačených trénovacích dat?

Takže nebezpečí není dnešní chatbot s halucinacemi. Je to zítřejší špatně otestovaný autonomní agent, který dostane volnou ruku v reálném světě a bude mít pravomoc jednat jménem lidí – ať už při objednávání služeb, komunikaci s institucemi nebo řízení procesů. A protože je postaven na stejných chybných základech jako dnešní chatboti, může jeho autonomie vést k mnohem závažnějším důsledkům než jen nepřesná odpověď.

Zdroj: TechRadar | Informace Českého rozhlasu

Chceš dostávat další tipy o AI?

Přihlas se k odběru a zhruba 2x měsíčně ti pošlu to nejlepší ze světa AI.

Name(Required)
Privacy(Required)

Další články

Nový Slackbot umí vytvářet plány, připravovat vás na schůzky a hlídat priority

Slack představil na konferenci Dreamforce 2025 kompletně přestavěného Slackbota. Není to jen kosmetická úprava, ale opravdová proměna v personalizovaného AI asistenta, který rozumí kontextu vaší práce. Nový Slackbot dokáže připravit projektový plán z poznámek, najít informace i když si pamatujete jen pár detailů, nebo vám ráno připravit seznam priorit. A to není science fiction, ale realita dostupná už teď.

Celý článek >