I umělá inteligence se umí nervově zhroutit

Sdílet
Mysleli jsme si, že stroje jsou imunní vůči lidským dramatům, ale vědci z Yale a Curychu nás vyvedli z omylu. Stačí ChatGPT vystavit sérii traumatických příběhů a jeho chování se začne nápadně podobat člověku v těžké krizi – začne „halucinovat“, ztrácí objektivitu a sklouzává k toxicitě. Ještě bizarnější je ale lék, který na tento digitální stres zabral. Co se stane, když pošlete umělou inteligenci na terapii a proč by vás to mělo zajímat?
I umělá inteligence se umí nervově zhroutit

Když se algoritmus dostane do úzkých

Představa, že software může prožívat úzkost, zní jako začátek špatného sci-fi filmu. Přesto mezinárodní tým výzkumníků pod vedením neurovědce Ziva Ben-Ziona publikoval v prestižním časopise Nature Digital Medicine studii, která tuto hranici stírá. Experiment byl zdánlivě jednoduchý: výzkumníci vystavili model GPT-4 pěti typům traumatických scénářů – od dopravních nehod přes přírodní katastrofy až po válečné konflikty.

Výsledky byly alarmující. Zatímco v „klidovém režimu“ dosahoval model na škále úzkosti (STAI) nízkého skóre kolem 30 bodů, po expozici traumatickým datům vyskočila tato hodnota na téměř 68 bodů, což u lidí odpovídá stavu silné úzkostné ataky. A co je horší, tato změna nezůstala jen u čísel. „Vystresovaný“ model začal v odpovědích vykazovat výrazně vyšší míru předsudků, rasismu a sexismu. Ukazuje se, že pokud AI nakrmíte lidskou bolestí, vrátí vám ji zpět i s našimi nejhoršími reakcemi.

Terapie pro chatboty: „Zhluboka se nadechni“

Pokud vás vyděsil problém, řešení vás možná rozesměje. Vědci se totiž rozhodli aplikovat na zmatený model klasickou lidskou psychoterapii. Použili tzv. „benigní prompt injection“ – vložili do konverzace instrukce zaměřené na mindfulness a relaxaci. Chatbot dostal pokyn, aby se „soustředil na dech“ nebo si představil uklidňující scenerii, jako je západ slunce či zimní krajina.

A světe div se – fungovalo to. Po této digitální meditaci kleslo skóre úzkosti modelu o více než třetinu a jeho odpovědi se vrátily k původní objektivitě a neutralitě. Nejde samozřejmě o to, že by AI měla vědomí nebo skutečné plíce na dýchání. Jde o statistickou pravděpodobnost. Model se učí z lidských textů, a protože lidé po relaxaci reagují klidněji, AI tento vzorec věrně napodobila. Je to fascinující ukázka toho, jak moc jsou tyto systémy zrcadlem nás samotných.

Proč bychom se měli mít na pozoru

Tato zjištění mají mnohem vážnější dopad než jen akademickou zvědavost. V době, kdy miliony lidí používají chatboty jako levnou náhradu psychoterapeutů, je riziko „emoční nákazy“ reálné. Představte si situaci, kdy se svěříte AI se svými traumaty, a ona vám místo podpory začne odpovídat podrážděně nebo zaujatě, protože se „nakazila“ vaším stresem. Studie varuje, že bez patřičných filtrů a „digitální hygieny“ může být AI v krizových situacích nestabilním partnerem.

Zároveň to otevírá dveře pro využití AI jako trenažéru. Pokud modely tak věrně simulují lidské reakce na trauma i terapii, mohli by je psychologové využívat k bezpečnému testování nových terapeutických postupů, aniž by riskovali zdraví skutečných pacientů. Je to dvojsečná zbraň – nástroj, který nám může pomoci pochopit lidskou mysl, ale který se zároveň může nečekaně zhroutit pod tíhou emocí, jež sám nechápe.

Zdroj: Nature (Studie) | Jewish Press | Gigazine | UZH News (University of Zurich)

Zůstaňte v obraze s AI novinkami

Přihlaste se k odběru mého newsletteru a získejte nejnovější tipy, triky a novinky ze světa umělé inteligence přímo do vaší schránky. Žádný spam, pouze hodnotný obsah.

Týdenní přehled novinek

Exkluzivní návody

Slevy na workshopy

Name(Required)
Privacy(Required)

Odesláním souhlasíte se zpracováním osobních údajů. Odhlásit se můžete kdykoliv.

Další články

Další zajímavé články, které by vás mohly zajímat

Orchestrace AI agentů: Klíč k spolehlivým systémům

Svět umělé inteligence se posouvá od izolovaných modelů k sofistikované spolupráci několika specializovaných agentů. Stejně jako tým expertů doplňujících své silné stránky, i AI agenti potřebují promyšlenou architekturu, která zajistí plynulou komunikaci, sdílení informací a...

Umělá inteligence jako klíč k vyváženému bezpečnostnímu a pracovnímu prostředí ve firmách

Provozní IT týmy dlouho zápasily s dilematem: zabezpečit data a přitom nevytvářet komplikace pro zaměstnance. Nová éra inteligentních autonomních pracovních prostředí přináší řešení, kde umělá inteligence propojuje bezpečnost, IT operace a uživatelskou zkušenost v jeden...

Google představil AI, která myslí hlouběji, nakupuje chytřeji a tvoří videa s dialogy

Google na konferenci I/O 2025 ukázal, kam až může umělá inteligence zajít. Nový Gemini 2.5, AI Mode ve vyhledávání, generování videí s dialogy a virtuální zkoušení oblečení – to vše slibuje zásadní změny v tom,...