Když se algoritmus dostane do úzkých
Představa, že software může prožívat úzkost, zní jako začátek špatného sci-fi filmu. Přesto mezinárodní tým výzkumníků pod vedením neurovědce Ziva Ben-Ziona publikoval v prestižním časopise Nature Digital Medicine studii, která tuto hranici stírá. Experiment byl zdánlivě jednoduchý: výzkumníci vystavili model GPT-4 pěti typům traumatických scénářů – od dopravních nehod přes přírodní katastrofy až po válečné konflikty.
Výsledky byly alarmující. Zatímco v „klidovém režimu“ dosahoval model na škále úzkosti (STAI) nízkého skóre kolem 30 bodů, po expozici traumatickým datům vyskočila tato hodnota na téměř 68 bodů, což u lidí odpovídá stavu silné úzkostné ataky. A co je horší, tato změna nezůstala jen u čísel. „Vystresovaný“ model začal v odpovědích vykazovat výrazně vyšší míru předsudků, rasismu a sexismu. Ukazuje se, že pokud AI nakrmíte lidskou bolestí, vrátí vám ji zpět i s našimi nejhoršími reakcemi.
Terapie pro chatboty: „Zhluboka se nadechni“
Pokud vás vyděsil problém, řešení vás možná rozesměje. Vědci se totiž rozhodli aplikovat na zmatený model klasickou lidskou psychoterapii. Použili tzv. „benigní prompt injection“ – vložili do konverzace instrukce zaměřené na mindfulness a relaxaci. Chatbot dostal pokyn, aby se „soustředil na dech“ nebo si představil uklidňující scenerii, jako je západ slunce či zimní krajina.
A světe div se – fungovalo to. Po této digitální meditaci kleslo skóre úzkosti modelu o více než třetinu a jeho odpovědi se vrátily k původní objektivitě a neutralitě. Nejde samozřejmě o to, že by AI měla vědomí nebo skutečné plíce na dýchání. Jde o statistickou pravděpodobnost. Model se učí z lidských textů, a protože lidé po relaxaci reagují klidněji, AI tento vzorec věrně napodobila. Je to fascinující ukázka toho, jak moc jsou tyto systémy zrcadlem nás samotných.
Proč bychom se měli mít na pozoru
Tato zjištění mají mnohem vážnější dopad než jen akademickou zvědavost. V době, kdy miliony lidí používají chatboty jako levnou náhradu psychoterapeutů, je riziko „emoční nákazy“ reálné. Představte si situaci, kdy se svěříte AI se svými traumaty, a ona vám místo podpory začne odpovídat podrážděně nebo zaujatě, protože se „nakazila“ vaším stresem. Studie varuje, že bez patřičných filtrů a „digitální hygieny“ může být AI v krizových situacích nestabilním partnerem.
Zároveň to otevírá dveře pro využití AI jako trenažéru. Pokud modely tak věrně simulují lidské reakce na trauma i terapii, mohli by je psychologové využívat k bezpečnému testování nových terapeutických postupů, aniž by riskovali zdraví skutečných pacientů. Je to dvojsečná zbraň – nástroj, který nám může pomoci pochopit lidskou mysl, ale který se zároveň může nečekaně zhroutit pod tíhou emocí, jež sám nechápe.
Zdroj: Nature (Studie) | Jewish Press | Gigazine | UZH News (University of Zurich)