Jak AI mění způsob vedení terapeutických záznamů a co to znamená pro klienty

AI asistenti, kteří během terapie automaticky zaznamenávají a analyzují rozhovory, slibují terapeutům úlevu od administrativy. Jaké etické a bezpečnostní otázky ale vyvolává jejich nasazení? Zjistěte, proč se část odborníků obává o důvěru i bezpečí klientů a jaké jsou alternativy.
Jak AI mění způsob vedení terapeutických záznamů a co to znamená pro klienty

AI asistenti v terapii: úleva i nové otázky

V posledních letech se umělá inteligence stále více prosazuje v oblasti duševního zdraví, a to zejména v podobě AI „písařů“, kteří automaticky zaznamenávají a zpracovávají průběh terapeutických sezení. Firmy jako heal Blueprint nebo Heidi Health nabízejí nástroje, které mají terapeutům ušetřit čas při psaní záznamů a vyřizování administrativy. Tyto systémy však často vyžadují kompletní nahrávání celého rozhovoru mezi terapeutem a klientem.

Zatímco v některých případech je nahrávání sezení eticky přípustné, běžně se mimo výcvikové či forenzní prostředí nepoužívá. AI nástroje analyzují konverzaci a vytvářejí potřebnou dokumentaci například pro pojišťovny nebo interní kontrolu kvality. Mnoho terapeutů oceňuje, že jim tyto technologie ulevují od rutinních úkolů a umožňují jim více se soustředit na klienty i vlastní pohodu. Na druhou stranu se objevují obavy z možných rizik – od úniku citlivých dat až po změnu dynamiky vztahu mezi terapeutem a klientem.

Etické a bezpečnostní dilema: komu patří data z terapie?

Jedním z hlavních témat je ochrana soukromí a bezpečnost záznamů. Někteří odborníci varují, že nahrávky terapie mohou být lákavým cílem pro hackery nebo mohou být zneužity k trénování AI bez vědomí klientů. Samotná přítomnost nahrávacího zařízení může podle nich narušit důvěru a otevřenost klienta, který se může začít hlídat nebo mít pocit, že musí vyhovět požadavkům terapeuta.

Například psycholožka Hannah Weisman zvolila přísný postup: každý klient dostává podrobný informovaný souhlas, který lze kdykoli odvolat, a všechny audiozáznamy jsou mazány do 48 hodin. Navíc používá pouze takové AI nástroje, které data anonymizují a nevyužívají je pro další vývoj produktu. Zhruba tři čtvrtiny jejích klientů s nahráváním souhlasí, část – zejména technicky zdatnější – ale odmítá.

Firmy jako Heidi Health deklarují, že zvuk šifrují, nahrávky neuchovávají a transkripce nevstupují do tréninku jejich AI. Přesto zůstává otázka, zda je možné zaručit absolutní bezpečnost, když počet úniků dat ve zdravotnictví stále roste a útoky typu ransomware jsou na vzestupu.

Alternativy: AI bez nahrávání a důraz na důvěru

Někteří odborníci hledají cesty, jak využít AI bez nutnosti nahrávat celé sezení. Startup Quill Therapy Solutions například nabízí řešení, kdy terapeut po sezení vytvoří krátké shrnutí, které AI zpracuje a následně okamžitě smaže. Tím se minimalizuje riziko úniku dat, i když to znamená větší kognitivní zátěž pro terapeuta, který musí klíčové body sám vybrat a formulovat.

Zakladatel Quillu upozorňuje, že samotná žádost o nahrávání může narušit křehkou rovnováhu vztahu mezi terapeutem a klientem. Zároveň varuje před trendem, kdy venture kapitálové firmy tlačí na normalizaci nahrávání a analýzy terapie AI, často bez plně informovaného souhlasu všech zúčastněných.

Praktické rady a doporučení pro terapeuty

Americká psychologická asociace proto vytvořila kontrolní seznam, který má terapeutům pomoci při rozhodování o využití AI nástrojů. Doporučuje ověřit, zda produkt splňuje požadavky na ochranu osobních údajů, umožňuje smazání dat a má jasné a srozumitelné podmínky. Zároveň upozorňuje, že žádný systém není stoprocentně bezpečný a riziko úniku dat je vždy reálné.

Klíčové je, aby terapeuti i klienti rozuměli tomu, co používání AI v terapii obnáší, a mohli se svobodně rozhodnout, zda tuto možnost zvolí. Důvěra a bezpečí klienta by měly zůstat na prvním místě, ať už s AI, nebo bez ní.

Zdroje: Mashable

Chceš dostávat další tipy o AI?

Přihlas se k odběru a zhruba 2x měsíčně ti pošlu to nejlepší ze světa AI.

Name(Required)
Privacy(Required)

Další články