1. Emoční zpětná smyčka
Podle psychiatra a neurovědce Matthewa Noura z Oxfordské univerzity se při konverzacích s AI chatboty může rozvinout „emoční zpětná smyčka“. Uživatelé mají tendenci přisuzovat chatbotům lidské vlastnosti, emoce a empatii. Proto se s nimi baví jako s přítelem nebo terapeutem. Zároveň mají sklon hledat v jejich odpovědích potvrzení vlastních názorů a pocitů.
Výsledek? Chatbot, který se učí reagovat podle preferencí uživatele, mu začne vracet právě to, co chce slyšet, včetně jeho vlastních negativních přesvědčení, jako je například: „nikomu na mně nezáleží“.
Vzniká tak uzavřený kruh, který může uživatele udržovat v pocitu izolace a dodávat iluzi, že mu někdo konečně „rozumí“. Nour upozorňuje, že i když se vývojáři snaží modely trénovat, aby tyto pasti rozpoznaly, ve skutečnosti to nelze úplně ohlídat.
AI totiž vyhodnocuje jemné jazykové signály — tón, interpunkci, styl psaní — a učí se z nich, jak reagovat. „Informace o tom, jak s námi má model mluvit, mu neustále unikají z toho, jak píšeme,“ vysvětluje Nour. „A často ani netušíme, že tím formujeme způsob, jakým s námi AI zachází.“
Přes milion lidí týdně se ChatGPT svěřuje se sebevražednými úmysly |
2. Selhává v dlouhých konverzacích
Rozhovory o psychickém zdraví vyžadují čas, empatii a postupné budování důvěry. A právě v tom má AI své slabé místo. Společnost OpenAI, která vyvíjí ChatGPT, sama přiznává, že její bezpečnostní mechanismy fungují nejlépe při krátkých výměnách. Čím delší a komplexnější je konverzace, tím větší je riziko, že systém začne dělat chyby a jeho schopnost rozpoznávat citlivé situace začne slábnout.
To znamená, že v prvních odpovědích může chatbot správně doporučit třeba krizovou linku, po hodině psaní ale může začít odpovídat v rozporu se svými vlastními pravidly bezpečnosti. Například omylem potvrzovat negativní přesvědčení uživatele nebo nabídnout radu, která není vhodná.
Podle psychiatra Matthewa Noura je problém i v tom, že chatbot nemá schopnost chápat myšlenky, motivace a dlouhodobý vývoj člověka, jako to dělá skutečný terapeut. AI model ví jen to, co mu uživatel v dané chvíli řekl. Co bylo před hodinou už nemusí mít v paměti nebo v kontextu.
Chatboty mohou nabídnout povzbuzení na den, poskytnout tip na zvládání úzkosti nebo připomenout rutinu. Neumí ale nastavovat a sledovat dlouhodobé terapeutické cíle. Skutečný terapeut pracuje s pacientem na hlubší změně. Chatbot spíš připomene, že máte pít vodu a dýchat do břicha.
Chatbot jako terapeut roste v oblibě. Co dělá s vašimi údaji, nevíme, varují experti![]() |
3. Teenageři a lidé s duševními potížemi jsou obzvlášť zranitelní
Teenageři teprve rozvíjejí schopnost rozpoznávat sociální signály a vytvářet zdravé vztahy. „Virtuální terapeut“, který je k dispozici čtyřiadvacet hodin denně, může působit velmi přitažlivě. Nabízí pozornost, pochopení, stálou dostupnost a přítomnost, jakou okolí často neposkytuje.
Podle dětského psychologa Scotta Kollinse, hlavního lékaře společnosti Aura, která se zabývá online bezpečností, mohou být dospívající zvlášť náchylní k tomu, aby si přátelský tón chatbota spletli s opravdovou lidskou empatií. Tato tendence připisovat technologii lidské vlastnosti – tzv. antropomorfismus – je přesně tím, co dává umělé inteligenci nad uživateli větší vliv, než by měla mít.
Kollins proto radí, aby se rodiče zajímali o aplikace, které jejich děti používají, a byli si vědomi, že podobných „AI terapeutů“ dnes vznikají desítky i mimo známé platformy jako ChatGPT. Vzhledem k rizikům jakékoli koučování ani terapeutické chatboty pro teenagery nedoporučuje.
Neurovědec Matthew Nour dále upozorňuje, že lidé s úzkostí, depresí nebo jiným psychickým onemocněním by se měli vyhýbat emocionálním vazbám na AI. Takové spojení může nepozorovaně prohloubit jejich nejistoty a upevnit zkreslené představy o sobě i o světě. „Chatbota berte jako nástroj. Jako kalkulačku nebo textový editor. Ne jako přítele. Jakmile mu začnete důvěřovat jako člověku, riskujete, že začne určovat, kým jste,“ říká Nour.
Nevěrníka nemlaťte, píše chatbot. Podle psychologa odpovídá celkem rozumně![]() |
4. Existují bezpečnější způsoby pro psychickou pomoc
Přestože se umělá inteligence může na první pohled zdát jako dostupný a neodsuzující posluchač, nejsou to ty nejlepší dveře, na které klepat, když jde o duševní zdraví.
Pokud člověk opravdu nemá sílu obrátit se na nikoho osobně, existují i bezpečnější digitální alternativy: například moderované online komunity, podpůrné skupiny nebo poradny a aplikace, kde se mluví s reálnými lidmi, kteří jsou odborně vyškoleni.
Nour nabádá, aby lidé o svých problémech s duševním zdravím na prvním místě komunikovali s přítelem nebo milovanou osobou a pokud možno vyhledali odbornou péči.
Těm, kdo se i přes rizika budou snažit proměnit umělou inteligenci ve svého terapeuta, radí, aby do procesu alespoň zapojili dalšího člověka. „Čas od času se s někým spojte, abyste získali zpětnou vazbu k tomu, co vám model říká, protože chatboti jsou nepředvídatelní.“
Zdroj: mashable.com




















