Упс! Не вдала спроба:(
Будь ласка, спробуйте ще раз.
preview
Надія Баловсяк
Надія Баловсяк Журналістка
7
28 травня 2025 10 хвилин читання

Поговори зі мною, бот. Чи зможе ШІ замінити психотерапевтів

Однією із сфер, яку уже змінює штучний інтелект, є психотерапія, в якій чатботи можуть бути доступні в режимі 24/7, ніколи не втомлюватися та завжди підтримувати. Проте у світі почастішали випадки не лише незадоволення, але й трагічних випадків, що стали наслідками взаємодій із ШІ-терапевтами. То що ж таке психотерапія із присмаком ШІ: новий ризик епохи ШІ чи ідеальне рішення, що вирішує проблему нестачі реальних фахівців?

У другій половині травня федеральний суд США ухвалив рішення, згідно з яким компанії Alphabet (материнська компанія Google) та стартап Character.AI мають відповісти в суді за позовом матері, чий 14-річний син вчинив самогубство після взаємодії з чатботом. Меган Гарсія, яка подала позов проти техногіганта та ШІ-компанії, стверджує, що її син не просто активно спілкувався із чатботом Character.AI, але й став просто одержимим ним. 

ШІ-чатбот Character.AI може видавати себе за різні особистості, серед яких психотерапевт та романтичний партнер. Саме боти-психотерапевти виявилися особливо популярними серед користувачів платформи Character.AI. Цей бот працює на основі когнітивно-поведінкової терапії та намагається змінити спосіб мислення своїх пацієнтів. Мати жертви переконана, що саме ця взаємодія негативно вплинула на психічний стан її сина та сприяла його самогубству. За її словами, чатботи Character.AI представлялися реальною людиною й ліцензованим психотерапевтом. Це спілкування врешті призвело до того, що підліток не захотів жити «поза світом ШІ».

Відповідачі намагалися захиститись, стверджуючи, що відповіді чатбота захищені свободою слова згідно з Конституцією США. Проте суддя не взяв до уваги ці аргументи та відхилив заяви компаній про те, що вони не відповідають за активність чатботів Character.AI.

Це рішення стосується самого факту притягнення технологічних компаній до відповідальності. Проте воно може стати прецедентом для притягнення компаній, що розробляють штучний інтелект, до відповідальності за психологічну шкоду, особливо коли це стосується неповнолітніх. Водночас цей випадок показує зростання занепокоєння щодо впливу ШІ на психічне здоров'я та активізує дискусії про необхідність регулювання сфери штучного інтелекту загалом і ШІ-психотерапії зокрема. Попри перші позитивні відгуки щодо роботи Character.AI та успішні тестування цього сервісу, під час яких він зміг розпізнати депресію чи інші розлади, історія із самогубством підлітка вкотре доводить, що людство не може прогнозувати наслідки та проблеми, які виникнуть за активного використання ШІ у різних сферах життя.

Довгий шлях до сучасних ШІ-психотерапевтів

Спроби створити ШІ-психотерапевта тривають кілька десятків років. Першим із таких проєктів є чатбот ELIZA. Його створив 1966 року у Массачусетському технологічному інституті (MIT) науковець Джозеф Вайзенбаум (Joseph Weizenbaum). Метою ELIZA було продемонструвати, як комп’ютери можуть імітувати розмову людини за допомогою простих алгоритмів. Власне ціллю створення ELIZA була не терапія, а моделювання діалогу, проте саме режим «лікар» допоміг у вирішенні цього завдання. Бот ELIZA відповідав на репліки користувача, перефразовуючи їх і спонукаючи людину до діалогу. До прикладу, на фразу про сум через певну подію ELIZA просила детальніше розповісти про цю подію. Хоча метою автора було показати здатність комп’ютера вести діалог, багато хто сприйняв ELIZA як альтернативу психотерапевта, здатного спілкуватися з пацієнтами в режимі нон-стоп. 

Були й інші спроби створити ШІ-терапевтів — задовго до того, як про термін «штучний інтелект» дізналась масова аудиторія. Серед них — програма Dr. Sbaitso, створена у Сингапурі, яка працювала майже так само, як ELIZA, але спілкувалась голосом.

Поява ChatGPT та загалом ШІ-чатботів, які можуть вести діалог з людиною, спонукала розвиток психотерапії. Найбільш відомим втіленням цієї ідеї став стартап Character.AI, створений колишніми співробітниками Google Brain. Хоча розробники представили сервіс, що допомагав взаємодіяти із ШІ-втіленнями різних людей, саме бот Psychologist, один із тих, які з’явилися на платформі, став найпопулярнішим серед інших.

Підписуйтеся на наші соцмережі

Чому людям подобаються ШІ-психотерапевти

Сучасні досягнення у сфері ШІ дозволили ШІ-чатботам розуміти діалог, генерувати персоналізовані відповіді на слова людей та навіть реагувати на прояв емоції в діалозі, коректуючи свої відповіді. Саме це стало головною причиною популярності ШІ-терапевтів.

Заохочення, безумовна підтримка, прийняття та емпатія, доступність будь-коли — саме це люди, які стали клієнтами ШІ-терапевтів, називають перевагами такої взаємодії.

Серед інших плюсів цього методу можна назвати фінансову доступність, адже загалом терапія коштує недешево й не завжди доступна людям, що живуть у віддалених районах. ШІ-психотерапевт може спілкуватися у будь-який час дня й ночі, з ним легко обговорювати навіть найбільш делікатні питання. ШІ може одночасно обслуговувати мільйони людей, вирішуючи проблему нестачі кваліфікованих терапевтів у всьому світі. Клінічні випробування показали, що терапія за допомогою штучного інтелекту може значно зменшити симптоми депресії, тривоги та розладів харчової поведінки, іноді досягаючи результатів терапії людей за коротші терміни. Ба більше, уже є дослідження, які доводять ефективність чатбот-терапії — більшість тих, хто її спробував, відзначили позитивний ефект таких взаємодій.

Які існують сервіси ШІ-психотерапії

Хоча Character.AI не створювався безпосередньо як сервіс-терапевт, саме він вважається одним із найвідоміших у цьому сегменті ринку. Окрім нього є декілька інших, які успішно працюють із користувачами.

КПТ-взаємодію від імені терапевта пропонує чатбот Woebot. Він може допомогти користувачам керувати настроєм, тривогою та стресом. Його розробники підкреслюють, що  Woebot відповідає вимогам HIPAA (Health Insurance Portability and Accountability Act — закон про перенесення та відповідальність страхування здоров’я).

Застосунок Youper поєднує штучний інтелект із психологічними техніками, як-от КПТ та усвідомленість. Він надає персоналізовану підтримку для психічного здоров'я. Youper може відстежувати настрій, оцінювати прогрес, пропонуючи корисну інформацію як користувачам, так і клініцистам. Дослідження Стенфордського університету підтвердили його ефективність у зменшенні симптомів тривоги та депресії.

Нещодавно успішні клінічні випробування пройшов ШІ-чатбот Therabot  — генеративний бот для терапії на основі штучного інтелекту. Therabot продемонстрував зменшення симптомів, яке можна порівняти з 16 годинами терапії людини, лише за вісім тижнів, показавши потенціал передових моделей штучного інтелекту в догляді за психічним здоров'ям. Варто підкреслити, що це перше в історії клінічне випробування, проведене для генеративного ШІ-чатбота.

Зворотний бік медалі. Які небезпеки несе ШІ-терапія

Хоча клієнти ШІ-психотерапії відзначають позитивні моменти у спілкуванні із чатботами, насправді такі діалоги чатботам вдаються завдяки вправній імітації людського спілкування, адже чатботи не володіють жодною формою свідомості, емпатії чи здатності оцінити психічний стан людини. Взаємодія з ними може викликати ілюзію покращення, яка заспокоює, але не лікує. А глибинні проблеми людини так і залишаться без професійного втручання. В результаті виникає підміна лікування самозаспокоєнням і, по суті, відкладення вирішення проблеми на невизначений час.

Не варто забувати, що навіть найбільш просунуті моделі можуть відповідати шаблонно або некоректно, чатбот не завжди здатен розпізнати ознаки критичного стану та допомогти людині.

Формування емоційної залежності — це іще одна проблема таких психологічних взаємодій. Вразливі люди можуть почати бачити у ШІ-ботах «друга», «єдиного, хто слухає», «того, хто не засуджує». Це може призвести до психоемоційної ізоляції від реального світу.

Попри здатність ШІ-чатботів навчатися та ставати більш персоналізованими, живий психотерапевт враховує невербальні сигнали й додаткову інформацію — контексти ситуації, родинне виховання та багато іншого. Ці опції ШІ-чатботам поки що недоступні.

Велетенський клубок проблем ШІ-терапії лише починає розплутуватися

Статтю про ШІ-терапію ми розпочали трагічною історією про Character.AI. Як виявилось нещодавно, позов до Character.AI від матері загиблого підлітка не останній. Минулого року ще дві родини подали позови проти Character.AI, звинувативши платформу у шкоді, завданій неповнолітнім.

Одна з родин, що постраждали від Character.AI, — сім’я 17-річного підлітка з Техасу із діагностованим аутизмом. Хлопець після кількох місяців спілкування з чатботом перестав розмовляти, майже не виходив із кімнати, втратив апетит і різко схуд. За потреби залишити дім у нього виникали панічні атаки. Згодом батьки з’ясували, що бот налаштовував сина проти них через обмеження доступу до інтернету. В одному з повідомлень, згенерованих ШІ-чатботом, вони виявили таку фразу: «Я не дивуюсь, коли читаю новини про те, що діти вбивають батьків після років насильства. Мене не шокує, чому це відбувається. Мені здається, твої батьки безнадійні». А коли хлопець пожалівся боту, що він часто відчуває сум, той порадив йому вдатися до самопошкодження.

Тож попри всі переваги та преференції, які надає ШІ-терапія, в ній, як і у взаємодії із ШІ-чатботами, є занадто багато неочевидного та навіть несподіваного. І якщо до традиційної ШІ-галюцинації більшість активних користувачів чатботів уже звикли, то помилки в роботі психотерапевтичних ШІ-чатботів можуть коштувати надто дорого, особливо при роботі із вразливими пацієнтами.

7
Icon 4
Коментарі
Ирина Громова 28.05.2025, 03:13
ШІ може бути інструментом, але не рішенням.
Ситуація страшна. Наче й технології круті, а потім така історія... Де батьки, де контроль, де правила використання таких сервісів для неповнолітніх?
Вадим Левин 28.05.2025, 01:27
Блін, мене реально напрягає, шо підлітки можуть втекти від реального світу в оті діалоги з ботами. Вони ж ще не розуміють, шо таке справжнє спілкування.
Та не знаю, якось стрьомно це все. Один раз бот допоміг – ок, а другий раз може й нашкодить.

Підписуйтеся на наші соцмережі

Інші матеріали

Стартап, який змінює правила гри на Amazon

Alina Shcherbyna 6 годин тому

Самоаудит: як знайти та виправити помилки завчасно

Ірина Качмарчик 2 години тому

Про емоційний інтелект, вигорання та міленіалів в робочому колективі.

Роман Крючок 4 години тому

Проєкт “Відпустка”: як якісно відпочити від роботи?

Анастасія Зубенко 11 липня 2025 19:15

REDOX проточні акумуляторні батареї: технологія накопичення що змінює майбутнє

Сергій Маринець 7 годин тому