Упс! Не вдала спроба:(
Будь ласка, спробуйте ще раз.

Штучний інтелект — емпат чи психопат?

Анна Сергієнко
Анна Сергієнко Журналістка SPEKA
27 березня 2024 7 хвилин читання

Професорка філософії Геттінгенського університету імені Георга-Августа Катрін Міссельхорн розповідає, чи справді штучний інтелект здатний до емпатії. SPEKA публікує адаптований переклад  статті The Conversation.

Емпатичний ШІ

Перетин штучного інтелекту та сфери психічного здоров’я викликає неабиякий інтерес. В умовах зростального попиту на психологічну підтримку штучний інтелект має багатообіцяльні можливості для підтримання тих, хто її потребує. В основі цієї технологічної еволюції лежить концепція емпатичного ШІ — зміна парадигми, яка надає пріоритет розумінню, емпатії та емоційному інтелекту у взаємодії між людиною і машиною. Дехто навіть вважає, що ШІ краще за людину проявляє емпатію. І це не просто заяви компаній у маркетингових цілях. Емпіричні дослідження показують, що люди оцінюють письмові поради від ChatGPT у питаннях здоров’я як більш емпатичні, ніж поради деяких лікарів. Та чи є це ознакою того, що ШІ справді здатний до емпатії?

Що таке емпатія?

Катрін Міссельхорн, як психологічно обізнана філософиня, визначає справжню емпатію за трьома критеріями:

  • Конгруентність, або узгодженість, почуттів: емпатія вимагає, щоб людина, яка співпереживає, відчувала, як це — переживати емоції іншої людини у конкретній ситуації. Це відрізняє емпатію від раціонального розуміння емоцій.
  • Асиметрія: емпатична людина відчуває емоцію лише тому, що її відчуває інша людина, і вона більше відповідає ситуації іншої людини, ніж її власній. З цієї причини емпатія не є просто спільною емоцією, як, наприклад, спільна радість батьків за успіхи своїх дітей, де умова асиметрії не виконується.
  • Усвідомлення іншого: має бути бодай елементарне усвідомлення того, що емпатія стосується почуттів іншої людини. Це пояснює різницю між емпатією та емоційним зараженням, яке відбувається, якщо хтось підхоплює почуття або емоцію, як, наприклад, застуду. Так трапляється, коли діти починають плакати після того, як побачили плач інших.

Штучний інтелект емпатичний чи психопатичний?

Підписуйтеся на наші соцмережі

Зважаючи на визначення, можна стверджувати, що штучні системи не можуть відчувати емпатію. Вони не знають, як це — відчувати щось, а отже, не можуть виконати умову конгруентності (узгодженості). Тож питання про те, чи відповідають їхні почуття умовам асиметрії та усвідомлення іншого, навіть не постає.

Що можуть робити штучні системи, то це розпізнавати емоції на основі виразу обличчя, голосових сигналів, фізіологічних патернів або емоційних сенсів. А також імітувати емпатичну поведінку за допомогою мови або інших способів вираження емоцій.

Таким чином, штучні системи демонструють схожість з тими, кого ми називаємо психопатами: попри те що вони не здатні відчувати емпатію, вони можуть розпізнавати емоції за об’єктивними ознаками, імітувати емпатію та використовувати цю здатність з маніпулятивною метою.

ШІ може розпізнавати емоції за об’єктивними ознаками / Robotics 24 ШІ може розпізнавати емоції за об’єктивними ознаками / Robotics 24

Імітація емпатії у контексті догляду та психотерапії

Штучний інтелект використовують для турботи та психотерапії, аби поліпшити самопочуття людей. І можна подумати, що використання ШІ, який імітує емпатію, у цих сферах, це, безумовно, добре. Хіба штучні системи не були б чудовими доглядальниками та соціальними компаньйонами для літніх людей, люблячими партнерами для людей з обмеженими можливостями або ідеальними психотерапевтами, які мають перевагу бути доступними 24 години на добу 7 днів на тиждень?

Такі питання зрештою стосуються того, що означає бути людиною. Чи достатньо самотній, старій або психічно хворій людині проєктувати емоції на артефакт, позбавлений почуттів, чи людині важливо відчувати визнання себе та своїх страждань у міжособистісних стосунках?

Повага чи технології?

З етичної точки зору це питання поваги: чи є хтось, хто емпатично визнає потреби і страждання людини як такої. Без визнання від іншого суб’єкта людина, яка потребує догляду, спілкування чи психотерапії, сприймається як просто об’єкт. Використання ШІ, що імітує емпатію, у догляді та психотерапії — це ще один випадок технологічного солюціонізму, тобто наївного припущення, що для кожної проблеми, зокрема самотності та психічних неполадок, існує технологічне рішення. 

Передання цих проблем штучним системам заважає нам побачити соціальні причини самотності та психічних розладів у ширшому контексті суспільства.

Хоча терапевти та доглядальниці із штучним інтелектом швидко набирають популярність, було б помилкою вважати їхню поведінку емпатійною. Міріам Доерр Мартін Фроммхерц / Shutterstock Хоча терапевти та доглядальниці із штучним інтелектом швидко набирають популярність, було б помилкою вважати їхню поведінку емпатійною. Міріам Доерр Мартін Фроммхерц / Shutterstock

Крім того, створення штучних систем, які виглядають як хтось або щось, що має емоції та відчуває емпатію, уже передбачає маніпулятивний характер. Оскільки такі системи звертаються до підсвідомих механізмів антропоморфізації (олюднення). Цей факт також використовують у комерційних застосунках, щоб змусити користувачів розблокувати платний преміумрівень

Це особливо проблемно для вразливих груп. Проте і ті люди, які не належать до вразливих груп і чудово розуміють, що штучна система не має почуттів, однаково будуть реагувати на неї так, ніби вона ними наділена.

Емпатія до штучних систем як до людей

Люди реагують емпатією на штучні системи, які демонструють певні людські чи тваринні характеристики. Цей процес значною мірою ґрунтується на механізмах сприйняття, які не доступні для свідомості. Сприйняття ознаки того, що інший індивід переживає певну емоцію, викликає відповідну емоцію у спостерігача. 

Дані МРТ мозку показують, що, коли люди відчувають емпатію до роботів, активуються такі самі нейронні структури, як і емпатії до людей.

Хоча емпатія не є обов’язковою для моралі, вона відіграє важливу моральну роль. З цієї причини наша емпатія до людиноподібних (або твариноподібних) роботів накладає принаймні непрямі моральні обмеження на те, як ми маємо поводитися з цими машинами.

Чи означає це, що ми повинні створити лігу захисту прав роботів? Це було б передчасно, оскільки роботи самі по собі не мають моральних претензій. Співчуття до роботів лише опосередковано має стосунок до моралі. Але ми повинні ретельно обміркувати, чи дійсно нам потрібні роботи, які імітують і викликають емпатію у людей, і якщо так, то у яких сферах. Оскільки ми ризикуємо спотворити або навіть зруйнувати наші соціальні практики, якщо такі роботи будуть надто популярними.

Підписуйтеся на наші соцмережі

50 UAH 150 UAH 500 UAH 1000 UAH 3000 UAH 5000 UAH
0
Прокоментувати
Інші матеріали

Трамп оголосить про інвестиції на $500 млрд в інфраструктуру штучного інтелекту

Вікторія Рудзінська 14 годин тому

Топ 20 ШІ-інструментів для маркетинг- та бізнес-завдань від Go Global

Natali Trubnikova 22 години тому

Трамп скасував указ про штучний інтелект від Байдена: деталі

Владислав Паливода 23 години тому

Ці тренди штучного інтелекту будуть ключовими у 2025 році — дослідження TechStartups

Anton Dronov 21 січня 2025 10:55

Фільми «Емілія Перес» і «Бруталіст» використовують технологію respeecher

Вікторія Рудзінська 20 січня 2025 23:28