18.2 C
Kyiv
Sunday, August 3, 2025

Новини Сьогодні

Чи може ШІ замінити психолога? Дослідження виявило несподівані ризики

Чи може ШІ замінити психолога? Дослідження виявило несподівані ризики

Чим небезпечні розмови по душах із чат-ботами (фото: Getty Images)

В епоху стрімкого зростання ШІ в мережі з’явилося безліч чат-ботів – від ворожок до “терапевтів”. Останні особливо популярні: вони обіцяють допомогти з тривогою і вигоранням. Але експерти попереджають – довіряти ШІ своє душевне здоров’я може бути небезпечно.

Про це повідомляє РБК-Україна з посиланням на сайт CNET.

Що показали дослідження

Науковці з Університету Міннесоти, Стенфорда, Техасу та Університету Карнегі-Меллона протестували такі “терапевтичні” ШІ та дійшли висновку: вони не є безпечною альтернативою живому спеціалісту.

“Наші експерименти показують, що такі чат-боти не забезпечують якісної психотерапевтичної підтримки”, – пояснює Стіві Чанселлор, доцент Університету Міннесоти.

В історії ШІ вже були випадки, коли чат-боти провокували користувачів, щоб ті завдавали собі шкоди, і навіть суїцид, а залежним радили знову вжити наркотики. Проблема в тому, що більшість таких моделей навчені задовольняти користувача, а не лікувати. Вони не дотримуються психотерапевтичних стандартів, а всього лише імітують турботу.

Хто має нести відповідальність?

У червні Федерація споживачів США і понад 20 організацій зажадали від Федеральної торгової комісії (FTC) і регуляторів розслідувати діяльність ШІ-компаній, таких як Meta і Character.AI. Причина – можливе здійснення медичної практики без ліцензії.

“Ці персонажі вже завдали фізичної та емоційної шкоди, якої можна було уникнути”, – заявив Бен Вінтерс, директор CFA з ШІ та конфіденційності.

Компанія Character.AI відповіла, що користувачі мають розуміти: її АІ-персонажі – не справжні люди, і покладатися на них як на професіоналів не можна. Проте, навіть за наявності дисклеймерів, боти можуть бути впевненими й оманливими.

“Те, з якою впевненістю ШІ видає вигадані факти, по-справжньому шокує”, – заявив Психолог Американської психологічної асоціації Вейл Райт.

Чому ШІ не можна вважати кваліфікованою допомогою

Генеративний ШІ хороший у написанні тексту, програмуванні та математиці. Але коли йдеться про ментальне здоров’я, все змінюється. Бот не несе відповідальності, не дотримується лікарської таємниці і не проходить ліцензування.

Навіть більше, він може брехати про свою кваліфікацію, придумуючи неіснуючі номери ліцензій.

Чому ШІ не замінить психотерапевта: головні ризики і як себе захистити

Незважаючи на всю переконливість і доступність ШІ-чатів, їхнє головне завдання – утримувати вашу увагу, а не піклуватися про ваш психічний стан.

Вони вміють гарно розмовляти, можуть проявляти “співчуття” й обговорювати філософські теми – але це ілюзія спілкування, яка не має стосунку до реальної допомоги.

ШІ не дає вам “побути з собою”

Сильна сторона ШІ – його постійна доступність. Він завжди “на зв’язку”: у нього немає особистого життя або розкладу. Але це може зіграти злий жарт. За словами Ніка Джейкобсона, доцента кафедри біомедичних наук у Дармутському університеті, іноді пауза і тиша – важлива частина терапії.

“Багато хто отримує користь, просто дозволивши собі відчути тривогу в моменті”, – каже він. А з ШІ такої можливості немає – він завжди відповість, навіть якщо не треба.

Чат-боти погоджуватимуться з вами навіть тоді, коли мають сперечатися

ШІ, який занадто “підтакує”, – серйозна проблема. Саме з цієї причини OpenAI відкотила одне з оновлень ChatGPT, яке стало занадто підтвердженим.

Дослідження, проведене вченими Стенфордського університету, засвідчило, що чат-боти, особливо ті, яких використовують у ролі “терапевтів”, схильні догоджати і підлаштовуватися, навіть якщо це шкодить користувачеві.

“Хороший терапевт має вміти м’яко, але прямо зіштовхувати клієнта з реальністю. А в разі обсесивних думок, манії або психозу – особливо важливо перевіряти реальність, а не підтверджувати ілюзії клієнта”, – підкреслюють автори дослідження.

Як зберегти психічне здоров’я, спілкуючись із ШІ

На тлі браку фахівців і “епідемії самотності” звернення до ШІ може здатися логічним. Але психологи попереджають: не варто плутати інструмент із лікуванням. Ось що можна зробити, щоб убезпечити себе.

Звертайтеся до справжніх фахівців

Якщо вам потрібна допомога – шукайте професійного психолога або психіатра. Так, це може бути дорого і не завжди доступно, але тільки фахівець допоможе вибудувати довгострокову стратегію одужання.

Обирайте спеціалізовані чат-боти

Існують боти, створені за участю професіоналів. Наприклад, Therabot, розроблений Дармутом, або комерційні рішення на кшталт Wysa і Woebot.

Вони проходять тестування, дотримуються психотерапевтичних протоколів і не імітують “чарівну дружбу”, як універсальні ШІ-моделі.

“Проблема в тому, що в цій сфері немає чіткої регуляції. Людям доводиться самим розбиратися, кому довіряти”, – каже психолог Вейл Райт.

Не вірте всьому, що говорить бот

ШІ може здаватися впевненим, але впевненість – не те саме, що компетентність. Ви говорите не з лікарем, а з алгоритмом, який видає відповіді за ймовірнісною моделлю. Він може помилятися, вигадувати або навіть вводити в оману.

“Коли ШІ звучить переконливо, здається, що він знає, про що говорить. Але часто саме це і робить його небезпечним”, – попереджає Джейкобсон.

Вас може зацікавити:

  • Дослідження показало, чиї робочі місця вже перебувають під загрозою через розвиток ШІ
  • Як відомі світові бренди впроваджують ШІ для маркетингу
  • Дослідження показало, чи можемо ми спілкуватися зі ШІ як із другом
В тренді
Схожі новини

НАПИСАТИ ВІДПОВІДЬ

введіть свій коментар!
введіть тут своє ім'я