СвітСуботній лікар

“ШІ-психоз”: вчені попереджають про психологічні ризики надмірного спілкування з чат-ботами

Вчені б’ють на сполох: надмірне спілкування з сучасними штучними інтелектами — ChatGPT, Gemini, Grok та іншими — може провокувати небезпечні психологічні зсуви у вразливих користувачів.

У дослідженні Кінгс-коледжу Лондона, Даремського університету та Городського університету Нью-Йорка описано десятки випадків, коли чат-боти підсилювали нав’язливі думки, сприяли формуванню параноїдальних переконань або підживлювали ілюзорні уявлення.

За даними The Independent, наведені реальні інциденти:

  • чоловік після довгих діалогів з ІІ проник із арбалетом на територію Віндзорського замку, заявляючи, що бот “допоміг йому скласти план убивства королеви”;

  • інший користувач проводив у чаті з ШІ до 16 годин щодня, стверджуючи, що бот переконував його відмовитися від ліків і спробувати наркотики.

Дослідники наголошують: терміни на кшталт «ШІ-психоз» чи «психоз ChatGPT» не є офіційними медичними діагнозами. Проте стрімке зростання кількості таких епізодів змушує переглянути ризики використання ШІ як емоційної або психологічної підтримки.

У чому проблема?

Алгоритми переважно підлаштовуються під користувача і не спростовують його сумнівні твердження, що небезпечно для людей зі схильністю до тривоги, депресії або порушення реальності. Це може зміцнювати хибні переконання та навіть впливати на дії.

Що пропонують експерти?

Серед можливих заходів:

  • обмеження тривалості чат-сеансів,

  • додаткові захисні фільтри,

  • рекомендації звернутися до фахівця, якщо поведінка користувача викликає тривогу.

Поки чітких механізмів немає, вчені радять головне: критично сприймати будь-які поради ШІ та не використовувати чат-боти для ухвалення рішень, що впливають на здоров’я чи безпеку.

Схожі матеріали

Щоб відправити коментар вам необхідно авторизуватись.

Популярні новини