Зависимость от “утешений“: не обсуждать своё здоровье с ChatGPT советуют специалисты

ПОДЕЛИТЬСЯ

Зависимость от “утешений“: не обсуждать своё здоровье с ChatGPT советуют специалисты Фото:depositphotos.com

Люди "подсаживаются" на консультации в ChatGPT и других чат-ботов на базе искусственного интеллекта для обсуждения различных вопросов, в том числе касающихся здоровья. Такое общение ещё больше усугубляет состояние некоторых людей, передаёт Tengri Health со ссылкой на The Atlantic.


Люди "подсаживаются" на консультации в ChatGPT и других чат-ботов на базе искусственного интеллекта для обсуждения различных вопросов, в том числе касающихся здоровья. Такое общение ещё больше усугубляет состояние некоторых людей, передаёт Tengri Health со ссылкой на The Atlantic.

Журналисты The Atlantic собрали мнения четырех терапевтов о неприемлемых способах использования ИИ-клиентами: специалисты считают, что чат-боты могут подталкивать людей к постоянному поиску подтверждений своего "безнадежного состояния", усиливая тревожность и компульсивное поведение.

По словам психолога Лизы Левин, специализирующейся на тревожных расстройствах и ипохондрии, быстрые и персонализированные ответы чат-ботов вызывают у клиентов больше доверия, чем результаты в Google, "выводя ситуацию на новый уровень".

Эксперты отмечают, что тревожность по поводу здоровья может затрагивать до 12 процентов населения, а иные формы тревоги нередко усугубляются обращением к чат-ботам. Лучшие терапевтические практики предполагают развитие доверия к себе, принятие неопределённости и отказ от постоянного поиска подтверждений. Однако, по их словам, ChatGPT круглосуточно предлагает персонализированное утешение, подпитывая расстройство и превращая такие беседы в новую форму компульсии.

Глава OpenAI Сэм Альтман в октябре прошлого года заявлял о смягчении серьёзных проблем с психическим здоровьем, связанных с ChatGPT. По его словам, эти проблемы касаются "очень небольшого процента пользователей, находящихся в состоянии психической нестабильности".

Во время презентации GPT-5 Альтман назвал разговоры о здоровье одним из самых эффективных сценариев для ChatGPT. По данным OpenAI, более 40 миллионов человек ежедневно запрашивают у чат-бота медицинскую информацию. В январе компания запустила ChatGPT Health, поощряя загрузку медицинских документов, результатов анализов и данных из приложений для обсуждения состояния. В OpenAI полагают, что такие беседы помогают пользователям "чувствовать себя более информированными, подготовленными и уверенными в вопросах здоровья".

Издание напоминает, что против OpenAI поданы иски с обвинениями в том, что ChatGPT способствует психическим срывам, бредовым состояниям и самоубийствам. В то же время есть пользователи, утверждающие, что ИИ их успокаивает — именно эта группа, по словам психологов, вызывает наибольшее беспокойство, поскольку тревога о здоровье часто функционирует как форма ОКР с навязчивыми "проверками" и поиском разубеждений.

Один из специалистов предложил техническое ограничение: "запрограммировать" чат-бот так, чтобы он позволял задавать вопросы о тревоге за здоровье только один раз, предотвращая втягивание в длительные разговоры. Журналистка The Atlantic протестировала подобный подход: ChatGPT признавал лимит, но продолжал побуждать к обсуждению и позволял задавать новые вопросы, одновременно льстя собеседнице. В другом диалоге, несмотря на серию тревожных вопросов и совет обратиться к врачу, каждый ответ заканчивался приглашением продолжить разговор.

"ИИ вызывает откат". Казахстанская психолог предупредила о рисках общения с ChatGPT.

TengriEdu