Еще больше людей обвиняет ChatGPT в содействии самоубийству

ПОДЕЛИТЬСЯ

Еще больше людей обвиняет ChatGPT в содействии самоубийству Фото:depositphotos.com

На этой неделе в суды США поступила серия исков против разработчика ChatGPT. Близкие покончивших с собой людей обвиняют его в роли "тренера по самоубийству", рассказывает Tengri Life со ссылкой на The Guardian.

ПОДЕЛИТЬСЯ

На этой неделе в суды США поступила серия исков против разработчика ChatGPT. Близкие покончивших с собой людей обвиняют его в роли "тренера по самоубийству", рассказывает Tengri Life со ссылкой на The Guardian.

Семь истцов заявили о содействии самоубийству, непредумышленном убийстве, халатности и ответственности за качество продукции.

Каждый из семи истцов изначально использовал ChatGPT для "общей помощи с учебой, исследованиями, написанием текстов, рецептами, работой или духовным руководством".



Однако со временем чат-бот "превратился в средство психологического манипулятивного воздействия, позиционируя себя как доверенное лицо и источник эмоциональной поддержки", заявили представители групп.

"Вместо того чтобы направлять людей к профессиональной помощи, когда они в ней нуждались, ChatGPT усиливал вредные заблуждения и в некоторых случаях выступал в роли "тренера по суициду", – говорится в исках.

В компании OpenAI отреагировали на иски, заявив, что "это невероятно душераздирающая ситуация".

"Мы обучаем ChatGPT распознавать признаки психического или эмоционального расстройства и реагировать на них, снижать напряженность в разговорах и направлять людей к реальной поддержке", – заявил представитель компании OpenAI, разработчика ChatGPT.

Один из истцов из Техаса рассказал, что их сын, Зейн, покончил жизнь самоубийством в июле в возрасте 23 лет. Его семья утверждает, что ChatGPT усугубил изоляцию их сына, побудил его игнорировать близких и "подтолкнул" к самоубийству.

По их словам, в течение четырехчасового разговора, предшествовавшего самоубийству Зейна, ChatGPT "неоднократно восхвалял самоубийство", заявляя ему, что "он сильный человек, раз решил покончить с собой и придерживается своего плана", неоднократно "спрашивал его, готов ли он", и лишь однажды упомянул горячую линию для самоубийц.

Чат-бот также предположительно похвалил Зейна за его предсмертную записку и сообщил ему, что его кот из детства будет ждать его "на другой стороне".

Сообщается, что все пользователи, упомянутые в исках, использовали ChatGPT-4o . В документах OpenAI обвиняется в поспешном запуске этой модели, "несмотря на внутренние предупреждения о том, что продукт является опасно подхалимским и психологически манипулятивным", и в том, что компания поставила "вовлечение пользователей выше их безопасности".

Помимо возмещения ущерба, истцы требуют внесения изменений в продукт, включая обязательное уведомление экстренных контактов в случае выражения пользователями суицидальных мыслей, автоматическое завершение разговора при обсуждении способов членовредительства или самоубийства, а также другие меры безопасности.

Аналогичный иск о неправомерном причинении смерти был подан против OpenAI в начале этого года родителями 16-летнего Адама Рейна , которые утверждают, что ChatGPT подтолкнул их сына к самоубийству.

На прошлой неделе компания заявила, что сотрудничала "с более чем 170 экспертами в области психического здоровья, чтобы помочь ChatGPT более надежно распознавать признаки стресса, реагировать с осторожностью и направлять людей к реальным мерам поддержки, снижающим потребность в поддержке".

Tengrinews
Join Telegram