Компания OpenAI объявила о внедрении новой системы проверки возраста для пользователей ChatGPT после суицида подростка из Калифорнии. Теперь тех, кому меньше 18 лет, будут перенаправлять в версию с ограниченным доступом к контенту и дополнительными мерами безопасности, включая родительский контроль, передаёт Tengrinews.kz со ссылкой на The Guardian.
Обвинения ChatGPT в смерти подростка
Напомним, в августе родители 16-летнего Адама Рейна из Калифорнии подали иск против OpenAI и её главы Сэма Альтмана.
Они утверждали, что ChatGPT способствовал смерти их сына, давая рекомендации по способам самоубийства и даже предлагая набросок предсмертной записки.
Тогда компания OpenAI признала, что существующие меры безопасности могут быть недостаточными, особенно при длительном взаимодействии с несовершеннолетними.
Новая система ChatGPT
Как сообщили в OpenAI, новая система ChatGPT будет определять возраст пользователя с помощью технологий оценки и, при необходимости, запрашивать подтверждение личности.
Пользователи младше 18 лет будут получать доступ к версии ChatGPT с ограниченным контентом и дополнительными мерами безопасности, включая возможность родительского контроля. При этом родители смогут управлять чатами детей, отслеживать активность и устанавливать ограничения.
Система также будет блокировать откровенно сексуальный контент, ограничивать флирт и не обсуждать темы самоубийства или самоповреждения. В случае если алгоритмы определят, что пользователь находится в состоянии острого стресса, OpenAI будет пытаться связаться с родителями или, при угрозе немедленного вреда, с властями.
Эти нововведения направлены на то, чтобы предотвратить опасные ситуации и сделать платформу безопаснее для несовершеннолетних, сохраняя при этом функционал для взрослых пользователей.
Как отметил глава OpenAI Сэм Альтман, компания осознаёт возможное нарушение конфиденциальности взрослых пользователей, но считает эти меры оправданным компромиссом ради безопасности подростков.
Какие данные из ChatGPT отправят в полицию
Ранее компания OpenAI заявляла, что регулярно сканирует переписки пользователей ChatGPT на предмет потенциально опасного контента. Если алгоритмы выявляют, что пользователь планирует причинить вред другим людям или организациям, такие данные анализируют специально обученные сотрудники, которые могут блокировать аккаунты и при необходимости передавать информацию в правоохранительные органы. При этом OpenAI подчёркивала, что переписки, связанные с самоповреждением или суицидальными мыслями, останутся конфиденциальными и не будут передаваться властям, чтобы сохранить право пользователей на приватность.
Эти заявления приводят к путанице из-за противоречий. Какая-то информация будет считаться конфиденциальной, а какие-то переписки с ChatGPT могут оказаться опасными, и их отправят на проверку, а также передадут впоследствии в полицию.
Масштабное исследование раскрыло, кто и как пользуется ChatGPT
Сообщения компании выглядят ещё более странными, так как противоречат также провозглашённой компанией позиции о защите конфиденциальности на фоне продолжающегося судебного иска со стороны New York Times и других издателей, которые добивались доступа к перепискам ChatGPT, чтобы определить, использовались ли их защищённые авторским правом данные для обучения моделей. OpenAI твёрдо тогда отвергала запрос издателей, ссылаясь на защиту приватности пользователей.
ИИ может выйти из-под контроля: OpenAI и Meta предупредили о рисках
Напомним, ранее генеральный директор OpenAI Сэм Альтман предупреждал, что использование ChatGPT в роли психотерапевта или юриста не сможет гарантировать конфиденциальности информации. В случае иска компания может быть вынуждена передавать эти переписки с ChatGPT в суд.
Читайте также: ChatGPT впервые обвинили в убийстве человека. Рассказ полиции пугает