counter.yadro.ru

“Обманывает“ в половине случаев: разработчики усомнились в ИИ

Бахытжан Муратбеков Корреспондент
Иконка просмотров страница Иконка комментария страница

ПОДЕЛИТЬСЯ

“Обманывает“ в половине случаев: разработчики усомнились в ИИ: 2025-06-10 08:12:00 - прочитайте

GPT может звучать уверенно, но означает ли это, что он всегда прав? В OpenAI провели внутренние проверки, чтобы выяснить, насколько точны и достоверны ответы искусственного интеллекта, подробнее - на Tengri Life со ссылкой на SkyNews.


Иконка комментария блок соц сети

GPT может звучать уверенно, но означает ли это, что он всегда прав? В OpenAI провели внутренние проверки, чтобы выяснить, насколько точны и достоверны ответы искусственного интеллекта, подробнее - на Tengri Life со ссылкой на SkyNews.

В мире ИИ снова тревожные новости. На днях журналисты Sky News поймали ChatGPT на фейках: он выдумал целые стенограммы подкаста "Политика у Сэма и Энн". Когда редакцию уличили в подделке, те не сразу признали ошибку, но под давлением пришлось сдаться и признаться.

Но это не единичный случай. По данным самого OpenAI, ситуация с "галлюцинациями" у ИИ ухудшается. Внутренние тесты показали: новая версия модели o4-mini выдает недостоверную информацию почти в каждом втором ответе в 48 процентах случаев.

Даже предыдущая модель (o3) ошибалась в 33 процентах запросов, когда речь шла о проверяемых фактах.

В OpenAI признали, что переход на новую модель GPT-4o, похоже, "случайно усилил" эффект, который пользователи называют "блефом". Это когда ChatGPT отвечает слишком уверенно - даже если на самом деле ошибается или не знает точного ответа. При этом он не показывает ни тени сомнения, что может ввести в заблуждение и создать ложное ощущение достоверности.


Фото: depositphotos.com

В OpenAI объяснили, почему новая модель GPT-4o иногда может показаться слишком уверенной, даже если не до конца права. Всего назвали четыре причины:

  • натуральная подача: GPT-4o звучит более плавно и естественно, как настоящий человек. Это делает ответы приятнее на слух, но при этом даже небольшие ошибки могут восприниматься как уверенное утверждение, а не простая неточность;
  • быстрее, но не всезнайка: модель стала умнее и шустрее, но все еще может не знать некоторых фактов. В таких случаях она заполняет пробелы, выдавая ответ с уверенностью - это и называют "галлюцинацией";
  • меньше осторожности в формулировках: раньше модель чаще говорила "я не уверен" или "возможно, я ошибаюсь". Сейчас таких вставок меньше, чтобы тексты были короче и легче читались - но это может создавать впечатление, что она все знает точно;
  • особенности настройки: в процессе доработки GPT-4o разработчики сосредоточились на скорости, уверенности и понятности. Это могло временно изменить баланс между точностью и подачей, и они продолжают работать над улучшениями.

Но можно ли доверять даже этим объяснениям? Точного ответа нет. Одно ясно: разработчики стараются сделать ИИ все более "человечным" - не просто помощником, а чем-то, с чем хочется говорить, кому хочется верить.

Ранее мы писали, что ChatGPT вошел в первую пятерку самых посещаемых сайтов мира. Такие данные приводит аналитическая компания из Израиля.

Напомним, ранее в Министерстве цифрового развития, инноваций и аэрокосмической промышленности высказались об ограничении на использование популярной нейросети ChatGPT для государственных служащих.

Tengrinews
Join Telegram Последние новости
Лого TengriNews мобильная Лого TengriLife мобильная Лого TengriSport мобильная Лого TengriEdu мобильная Иконка меню мобильная