“Обманывает“ в половине случаев: разработчики усомнились в ИИ

Бахытжан Муратбеков Корреспондент
Иконка просмотров страница
Иконка комментария страница

ПОДЕЛИТЬСЯ

GPT может звучать уверенно, но означает ли это, что он всегда прав? В OpenAI провели внутренние проверки, чтобы выяснить, насколько точны и достоверны ответы искусственного интеллекта, подробнее - на Tengri Life со ссылкой на SkyNews.


GPT может звучать уверенно, но означает ли это, что он всегда прав? В OpenAI провели внутренние проверки, чтобы выяснить, насколько точны и достоверны ответы искусственного интеллекта, подробнее - на Tengri Life со ссылкой на SkyNews.

В мире ИИ снова тревожные новости. На днях журналисты Sky News поймали ChatGPT на фейках: он выдумал целые стенограммы подкаста "Политика у Сэма и Энн". Когда редакцию уличили в подделке, те не сразу признали ошибку, но под давлением пришлось сдаться и признаться.

Но это не единичный случай. По данным самого OpenAI, ситуация с "галлюцинациями" у ИИ ухудшается. Внутренние тесты показали: новая версия модели o4-mini выдает недостоверную информацию почти в каждом втором ответе в 48 процентах случаев.

Реклама
Реклама

Даже предыдущая модель (o3) ошибалась в 33 процентах запросов, когда речь шла о проверяемых фактах.

В OpenAI признали, что переход на новую модель GPT-4o, похоже, "случайно усилил" эффект, который пользователи называют "блефом". Это когда ChatGPT отвечает слишком уверенно - даже если на самом деле ошибается или не знает точного ответа. При этом он не показывает ни тени сомнения, что может ввести в заблуждение и создать ложное ощущение достоверности.


Фото: depositphotos.com

В OpenAI объяснили, почему новая модель GPT-4o иногда может показаться слишком уверенной, даже если не до конца права. Всего назвали четыре причины:

  • натуральная подача: GPT-4o звучит более плавно и естественно, как настоящий человек. Это делает ответы приятнее на слух, но при этом даже небольшие ошибки могут восприниматься как уверенное утверждение, а не простая неточность;
  • быстрее, но не всезнайка: модель стала умнее и шустрее, но все еще может не знать некоторых фактов. В таких случаях она заполняет пробелы, выдавая ответ с уверенностью - это и называют "галлюцинацией";
  • меньше осторожности в формулировках: раньше модель чаще говорила "я не уверен" или "возможно, я ошибаюсь". Сейчас таких вставок меньше, чтобы тексты были короче и легче читались - но это может создавать впечатление, что она все знает точно;
  • особенности настройки: в процессе доработки GPT-4o разработчики сосредоточились на скорости, уверенности и понятности. Это могло временно изменить баланс между точностью и подачей, и они продолжают работать над улучшениями.

Но можно ли доверять даже этим объяснениям? Точного ответа нет. Одно ясно: разработчики стараются сделать ИИ все более "человечным" - не просто помощником, а чем-то, с чем хочется говорить, кому хочется верить.

Ранее мы писали, что ChatGPT вошел в первую пятерку самых посещаемых сайтов мира. Такие данные приводит аналитическая компания из Израиля.

Напомним, ранее в Министерстве цифрового развития, инноваций и аэрокосмической промышленности высказались об ограничении на использование популярной нейросети ChatGPT для государственных служащих.

TengriLife
Показать комментарии

Читайте также
Реклама
Реклама
Лого TengriNews мобильная Лого TengriEdu мобильная Лого TengriSport мобильная Лого TengriLife мобильная
Реклама
Реклама