• facebook
  • twitter
  • telegram
  • whatsapp
поделились
Фото:depositphotos.com
Фото:depositphotos.com

ChatGPT научился лениться и игнорировать запросы пользователей

12 декабря 2023 17:32
Image
6

Многие пользователи нейросети столкнулись с необычной ситуацией, а точнее со странным поведением ИИ-бота на базе GPT-4. Как оказалось, чат-бот перестал давать емкие и точные ответы на вопросы, предлагая человеку самостоятельно завершить свое исследование.

Как пишут представители OpenAI, подобное нововведение не имеет отношения к последним обновлениям. Подробнее рассказывает Tengri Life со ссылкой на 4PDA.

Такое поведение чат-бот начал проецировать самостоятельно. Например, при просьбе написать код – он дает информацию без деталей, а также намекает на то, что человеку стоит самому дописать оставшиеся строки.

Многочисленные жалобы о появившейся "лени" и "апатии" искусственного интеллекта вызвали ступор у разработчиков. Причина бага остается пока неизвестной.

"Мы услышали все ваши жалобы о том, что GPT4 становится более ленивым! Мы не обновляли модель с 11 ноября, и это явно не намеренно. Поведение модели может быть непредсказуемым, и мы пытаемся это исправить", – заявили представители в сети X.

Отметим, что языковая модель GPT-4 ранее пользовалась большим успехом среди пользователей. Именно ее ответы предпочитали 70 процентов из тех, кто вооружался в работе искусственным интеллектом. Поэтому OpenAI планирует исправлять ошибку. Правда, сроки исправления алгоритма компания пока не озвучила.

Искусственный интеллект научили выявлять сложные для диагностики виды рака. Читать тут.

Қазнеттің басты жаңалықтары, жұлдыздардың өмірі және лайфхактар – барлығын Massaget.kz сайтынан таба аласыз. Қазақ тіліндегі жаңалықтарды оқып, талқылаңыз!




ПРЕДЫДУЩАЯ СТАТЬЯ
Как продать квартиру и купить "дом мечты", рассказала казахстанка
СЛЕДУЮЩАЯ СТАТЬЯ
"Виноват автозапуск"? Машина сгорела в Астане

Похожие новости

counter.yadro.ru