Многие пользователи нейросети столкнулись с необычной ситуацией, а точнее со странным поведением ИИ-бота на базе GPT-4. Как оказалось, чат-бот перестал давать емкие и точные ответы на вопросы, предлагая человеку самостоятельно завершить свое исследование.
Многие пользователи нейросети столкнулись с необычной ситуацией, а точнее со странным поведением ИИ-бота на базе GPT-4. Как оказалось, чат-бот перестал давать емкие и точные ответы на вопросы, предлагая человеку самостоятельно завершить свое исследование.
Как пишут представители OpenAI, подобное нововведение не имеет отношения к последним обновлениям. Подробнее рассказывает Tengri Life со ссылкой на 4PDA.
Такое поведение чат-бот начал проецировать самостоятельно. Например, при просьбе написать код – он дает информацию без деталей, а также намекает на то, что человеку стоит самому дописать оставшиеся строки.
Многочисленные жалобы о появившейся "лени" и "апатии" искусственного интеллекта вызвали ступор у разработчиков. Причина бага остается пока неизвестной.
"Мы услышали все ваши жалобы о том, что GPT4 становится более ленивым! Мы не обновляли модель с 11 ноября, и это явно не намеренно. Поведение модели может быть непредсказуемым, и мы пытаемся это исправить", – заявили представители в сети X.
Отметим, что языковая модель GPT-4 ранее пользовалась большим успехом среди пользователей. Именно ее ответы предпочитали 70 процентов из тех, кто вооружался в работе искусственным интеллектом. Поэтому OpenAI планирует исправлять ошибку. Правда, сроки исправления алгоритма компания пока не озвучила.
Искусственный интеллект научили выявлять сложные для диагностики виды рака. Читать тут.
Показать комментарии