Многие пользователи нейросети столкнулись с необычной ситуацией, а точнее со странным поведением ИИ-бота на базе GPT-4. Как оказалось, чат-бот перестал давать емкие и точные ответы на вопросы, предлагая человеку самостоятельно завершить свое исследование.
Многие пользователи нейросети столкнулись с необычной ситуацией, а точнее со странным поведением ИИ-бота на базе GPT-4. Как оказалось, чат-бот перестал давать емкие и точные ответы на вопросы, предлагая человеку самостоятельно завершить свое исследование.
Как пишут представители OpenAI, подобное нововведение не имеет отношения к последним обновлениям. Подробнее рассказывает Tengri Life со ссылкой на 4PDA.
Такое поведение чат-бот начал проецировать самостоятельно. Например, при просьбе написать код – он дает информацию без деталей, а также намекает на то, что человеку стоит самому дописать оставшиеся строки.
Многочисленные жалобы о появившейся "лени" и "апатии" искусственного интеллекта вызвали ступор у разработчиков. Причина бага остается пока неизвестной.
"Мы услышали все ваши жалобы о том, что GPT4 становится более ленивым! Мы не обновляли модель с 11 ноября, и это явно не намеренно. Поведение модели может быть непредсказуемым, и мы пытаемся это исправить", – заявили представители в сети X.
we've heard all your feedback about GPT4 getting lazier! we haven't updated the model since Nov 11th, and this certainly isn't intentional. model behavior can be unpredictable, and we're looking into fixing it 🫡
— ChatGPT (@ChatGPTapp) December 8, 2023
Отметим, что языковая модель GPT-4 ранее пользовалась большим успехом среди пользователей. Именно ее ответы предпочитали 70 процентов из тех, кто вооружался в работе искусственным интеллектом. Поэтому OpenAI планирует исправлять ошибку. Правда, сроки исправления алгоритма компания пока не озвучила.
Искусственный интеллект научили выявлять сложные для диагностики виды рака. Читать тут.