Пользователь скачал сообщения из группового чата со своими друзьями, чтобы затем модель ИИ имитировала это общение. Разработка, которую назвали "Робопарни", довольно хорошо справилась со своей задачей. Об этом сообщает McToday, передает Tengri Life.
Пользователь скачал сообщения из группового чата со своими друзьями, чтобы затем модель ИИ имитировала это общение. Разработка, которую назвали "Робопарни", довольно хорошо справилась со своей задачей. Об этом сообщает McToday, передает Tengri Life.
Специалист по анализу данных Иззи Миллер загрузил 500 тысяч сообщений из семилетнего группового чата, в котором общались шесть друзей.
Миллер отсортировал сообщения по авторам и дал задачу модели воспроизвести личность каждого участника. Для этого он использовал модель LLaMA от Meta. Она примерно такая же мощная, как и от OpenAI. Недавно она вляпалась в скандал из-за того, что попала в открытый доступ. Этим и пользовался Миллер.
"Робопарни" vs реальные парни
Когда модель научилась работать с сообщениями, пользователь добавил ее в клон группового чата с его друзьями.
Интересно, что "робопарни" очень удачно имитировали общение реальных людей. Настоящим даже приходилось проверять предыдущие сообщения, чтобы убедиться, что ИИ генерирует текст самостоятельно, а не просто копирует его из истории переписки.
Но не все так хорошо. У нейросети возникают проблемы с разделением личностей. Дело в том, что он может путать факты, относящиеся к одному человеку и приписывать их другому. Кроме того, у него проблемы с хронологией. К примеру, предыдущее место работы может называть настоящим. То есть данные изучил, но просто запутался в них.
Еще интересная ошибка: модель часто вела себя так, словно "робопарни" сейчас учатся в колледже, хотя это неправда. Миллер объяснил это тем, что именно в период обучения чат был наиболее активным.
Этот проект показал мощность чат-ботов и их возможности. Многих беспокоят подобные разработки. Так, некоторые пользователи считают, что технологии смогут использовать большие техкомпании, для того чтобы создать цифровые копии пользователей. Также, по их мнению, это будет способствовать социальной изоляции. Однако Миллер уверен, что боты могут только имитировать настоящих людей, но не смогут их заменить.
Ранее мы рассказывали о 19-секундном YouTube-ролике, который принес автору 64 миллиона долларов.