Раньше технологией создания дипфейков владели только опытные эксперты по искусственному интеллекту и спецэффектам. Однако новые программы позволяют обычному пользователю подделать внешность, движения и речь людей на основе фото и видео - количество опасностей, возникающих из-за этого, начиная с кражи персональных данных, перечислить невозможно. TengriMIX со ссылкой на "Популярную механику" расскажет, какую технологию разработали, чтобы помочь людям защититься от манипуляций в Сети.
Раньше технологией создания дипфейков владели только опытные эксперты по искусственному интеллекту и спецэффектам. Однако новые программы позволяют обычному пользователю подделать внешность, движения и речь людей на основе фото и видео - количество опасностей, возникающих из-за этого, начиная с кражи персональных данных, перечислить невозможно. TengriMIX со ссылкой на "Популярную механику" расскажет, какую технологию разработали, чтобы помочь людям защититься от манипуляций в Сети.
Ученые из Бостонского университета считают, что интернет-пользователи не защищены от распространения технологий дипфейков (методика создания изображения, основанная на искусственном интеллекте), что способно привести к серьезным последствиям. Поэтому они создали специальный алгоритм для защиты видео и фото.
С помощью программы они покрывают фото и видео невидимым фильтром, что предотвращает их изменение и корректировку. Когда злоумышленник пытается использовать нейронную сеть для работы с этими медиафайлами, то они либо остаются неизменными, либо полностью искажаются - встроенный фильтр отображает пиксели таким образом, что изображение становится неузнаваемым и непригодным для изготовления дипфейков.
©Скриншот из видео
Соавтор алгоритма Натаниэла Руиза отмечает, что идея разработки защитного фильтра возникла после активного распространения технологий дипфейков и анализа возможных последствий ее использования злоумышленниками.
Разработчики сделали общедоступными описание и код алгоритма. Также в видео показали, как работает фильтр.