06 августа 2021 | 10:18

Apple будет автоматически проверять iPhone на наличие запрещенных файлов

@Reuters

Компания Apple подтвердила информацию о том, что в iPhone появится система, которая будет автоматически проверять медиатеку пользователей на наличие изображений жестокого обращения с детьми, передает Tengrinews.kz со ссылкой на Reuters.

ПОДЕЛИТЬСЯ
Иконка комментария блок соц сети

Компания Apple подтвердила информацию о том, что в iPhone появится система, которая будет автоматически проверять медиатеку пользователей на наличие изображений жестокого обращения с детьми, передает Tengrinews.kz со ссылкой на Reuters.

Корпорация планирует сканировать смартфоны в поисках фактов сексуального насилия над детьми, включая детскую порнографию (CSAM). Новая функция заработает сначала в США. Изменения появятся как часть обновлений операционного программного обеспечения для iPhone, Mac и Apple Watch.

Отмечается, что для этого компания будет использовать инструмент neuralMatch. Алгоритм предназначен для обнаружения известных изображений сексуального насилия над детьми и будет сканировать изображения перед их загрузкой в ​​iCloud. Если neuralMatch найдет совпадение, изображение пересмотрит человек. В случае подтверждения наличия детской порнографии учетную запись отключат и сообщат в Национальный центр пропавших без вести и эксплуатируемых детей.

Реклама
Реклама

При этом указывается, что система обнаружения будет отмечать только те изображения, которые уже есть в базе данных центра известной детской порнографии, поэтому у родителей, которые делают невинные фотографии ребенка в ванной, нет причин для беспокойства. 

Уточняется, что подобное решение Apple является попыткой найти компромисс между обещанием защитить частную жизнь пользователей и постоянными требованиями властей, правоохранительных органов и активистов обеспечить защиту детей. В то же время эксперты полагают, что в итоге компания рискует позволить правительствам по всему миру получать доступ к личным данным граждан.

В Reuters отметили, что большинство других крупных компаний, включая Google, Facebook и Microsoft, уже проверяют изображения по базе данных известных изображений сексуального насилия над детьми.

Ранее студентка из США получила миллионы долларов за утечку интимных фото от Apple.

Подпишись на наши новости в Instagram. Самые интересные видео, а также сотни комментариев казахстанцев в твоей ленте!

У Tengrinews.kz есть Telegram-канал. Это быстрый и удобный способ получать самые главные новости прямо на твой телефон.

Вопрос от редакции
Что вы об этом думаете?
news135
Отправить
Комментарии проходят модерацию редакцией
Показать комментарии

Читайте также
Реклама
Реклама
Join Telegram Последние новости
Лого TengriNews мобильная Лого TengriSport мобильная Лого TengriLife мобильная