ОЦЕНИТЕ РАБОТУ АКИМА
06 августа 2021 | 10:18

Apple будет автоматически проверять iPhone на наличие запрещенных файлов

ПОДЕЛИТЬСЯ

@Reuters @Reuters

Компания Apple подтвердила информацию о том, что в iPhone появится система, которая будет автоматически проверять медиатеку пользователей на наличие изображений жестокого обращения с детьми, передает Tengrinews.kz со ссылкой на Reuters.


Иконка комментария блок соц сети

Компания Apple подтвердила информацию о том, что в iPhone появится система, которая будет автоматически проверять медиатеку пользователей на наличие изображений жестокого обращения с детьми, передает Tengrinews.kz со ссылкой на Reuters.

Корпорация планирует сканировать смартфоны в поисках фактов сексуального насилия над детьми, включая детскую порнографию (CSAM). Новая функция заработает сначала в США. Изменения появятся как часть обновлений операционного программного обеспечения для iPhone, Mac и Apple Watch.

Отмечается, что для этого компания будет использовать инструмент neuralMatch. Алгоритм предназначен для обнаружения известных изображений сексуального насилия над детьми и будет сканировать изображения перед их загрузкой в ​​iCloud. Если neuralMatch найдет совпадение, изображение пересмотрит человек. В случае подтверждения наличия детской порнографии учетную запись отключат и сообщат в Национальный центр пропавших без вести и эксплуатируемых детей.

При этом указывается, что система обнаружения будет отмечать только те изображения, которые уже есть в базе данных центра известной детской порнографии, поэтому у родителей, которые делают невинные фотографии ребенка в ванной, нет причин для беспокойства. 

Уточняется, что подобное решение Apple является попыткой найти компромисс между обещанием защитить частную жизнь пользователей и постоянными требованиями властей, правоохранительных органов и активистов обеспечить защиту детей. В то же время эксперты полагают, что в итоге компания рискует позволить правительствам по всему миру получать доступ к личным данным граждан.

В Reuters отметили, что большинство других крупных компаний, включая Google, Facebook и Microsoft, уже проверяют изображения по базе данных известных изображений сексуального насилия над детьми.

Ранее студентка из США получила миллионы долларов за утечку интимных фото от Apple.

Подпишись на наши новости в Instagram. Самые интересные видео, а также сотни комментариев казахстанцев в твоей ленте!

У Tengrinews.kz есть Telegram-канал. Это быстрый и удобный способ получать самые главные новости прямо на твой телефон.

Читайте также
Join Telegram
Лого TengriSport мобильная Лого TengriLife мобильная Иконка меню мобильная
Иконка закрытия мобильного меню

Курс валют

 498.34   521.17   4.92 

 

Погода

 

Редакция Реклама
Социальные сети