ОЦЕНИТЕ ДЕПУТАТОВ МАЖИЛИСА
06 августа 2021 | 10:18

Apple будет автоматически проверять iPhone на наличие запрещенных файлов

viewings icon comments icon

ПОДЕЛИТЬСЯ

whatsapp button telegram button facebook button
@Reuters @Reuters

Компания Apple подтвердила информацию о том, что в iPhone появится система, которая будет автоматически проверять медиатеку пользователей на наличие изображений жестокого обращения с детьми, передает Tengrinews.kz со ссылкой на Reuters.

whatsapp button telegram button facebook button copyLink button
Иконка комментария блок соц сети

Компания Apple подтвердила информацию о том, что в iPhone появится система, которая будет автоматически проверять медиатеку пользователей на наличие изображений жестокого обращения с детьми, передает Tengrinews.kz со ссылкой на Reuters.

Корпорация планирует сканировать смартфоны в поисках фактов сексуального насилия над детьми, включая детскую порнографию (CSAM). Новая функция заработает сначала в США. Изменения появятся как часть обновлений операционного программного обеспечения для iPhone, Mac и Apple Watch.

Отмечается, что для этого компания будет использовать инструмент neuralMatch. Алгоритм предназначен для обнаружения известных изображений сексуального насилия над детьми и будет сканировать изображения перед их загрузкой в ​​iCloud. Если neuralMatch найдет совпадение, изображение пересмотрит человек. В случае подтверждения наличия детской порнографии учетную запись отключат и сообщат в Национальный центр пропавших без вести и эксплуатируемых детей.

При этом указывается, что система обнаружения будет отмечать только те изображения, которые уже есть в базе данных центра известной детской порнографии, поэтому у родителей, которые делают невинные фотографии ребенка в ванной, нет причин для беспокойства. 

Уточняется, что подобное решение Apple является попыткой найти компромисс между обещанием защитить частную жизнь пользователей и постоянными требованиями властей, правоохранительных органов и активистов обеспечить защиту детей. В то же время эксперты полагают, что в итоге компания рискует позволить правительствам по всему миру получать доступ к личным данным граждан.

В Reuters отметили, что большинство других крупных компаний, включая Google, Facebook и Microsoft, уже проверяют изображения по базе данных известных изображений сексуального насилия над детьми.

Ранее студентка из США получила миллионы долларов за утечку интимных фото от Apple.

Подпишись на наши новости в Instagram. Самые интересные видео, а также сотни комментариев казахстанцев в твоей ленте!

У Tengrinews.kz есть Telegram-канал. Это быстрый и удобный способ получать самые главные новости прямо на твой телефон.

Читайте также
Join Telegram Последние новости
Лого TengriNews мобильная Лого TengriSport мобильная Лого TengriLife мобильная Лого TengriAuto мобильная Иконка меню мобильная
Иконка закрытия мобильного меню
Открыть TengriNews Открыть TengriLife Открыть TengriSport Открыть TengriTravel Открыть TengriGuide Открыть TengriEdu Открыть TengriAuto

Курс валют

 523.95  course up  543.16  course up  5.1  course up

 

Погода

 

Редакция Реклама
Социальные сети
Иконка Instagram footer Иконка Telegram footer Иконка Vkontakte footer Иконка Facebook footer Иконка Twitter footer Иконка Youtube footer Иконка TikTok footer Иконка WhatsApp footer