ПОДЕЛИТЬСЯ
15 сентября 2021 | 20:49
ООН призывает наложить мораторий на системы распознавания лиц
ООН призывает наложить мораторий на несколько систем, использующих алгоритмы искусственного интеллекта. Речь главным образом идет о системе распознавания лиц в общественных местах, так как это может иметь "негативные и даже катастрофические последствия", передает Tengrinews.kz со ссылкой на РИА Новости.
ПОДЕЛИТЬСЯ
ООН призывает наложить мораторий на несколько систем, использующих алгоритмы искусственного интеллекта. Речь главным образом идет о системе распознавания лиц в общественных местах, так как это может иметь "негативные и даже катастрофические последствия", передает Tengrinews.kz со ссылкой на РИА Новости.
В организации отмечают, что государства часто спешат внедрять приложения с ИИ, не проявляя осторожности. При этом ООН известны неоднократные случаи несправедливого обращения с людьми из-за неисправности систем на алгоритмах искусственного интеллекта.
В частности, особое внимание предлагается уделить сбору биометрических данных и технологиям распознавания лиц, благодаря которым "возможно неограниченно отслеживать людей". Эксперты ООН по правам человека призывают ввести мораторий на использование таких технологий в общественных местах до тех пор, пока власти не смогут продемонстрировать, что эти системы не дискриминационны и соответствуют надежным стандартам конфиденциальности и защиты данных.
"Технологии ИИ могут иметь негативные, даже катастрофические последствия, если они используются без достаточного внимания к тому, как они влияют на права человека. Чем выше риск для прав человека, тем строже должны быть требования к использованию технологий ИИ. Но поскольку может пройти время, прежде чем риски будут оценены и устранены, государствам следует ввести мораторий на использование технологий с потенциально высоким риском", - отметила комиссар ООН по правам человека Мишель Бачелет.
В мае сообщалось, что искусственный интеллект в Бельгии подсчитывает время, которое политики тратят на смартфоны во время заседаний.
Показать комментарии
Читайте также