ОЦЕНИТЕ ДЕПУТАТОВ МАЖИЛИСА
29 июля 2015 | 03:11

Ученые предупредили об опасности появления "роботов-убийц"

viewings icon comments icon

ПОДЕЛИТЬСЯ

whatsapp button telegram button facebook button
Кадр фильма "Терминатор"(1984) Кадр фильма "Терминатор"(1984)

Выдающиеся ученые опубликовали открытое письмо, предупреждающее общественность об опасности автономного оружия, создание которого стало возможным в связи с прогрессом в области робототехники и искусственного интеллекта, сообщает Euronews.

whatsapp button telegram button facebook button copyLink button
Иконка комментария блок соц сети

Выдающиеся ученые опубликовали открытое письмо, предупреждающее общественность об опасности автономного оружия, создание которого стало возможным в связи с прогрессом в области робототехники и искусственного интеллекта, сообщает Euronews.

Письмо подписали сотни ученых, исследователей и экспертов, среди которых - Стивен Хокинг, Ноам Хомский и Илон Маск. Авторы призвали запретить разработку "роботов-убийц" во избежание новой гонки вооружений, которая не пойдет на пользу человечеству.

Ученые предупреждают, что "роботам-убийцам" даже не потребуется разрешение человека, чтобы принять решение о том, на кого напасть и кого убить: "Технология искусственного интеллекта достигла той точки, когда вопрос появления автономного оружия с искусственным интеллектом становится делом ближайших лет - даже не десятилетий". "Ставки высоки. Так как автономные виды вооружений представляют собой третью революцию в военной области после изобретения пороха и ядерного оружия", - говорится в обращении.

В письме также перечисляется короткий список преимуществ оружия, наделенного искусственным разумом, в том числе - возможность сократить число человеческих жертв, и длинный список недостатков, среди которых - относительно дешевое массовое производство, снижение порога вступления в войну, легкая возможность оказаться на черном рынке и, как следствие, - в руках диктаторов, террористов, военных фанатиков и так далее.

"Если не принять никаких мер, автономное оружие завтра станет столь же распространенным, как автомат Калашникова сегодня", - утверждают авторы обращения.

При этом ученые не призывают полностью запретить разработки технологий искусственного разума для оборонной промышленности: "Искусственному интеллекту можно найти множество применений, которые позволят сделать поле боя более безопасным для человека, в первую очередь - для гражданского населения, не создавая при этом новых инструментов для убийства людей".

Ознакомиться с полным текстом письма можно здесь.

Читайте также
Join Telegram Последние новости
Лого TengriNews мобильная Лого TengriSport мобильная Лого TengriLife мобильная Лого TengriAuto мобильная Иконка меню мобильная
Иконка закрытия мобильного меню
Открыть TengriNews Открыть TengriLife Открыть TengriSport Открыть TengriTravel Открыть TengriGuide Открыть TengriEdu Открыть TengriAuto

Курс валют

 524  course up  545.51  course down  5.07  course down

 

Погода

 

Редакция Реклама
Социальные сети
Иконка Instagram footer Иконка Telegram footer Иконка Vkontakte footer Иконка Facebook footer Иконка Twitter footer Иконка Youtube footer Иконка TikTok footer Иконка WhatsApp footer