Подписывайтесь на канал Tengrinews.kz в WhatsApp
29 июля 2015 03:11

Ученые предупредили об опасности появления "роботов-убийц"

ПОДЕЛИТЬСЯ

Кадр фильма "Терминатор"(1984) Кадр фильма "Терминатор"(1984)

Выдающиеся ученые опубликовали открытое письмо, предупреждающее общественность об опасности автономного оружия, создание которого стало возможным в связи с прогрессом в области робототехники и искусственного интеллекта, сообщает Euronews.


Выдающиеся ученые опубликовали открытое письмо, предупреждающее общественность об опасности автономного оружия, создание которого стало возможным в связи с прогрессом в области робототехники и искусственного интеллекта, сообщает Euronews.

Письмо подписали сотни ученых, исследователей и экспертов, среди которых - Стивен Хокинг, Ноам Хомский и Илон Маск. Авторы призвали запретить разработку "роботов-убийц" во избежание новой гонки вооружений, которая не пойдет на пользу человечеству.

Ученые предупреждают, что "роботам-убийцам" даже не потребуется разрешение человека, чтобы принять решение о том, на кого напасть и кого убить: "Технология искусственного интеллекта достигла той точки, когда вопрос появления автономного оружия с искусственным интеллектом становится делом ближайших лет - даже не десятилетий". "Ставки высоки. Так как автономные виды вооружений представляют собой третью революцию в военной области после изобретения пороха и ядерного оружия", - говорится в обращении.

В письме также перечисляется короткий список преимуществ оружия, наделенного искусственным разумом, в том числе - возможность сократить число человеческих жертв, и длинный список недостатков, среди которых - относительно дешевое массовое производство, снижение порога вступления в войну, легкая возможность оказаться на черном рынке и, как следствие, - в руках диктаторов, террористов, военных фанатиков и так далее.

"Если не принять никаких мер, автономное оружие завтра станет столь же распространенным, как автомат Калашникова сегодня", - утверждают авторы обращения.

При этом ученые не призывают полностью запретить разработки технологий искусственного разума для оборонной промышленности: "Искусственному интеллекту можно найти множество применений, которые позволят сделать поле боя более безопасным для человека, в первую очередь - для гражданского населения, не создавая при этом новых инструментов для убийства людей".

Ознакомиться с полным текстом письма можно здесь.

Читайте также
Join Telegram

Курс валют

 443.77   490.7   4.81 

 

Погода

 

Редакция Реклама
Социальные сети