Это отдельная большая тема про человека.
Во-первых, мы все привержены «ко всеобщему и полному разоружению», как это зафиксировано в статье 6 ДНЯО.
Поэтому логика, что раз мы привержены этому обязательству, зачем развивать новые виды вооружений.
Во-вторых, пока мы находим на таком уровне развития, что войны имеют место быть, программирование как Вы предлагаете, несет в себе огромные риски, в том числе «восстание машин», «ядерный удар первым, чтобы обеспечить безусловную победу» и тд.
Алексей, согласен, речь о том что автономные системы - роботы - (в ближайшем будущем) будут принимать решения без контроля человека. И это не только роботы в привычном понимании. Не только Терминатор. Это синтетическая клетка бактерия которая атакует избирательно и самостоятельно ищет только определенный тип людей. Это компьютерная программа, которая самостоятельно эволюционирует и избирательно атакует тот или иной сервер, банковские счета, базы данных и тд.
Алихан, это понятно, что определения нет и ИИ еще не получил такого развития. Речь о будущем. Речь о том, что в Женеве государства-члены ООН обсуждают возможность запрета роботов-убийц до их появления и не дай бог применения в военной сфере. Подобные прецеденты уже имеются. Ранее, например, мы на упреждение запретили ослепляющие лазеры.
Компьютеры не подвержены усталостям и болезням - я говорю о другом, речь опять не об этом. Проблема в том, что компьютеры не имеют понятия о добре и зле, не способны к состраданию и ни в коем случае нельзя отдавать им на откуп решения о том, кому жить, а кому умереть.