Среда, 8 мая 2024 года

Объявлены результаты исследования про этику боевых роботов

Военное развитие вплотную подошло к массовому применению автономных робототизированных боевых систем. Выгода от применения роботов на поле боя чрезвычайно очевидна. У них есть масса достоинств и возможностей, совершенно отсутствующих у человека. Но, как выяснилось при попытке применения предтеч боевых автоматов и при разработке стратегии их применения – роботы не в состоянии выполнить задачи без базовых этических принципов.

Роботы не знают страха и усталости, быстрее и сильнее. Наконец, даже их массовая гибель никогда не вызовет такого гнева общественного мнения, как потери в «живой силе». Понимание этого было еще в давние времена и попытки создания «бесчеловечной» боевой машины завершились успехом еще в Первую мировую, когда успешно применялись радиоуправляемые катера и появился первый беспилотник. Сейчас БПЛА применяются исключительно активно, став полноправным участником боевых действий.

Однако. у ни есть серьезный «родовой» недостаток – оператор не всегда способен отличить чужих от своих, мирных от немирных. Кроме того, комплексы РЭБ научились рвать связь оператора с управляемой дистанционно машины, а вездесущие вирусы проникли и в ПО управления.

Полностью автономный боевой работ избавлен от этих недостатков. Однако, как продемонстрировал опыт применения швейцарского комплекса Skyguard – полностью автоматическая зенитка лупила по всем без разбора и сбила два «своих» самолета ВВС Аргентины. Точно также Oerlikon GDF убил 9 военных на учениях в ЮАР, прежде чем взбесившегося робота сумели остановить.

Получается, что робота нужно обучать принципам боевой этики – что можно стрелять по врагу, и нельзя – по гражданским, медикам, прессе и т.п. И тут начались главные проблемы. Группа ученых из Дармштадского технического университета путем мысленных экспериментов с «проблемой вагонетки» доказали неразрешимость проблемы военной этики. Роботу почти невозможно (человеку тоже) выбирать из меньшего зла, решать проблемы незнания о последствиях, и недостаточной информированности. Причем, в боевой обстановке, сложность такого рода проблем возрастает на порядки. Но, самая главная беда роботов обозначена как «невычислимость» — есть проблемы с полной определенностью исходных условий, но не имеющих алгоритмического решения и приводящих к зависанию системы. Это становится понятнее, когда свихнувшегося или получившего повреждение робота придется останавливать другому роботу.

Означает ли это невозможность боевого применения роботов. К сожалению нет. Хуже того, ясность с невозможностью решения роботами этических проблем делает их идеальными средствами военных преступлений. Ведь оправдываться за свихнувшуюся боевую машину – гораздо проще, чем за ошибки оператора боевого дрона.