?

Log in

No account? Create an account

Previous Entry | Next Entry

В связи с чем их необходимо запрещать на международном уровне

Антиутопическое будущее, где вопросы жизни и смерти в вооруженных конфликтах или при обеспечении общественного порядка решают машины, нельзя считать таким уж отдаленным. Безусловно, по меньшей мере пока речь о Skynet и других кибернетических разумах не идет, но уже вовсю идет развитие оружейных систем, в управлении которыми человек будет играть все меньшую роль, пишет Рэй Ачерсон в статье для американского издания The Nation.

R-1a47bd097df53a3b8.jpg
Кадр из х/ф «Боевые роботы». Реж. Йен Бэрри. 1996. США

Автор отмечает, что по крайне мере в 12 странах, в том числе в Китае, Франции, Израиле, Южной Корее, России, Соединенном Королевстве и США, применяется или разрабатывается более 380 автономных систем вооружения. Так, Южная Корея работает над созданием механизированных систем обороны в демилитаризованной зоне, израильский Железный купол направлен на обнаружение и уничтожение ракет малой дальности, американские системы противоракетной обороны, такие как Patriot и Aegis, носят полуавтономный характер. Более того, американские военные завершили испытания автономного противолодочного корабля, который может уничтожать подводные лодки и другие корабли в беспилотном режиме.

В свою очередь Соединенное Королевство разрабатывает Taranis — беспилотный летательный аппарат, который может избежать обнаружения радаров и летать в автономном режиме. Россия построила роботизированный танк, который может быть оснащен пулеметом или гранатометом, изготовила полностью автоматизированное оружие, которое использует искусственные нейронные сети для выбора целей. Китай развивает оружие «роя» — незначительные по размеру беспилотники, которые могут быть оснащены датчиками тепла и запрограммированы на то, чтобы атаковать все, что испускает температуру тела.

Если подобная тенденция сохранится без ограничений, люди в конечном счете могут быть полностью исключены из процесса принятия важных решений. Для некоторых высоких чинов наиболее технически развитых армий мира такое развитие событий носит благоприятный характер, но многие специалисты по робототехнике, ученые, технические работники, философы, юристы, правозащитники, активисты за мир и разоружение, а также правительства стран с менее развитыми военными призвали к международному запрету на разработку такого оружия.

Сторонники полностью автономных систем оружия утверждают, что благодаря этому оружию во время военных операций солдаты-люди будут находиться вне опасности, а сами системы будут более «точными». Они считают, что с помощью такого вооружения удастся производить более точные расчеты и принимать более оперативные решения, чем сейчас позволяют человеческие возможности. Решения же эти будут более точными как в плане выбора цели, так и удара по ней. Также утверждается, что у такого оружия не будет эмоциональных реакций на те или иные ситуации: они не будут устраивать погромов и не будет совершать половое насилие. Но многие технические работники, специалисты по робототехнике и юристы указывают на принципиальную невозможность запрограммировать роботов таким образом, чтобы он проводил точное и последовательное различие между солдатами и гражданскими лицами во время вооруженных конфликтов.

«Хотя не стоит исключать прогресс в развитии сенсорного и обрабатывающего потенциала, чтобы система могла отличать активного комбатанта от гражданского лица, а также раненого или сдающегося в плен военнослужащего, нужно что-то большее, чем подобный технический потенциал», — отметил эксперт Гарвардского университета и сотрудник правозащитной организации Human Rights Watch Бонни Линн Дошерти, добавив, что подобное умение зависит «от количественной способности оценивать намерения человека», такие как тон голоса, выражение лица или язык тела в конкретном контексте.

Многие также опасаются, что в программу робота-убийцы могут быть заложены все предубеждения, которыми страдает человек. Например, уже активно используется практика «характерных ударов», заключающаяся, например, в поиске «мужчин призывного возраста» в качестве целей. Такие же характеристики применяются впоследствии и для оправдания ударов.

«Представьте себе машину, запрограммированную с предубеждением по признаку расы, пола, гендерной идентичности, сексуальной ориентации, социально-экономического статуса или способности. Представьте себе ее применение не только на войне, но и в ситуациях полицейских операций», — подчеркивает автор.

Эта дегуманизация целей будет сопровождаться дегуманизацией нападений. Благодаря алгоритмам была бы создана совершенная машина убийства, лишенная сострадания, совести или эмоций, которые могли сдержать солдата-человека. Сторонники автономного оружия утверждают, что это именно то, что сделает их лучше солдат-людей. Говорят, что машины будут лучше соблюдать законы войны, чем люди, потому что у них нет человеческих эмоций. Но это также означает, что они не будут проявлять милосердие или сострадание. Машины не будут колебаться и оспаривать необходимость военной операции или приказ командира. Они просто будут действовать в соответствии со своей программой, даже если она включает в себя массовое истребление деревень. И действовать они будут без колебаний.

Такая делегация насилия имеет последствия и для привлечения виновных к ответственности. Возникает вопрос, кто несет ответственность, если робот убил мирных жителей или уничтожил дома, школы и рынки: военный командир, который отдал такой приказ, программист, который разработал или установил алгоритмы, или разработчики оборудования или программного обеспечения. К тому же невозможно отправить за решетку робота. Нет разницы, от чего погибнуть — от пистолета, беспилотника или бомбы, но есть нечто особенно отвратительное, с моральной точки зрения, в том, что убивать будет робот. Как подчеркнул президент Международного комитета Красного Креста Питер Маурер, закон и последствия его нарушения понимает человек, а не машина, и именно он несет ответственность за его соблюдение.

Также утверждается, что благодаря применению автономного оружия будет возможно спасать жизни. Например, использование беспилотников показало, что из-за появления оружия с дистанционным управлением война стала менее затратной. Операторы, находящиеся в безопасности на своих электронных боевых станциях в тысячах километров от цели, не подвергаются немедленному возмездию за свои акты насилия. Такой вариант, очевидно, привлекателен для передовых армий мира, которые отныне не должны рисковать жизнью своих солдат, но для менее развитых война становится сопряженной с еще большими потерями.

Применение машин также снижает пороговое значение для применения силы, особенно в ситуациях, когда противоположная сторона не имеет эквивалентных систем для ответа. В ближайшем будущем автономные системы оружия вряд ли приведут к эпической битве роботов, где машины сражаются с машинами. Вместо этого они, скорее всего, будут применяться против населения, которое, возможно, не сможет обнаружить их неизбежную атаку и, возможно, не будет иметь эквивалентных средств для противодействия им. Таким образом, подобные возможности, благодаря которым автономное оружие может стать крайне привлекательным для технически развитых стран, стремящихся сохранить жизнь своих солдат, неизбежно будут перекладывать бремя риска и вреда на весь остальной мир.

Ввиду всего этого коренным образом меняется характер войны. Из-за все большей автоматизации оружейных систем становится возможным вести войну и не привлекать к ней внимания простых граждан. Если военнослужащие государства не станут возвращаться домой в мешках, разве общественность станет обращать внимание на то, что делает ее правительство за границей? Будет ли она заботиться о том, что в другой стране гибнут солдаты и мирные жители? На примере использования беспилотных летательных аппаратов становится очевидным, что так правительствам будет гораздо легче рассказывать о терроризме и победах в борьбе с ними, поскольку общество не сможет ощутить на себе последствия действий своих властей.

Максим Исаев

Latest Month

April 2019
S M T W T F S
 123456
78910111213
14151617181920
21222324252627
282930    

Tags

Powered by LiveJournal.com
Designed by Lilia Ahner