Quantcast
Channel: Швейцарские новости на русском языке
Viewing all articles
Browse latest Browse all 13200

Нравственные принципы для военных роботов

$
0
0
Фото - Наша газета
Преподаватель Института международных отношений и развития (Institut de hautes études internationales et du développement, IHEID) Андреа Бьянки считает, что необходимо разработать новые правила для ведения военных конфликтов, которые в недалеком будущем будут вестись исключительно при помощи техники.

«За веру, царя и Отечество!», «Смело мы в бой пойдём за Русь святую, и как один прольём кровь молодую…» - атаки с патриотическими призывами, кажется, полностью отошли в прошлое. Как будто и к лучшему. Война – явление бесчеловечное, но неизбежное, как уверяли философы с древнейших времен. Человечеству словно необходимо время от времени пережить кровавую бойню для осознания собственных заблуждений. Война заставляет задуматься над истинными ценностями бытия. Но только после того, как война унесет самое ценное – жизнь. И не одну, а подчас сотни и тысячи, сотни тысяч…

Но в последние десятилетия все большее распространение получают военные машины, не нуждающиеся в присутствии человека. Такими роботами может управлять специалист, находящийся за тысячи километров от них. И это уже не сюжеты фантастических фильмов, а реалии наших дней. Впервые такие машины были применены американскими войсками в Ираке, пишет газета The Guardian. В то время был пересечен последний рубеж - роботам дали возможность убивать. В настоящее время Южная Корея и Израиль разрабатывают новые модели военных роботов. Китай, Сингапур и Великобритания активно используют такие машины в военных целях. Крупнейшим производителем техники остаются Соединенные Штаты: к 2015 году американские военные планируют «передать в ведение» роботизированных военных систем одну треть своей наземной боевой техники.

Сегодня нравственное решение о нанесении смертельного удара принимает за полуавтономную машину-робот дистанционный оператор. На повестке дня американских военных стоит вопрос о внедрении полностью автономных машин, которые сами будут принимать решение, кого следует уничтожить, а кого нет. Роботу необходимо будет отличить автобус, перевозящий школьников, от автобуса, в котором следуют террористы. Кто будет в ответе за возможные ошибки техники? Ведь в случае, мягко скажем, неудачного ракетного удара военные с легкой совестью смогут переложить вину на технические неполадки. Кто сможет в таком случае научить машину законам совести?

Этическая сторона применения военной робототехники, по счастью, не ускользнула от военных. Так, армия США финансирует в настоящее время проект по оснащению военных роботов «совестью», чтобы дать им возможность принимать этические решения.

О разработке кодекса этики для военных роботов журналисты Le Temps беседовали с преподавателем IHEID Андреа Бьянки.

Известно, что военные действия, осуществляемые людьми, должны вестись в соответствии с рядом международных документов, в том числе с Женевскими конвенциями. Однако для военной робототехники еще не существует единого общепринятого определения, не говоря уже о международном договоре, который бы запрещал или регулировал ее использование.

Одним из главных вопросов в этой области, как мы уже отмечали, - это способность роботов распознать цель и определить масштабность удара. Как сможет машина отличить гражданское население от солдат или солдата регулярной армии, который хочет сдаться, от боевиков, оказывающих сопротивление? Как искусственный интеллект, вложенный в управление роботом, сможет определить, какую реальную пользу принесет атака и каков при этом риск нанесения вреда гражданскому населению? И в случае совершения нарушения, а то и военного преступления на ком будет лежать вина? На производителе, программисте или разработчике программного обеспечения? А может быть, на командире подразделения, который инициировал операцию? Или на пилоте дистанционного управления в случае с полуавтоматической техникой?

В конечном счете, только человек наделен способностью мыслить и принимать разумные решения. Программисту весьма сложно, а то и просто невозможно предусмотреть все возможные сценарии развития событий ввиду множества исключений при применении правил ведения боя, а также ввиду непредсказуемых боевых ситуаций. Именно по этой причине многие выступают сегодня с жесткой критикой полной автоматизации военной техники: решение о применении смертоносного оружия с целью ликвидации противника должен принимать человек. А, следовательно, необходимо установить такую иерархию командного состава, при которой была бы четко определена компетенция и ответственность каждого и которая бы позволяла покарать виновных в случае нарушения правил ведения боевых действий.

Еще одним аргументом против применения военных роботов является обезличивание военного конфликта, который в таком случае становится чем-то вроде телепередачи или видеоигры. Пилот, управляющий самолетом-роботом из своего кабинета, расположенного где-нибудь в Неваде, оторван от реалий войны. Несмотря на специальную подготовку, у такого офицера создается впечатление, что все происходит в виртуальной реальности. А в глазах общественности военные конфликты будут представляться чем-то нереальным, очень далеким. На страницах газет и на экранах телевизоров не появятся ужасающие картины раненых и убитых, которые могли бы травмировать особо чувствительных граждан. А потому развязать очередную войну намного легче.

Безусловно, применение такой техники имеет и свои преимущества. Например, это позволяет снизить военные расходы, как в плане человеческих потерь, так и в плане финансов. Большинство роботов способны выявить мельчайшие детали на территории противника, что позволит определять местонахождение военных объектов с большей точностью и правильно наносить удары. И, наконец, роботы не подвержены эмоциям, им неведомы ни страх, ни паника, ни стресс, ни жалость. Они не смогут в последний момент дрогнуть перед сомнительностью поставленной задачи, и с этой точки зрения представляют собой универсальных, если не сказать, идеальных солдат.

«Помимо этого, - отметил Андреа Бьянки, - использование роботов усугубит разрыв между развитыми и развивающимися странами, которые не располагают достаточными финансовыми и технологическими ресурсами для оснащения своих войск новейшим вооружением. Единственной стратегией, остающейся в распоряжении «слабой» стороны, становятся террористические акты. А использование дронов и других беспилотных летательных аппаратов может вызвать возмущение со стороны населения страны, на территории которой они применяются, как об этом свидетельствуют антиамериканские настроения в Пакистане. И, наконец, роботизированное вооружение может оказаться в руках самих террористов или других неблагонамеренно настроенных людей».

Какое же решение предлагает профессор Бьянки? Вполне в духе женевских конвенций. «Ввиду стремительного развития военных технологий необходимо оперативно создать соответствующую нормативную базу, - говорит он. – Я скептически отношусь к возможности урегулировать проблему традиционным способом, то есть путем подписания межгосударственного договора. Скорее стоит разработать ряд руководящих принципов или кодекс поведения относительно развития и использования новых систем вооружения. В этом процессе должны участвовать не только государства, но и все другие заинтересованные стороны: ученые, военная промышленность, правительственные и неправительственные организации. В рамках таких принципов возможно предусмотреть и необходимые этические аспекты, связанные с развитием новых военных технологий».


Viewing all articles
Browse latest Browse all 13200

Trending Articles