Kniga-Online.club
» » » » Елена Ларина - Роботы-убийцы против человечества. Киберапокалипсис сегодня

Елена Ларина - Роботы-убийцы против человечества. Киберапокалипсис сегодня

Читать бесплатно Елена Ларина - Роботы-убийцы против человечества. Киберапокалипсис сегодня. Жанр: История издательство -, год 2004. Так же читаем полные версии (весь текст) онлайн без регистрации и SMS на сайте kniga-online.club или прочесть краткое содержание, предисловие (аннотацию), описание и ознакомиться с отзывами (комментариями) о произведении.
Перейти на страницу:

Роботы не могут идентифицировать себя с людьми, т. е. они неспособны испытывать сострадание (сильную проверку на готовность убить). Например, робот в зоне боевых действий мог бы выстрелить в ребенка, направляющего на него оружие. В отличие от робота, солдат-человек мог бы вспомнить своих детей, задержать открытие огня и найти более милосердное решение этой ситуации. Одно из самых больших ограничений для проявления жестокости во время войны всегда было естественное желание большинства людей не убивать. Этот естественный запрет так силен, что многие умерли бы сами, чем убили бы кого-то. Снятие этого запрета на убийство при помощи использования роботов устранило бы самое сильное психологическое и этическое ограничение на применение оружия во время войны. Война стала бы негуманно эффективной и не была бы ограничена естественным желанием солдат не убивать.

С другой стороны, полностью автономное оружие может стать прекрасным инструментом репрессии для диктаторов, стремящихся сохранить власть. Даже наиболее преданные диктатору войска могут, в конечном счете, повернуть против него свое оружие, если диктатор отдаст приказ стрелять в собственный народ. Диктатор, который обратился к помощи полностью автономного оружия, не будет бояться, что его вооруженные силы взбунтуются. Роботы не идентифицируют себя с их жертвами и будут выполнять приказ независимо от того, насколько негуманный он был.

3.1.5. Проблема ответственности за убийство полностью автономным оружием Учитывая, какие проблемы полностью автономного оружия создает международному гуманитарному праву и как оно игнорирует психологические основы гуманитарной защиты, неизбежно, что оно когда-нибудь убьет или ранит множество беззащитных гражданских лиц. Когда появляются многочисленные жертвы среди гражданского населения в вооруженном столкновении, люди хотят знать, кто за это должен нести ответственность. Если бы убийство было совершено полностью автономным оружием, встал бы вопрос: кого считать за это ответственным? Варианты ответов включают военачальника, программиста, изготовителя полностью автономного оружия и даже самого робота. Однако ни один из этих вариантов не является удовлетворительным. Поскольку нет никакого справедливого и эффективного способа назначить юридическую ответственность за противоправные действия, переданные полностью автономному оружию, подрывается еще один инструмент защиты гражданских лиц во время вооруженных конфликтов.

Первый способ решения проблемы может состоять в том, чтобы сделать военных начальников, которые используют такое оружие, ответственными за его действия на поле боя. Однако считается, что солдаты – достаточно автономные существа. И их командиры не несут юридической ответственности за противоправные действия своих подчиненных (за исключением очень особых обстоятельств). Поэтому было бы несправедливым возложить всю ответственность на военачальника за действия полностью автономного оружия. И, наверное, несправедливо считать людей ответственными за действия машин, над которыми они не имеют контроля. В некоторых ситуациях (принцип несения «ответственности за команду») военачальник может считаться ответственным за военные преступления, совершенные подчиненным. Этот принцип применяется, если военачальник знал (или должен был знать), что его подчиненный запланировал совершить преступление. И военачальник не принял меры, чтобы предотвратить преступление или не наказывал преступника после совершения преступления.

В то же время как этот принцип стремится обуздать нарушения международного гуманитарного права, усиливая ответственность военачальника, он плохо подходит для полностью автономного оружия. С одной стороны, «ответственность за команду», вероятно, можно было бы применить, если бы командующий знал потенциальные способности этого оружия выполнять незаконные действия против гражданских лиц и все же опрометчиво применил полностью автономное оружие.

С другой стороны, если бы военачальник понял (как только робот начал действовать), что робот совершает преступление, то военачальник был бы неспособен перепрограммировать робота в режиме реального времени, чтобы предотвратить преступление. Потому что робот разработан так, чтобы действовать полностью автономно. Кроме того (как будет обсуждено более подробно ниже), военачальник не может эффективно наказать робота после того, как тот совершит преступление. Таким образом, кроме случаев опрометчивого поведения «ответственность за команду» нельзя применять, и военачальник не будет считаться ответственным за действия полностью автономного оружия.

Противоправное действие, совершенное полностью автономным оружием, может быть результатом недоработки программного обеспечения. Однако программист с полной уверенностью не может предсказать решение, которое полностью автономный робот примет на поле боя. Поэтому считать программиста ответственным будет справедливо, если описанная выше ситуация произошла в результате небрежности со стороны команды программистов при написании компьютерной программы. Кроме того, чтобы считать программиста преступно ответственным в соответствии с международным гуманитарным правом, нужно доказать, что программист преднамеренно запрограммировал противоправное действие робота.

Некоторые эксперты отмечают возможность трактовать ответственность производителя за качество выпускаемой продукции как потенциальную модель для введения ответственности изготовителей полностью автономного оружия за его противоправные действия. Если бы изготовители могли бы считаться строго ответственными за недостатки в этом оружии, то ответственность изготовителей стала бы стимулом для производства очень надежных полностью автономных систем вооружения. Однако режим ответственности за качество выпускаемой оружейной продукции тоже противоречит верному решению, потому что производители оружия, как правило, не наказываются за то, как их оружие в дальнейшем используется.

К сожалению, возложение ответственности на любого из описанных выше действующих лиц (военачальника, программиста, изготовителя) не удержит самого робота от противоправных действий. По определению, полностью автономное оружие работает без человеческого контроля и возможности вмешательства в его работу. А отсутствие эмоций у полностью автономного оружия не позволит ему испытать раскаяние, если кто-то вместо самого робота будет наказан за его действия.

Также есть мнение, что само полностью автономное оружие могло бы считаться ответственным за незаконное убийство гражданских лиц. Однако в ближайшие 10-20 лет это невозможно сделать из-за недостаточного уровня развития робототехники. Робота можно «наказать», уничтожить его или ограничить его программное обеспечение. Однако это вряд ли удовлетворят жертв робота, ищущих возмездия. Кроме того, если робот не понимает, что будет наказан за то, что нарушил закон, его решения не будут находиться под влиянием угрозы ответственности.

3.1.6. Проблема понижения порога принятия решения о начале войны

Достижения в военной технологии позволили вооруженным силам значительно уменьшить непосредственное человеческое участие в ведении военных действий. Изобретение беспилотных летательных аппаратов (дронов) позволило США проводить военные операции в Афганистане, Пакистане, Йемене, Ливии без страха перед человеческими жертвами со своей стороны. Из-за этого фактора постепенная замена людей на полностью автономное оружие может сделать принятие решения начать войну более легким, а бремя потерь в зоне военного конфликта перейдет к гражданским лицам. Автоматизированное оружие изменяет политические расчеты при ведении войны. Потенциальная угроза жизни гражданских лиц вражеского государства может быть обесценена или даже проигнорирована при принятии решения об использовании военной силы. Результат применения вооруженных дронов показывает, к чему может привести применение оружия с еще большей автономией.

Военные эксперты утверждают, что беспилотные самолеты уже понизили порог для принятия решения о начале войны, облегчили политическим лидерам принятие решения на применение военной силы. Кроме того, быстрое увеличение количества беспилотных систем может притупить инстинктивное чувство неприятия убийства. Беспилотные системы создают физическое и эмоциональное «расстояние» от поля боя и поэтому делают убийство более легким.

Действительно, некоторые операторы дронов сравнивают атаки дрона с компьютерной игрой. Поэтому они чувствуют себя эмоционально отделенными от акта убийства. Война становится более безопасной и легкой, когда солдаты удалены от ужасов войны и рассматривают врага не как людей, а как человеческие фигурки на экране. И есть очень реальная опасность потерять средство устрашения, которое обеспечивают ужасы войны. Полностью автономное оружие создает те же самые проблемы.

Перейти на страницу:

Елена Ларина читать все книги автора по порядку

Елена Ларина - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки kniga-online.club.


Роботы-убийцы против человечества. Киберапокалипсис сегодня отзывы

Отзывы читателей о книге Роботы-убийцы против человечества. Киберапокалипсис сегодня, автор: Елена Ларина. Читайте комментарии и мнения людей о произведении.


Уважаемые читатели и просто посетители нашей библиотеки! Просим Вас придерживаться определенных правил при комментировании литературных произведений.

  • 1. Просьба отказаться от дискриминационных высказываний. Мы защищаем право наших читателей свободно выражать свою точку зрения. Вместе с тем мы не терпим агрессии. На сайте запрещено оставлять комментарий, который содержит унизительные высказывания или призывы к насилию по отношению к отдельным лицам или группам людей на основании их расы, этнического происхождения, вероисповедания, недееспособности, пола, возраста, статуса ветерана, касты или сексуальной ориентации.
  • 2. Просьба отказаться от оскорблений, угроз и запугиваний.
  • 3. Просьба отказаться от нецензурной лексики.
  • 4. Просьба вести себя максимально корректно как по отношению к авторам, так и по отношению к другим читателям и их комментариям.

Надеемся на Ваше понимание и благоразумие. С уважением, администратор kniga-online.


Прокомментировать
Подтвердите что вы не робот:*
Подтвердите что вы не робот:*