- Политика

Пентагон обеспокоен использованием Россией искусственного интеллекта в военной сфере. Вот почему

Автономный робот-истребитель, способный тактически мыслить, вряд ли выйдет на поле боя уже завтра, говорят специалисты. Однако гонка за лидерство в области искусственного интеллекта, как полагают, уже началась. И некоторые ее участники, такие, как Россия и Китай, вызывают особое беспокойство.

«Тот, кто станет лидером в сфере [искусственного интеллекта], станет властелином мира», — заявил в сентябре 2017 российский президент Владимир Путин на одном из форумов. Позже он неоднократно повторял эти слова, а мировые СМИ неоднократно их цитировали.

Российский лидер, похоже, серьезно воспринимает искусственный интеллект (ИИ), о чем свидетельствуют увеличенные инвестиции в эту сферу и утверждения «Национальной стратегии развития искусственного интеллекта на период до 2030 года», целью которой является не допустить безусловного лидерства других игроков и отставание России.

В сочетании с тем, как Россия ведет себя в зонах боевых действий, в том числе в Украине, ее покушение на технологии искусственного интеллекта вызывает немало беспокойств на Западе, в частности в США.

Многие разрабатывает ИИ. Что не так с Россией?

«Намерение [Путина] заключается в использовании любой возможной преимущества для расширения российского влияния и сокращение суверенитета других», — заявил на днях министр обороны США Марк Эспер во время симпозиума.

Россияне, по его словам, применили изощренную и хорошо скоординированную комбинацию беспилотных летательных аппаратов, кибератак и артиллерийских отрядов для нанесения серьезного ущерба украинским силам во время вторжения в Украину.

«С тех пор Москва объявила о разработке автономных систем на основе искусственного интеллекта для наземных транспортных средств, самолетов, атомных подводных лодок, — сказал Эспер. — Мы ожидаем, что они развернут эти возможности в будущих зонах боевых действий ».

По мнению Эспера, искусственный интеллект может изменить поле битвы, и страна, которая первой выведет его на поле, будет иметь огромные преимущества перед конкурентами.

В самой России любят похвастаться своими технологиями.

«Как представители Министерства обороны РФ, так и руководство России неоднократно подчеркивали, что в арсенале Вооруженных сил РФ есть целый ряд вооружения, основанного на разработках в области искусственного интеллекта. Это касается, например, беспилотников, истребителей, подводных роботов », — говорится в материале московского Центра Карнеги, который заключает: военный направление является одним из самых сильных, с точки зрения развития технологий искусственного интеллекта в России.

Россия, конечно, не единственная занимается разработкой искусственного интеллекта. Но, несмотря на то, что полный потенциал ее новейших военных технологий сложно оценить из-за их секретность, а Россию в целом вряд ли можно отнести к мировым лидерам в области искусственного интеллекта по целому ряду причин, покушение именно на потенциальное военное использование технологии становится поводом для беспокойства.

Искусственный интеллект — явление относительно новое и недостаточно урегулирован, и быть уверенным в тому-то, что такие государства, как Россия, известные нарушением международного права, соблюдать все правила и этических стандартов, нельзя, считают западные эксперты. И речь идет не только о России.

«Лидеры Пентагона давно обеспокоены тем, что, несмотря на действующие этические правила США, требующих, чтобы человек был« за рулем »решений по применению летальной силы, такие страны, как Россия и Китая, не будут действовать в рамках подобных этических правил», — пишет военный эксперт Крис Осборн в колонке The National Interest.

Китай ежегодно инвестирует десятки миллиардов в развитие ИИ, и правящая Коммунистическая партия целью стать мировым лидером ИИ через 10 лет, заявили в Пентагоне.

«Сейчас китайские производители оружия продают автономные беспилотники, которые, по их мнению, могут наносить смертельные целенаправленные удары, — сказал Эспер. — Между тем правительство Китая продвигает разработку беспилотных летательных аппаратов следующего поколения, которые они готовят к международному экспорта », — добавил он.

Понять роботов-убийц

Существует много систем автономного вооружения или такого, что действует на основе искусственного интеллекта, и сейчас есть немало дискуссий по поводу терминологии в этой сфере. Однако если обобщить, речь идет о роботах, которые способны самостоятельно выполнять военные операции.

«Сегодня есть оружие, которое активно использует искусственный интеллект, в том числе такая, которая может самостоятельно искать, выбирать и поражать цели. Эти атрибуты часто связаны с определением того, что составляет летальную автономную систему оружия (или робота-убийцу) », — объясняют обозреватели американского издания The New York Times, которое выпустило документальный фильм об использовании автономной оружия на поле боя.

Пожалуй, одним из примеров такого оружия является израильский вооруженный беспилотник Harpy, который может висеть высоко в небе, мониторить большие участки, пока не обнаружит «враждебный радиолокационный сигнал». Тогда он врежется в источник радара и взорвется вместе с целью, рассказывают в материале.

«Для запуска оружия не требуется конкретная цель, и человек не нужен для принятия летального решения. Такой аппарат был продан Чили, Китая, Индии, Южной Кореи и Турции », а китайцы, как сообщается, переделали свой собственный вариант.

И тем не менее, работам пока не хватает комплексных необходимых навыков для принятия большинства важных решений на поле боя. Большинство экспертов соглашается, что в случае использования летальной оружия привлечения человека просто необходимым. Но есть опасения, что это изменится.

Известный изобретатель Маск , ученый Стивен Ґокинґ и «отец» Microsoft Билл Гейтс когда-то согласились с тем, что в случае неправильного обращения с искусственным интеллектом он может превратиться в угрозу существованию человечества. Маск вместе со 115 другими лидерами в области искусственного интеллекта даже несколько лет назад подписали открытое письмо в ООН, призвал положить конец гонке вооружений в сфере автономной оружия еще до того, как ее использование получит распространение.

«Мы не имеем много времени. Только этот ящик Пандоры откроется, ее уже будет сложно закрыть », — говорилось в письме.

Ряд неправительственных организаций уже не один год активно работают, чтобы остановить дальнейший прогресс в использовании автономной летальной оружия.

Причин для беспокойства приводят немало. Например, что, как и любую компьютерную систему, «роботов-убийц» можно будет «сломать» с помощью кибератак, что такие работы могут просто выйти из строя и привести к масштабной катастрофы.

В случае нарушения гуманитарного права вопрос будет заключаться в том, кто именно будет нести за это ответственность, если робот будет действовать самостоятельно. Более того, такое оружие может попасть в руки негосударственных субъектов, учитывая террористические группировки. Но и использования недемократическими субъектами, не придерживаться общепринятых норм использования такой системы — также особый повод для волнений.

Многие обращают внимание на то, что за стремительным развитием автономной оружия стоит частный сектор — крупные корпорации, заинтересованные в прибылях, и они активно действовать для ускорения развития этих технологий.

«Это дилемма контроля над вооружениями. Чем полезнее будет потенциальная оружие для военных, тем труднее будет ее регулировать или запретить », — объяснял когда-то немецком вещателя Deutsche Welle профессор политических наук в Университете Пенсильвании Майкл Горовиц .

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *