Всеобщее достояние

Страны разрабатывают правила, регулирующие использование ИИ и автономного оружия

Редакция «FORUM»

Более 50 стран присоединились к Соединенным Штатам в разработке руководящих принципов, которые обеспечат соблюдение норм международного права при использовании искусственного интеллекта (ИИ) и автономных систем вооружения, сообщил высокопоставленный представитель Министерства обороны США. На фоне возрастания роли ИИ в разработке вооружения и других военных сферах заинтересованные стороны приступили к разработке правил, регулирующих использование этой технологии.

Филиппинские и американские морские пехотинцы демонстрируют беспилотные авиационные системы во время учений «Kamandag» на острове Палаван, Филиппины, в ноябре 2023 г.
ВИДЕО: МЛАДШИЙ КАПРАЛ НИКОЛАС ДЖОНСОН/МОРСКАЯ ПЕХОТА США

Майкл К. Горовиц, заместитель помощника министра обороны США по развитию вооруженных сил и новым возможностям, представил актуальную информацию о работе Министерства обороны в области развития ИИ в ходе виртуальной беседы, организованной в январе 2024 г. Центром ИИ и передовых технологий Вадхвани (Wadhwani Center for AI and Advanced Technologies) при Центре стратегических и международных исследований (Center for Strategic and International Studies).

В ноябре 2023 г. Госдепартамент США опубликовал Политическую декларацию об ответственном военном применении искусственного интеллекта и автономных систем, цель которой — определение норм использования этих технологий. По словам Горовица, по состоянию на январь 2024 г. декларацию одобрила 51 страна, и в скором времени пройдут переговоры для выработки консенсуса в отношении использования новых технологий. На них будут в частности обсуждаться передовые практики и вопрос о предоставлении странам-партнерам возможности развивать собственные системы. Как добавил Горовиц, Россия и Китайская Народная Республика (КНР) декларацию не подписали.

«Существует общее понимание того, что нормы, которые мы пытаемся продвигать, должны соблюдаться всеми странами, – заявил он. – Мы считаем это продуманным управлением, чтобы страны могли безопасно разрабатывать и развертывать военные системы на базе ИИ, что в интересах всех сторон».

В январе 2023 г. Министерство обороны США обновило свою директиву об использовании ИИ в системах вооружения, в которой говорится о необходимости тщательного тестирования и проверки всех новых систем вооружения.

«Небезопасная, непредсказуемая система вооружения не работает. Она бесполезна, – отметил Горовиц. – Что касается разработки и развертывания систем, необходимых объединенным силам для предотвращения войны и, при необходимости, для победы в случае конфликта, мы должны быть уверены в наших системах».

В директиве министерства также говорится, что такие системы должны предусматривать возможность контроля применения силы со стороны человека в лице командиров и операторов. Особенно это касается ядерного оружия, что, по словам Горовица, согласуется с документом министерства «Обзор ядерной политики» (Nuclear Posture Review).

«Мы считаем, что решение о применении ядерного оружия настолько серьезно, что оно не может приниматься без участия человека, – заявил Горовиц. – Мы ожидаем, что другие страны поддержат это обязательство, и надеемся, что они четко его выразят».

Министерство обороны США сотрудничает со странами-партнерами в рамках своей инициативы Replicator – реализуемого в масштабах всего ведомства процесса, направленного на то, чтобы ускорить снабжение вооруженных сил инновационными системами. Об этой инициативе, реализуемой под руководством Подразделения оборонных инноваций (Defense Innovation Unit, DIU), было впервые объявлено в ноябре 2023 г. Ее основная цель — противодействие вооруженным силам Коммунистической партии Китая (КПК) с применением беспилотных систем, которые можно развернуть в большом количестве и подвергнуть риску в случае конфликта с учетом их относительно низкой стоимости. Вместе с международными партнерами DIU также анализирует использование таких систем в российско-украинской войне.

«Раньше приходилось выбирать между точностью и массой. Теперь такой проблемы нет, – заявил Горовиц. – Во многих случаях нам будет нужна точная масса».


Редакция «FORUM» приостанавливает перевод ежедневных материалов сайта на русский язык. Читайте ежедневные публикации на других языках.

Статьи по Теме

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Back to top button