Страны разрабатывают правила, регулирующие использование ИИ и автономного оружия
Редакция «FORUM»
Более 50 стран присоединились к Соединенным Штатам в разработке руководящих принципов, которые обеспечат соблюдение норм международного права при использовании искусственного интеллекта (ИИ) и автономных систем вооружения, сообщил высокопоставленный представитель Министерства обороны США. На фоне возрастания роли ИИ в разработке вооружения и других военных сферах заинтересованные стороны приступили к разработке правил, регулирующих использование этой технологии.
Майкл К. Горовиц, заместитель помощника министра обороны США по развитию вооруженных сил и новым возможностям, представил актуальную информацию о работе Министерства обороны в области развития ИИ в ходе виртуальной беседы, организованной в январе 2024 г. Центром ИИ и передовых технологий Вадхвани (Wadhwani Center for AI and Advanced Technologies) при Центре стратегических и международных исследований (Center for Strategic and International Studies).
В ноябре 2023 г. Госдепартамент США опубликовал Политическую декларацию об ответственном военном применении искусственного интеллекта и автономных систем, цель которой — определение норм использования этих технологий. По словам Горовица, по состоянию на январь 2024 г. декларацию одобрила 51 страна, и в скором времени пройдут переговоры для выработки консенсуса в отношении использования новых технологий. На них будут в частности обсуждаться передовые практики и вопрос о предоставлении странам-партнерам возможности развивать собственные системы. Как добавил Горовиц, Россия и Китайская Народная Республика (КНР) декларацию не подписали.
«Существует общее понимание того, что нормы, которые мы пытаемся продвигать, должны соблюдаться всеми странами, – заявил он. – Мы считаем это продуманным управлением, чтобы страны могли безопасно разрабатывать и развертывать военные системы на базе ИИ, что в интересах всех сторон».
В январе 2023 г. Министерство обороны США обновило свою директиву об использовании ИИ в системах вооружения, в которой говорится о необходимости тщательного тестирования и проверки всех новых систем вооружения.
«Небезопасная, непредсказуемая система вооружения не работает. Она бесполезна, – отметил Горовиц. – Что касается разработки и развертывания систем, необходимых объединенным силам для предотвращения войны и, при необходимости, для победы в случае конфликта, мы должны быть уверены в наших системах».
В директиве министерства также говорится, что такие системы должны предусматривать возможность контроля применения силы со стороны человека в лице командиров и операторов. Особенно это касается ядерного оружия, что, по словам Горовица, согласуется с документом министерства «Обзор ядерной политики» (Nuclear Posture Review).
«Мы считаем, что решение о применении ядерного оружия настолько серьезно, что оно не может приниматься без участия человека, – заявил Горовиц. – Мы ожидаем, что другие страны поддержат это обязательство, и надеемся, что они четко его выразят».
Министерство обороны США сотрудничает со странами-партнерами в рамках своей инициативы Replicator – реализуемого в масштабах всего ведомства процесса, направленного на то, чтобы ускорить снабжение вооруженных сил инновационными системами. Об этой инициативе, реализуемой под руководством Подразделения оборонных инноваций (Defense Innovation Unit, DIU), было впервые объявлено в ноябре 2023 г. Ее основная цель — противодействие вооруженным силам Коммунистической партии Китая (КПК) с применением беспилотных систем, которые можно развернуть в большом количестве и подвергнуть риску в случае конфликта с учетом их относительно низкой стоимости. Вместе с международными партнерами DIU также анализирует использование таких систем в российско-украинской войне.
«Раньше приходилось выбирать между точностью и массой. Теперь такой проблемы нет, – заявил Горовиц. – Во многих случаях нам будет нужна точная масса».
Редакция «FORUM» приостанавливает перевод ежедневных материалов сайта на русский язык. Читайте ежедневные публикации на других языках.