グローバルコモンズパートナーシップ

米国の国家安全保障覚書が、AI管理への国際的取り組みを反映

FORUMスタッフ

米国は、急速に発展する人工知能(AI)技術を国家安全保障の目標達成に活用するための方策を発表した。これには、安全性と信頼性の基準の導入も含まれる。

2024年10月に発表された人工知能に関する国家安全保障覚書(NSM)は、許容可能なAI利用のパラメーターを定めている。 ジョー・バイデン(Joe Biden)大統領は、米国が「(AIの)有望性を捉え、リスクを管理する上で主導権を握る 」ことを確実にするため、大統領令でこの文書を要求した。 国家安全保障におけるAIのガバナンスとリスク管理を推進するための枠組みは、国家安全保障覚書を補足するものである。

覚書と枠組みの公開は、2024年9月に韓国のソウルで61か国が署名した、軍事におけるAIの責任ある利用に関する国際的な「行動のための青写真」に続くものだ。 ロイター通信によると、この青写真は、ウクライナがロシア軍の侵攻を防ぐために使用したAI搭載ドローンなど、行動指向の開発に焦点を当てている。 その内容には、AIを搭載した兵器、AIによる意思決定支援システム、サイバー作戦、電子戦、情報作戦、さらには核関連活動におけるAIの利用にも言及している。

中華人民共和国は、「軍事領域における責任あるAI利用(Responsible AI in the Military Domain)」サミットに出席した国のひとつだが、この拘束力のない文書の支持は示さなかった。

2024年の人工知能に関する国家安全保障覚書は、AIの進歩が国家安全保障と外交政策に影響を与えるという信念に基づいている、とホワイトハウスの報告で述べている。 そのために以下を求めている:

  • 安全、安心、信頼できるAIの開発において米国が世界を確実にリードすること。 そのためには、AIアプリケーション向け半導体の供給、効果的な防諜戦略、信頼性と安全性を備えたAI技術、そして大学、市民社会、企業によるAI研究の支援が必要とされている。
  • 人権と民主的価値を守りながら、国家安全保障を強化するためのAI技術の開発。 人工知能に関する国家安全保障覚書の実施に関する枠組みのガイダンスには、リスク管理やシステム評価の仕組み、そして、説明責任と透明性を確保するための方策が含まれている。
  • AIに関する国際的な合意とガバナンスの推進 人工知能に関する国家安全保障覚書は、「人権と基本的自由を保護しながら、国際法を遵守する方法で技術が開発・利用されることを保障する、安定した責任ある権利を尊重するガバナンスの枠組みを確立する」よう指示している、とホワイトハウスは述べている。

人工知能に関する国家安全保障覚書は軍事作戦におけるアカウンタビリティ(説明責任)にも言及しており、AIが活動に果たす役割に関係なく、各国や指揮官が結果に責任を負うことを強調している、と米国を拠点とするシンクタンク、戦略国際問題研究所(Center for Strategic and International Studies)は2024年10月に報告している。

情報操作はインド太平洋地域で特に盛んであり、AIを活用した悪意ある情報の台頭が国家安全保障と安定性を脅かしている、と米国を拠点とする研究グループ、ランド研究所(the Rand Corp.)は2024年3月に報告している。 AI技術、特にOpenAIのChatGPT、GoogleのGemini、MetaのLlama 2のような高度な言語モデルの開発は、そのような活動の範囲を拡大している。

パートナー諸国は、警戒、迅速な対応、多国間協力を組み合わせたダイナミックで積極的な戦略で、悪質な情報キャンペーンに対抗すべきだとランド研究所は述べている。

関連記事

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

Back to top button