포럼 스태프
미국은 국가안보 목표 달성을 위해 빠르게 발전하는 인공지능(AI) 기술을 활용하기 위한 조치를 발표했으며, 여기에는 안전 및 신뢰성 기준의 도입이 포함된다.
2024년 10월 발표된 AI에 대한 국가안보 각서(NSM)에서는 AI 기술의 허용 범위 기준을 규정한다. 조 바이든(Joe Biden) 대통령은 미국이 ‘[AI]의 가능성을 선도적으로 활용하고 위험을 관리하기 위해’ 이 문서를 행정 명령으로 요청했다. NSM은 국가안보에서의 AI 거버넌스 및 위험 관리 발전을 위한 프레임워크로 보완된다.
해당 각서와 프레임워크의 발표는 2024년 9월 대한민국 서울에서 61개국이 서명한, 군사 분야에서의 책임감 있는 AI 활용에 대한 국제적 ‘행동 청사진’에 따른 것이다. 이 청사진은 우크라이나가 러시아의 침공에 대응해 사용하는 AI 기반 드론과 같은 실행 중심의 발전에 초점을 맞춘다고 로이터는 보도했다. 이는 또한, AI 기반 무기, AI 의사결정 지원 시스템, 사이버 작전, 전자전, 정보 작전 및 핵 활동에서의 AI 활용을 다룬다.
중국은 인공지능의 책임있는 군사적 이용에 관한 고위급 회의(REAIM)에 참석했지만, 이 비구속적 문서를 지지하지는 않았다.
백악관 브리핑에 따르면 2024년 NSM은 AI 발전이 국가안보와 외교 정책에 영향을 미칠 것이라는 믿음에 기반을 두고 있으며 다음과 같은 내용을 요구한다.
- 미국이 안전하고 보안성이 높으며 신뢰할 수 있는 AI 개발에서 선도적인 역할을 해야 한다. 이를 위해서는 AI 응용을 위한 반도체 확보, 효과적인 방첩 전략, 신뢰성 높고 안전한 AI 기술 개발, 그리고 대학, 시민사회 및 기업의 AI 연구 지원이 필요하다.
- 인권과 민주적 가치를 보호하면서 국가안보를 강화하는 AI 기술을 개발한다. NSM 이행에 대한 프레임워크 지침에는 위험 관리 및 시스템 평가, 책임과 투명성을 보장하기 위한 메커니즘이 포함된다.
- AI에 대한 국제적 합의와 거버넌스가 증진되어야 한다. 백악관은 NSM이 미국이 동맹국 및 파트너국과 협력하여 “인권과 기본적 자유를 보호하면서 국제법을 준수하는 방식으로 기술이 개발 및 사용되도록, 안정적이고 책임 있으며 권리를 존중하는 거버넌스 프레임워크를 확립”하도록 지시한다고 밝혔다.
2024년 10월 미국의 싱크탱크 국제전략문제연구소(Center for Strategic and International Studies)는 NSM은 군사 작전에서의 책임 문제를 다루며, AI가 특정 활동에 어떤 역할을 하더라도 책임은 각 국가와 지휘관에게 있어야 한다고 강조했다.
미국의 랜드연구소(Rand Corp.)는 2024년 3월 보고서에서 AI를 활용한 악성 정보의 확산이 국가안보와 안정에 위협이 되고 있으며, 이러한 정보 조작은 특히 인도-태평양 지역에서 만연하다고 지적했다. OpenAI의 ChatGPT, Google의 Gemini, Meta의 Llama 2 등 고급 언어 모델을 포함한 AI 기술의 발전으로 이러한 활동의 범위가 확대되었다.
랜드연구소는 파트너국들이 경계와 신속한 대응, 다국적 협력을 결합한 역동적이고 선제적인 전략으로 악성 정보 활동에 대응해야 한다고 밝혔다.