
포럼 스태프
중국, 러시아 등지의 악의적 행위자들이 효과는 미미했으나 인공지능(AI)을 활용해 정보 조작을 시도했다고 연구자들이 밝혔다.
미국 소재 챗GPT 개발사인 오픈AI는 2024년 중반 보고를 통해 자사의 AI 모델을 활용해 여론을 조작하려는 은밀한 작전을 최소 5건 적발해 이를 차단시켰다고 전했다. 그중 대표적인 것이 친중 메시지와 해외 반체제 인사에 대한 괴롭힘으로 악명 높은 중국 네트워크 ‘스패무플라주(Spamouflage)’와 현재 우크라이나와 명분 없는 전쟁을 벌이고 있는 러시아가 우크라이나에 대한 지지를 폄훼하고자 벌이는 ‘도플갱어(Doppelganger)’ 정보전이다.
개발사에 따르면 허위 정보를 퍼트리는 행위자들은 오픈AI 도구를 이용해 온라인 댓글을 포함한 텍스트를 다수 언어로 대량 생성했다. 이와 같은 정보전의 목표는 조작된 메시지가 정부 후원 단체의 사주를 받은 의견이 아닌 일반 여론이라는 거짓 인상을 심어주기 위함이라고 분석가들은 말했다.
또 다른 사례로 스패무플라주의 경우 중국의 인권 유린을 비판하는 자국의 해외 체류 반체제 인사를 공격하는 기사를 호스팅하는 웹사이트를 코딩하는데 챗GPT를 이용했다고 OpenAI는 전했다.
허위 정보 생산자 역시 텍스트의 문법 오류 및 기타 언어 오류를 줄이고자 챗GPT를 이용했다. AI를 이용해 애초에 모국어로 작성된 것처럼 그럴듯한 정치선전을 만들 수 있다면 대중들은 그것을 합법적인 것으로 받아들일 가능성이 높다.
하지만 오픈AI가 적발한 정보 조작 캠페인은 그 정도의 정교함까지는 도달하지 못했다.
와이어드 매거진은 “선전 캠페인은 좋은 문구나 코드를 일관되게 산출하지 못하는 생성형 AI의 한계에 봉착하기 마련이다”라면서 “진짜 사람이 하는 말처럼 들리게 만들어 주는 관용구의 어색한 사용은 물론이고 기본적인 문법조차 틀리는 경우가 많다(그 정도가 너무 심해 오픈AI가 ‘배드 그래머(Bad Brammar)’라고 명명한 캠페인도 있다)”고 보도했다.
영어 실력이 아닌 AI에만 의존한 러시아의 배드 그래머 작전의 경우 “저는 AI 언어 모델로서 도움을 드리고자…”로 시작하는 댓글을 텔레그램에 여러 개 게시하는 실수를 저지르기도 했다.
오픈AI가 자사 플랫폼에서 적발한 정보 조작 캠페인 중 AI를 사용해 조회수가 늘어나거나 인터넷 이용자의 관심을 유의미하게 높인 사례는 없었다.
조지타운 대학교 산하 안보신기술센터의 조쉬 골드스타인(Josh Goldstein) 연구원과 스탠포드인터넷관측소의 르네 디레스트(Renee DiReste) 연구원 은 “생성형 AI는 선전 캠페인의 운영비 절감에 기여하기 때문에 콘텐츠를 제작하고 대화형 자동 계정을 운영하는 게 훨씬 저렴해진다”면서도
“하지만 이것이 마법의 특효약은 아니어서, 오픈AI가 적발한 작전의 경우 생성된 내용이 다분히 스팸처럼 보이는 경우가 많았다. 그래서 당연히 사람들이 걸려들지는 않았다”고 지적했다.
온라인 사용자가 이러한 거짓 콘텐츠에 대처하는 방법으로는 출처의 정확성을 판별하고, 디지털 정보를 회의적인 시선으로 바라보며, AI 콘텐츠의 빠른 확산에 대해 가족과 친구들이 이해할 수 있도록 돕는 것 등이 있다.
연구자들은 AI 사고 데이터베이스나 정치 딥페이크 사고 데이터베이스와 같은 도구를 이용해 정보를 공유하고, AI 관련 악용 사례를 공개한다.
한편 AI는 부정확하고 유해 가능성이 있는 정보 조작을 더욱 효율적으로 탐지해 내는 콘텐츠 분석에도 활용되고 있다고 골드스타인과 디레스트 연구원은 매사추세츠 공과대학 리뷰에 기고한 글에서 밝혔다.
오픈AI는 자사 기술의 악의적 사용에 대한 보고서를 통해 디지털 정보환경 보호를 위한 협력을 촉구하며 “모든 (정보 조작) 사례를 막을 수는 없을 것”이라고 인정하면서도 “지속적인 혁신과 조사, 협업, 공유를 통해 위협 행위자가 디지털 생태계에서 아무런 제재 없이 활동하는 것을 막을 수는 있다”고 강조했다.