인공의 눈: 중국 군사 정보 분야의 생성형 AI

인공의 눈: 중국 군사 정보 분야의 생성형 AI

Insikt Group 로고

Executive Summary

인민해방군(PLA)은 정보 작업을 지원하기 위해 생성형 인공지능(AI)을 사용하는 데 분명 관심을 가져왔으며, 정보 작업에 생성형 AI를 적용하는 방법 및 시스템을 설계했습니다. 또한 정보 수집 목적으로 생성형 AI를 조달했을 가능성이 큽니다. 인민해방군과 중국 방위 산업은 정보 작업을 효과적으로 수행할 수 있는 특수 모델을 개발하기 위해 외국 및 국내 대규모 언어 모델(LLM)을 변형한 것으로 보입니다. 인민해방군과 중국 방위 산업은 정보 데이터 처리 및 분석, 인텔리전스 제품 생성, 질문 답변, 권장 사항 제시, 조기 경고 촉진, 의사 결정 지원 등 다양한 기능을 수행할 수 있는 것으로 알려진 생성형 AI 기반 인텔리전스 도구를 개발했습니다. 이 도구들은 대체로 정보 작업의 속도, 효율성, 정확성 및 규모를 개선하고 비용을 절감하는 데 목적이 있습니다. 인민해방군의 일부 구성원은 생성형 AI의 이점에 대해 낙관적인 견해를 표명하고 있으며, 이 기술을 정보 작업에 적용하기 위한 초기 단계를 밟고 있는 것으로 보입니다. 그러나 인민해방군은 이 기술의 한계와 위험을 인식했을 가능성이 매우 높습니다. 따라서 인민해방군이 생성형 AI를 정보 활동에 어느 정도까지 통합할지, 그리고 이러한 통합의 궁극적인 효과가 어떠할지는 여전히 불분명합니다.

인민해방군이 생성형 AI를 사용하여 군사 정보를 지원하는 데 관심을 가지면서, 인민해방군과 서방 세계 모두는 도전 과제에 직면했습니다. 생성형 AI의 한계와 위험을 고려할 때, 인민해방군이 이 기술을 성공적으로 도입하려면 생성형 AI의 정보 응용을 실험하고 실험 결과를 정확하게 평가하여, 이러한 결과 및 평가를 바탕으로 생성형 AI를 정보 작업에 적절하게 적용해야 합니다. 그렇지 않으면 의사 결정의 질을 저하하는 부정확한 정보가 발생할 수 있습니다. 게다가, 인민해방군 정보 분석가들이 사용하는 생성형 AI 모델이 중국공산당(CCP) 이데올로기에 맞춰 개발되었거나 이념적으로 편향된 분석 제품으로 훈련된 것일 경우, 정보 분석의 객관성이 저하될 위험이 있습니다. 인민해방군이 정보 작업에 생성형 AI를 적용함에 따라, 서방 세계에서는 기술 이전 문제가 야기되고 있으며, 중국 방첩 조직이 서구 정보 분석가를 오도하고 오픈 소스 정보의 정보 가치를 저하시키기 위해 생성형 AI로 그럴듯해 보이는 허위 정보를 생성할 위험이 부각되고 있습니다.

주요 연구 결과

방법론

Insikt Group은 인민해방군이 정보 작업에서 생성형 AI를 어떻게 바라보고 적용하는지 평가하기 위해 인민해방군 미디어에 게재된 자료, 인민해방군 인원이 작성한 학술 연구, 인민해방군 및 중국 방위 산업의 특허 출원, 인민해방군 및 중국 방위 산업의 조달 기록, 중국 방위 계약업체가 발표한 정보, 그리고 Recorded Future® 플랫폼에서 제공되는 데이터 등을 수집하고 분석했습니다. 보고서에 인용된 출처가 반드시 생성형 AI와 관련된 인민해방군의 공식 정책을 나타내는 것은 아닙니다. 그보다는 인민해방군과 중국 방위 산업 내에 있는 개인과 조직이 생성형 AI의 정보 응용을 어떻게 탐색하고 개발할 가능성이 있는지를 보여줍니다. 이 보고서는 인민해방군과 중국 방위 산업의 기술적 주장에 대한 진위 여부를 평가하지 않지만, 정보 관련 생성형 AI 도구를 개발하거나 판매하는 기관은 생성형 AI의 효과를 과장하고 결함을 경시할 가능성이 있으므로, 이러한 기관이 제공하는 정보는 회의적으로 받아들여야 합니다.

생성형 AI는 광범위한 용어로, 일부 하위 범주에 명확한 경계가 없어 이 조사에 때때로 어려움이 있었습니다. 일부 사례에서 LLM과 같은 생성형 AI 모델이 비생성형 기능에 사용된다는 언급을 관찰했으며, 이러한 언급도 조사와 관련이 있는 것으로 평가했습니다. 게다가, 중국 소스에서는 AI 모델을 논할 때 "LLM"과 같은 구체적인 용어보다는 "대형 모델(大模型)"이라는 용어를 자주 사용합니다. 모든 대형 모델이 생성형 AI로 간주되는 것은 아니므로, “대형 모델”에 대한 언급이 모두 생성형 AI와 관련이 있다고 간주하지는 않았습니다. 다른 정보로 모델의 생성적 특성을 확인했을 때만 “대형 모델”에 대한 언급을 생성형 AI로 분류했습니다. 부록 A에서는 이 기술에 익숙하지 않은 독자를 위해 생성형 AI 용어집을 제공합니다.

군사 정보에서 생성형 AI에 대한 견해

PLA Daily

중국 인민해방군의 공식 신문인 PLA Daily는 표 1에 요약된 것처럼 생성형 AI의 정보 관련 함의를 직접적으로 논하는 몇 가지 기사를 게재했습니다. 이 기사들은 군사 정보 분야에서 생성형 AI의 잠재적 이점에 대해 논하며, 인텔리전스 제품 생성, 전장의 변화 예측, 평시와 전시 모두에 정보 활동 촉진, 정보 분석의 효율성 개선, 지휘관의 의사 결정 지원 등 이 기술이 가진 것으로 여겨지는 기능을 집중적으로 다룹니다. 또한 이 기사들은 생성형 AI와 관련된 잠재적 문제를 지적하면서, 생성형 AI 모델이 최신 인텔리전스를 대체할 수 없고 경쟁 국가의 정보기관이 딥페이크를 악용하여 경쟁 기관에 개입할 수 있다고 경고하고 있습니다.

날짜
요약
2024년 8월
PLA Daily는 작전 지휘 통제 분야에서 대규모 생성형 AI 모델에 관한 기사를 발표하여, 이 대형 모델들이 인텔리전스 브리핑을 생성하고, 주요 정보를 추출하며, 전장 상황의 변화를 예측할 수 있다고 주장했습니다. 그러나 이 기사는 또한 대형 모델이 최신 인텔리전스 정보를 대체할 수 없다고 설명하면서, 이러한 모델이 백과사전의 기능을 할 수 있지만 학습 데이터에서만 정보를 쿼리할 수 있다고 주장했습니다. 이와 같이 대형 모델은 최신 인텔리전스 정보를 기반으로 전장 상황을 분석 및 판단하고, 인텔리전스 제품을 구성 및 통합하며, 인텔리전스 지식을 연결하고 탐색합니다.
2023년 4월
PLA Daily는 ChatGPT의 군사적 응용에 관한 기사를 발표하여, ChatGPT가 평시와 전시 모두에 정보 응용이 가능하다고 설명했습니다. 평화 시에 ChatGPT는 분석가들이 인터넷에서 얻은 방대한 양의 정보를 분석할 때 분석의 효율성을 높이고 숨겨진 가치 있는 정보를 발굴할 수 있도록 가상 비서의 역할을 할 수 있는 것으로 보고되었습니다. 전시에는 ChatGPT가 대량의 전장 인텔리전스를 종합적인 전장 상황 보고서로 자동 통합하여 정보 인력의 업무 부담을 줄이고 전투 요원의 정보 분석 및 계획 능력을 향상시킬 수 있는 것으로 보고되었습니다.
2023년 3월
PLA Daily는 ChatGPT에 관한 기사를 발표하고, "정보화 및 지능화된 미래의 전쟁"에서는 전투원이 강력한 정보 수집 능력과 거의 실시간에 가까운 정보 인식 능력을 갖추게 될 것으로 예측했습니다. 이 기사는 데이터 분석, 의사결정 지원, 자연어 처리와 같은 기본적인 업무에 ChatGPT를 활용하면 대규모 전장 정보 처리를 통해 지휘관의 의사결정 능력을 질적으로 향상시킬 수 있다고 설명합니다.
2020년 6월
PLA Daily는 딥페이크 기술의 위험성에 관한 기사를 게재하여 딥페이크가 정보 업무를 방해하는 데 사용될 수 있다고 경고했습니다. 이 기사는 경쟁 국가의 정보기관들이 딥페이크를 사용하여 경쟁 기관의 활동을 방해하고 작전 범위를 제한할 수 있다고 경고합니다.

표 1: Summary of PLA Daily articles that discuss the intelligence implications of generative AI (Source: PLA Daily; Insikt Group)

학문적 연구

PLA 연구원들, 특히 군사과학원(AMS, 军事科学院) 군사과학정보연구센터(MSIRC, 军事科学信息研究中心) 소속 연구원들은 생성형 AI의 정보 응용에 대해 낙관적이지만, 이 기술의 오류 가능성을 인식하고 생성형 AI를 정보 업무에 적용하는 것과 관련된 다양한 문제를 제기하고 있습니다. 주목할 만한 한 연구에서 AMS MSIRC 연구원들은 국방 S&T 정보를 지원하기 위해 생성형 AI를 사용할 때의 기회와 도전을 평가하고, 생성형 AI의 기회를 활용하면서 도전을 완화하기 위한 권장 사항을 제시했습니다. PLA 연구원들은 또한 미군의 경험에서 배우고 모범 사례를 적용할 목적으로, 정보 업무에 생성형 AI를 적용하기 위한 미군 내의 노력을 분석했습니다. 인민해방군 소속은 아니지만 중국 당-국가 체제의 다른 부분과 관련된 연구원들도 생성형 AI의 정보 관련 함의에 관한 논문을 발표하여, 인민해방군 인사들의 견해를 반영하면서 중국의 당-국가 체제 내에서 발생할 수 있는 논쟁에 대한 인사이트를 제공했습니다.

PLA에 대한 일반적인 견해

PLA 연구원들은 생성형 AI의 정보 응용에 관심을 표명했으며, 일부는 이를 잠재적으로 혁신적인 기술로 설명하기도 했습니다. 예를 들어, 2024년 8월 AMS MSIRC 소속 연구원들은 AI가 정보 연구에 미치는 영향에 관한 논문을 발표하고, 머신 러닝, 딥러닝, 생성형 AI와 같은 기술의 발전이 정보 연구에 전례 없는 기회를 창출했다고 주장했습니다. 2024년 6월, AMS MSIRC, AMS 국가방위기술혁신연구소(国防科技创新研究院) 및 두 민간 대학에 소속된 연구원들은 Meta의 Llama 13B 모델을 사용하여 군사 OSINT에 특화된 LLM을 개발한 연구를 발표했습니다. 이들은 LLM이 군 지휘관에게 포괄적이고 정확한 정보 지원을 제공할 수 있으며, 정보 분석, 전략 계획, 시뮬레이션 훈련, 지휘 의사 결정에 기여할 수 있다고 주장했습니다. 마찬가지로 2024년 2월, AMS MSIRC 소속 연구원들은 ChatGPT와 유사한 기술을 지휘 통제 체계에 적용하면 정보 수집 능력이 크게 향상될 수 있다는 내용의 논문을 발표했습니다.

생성형 AI의 적용 가능성을 인식하면서도, PLA 연구원들은 이 기술과 관련된 도전 과제에 대해서도 논했습니다. 앞서 언급한 2024년 2월 논문에서 AMS MSIRC 연구원들은 지휘 통제 체계에 통합된 ChatGPT와 유사한 기술의 지능적 한계가 재앙적인 결과를 초래할 수 있다고 경고했습니다. 마찬가지로 2024년 6월 논문에서 AMS와 민간 대학 관계자들은 현재의 LLM이 심각한 환각 문제를 가지고 있어 OSINT에서 직접 사용하기에는 부적합하다고 주장합니다. 2024년 9월, 중국 인민해방군 국방기술대학교(NUDT; 中国人民解放军国防科技大学) 정보통신대학(信息通信学院) 및 지능과학대학(智能科学学院) 소속 연구원들은 AI와 OSINT의 관계에 대한 논문을 발표했습니다. 이 논문은 생성형 AI로 제작된 딥페이크가 인터넷에서 제공되는 방대한 양의 정보를 정보 수집 목적으로 활용하는 데 상당한 어려움을 초래한다고 주장합니다.

국방 S&T 정보 예시

그림 1: Translated table of potential national defense S&T intelligence generative AI applications and benefits (Source: “Empowering National Defense Science and Technology Intelligence”; Insikt Group)

2023년 11월, AMS MSIRC 소속 연구원들은 국방 S&T 정보를 위한 생성형 AI 사용의 잠재적 기회와 도전에 관한 논문을 발표했습니다. 이 논문에 따르면 전통적인 정보 접근 방식으로는 더 이상 잠재적 위협과 기회를 적시에 정확하게 식별할 수 없으며, 인민해방군과 중국 방위 산업은 이러한 공통된 견해를 바탕으로 새로운 정보 수집, 처리 및 분석 기술을 채택하게 되었습니다. 저자들은 생성형 AI가 국방 S&T 정보를 포함한 지식의 창출과 적용에 큰 영향을 미치고 있다고 주장합니다. 이들은 생성형 AI가 정보 수집, 평가, 분석 및 생성 능력을 향상시킬 잠재력이 있다고 주장하면서(그림 1 참조), 이 기술이 정보 인력을 대체할 수 있다고 단언하기보다는 생성형 AI가 정보 인력을 어떻게 지원할 수 있는지를 자세히 설명합니다. 예를 들어, 저자들은 생성형 AI가 다음과 같은 기능을 수행할 수 있다고 주장합니다.

그러나 이들은 또한 생성형 AI가 국방 S&T 정보에 전례 없는 통제 불가능성, 불확실성, 높은 수준의 위험을 가져올 수 있다고도 경고합니다. 이들이 식별한 구체적인 문제는 다음과 같습니다.

AMS 연구진은 생성형 AI를 양날의 검이라 칭하면서, 국방 S&T 정보 분야에서 생성형 AI의 기회를 활용하는 동시에 도전을 완화할 방안을 모색해야 한다고 제안합니다. 여기에는 다음이 포함됩니다.

미국 군사 응용에 대한 관심

PLA 연구원들은 미군이 정보 작업에 생성형 AI를 적용하는 방식을 평가했으며, 이는 중국이 과거에 미국의 OSINT 관행 및 AI 군사 응용을 연구했던 것과 마찬가지로 미군의 경험에서 교훈을 얻으려는 목적으로 보입니다. 예를 들어, 2024년 5월 AMS 전쟁연구소(战争研究院)에 소속된 한 연구원은 미국이 생성형 AI의 군사적 응용을 어떻게 모색하고 있는지 분석한 논문을 발표했습니다. 저자는 미국이 시행한 것으로 알려진 조직 변경, 정책 지침, 실험적 테스트 및 보안 조치, 미국이 개념화하고 테스트 또는 사용한 것으로 알려진 특정 군사 응용 프로그램, 그리고 미국이 직면한 과제에 대해 논합니다. 특히 저자는 미국 국방부의 국방혁신부(DIU)가 2023년 5월에 OSINT 수집 및 분석에서 생성형 AI의 응용을 탐구하기 위한 기술 프로그램을 시작했다고 주장합니다. 이 기술은 자동 데이터 마이닝 및 평가를 촉진하였으며, 지휘관을 위해 전장 정보 환경을 시각화한 것으로 알려졌습니다. 작성자는 DIU가 이 기술을 도입함에 있어 분석가들이 콘텐츠를 편집 및 배포할 수 있도록 지원하고 DIU의 AI 기준을 준수하며 국방부(DoD)의 정보 환경 내에서 사용 가능해야 한다는 요건을 요구했다고 강조합니다.

Non-PLA Perspectives

인민해방군 외에, 중국 당-국가 체제의 다른 부문에 있는 전문가들도 정보 작업에 생성형 AI를 사용할 때의 기회와 과제를 조사했습니다. 이러한 논의는 군사 정보에 초점을 맞추지는 않지만, 광범위한 당-국가 체제가 이 기술의 정보 관련 함의를 어떻게 다루고 있는지에 대한 인사이트를 제공할 수 있습니다. 예를 들어, 2024년 11월에 중국 인민공안대학교 국가안보학원(中国人民公安大学国家安全学院) 소속 연구원들은 생성형 AI가 생성한 온라인 허위 정보, 즉 "거짓 정보 오염"으로 인해 OSINT 작업이 방해받을 위험을 강조하는 논문을 발표했습니다. 또한, ChatGPT 및 기타 유사한 AI 도구들이 정보 작업에 미치는 잠재적 영향에 초점을 맞춘 2024년 6월 논문에서 PPUSC 공안정보 연구센터(中国人民公安大学公安情报研究中心) 소속 연구원들은 ChatGPT를 부주의하게 사용하면 정보 작업에 대한 중국 공산당의 이념적 리더십이 훼손될 수 있다고 주장했습니다. 연구진은 독자들에게 ChatGPT가 미국 회사에 의해 개발되었고, 대부분 영어 말뭉치로 학습되었다는 것을 상기시킵니다. 이들은 ChatGPT가 “서구 자본주의 가치”의 영향을 받을 수 있으며, “신자유주의”와 “이념적 중립성”에 기반하여 그럴듯한 거짓 정보를 생성하고, 이데올로기 담론과 관리를 잠식하며, 정보 활동에 이데올로기가 보이지 않게 침투하는 것을 조장할 수 있다고 경고합니다. 이 논문에 표현된 견해는 생성형 AI 모델의 올바른 이념적 정렬을 보장하기 위한 중국 규제 당국의 광범위한 노력과 일치합니다.

전체 분석을 읽고 저자인 Zoe Haver에 대한 자세한 정보를 받으려면 여기를 클릭하여 보고서를 PDF로 다운로드하세요.