
人工の眼:中国の軍事インテリジェンスにおける生成AI
Executive Summary
人民解放軍(PLA)は、インテリジェンス活動を支援するために生成AIを使用することに明確な関心を示しており、生成AIをインテリジェンスタスクに適用する方法とシステムを設計しており、インテリジェンス目的で生成AIを調達した可能性があります。人民解放軍と中国の防衛産業は、諜報活動を効果的に実行できる専用モデルを開発するために、外国および国内の大規模言語モデル(LLM)を非常に高い確率で適応させています。人民解放軍と中国の防衛産業は、インテリジェンスデータを処理・分析し、インテリジェンス製品を生成し、質問に答え、推奨を提供し、早期警告を促進し、意思決定を支援するなどの機能を持つ生成AIベースのインテリジェンスツールを開発しました。これらのツールは、コストを削減しつつ、インテリジェンスタスクの速度、効率、精度、規模を向上させることを広く目的としています。PLAの一部は生成AIの利点について楽観的な見方を示しており、この技術を諜報活動に応用するための初期段階を踏んでいる可能性がありますが、PLAはこの技術の限界とリスクを認識している可能性が非常に高いです。したがって、人民解放軍が生成AIをインテリジェンス活動にどの程度統合するか、そしてこの統合の最終的な有効性は依然として不明です。
生成AIを用いて軍事情報を支援することに対する人民解放軍の関心は、人民解放軍と西側諸国の双方にとって課題を提示しています。人民解放軍にとって、生成AIの限界とリスクを考慮すると、この技術を成功裏に導入するためには、生成AIのインテリジェンスアプリケーションを試行し、これらの試行の結果を正確に評価し、これらの結果と評価に基づいて生成AIをインテリジェンス業務に適切に適用することが必要です。そうしないと、不正確なインテリジェンスがもたらされ、意思決定の質が低下する可能性があります。さらに、人民解放軍のインテリジェンスアナリストが、中国共産党(CCP)のイデオロギーに準拠するように開発された、またはイデオロギー的に偏った分析製品に基づいて訓練された生成AIモデルを使用する場合、人民解放軍は情報分析の客観性を低下させるリスクがあります。西側諸国にとって、人民解放軍が生成AIをインテリジェンス業務に応用することは、技術移転の課題を生み出し、中国の対諜報機関が生成AIを用いて偽情報を生成し、西側のインテリジェンスアナリストを誤導し、オープンソース情報のインテリジェンス価値を低下させるリスクを浮き彫りにしています。
主な調査結果
- PLAのメディアおよびPLAに所属する研究者は、生成AIの軍事情報への応用が、情報の収集と分析を改善し、軍司令官に強化された意思決定能力を提供するなど、幅広い潜在的な利益をもたらすと主張していますが、この技術を情報業務に使用することに伴うさまざまな課題やリスクも認識しています。
- 汎用の生成AIモデルにはインテリジェンス面での限界があることを認識しているとみられ、PLAおよび中国の防衛産業は、インテリジェンス任務に特化してファインチューニングされた専用モデルの開発と活用を優先している可能性があります。
- PLAおよび中国の防衛産業は、生成AIベースのインテリジェンステクノロジーの構築において、外国および国内の開発者による独自およびオープンソースのLLMを組み合わせて使用している可能性が非常に高いです。このようにして使用されている外国のLLMには、Meta、OpenAI、BigScienceなどのモデルが含まれている可能性が非常に高く、国内のLLMには、DeepSeek、清華大学、Zhipu AI、Alibaba Cloudなどのモデルが含まれている可能性が非常に高いと考えられます。
- PLAの特許出願から、PLAが生成AIを活用して、オープンソースインテリジェンス(OSINT)製品の生成、衛星画像の処理、イベント抽出の支援、イベントデータの処理といったインテリジェンス任務を効率化するための手法やシステムを設計していることが明らかになっています。
- 2024年12月に提出された特許出願では、中国の国有防衛産業系の研究機関が、OSINT、人的情報(HUMINT)、通信傍受(SIGINT)、地理空間情報(GEOINT)、技術情報(TECHINT)のデータを用いて軍事用のLLMを訓練し、インテリジェンス任務に特化させることを提案しています。これにより、強化された軍事用LLMがインテリジェンスサイクルのすべての段階を支援し、軍事作戦における意思決定の向上を可能にするとされています。
- PLAおよび中国の防衛産業は、OSINTおよび科学技術(S&T)インテリジェンスを支援するために、生成AI技術を調達している可能性があります。これは、中国軍の一部の部門がインテリジェンス任務に生成AIを適用し始めていることを示す兆候と考えられます。
- PLAは、2025年初頭にDeepSeekの生成AIモデルを迅速に採用した可能性が非常に高く、中国の防衛関連企業が、DeepSeekを基盤としたOSINTモデルをPLAに提供したと主張していることから、PLAはDeepSeekのLLMをインテリジェンス目的で使用しているとみられます。
- PLAは、外国の防諜機関が生成AIを用いて説得力のある偽情報を作成し、中国のインテリジェンス要員を誤導したり、オープンソース情報のインテリジェンス価値を低下させたりする可能性を懸念しているとみられます。中国の防諜機関も、同様の方法で生成AIを活用する可能性があります。
方法論
インテリジェンス業務における生成AIに対するPLAの見解およびその活用状況を評価するために、Insikt Groupは、PLAのメディアに掲載された記事、PLA関係者による学術研究、PLAおよび中国の防衛産業による特許出願、調達レコード、中国の防衛関連企業が公表した情報、Recorded Future®プラットフォームで入手可能なデータなど、さまざまな情報源を収集・分析しました。本レポートで引用されている情報源は、必ずしも生成AIに関するPLAの公式方針を示すものではありません。むしろ、PLAおよび中国の防衛産業内に属する個人や組織が、生成AIのインテリジェンス用途をどのように模索・開発しているかを示しています。本レポートでは、PLAおよび中国の防衛産業からの技術的な主張の真偽について評価していませんが、インテリジェンス関連の生成AIツールを開発または販売するエンティティは、生成AIの有効性を誇張し、その欠点を軽視するインセンティブを持っている可能性があります。そのため、こうしたエンティティから提供される情報については慎重に見極める必要があります。
生成AIは広義の用語であり、そのサブカテゴリーの一部には明確な境界がないため、本調査において困難が生じる場面もありました。一部の事例では、生成的でない機能に使用されている可能性があるLLMなどの生成AIモデルへの言及が見られましたが、これらの言及も本調査に関連性があると判断しました。さらに、中国の情報源では、AIモデルを論じる際に「LLM」のようなより具体的な用語ではなく、「大模型」(large model)という用語が頻繁に使用されています。ただし、すべての「大模型」が生成AIであるとは限らないため、「大模型」という表現があったからといって、それを自動的に生成AIに関連付けることはしませんでした。「大模型」への言及については、そのモデルが生成的であることを裏付ける他の情報が確認できた場合にのみ、生成AIとして分類しました。付録Aには、この技術に不慣れな読者のために、生成AIに関する用語集を掲載しています。
軍事インテリジェンスにおける生成AIに対する見解
PLA Daily
PLAの公式機関紙である『PLA Daily』は、生成AIのインテリジェンスへの影響について直接言及した記事をいくつか掲載しており、その概要は表1にまとめられています。これらの記事では、軍事インテリジェンスにおける生成AIの潜在的な利点について論じており、この技術がインテリジェンス製品を生成し、戦場の変化を予測し、平時・戦時を問わずインテリジェンス活動を支援し、分析の効率を高め、指揮官の意思決定を支援する可能性があるとされています。また、これらの記事では生成AIに関連する潜在的な課題にも言及しており、生成AIモデルは最新のインテリジェンスの代替にはならないこと、そして敵対国のインテリジェンス機関がディープフェイクを利用して相手国の機関に干渉する恐れがあることを警告しています。
表1: Summary of PLA Daily articles that discuss the intelligence implications of generative AI (Source: PLA Daily; Insikt Group)
学術研究
PLAの研究者、特に中国軍事科学院(AMS)の軍事科学情報研究センター(MSIRC)に所属する人員は、生成AIのインテリジェンス用途に対して楽観的な見方を示す一方で、この技術の不完全性も認識しており、インテリジェンス業務への適用に関連するさまざまな課題を提起しています。注目すべき研究の1つでは、AMSのMSIRCの研究者が、生成AIを活用して国防におけるS&Tインテリジェンスを支援する際の機会と課題を評価し、その機会を活かしつつ課題を軽減するための提言を行っています。また、PLAの研究者は、米国軍が生成AIをインテリジェンス任務に適用しようとする取り組みについても分析しており、米軍の経験から学び、ベストプラクティスを取り入れることを目指しているとみられます。さらに、PLAには所属していないものの、中国の党・国家体制の他の要素と関係する研究者たちも、生成AIのインテリジェンスへの影響について論文を発表しており、PLA関係者が示す見解を反映しつつ、中国の党・国家体制内部で進行していると考えられる議論についての洞察を提供しています。
PLAにおける一般的な見解
PLAの研究者たちは、生成AIのインテリジェンス用途に強い関心を示しており、中にはそれを変革的な可能性を秘めた技術と表現する者もいます。たとえば、2024年8月には、AMSのMSIRCに所属する研究者が、AIがインテリジェンス研究に与える影響についての記事を発表し、機械学習、深層学習、生成AIといった技術の発展によって、インテリジェンス研究に前例のない機会がもたらされたと主張しています。また、2024年6月には、AMSのMSIRC、国防科技イノベーション研究院、および2つの民間大学に所属する研究者が、MetaのLlama 13Bモデルを用いて軍事OSINTに特化したLLMを開発した事例を詳述した研究を発表しました。この研究では、LLMが軍事指揮官に対する包括的かつ正確なインテリジェンス支援を可能にすると主張しており、彼らが開発したLLMは、インテリジェンス分析、戦略的計画、シミュレーション訓練、指揮決定支援に対応できると述べられています。同様に、2024年2月には、AMSのMSIRCに所属する研究者が、ChatGPTのような技術を指揮統制システムに応用することで、インテリジェンス能力の大幅な向上が期待できるとする記事を発表しました。
生成AIのインテリジェンス分野への応用可能性を認識しつつも、PLAの研究者たちはこの技術に伴う課題についても議論しています。前述の2024年2月の記事では、AMSのMSIRCの研究者が、ChatGPTのような技術を指揮統制システムに統合した場合、そのインテリジェンス上の限界が壊滅的な結果を招く可能性があると警告しています。また、2024年6月の記事では、AMSおよび民間大学の関係者が、現行のLLMには深刻な幻覚の問題があり、OSINTへの直接的な利用には適さないと主張しています。さらに2024年9月には、PLA国防科技大学(NUDT)の情報通信学院および智能科学学院に所属する研究者が、AIとOSINTの関係についての記事を発表し、生成AIで作成されたディープフェイクが、インターネット上の膨大な情報をインテリジェンス目的で活用しようとする取り組みに対して深刻な課題をもたらしていると論じています。
国家防衛のS&Tインテリジェンスの事例
2023年11月、AMSのMSIRCに所属する研究者が、国家防衛S&Tインテリジェンスに生成AIを活用することによる潜在的な機会と課題について論じた記事を発表しました。この記事によると、従来のインテリジェンス手法では、潜在的な脅威や機会をタイムリーかつ正確に特定することがもはや困難であり、この認識が、PLAおよび中国の防衛産業における新たなインテリジェンスの収集・処理・分析技術の導入をほぼ確実に後押ししているとしています。筆者らは、生成AIが国家防衛のS&Tインテリジェンスを含む知識の創出と応用に深い影響を及ぼしていると主張しています。生成AIには、インテリジェンスの収集、評価、分析、生成を改善する可能性があるとされており(図1参照)、この技術がインテリジェンス要員を代替するのではなく、支援する形で活用されうることが詳述されています。たとえば、筆者らは生成AIが以下のような用途に役立つ可能性があると論じています。
- インテリジェンス要員が新たな任務に就いた際に、馴染みのない技術分野に迅速に習熟できるよう支援し、それによって分析担当者の対象に対する理解の深さと広がりを向上させる
- 大量のデータの中から関係性を洗練・発見する作業をインテリジェンス要員が行う際に支援し、比較、推論、事例提示、帰納といった業務にも役立つ
- 多様なシナリオや仮説を生成することで、インテリジェンス分析官の思考の幅を広げ、分析中の認知バイアスを回避するのに役立ちます。また、分析官の結論を評価し、潜在的なバイアスを特定する支援も行う
- 関連する画像や映像資料を自動で推薦し、統計レポートを生成するとともに、関連資料を自動的に統合することで、従来のインテリジェンス報告書の枠を超えた、多様な表現によるインテリジェンス分析内容の提示を可能にする
しかし、彼らはまた、生成AIが国家防衛の科学技術情報に前例のない制御不能性、不確実性、高いリスクをもたらす可能性があると警告しています。彼らは次のような特定の課題を挙げています。
- 国家防衛S&Tインテリジェンス活動を欺くために、技術的な競合勢力が生成AIを用いて偽の技術文書やディープフェイクを作成するリスクを含む、より深刻化する防諜上のリスクがある
- 国家防衛S&Tインテリジェンスに特化したLLMの不足
- 不確実かつ偏った情報に対応する能力に限界がある生成AI
- 国家防衛S&Tインテリジェンス向けのLLMを訓練するためのコーパスが不十分であり、国家機密や機微なインテリジェンスの使用に伴う困難がある
- 「データ漏洩、アルゴリズムのブラックボックス、価値観の偏り、説明不可能性」といった信頼性の問題
生成AIを諸刃の剣と表現したAMSの研究者たちは、国家防衛S&Tインテリジェンス分野においては、生成AIの機会を活かすと同時に、その課題を軽減するための対策を追求すべきだと提言しています。その具体的な対策には以下が含まれます。
- 生成AIを国家防衛S&Tインテリジェンス業務に段階的に導入し、導入後にその有効性を評価すること
- 関連するコーパスおよびLLMの改善に取り組むこと
- 人間と生成AIの両方を活用するインテリジェンスワークフローを反復的に統合し、信頼性と確実性の高い成果を確保すること
- AIによって生成されたコンテンツの追跡可能性を確保し、その信頼性を検証するための技術を開発すること
米軍における応用への関心
PLAの研究者たちは、米軍が生成AIをインテリジェンス任務にどのように応用しているかを評価しており、これは米国におけるOSINTの運用手法やAIの軍事応用について中国が過去に行ってきた調査・研究と同様に、米軍の経験から学ぶことを目的としていると考えられます。たとえば、2024年5月には、AMSの戦争研究院(战争研究院)に所属する研究者が、米国が生成AIの軍事応用をどのように模索しているかについて分析した記事を発表しました。著者は、米国が実施しているとされる組織の変革、政策指針、実証テスト、安全対策について論じ、また、米国が構想・試験・運用しているとされる具体的な軍事用途、そして直面しているとされる課題についても言及しています。特に注目されるのは、米国国防総省(DoD)の国防イノベーションユニット(DIU)が、2023年5月に生成AIをOSINTの収集および分析に応用するための技術プログラムを開始したとされる点です。この技術は、自動的なデータマイニングや評価、戦場の情報環境の可視化を通じて、指揮官を支援したと報告されています。著者は、DIUがこの技術に対し、アナリストがコンテンツを編集・配信できる機能を備え、DIUのAI基準に準拠し、DoDの情報環境内で利用可能であることを求めていたと述べています。
Non-PLA Perspectives
PLAにとどまらず、中国の党・国家体制の他の分野に所属する専門家たちも、インテリジェンス業務における生成AIの機会と課題について検討しています。これらの議論は軍事インテリジェンスに直接関わるものではありませんが、中国の党・国家体制全体が生成AIのインテリジェンスへの影響についてどのように取り組んでいるかを示す手がかりとなります。たとえば、2024年11月には、中国人民公安大学国家安全学院に所属する研究者が、生成AIによって生み出されるオンライン偽情報、いわゆる「偽情報汚染」がOSINT業務を混乱させるリスクを強調する記事を発表しました。また、2024年6月には、中国人民公安大学公安情報研究センターに所属する研究者が、ChatGPTおよび類似のAIツールがインテリジェンス業務に及ぼす潜在的影響について論じた記事を発表し、ChatGPTを不用意に使用すると、中国共産党によるインテリジェンス業務に対するイデオロギー的指導が損なわれる可能性があると主張しています。研究者たちは、ChatGPTが米国企業によって開発され、主に英語のコーパスで訓練されていることを指摘し、「西側資本主義的価値観」の影響を受ける恐れがあると警告しています。さらに、ChatGPTが「新自由主義」や「イデオロギー的中立性」に基づく、虚偽でありながら説得力のある情報を生成し、イデオロギー的な言論とその管理を侵食し、インテリジェンス業務に対するイデオロギーの見えない浸透を促進する可能性があると述べています。この記事で示された見解は、中国当局が生成AIモデルに対して正しいイデオロギー的方向性を確保しようとしている、より広範な規制の動きと一致しています。
全文を読むとともに、著者Zoe Haverに関する詳細情報をご覧になりたい方は、こちらをクリックしてPDF版のレポートをダウンロードしてください。