人工の眼:中国の軍事インテリジェンスにおける生成AI

人工の眼:中国の軍事インテリジェンスにおける生成AI

Insikt Groupロゴ

Executive Summary

人民解放軍(PLA)は、インテリジェンス活動を支援するために生成AIを使用することに明確な関心を示しており、生成AIをインテリジェンスタスクに適用する方法とシステムを設計しており、インテリジェンス目的で生成AIを調達した可能性があります。人民解放軍と中国の防衛産業は、諜報活動を効果的に実行できる専用モデルを開発するために、外国および国内の大規模言語モデル(LLM)を非常に高い確率で適応させています。人民解放軍と中国の防衛産業は、インテリジェンスデータを処理・分析し、インテリジェンス製品を生成し、質問に答え、推奨を提供し、早期警告を促進し、意思決定を支援するなどの機能を持つ生成AIベースのインテリジェンスツールを開発しました。これらのツールは、コストを削減しつつ、インテリジェンスタスクの速度、効率、精度、規模を向上させることを広く目的としています。PLAの一部は生成AIの利点について楽観的な見方を示しており、この技術を諜報活動に応用するための初期段階を踏んでいる可能性がありますが、PLAはこの技術の限界とリスクを認識している可能性が非常に高いです。したがって、人民解放軍が生成AIをインテリジェンス活動にどの程度統合するか、そしてこの統合の最終的な有効性は依然として不明です。

生成AIを用いて軍事情報を支援することに対する人民解放軍の関心は、人民解放軍と西側諸国の双方にとって課題を提示しています。人民解放軍にとって、生成AIの限界とリスクを考慮すると、この技術を成功裏に導入するためには、生成AIのインテリジェンスアプリケーションを試行し、これらの試行の結果を正確に評価し、これらの結果と評価に基づいて生成AIをインテリジェンス業務に適切に適用することが必要です。そうしないと、不正確なインテリジェンスがもたらされ、意思決定の質が低下する可能性があります。さらに、人民解放軍のインテリジェンスアナリストが、中国共産党(CCP)のイデオロギーに準拠するように開発された、またはイデオロギー的に偏った分析製品に基づいて訓練された生成AIモデルを使用する場合、人民解放軍は情報分析の客観性を低下させるリスクがあります。西側諸国にとって、人民解放軍が生成AIをインテリジェンス業務に応用することは、技術移転の課題を生み出し、中国の対諜報機関が生成AIを用いて偽情報を生成し、西側のインテリジェンスアナリストを誤導し、オープンソース情報のインテリジェンス価値を低下させるリスクを浮き彫りにしています。

主な調査結果

方法論

インテリジェンス業務における生成AIに対するPLAの見解およびその活用状況を評価するために、Insikt Groupは、PLAのメディアに掲載された記事、PLA関係者による学術研究、PLAおよび中国の防衛産業による特許出願、調達レコード、中国の防衛関連企業が公表した情報、Recorded Future®プラットフォームで入手可能なデータなど、さまざまな情報源を収集・分析しました。本レポートで引用されている情報源は、必ずしも生成AIに関するPLAの公式方針を示すものではありません。むしろ、PLAおよび中国の防衛産業内に属する個人や組織が、生成AIのインテリジェンス用途をどのように模索・開発しているかを示しています。本レポートでは、PLAおよび中国の防衛産業からの技術的な主張の真偽について評価していませんが、インテリジェンス関連の生成AIツールを開発または販売するエンティティは、生成AIの有効性を誇張し、その欠点を軽視するインセンティブを持っている可能性があります。そのため、こうしたエンティティから提供される情報については慎重に見極める必要があります。

生成AIは広義の用語であり、そのサブカテゴリーの一部には明確な境界がないため、本調査において困難が生じる場面もありました。一部の事例では、生成的でない機能に使用されている可能性があるLLMなどの生成AIモデルへの言及が見られましたが、これらの言及も本調査に関連性があると判断しました。さらに、中国の情報源では、AIモデルを論じる際に「LLM」のようなより具体的な用語ではなく、「大模型」(large model)という用語が頻繁に使用されています。ただし、すべての「大模型」が生成AIであるとは限らないため、「大模型」という表現があったからといって、それを自動的に生成AIに関連付けることはしませんでした。「大模型」への言及については、そのモデルが生成的であることを裏付ける他の情報が確認できた場合にのみ、生成AIとして分類しました。付録Aには、この技術に不慣れな読者のために、生成AIに関する用語集を掲載しています。

軍事インテリジェンスにおける生成AIに対する見解

PLA Daily

PLAの公式機関紙である『PLA Daily』は、生成AIのインテリジェンスへの影響について直接言及した記事をいくつか掲載しており、その概要は表1にまとめられています。これらの記事では、軍事インテリジェンスにおける生成AIの潜在的な利点について論じており、この技術がインテリジェンス製品を生成し、戦場の変化を予測し、平時・戦時を問わずインテリジェンス活動を支援し、分析の効率を高め、指揮官の意思決定を支援する可能性があるとされています。また、これらの記事では生成AIに関連する潜在的な課題にも言及しており、生成AIモデルは最新のインテリジェンスの代替にはならないこと、そして敵対国のインテリジェンス機関がディープフェイクを利用して相手国の機関に干渉する恐れがあることを警告しています。

日付
概要
2024年8月
『PLA Daily』は、作戦指揮統制における大規模生成AIモデルに関する記事を掲載しており、同記事では、大規模モデルがインテリジェンス概要の作成、主要ポイントの抽出、戦場状況の変化の予測を行えると主張しています。一方で、記事は、大規模モデルは最新のインテリジェンス情報の代替にはならないとも指摘しており、これらのモデルは百科事典のように機能するものの、訓練データに含まれる情報しか照会できないと述べています。そのため、大規模モデルは、戦場状況の分析と判断、インテリジェンス製品の編成と統合、インテリジェンス知識の関連付けと抽出を行うためには、最新のインテリジェンス情報に依存していると報じられています。
2023年4月
『PLA Daily』は、ChatGPTの軍事用途に関する記事を掲載しており、ChatGPTには平時および戦時の双方においてインテリジェンス用途があると述べています。平時においては、ChatGPTはバーチャルアシスタントとして機能し、インターネット上に存在する膨大な情報の分析を支援することで、分析の効率を向上させ、隠れた高価値のインテリジェンスを発掘するのに役立つとされています。戦時においては、ChatGPTは大量の戦場インテリジェンスを自動的に統合し、包括的な戦場状況報告書を作成することで、インテリジェンス要員の負担を軽減し、戦闘要員のインテリジェンス分析および作戦立案能力を高めることができると報告されています。
2023年3月
『PLA Daily』はChatGPTに関する記事を掲載しており、その中で「将来の情報化・知能化された戦争」において、戦闘員は強力なインテリジェンス収集能力と準リアルタイムの情報認識能力を備えるようになると予測しています。これに関連して、記事は、ChatGPTがデータ分析、意思決定支援、自然言語処理といった基礎的な業務に活用され、大量の戦場情報の処理を通じて指揮官の意思決定能力を質的に向上させる可能性があると指摘しています。
2020年6月
『PLA Daily』は、ディープフェイク技術の危険性に関する記事を掲載し、ディープフェイクがインテリジェンス業務を妨害するために利用される可能性があると警告しています。同記事では、敵対国のインテリジェンス機関がディープフェイクを用いて相手国の機関に干渉し、その活動範囲に制約を加える恐れがあると警鐘を鳴らしています。

表1: Summary of PLA Daily articles that discuss the intelligence implications of generative AI (Source: PLA Daily; Insikt Group)

学術研究

PLAの研究者、特に中国軍事科学院(AMS)の軍事科学情報研究センター(MSIRC)に所属する人員は、生成AIのインテリジェンス用途に対して楽観的な見方を示す一方で、この技術の不完全性も認識しており、インテリジェンス業務への適用に関連するさまざまな課題を提起しています。注目すべき研究の1つでは、AMSのMSIRCの研究者が、生成AIを活用して国防におけるS&Tインテリジェンスを支援する際の機会と課題を評価し、その機会を活かしつつ課題を軽減するための提言を行っています。また、PLAの研究者は、米国軍が生成AIをインテリジェンス任務に適用しようとする取り組みについても分析しており、米軍の経験から学び、ベストプラクティスを取り入れることを目指しているとみられます。さらに、PLAには所属していないものの、中国の党・国家体制の他の要素と関係する研究者たちも、生成AIのインテリジェンスへの影響について論文を発表しており、PLA関係者が示す見解を反映しつつ、中国の党・国家体制内部で進行していると考えられる議論についての洞察を提供しています。

PLAにおける一般的な見解

PLAの研究者たちは、生成AIのインテリジェンス用途に強い関心を示しており、中にはそれを変革的な可能性を秘めた技術と表現する者もいます。たとえば、2024年8月には、AMSのMSIRCに所属する研究者が、AIがインテリジェンス研究に与える影響についての記事を発表し、機械学習、深層学習、生成AIといった技術の発展によって、インテリジェンス研究に前例のない機会がもたらされたと主張しています。また、2024年6月には、AMSのMSIRC、国防科技イノベーション研究院、および2つの民間大学に所属する研究者が、MetaのLlama 13Bモデルを用いて軍事OSINTに特化したLLMを開発した事例を詳述した研究を発表しました。この研究では、LLMが軍事指揮官に対する包括的かつ正確なインテリジェンス支援を可能にすると主張しており、彼らが開発したLLMは、インテリジェンス分析、戦略的計画、シミュレーション訓練、指揮決定支援に対応できると述べられています。同様に、2024年2月には、AMSのMSIRCに所属する研究者が、ChatGPTのような技術を指揮統制システムに応用することで、インテリジェンス能力の大幅な向上が期待できるとする記事を発表しました。

生成AIのインテリジェンス分野への応用可能性を認識しつつも、PLAの研究者たちはこの技術に伴う課題についても議論しています。前述の2024年2月の記事では、AMSのMSIRCの研究者が、ChatGPTのような技術を指揮統制システムに統合した場合、そのインテリジェンス上の限界が壊滅的な結果を招く可能性があると警告しています。また、2024年6月の記事では、AMSおよび民間大学の関係者が、現行のLLMには深刻な幻覚の問題があり、OSINTへの直接的な利用には適さないと主張しています。さらに2024年9月には、PLA国防科技大学(NUDT)の情報通信学院および智能科学学院に所属する研究者が、AIとOSINTの関係についての記事を発表し、生成AIで作成されたディープフェイクが、インターネット上の膨大な情報をインテリジェンス目的で活用しようとする取り組みに対して深刻な課題をもたらしていると論じています。

国家防衛のS&Tインテリジェンスの事例

図 1: Translated table of potential national defense S&T intelligence generative AI applications and benefits (Source: “Empowering National Defense Science and Technology Intelligence”; Insikt Group)

2023年11月、AMSのMSIRCに所属する研究者が、国家防衛S&Tインテリジェンスに生成AIを活用することによる潜在的な機会と課題について論じた記事を発表しました。この記事によると、従来のインテリジェンス手法では、潜在的な脅威や機会をタイムリーかつ正確に特定することがもはや困難であり、この認識が、PLAおよび中国の防衛産業における新たなインテリジェンスの収集・処理・分析技術の導入をほぼ確実に後押ししているとしています。筆者らは、生成AIが国家防衛のS&Tインテリジェンスを含む知識の創出と応用に深い影響を及ぼしていると主張しています。生成AIには、インテリジェンスの収集、評価、分析、生成を改善する可能性があるとされており(図1参照)、この技術がインテリジェンス要員を代替するのではなく、支援する形で活用されうることが詳述されています。たとえば、筆者らは生成AIが以下のような用途に役立つ可能性があると論じています。

しかし、彼らはまた、生成AIが国家防衛の科学技術情報に前例のない制御不能性、不確実性、高いリスクをもたらす可能性があると警告しています。彼らは次のような特定の課題を挙げています。

生成AIを諸刃の剣と表現したAMSの研究者たちは、国家防衛S&Tインテリジェンス分野においては、生成AIの機会を活かすと同時に、その課題を軽減するための対策を追求すべきだと提言しています。その具体的な対策には以下が含まれます。

米軍における応用への関心

PLAの研究者たちは、米軍が生成AIをインテリジェンス任務にどのように応用しているかを評価しており、これは米国におけるOSINTの運用手法やAIの軍事応用について中国が過去に行ってきた調査・研究と同様に、米軍の経験から学ぶことを目的としていると考えられます。たとえば、2024年5月には、AMSの戦争研究院(战争研究院)に所属する研究者が、米国が生成AIの軍事応用をどのように模索しているかについて分析した記事を発表しました。著者は、米国が実施しているとされる組織の変革、政策指針、実証テスト、安全対策について論じ、また、米国が構想・試験・運用しているとされる具体的な軍事用途、そして直面しているとされる課題についても言及しています。特に注目されるのは、米国国防総省(DoD)の国防イノベーションユニット(DIU)が、2023年5月に生成AIをOSINTの収集および分析に応用するための技術プログラムを開始したとされる点です。この技術は、自動的なデータマイニングや評価、戦場の情報環境の可視化を通じて、指揮官を支援したと報告されています。著者は、DIUがこの技術に対し、アナリストがコンテンツを編集・配信できる機能を備え、DIUのAI基準に準拠し、DoDの情報環境内で利用可能であることを求めていたと述べています。

Non-PLA Perspectives

PLAにとどまらず、中国の党・国家体制の他の分野に所属する専門家たちも、インテリジェンス業務における生成AIの機会と課題について検討しています。これらの議論は軍事インテリジェンスに直接関わるものではありませんが、中国の党・国家体制全体が生成AIのインテリジェンスへの影響についてどのように取り組んでいるかを示す手がかりとなります。たとえば、2024年11月には、中国人民公安大学国家安全学院に所属する研究者が、生成AIによって生み出されるオンライン偽情報、いわゆる「偽情報汚染」がOSINT業務を混乱させるリスクを強調する記事を発表しました。また、2024年6月には、中国人民公安大学公安情報研究センターに所属する研究者が、ChatGPTおよび類似のAIツールがインテリジェンス業務に及ぼす潜在的影響について論じた記事を発表し、ChatGPTを不用意に使用すると、中国共産党によるインテリジェンス業務に対するイデオロギー的指導が損なわれる可能性があると主張しています。研究者たちは、ChatGPTが米国企業によって開発され、主に英語のコーパスで訓練されていることを指摘し、「西側資本主義的価値観」の影響を受ける恐れがあると警告しています。さらに、ChatGPTが「新自由主義」や「イデオロギー的中立性」に基づく、虚偽でありながら説得力のある情報を生成し、イデオロギー的な言論とその管理を侵食し、インテリジェンス業務に対するイデオロギーの見えない浸透を促進する可能性があると述べています。この記事で示された見解は、中国当局が生成AIモデルに対して正しいイデオロギー的方向性を確保しようとしている、より広範な規制の動きと一致しています。

全文を読むとともに、著者Zoe Haverに関する詳細情報をご覧になりたい方は、こちらをクリックしてPDF版のレポートをダウンロードしてください。