AIセキュリティ負債の隠れたコスト
概要
人工知能 (AI) は、企業の「セキュリティ負債」、つまり時間の経過とともに累積する未修正の脆弱性のバックログを加速させており、侵害、ダウンタイム、監査の失敗のリスクを高めています。
AI コーディング アシスタントへの依存度が高まると、安全でないコードが大量に生成され、手動によるレビュー サイクルが過負荷になり、セキュリティ チームが対応するよりも早く欠陥が本番環境に持ち込まれるリスクがあります。
サードパーティへの依存とシャドーAI導入により、露出が拡大します。重大な脆弱性の 70% はサードパーティのコードに起因し、シャドーAIによって機密データが漏洩してコンプライアンスの盲点が生じ、長期的なセキュリティ負債が気づかれずに増加します。
ガバナンス、監視、および AI 対応ツールのターゲットを絞った適用により、組織は AI を負債から防御資産に変え、セキュリティ負債の増加を遅らせ、長期的なコストを削減し、信頼を回復することができます。
図 1: 担保債務: 主要な統計 (情報源: Veracode)
セキュリティ債務:増大する企業リスク
セキュリティ負債とは、組織の技術スタック全体に蓄積された未解決の脆弱性、過剰な権限、古い構成のバックログを指します。現代の企業の約 74% が何らかのセキュリティ負債を抱えており、そのほぼ半数が、長期にわたる、非常に深刻で、悪用される可能性のある欠陥が組み合わさった「重大な」負債を抱えています。金融債務と同様に、担保債務にも「利息」が発生し、時間の経過とともに解決が複雑になり、費用もかかります。
シミュレーションアクターは、この増大するバックログを活用しています。 脆弱性の悪用は増加傾向にあり、2022年から2023年の間だけで180%増加し、データ侵害の主な侵入ポイントとして浮上しています。2025 年には侵害の平均コストが444 万ドルに達すると予想されており、セキュリティ負債は技術的な負債であるだけでなく、深刻な財務リスクでもあります。直接的なコスト以外にも、法的罰則や顧客の信頼の低下につながる可能性があり、これは技術的な問題によって損傷したシステムよりも回復がはるかに困難です。
担保債務の蓄積の仕組み
図 2: 企業証券債務の累積に寄与する主な要因(情報源: Recorded Future )
- イノベーションとセキュリティのギャップ:
プレッシャーの大きい環境では、イノベーションとスピードがセキュリティよりも優先されることがよくあります。脆弱性が修正される前に製品が出荷され、開発者はシステムを稼働させ続けるために広範なアクセス権を付与し、脆弱なレガシーシステムは混乱を避けるためにパッチが適用されないままになります。こうした短期的なトレードオフは徐々に複雑化し、体系的な長期リスクへと発展します。 - 時間とリソースの制約:
修復/復旧/改善には費用がかかり、時間がかかります。脆弱性を 1 つ修正するには平均 50,000 ドルの費用がかかり、重大な問題にパッチを適用するには約205 日かかります。 稼働時間が最優先される業界では、オンラインに留まらなければならないというプレッシャーにより、修復/復旧/改善が後回しになり、未処理の作業が増大することになります。 - 可視性の課題:
大規模な機関では、多くの場合、数千のアプリケーションと数万のベンダーを含む広大なエコシステムを運用しています。サードパーティのリスクは特に深刻です。重大な脆弱性の 70% はサードパーティのコードとソフトウェアサプライチェーンに起因しており、ベンダーの調整の問題によりパッチ サイクルが頻繁に遅延します。 - 所有権の欠如:
脆弱性が特定されても、所有権が不明確であることがよくあります。セキュリティ チームはリスクにフラグを立てますが、修正を実装する権限がありません。一方、開発者はイノベーションと市場投入までのスピード、IT/DevOps が安定性を優先します。 この責任の分散により、脆弱性が数か月、あるいは数年にわたって存続することになります。
AIとセキュリティ債務
AIの急速な導入により、セキュリティ負債の蓄積が加速しています。AI を活用したコード アシスタント (GitHub Copilot など) は生産性を向上できますが、適切なガードがないとリスクも生じます。GitHub Copilot によって公開プロジェクトから生成されたコード スニペットの実際のケース 452 件を最近調査したところ、GitHub Copilot によって生成された Python スニペットの約 3 分の 1 と JavaScript スニペットの 4 分の 1 に 38 種類の CWE が含まれており、そのうち 8 つが 2023 CWE トップ 25 リストに掲載されていることがわかりました。100 を超える大規模言語モデル (LLM) を対象とした別の分析では、生成されたコードの 90% がエラーなしでコンパイルされたものの (2023 年 6 月以前は 20% 未満だったのに対し)、安全だったのはわずか 55% であることが明らかになりました。
図 3: LLM のセキュリティと構文の合格率と LLM のリリース日の比較 (情報源: Veracode)
この食い違いにより、イノベーションとセキュリティのギャップが拡大しました。欠陥のあるコードは数時間で本番環境に導入される一方で、レビューは依然として大部分が手作業で行われ、時間がかかり、リソースが制限されています。この不均衡により、組織は一部の脆弱性に気付かず、他の脆弱性に圧倒されてしまうことになります。この課題は、金融、医療、物流などの規制の厳しい業界では特に深刻であり、コンプライアンス義務によりレガシー システムへの依存が長引く可能性があります。こうした制約は、そうした産業を本質的に弱体化させるわけではありませんが、証券債務の影響を拡大させます。たとえば金融サービスでは、アプリケーションの約 94.5%に既知の脆弱性が含まれており、老朽化したシステムだけでセキュリティ負債全体の 40% を占めています。
AIがセキュアコーディングに苦労する理由
安全なコーディングにはコンテキストが必要です。つまり、アプリケーションの脅威モデル、データの機密性、アーキテクチャ上の弱点を理解することです。AI アシスタントはこれを提供できないことが常にあります。問題の根本はトレーニング データにあります。モデルは、未解決の脆弱性を含む多くの、膨大な未サニタイズされたコード リポジトリから学習します。WebGoat など、意図的に安全でないものもあります。これらの例にラベルが付けられることはほとんどないため、モデルは安全なパターンと安全でないパターンの両方を有効なものとして扱い、連結された SQL クエリ (SQL インジェクションの主な原因) などの欠陥を大規模に再現します。
AI ツールは、出力に欠陥があるだけでなく、誤った自信を与えてしまうこともあります。調査によると、AI を使用する開発者はコードを信頼する一方で、脆弱性を持ち込む可能性が高くなることがわかりました。ある調査では、AI 支援を受けた参加者の 36% が SQL インジェクションの脆弱性を導入したのに対し、コントロール グループではわずか 7% でした。この誤った信頼により、安全でないコードが本番環境に広まることが加速され、セキュリティ負債の蓄積が促進されます。
シャドーAI:隠れたリスク増幅要因
課題をさらに複雑にしているのは、「シャドー AI 」の増加、つまり IT 部門の可視性と制御の外で AI ツールを許可なく使用することです。開発者は独自のコードを個人の AI アカウントに貼り付ける可能性があり、従業員は機密文書をパブリック チャットボットにアップロードする可能性があります。AIを不注意に使用すると、知的財産、個人データ、財務記録などが簡単に漏洩する可能性があります。迅速な注射
攻撃者はモデルを操作して機密情報を公開したりワークフローを破壊したりすることができ、検証されていない統合は攻撃者が悪用できる盲点を生み出します。その結果、 GDPRやHIPAAなどの団体の規制に準拠できなくなることがよくあります。
図 4: シャドウAIの使用に起因する企業リスク (情報源: Recorded Future )
特定のツールを禁止したり、政府レベルの規制を制定したりするなど、シャドーAIに対処するための従来の試みは、これまでのところ効果がないことが証明されている。従業員は、AI によって生産性を向上できると信じた場合、回避策を見つけて個人のデバイスやネットワークを利用することがよくあります。この許可されていない導入は、即時のリスクをもたらすだけでなく、長期的なセキュリティ負債も増大させます。文書化されていないAI統合、監視されていないデータの露出、または安全でないワークフローはすべて、組織が最終的に対処を余儀なくされる脆弱性とコンプライアンス ギャップのバックログの増加につながります。
結論: AIでAIを守る
AI は間違いなくセキュリティ負債の原因となるものの、解決策の一部となることもできます。新しい AI 駆動型ツールを使用すると、トリアージを自動化し、パッチ適用を加速し、本番環境に到達する前に脆弱性を検出することもできます。
組織は、新しいテクノロジーを実装するだけでなく、AI リスクを組み込むために既存の DevSecOps プラクティスも適応させる必要があります。これには、AIが安全でないパターンを複製する傾向を反映した標準の更新、アーキテクチャチェックポイントでの監視の強化、および
開発者はプロンプトにセキュリティを組み込むことができます。この階層化されたアプローチは、 AI負債から防御資産へと変えることで、セキュリティ負債の増加を遅らせ、長期的な修復/復旧/改善コストを削減し、信頼を再構築するのに役立ちます。
今後の展望
AI によるコード生成は、セキュリティ負債を拡大し続ける可能性が非常に高いです。2028年までに、エンタープライズ ソフトウェア エンジニアの4 分の 3 がAI コード アシスタントを使用すると予測されています。セキュリティレビューサイクルの遅さと相まって、この導入により、悪用可能な欠陥のバックログが拡大することになります。
シャドウAI攻撃対象領域を拡大する可能性が高い: 2027 年までに、従業員の推定 75% がIT ガバナンス外のテクノロジを導入または構築すると予想されます (2022 年の 41% から増加し、高度な可視アクター / 敵対者が永続性やデータ窃盗に悪用する盲点が生じます)。
AIサプライチェーンの悪用は増加する可能性が高く、共有されたAIフレームワーク、モデルハブ、APIへの依存により、悪用が組織的に露出されています。 AI部品表 AIBoM 標準が広く採用されていない場合、上流の情報漏洩/侵入は複数の組織に連鎖的に発生します。
規制の監視は厳しくなる可能性が高く、AI セキュリティは調達における重要な要素になります。EU AI 法は 2025 年に施行される予定であり、米国 NIST AI RMF 2.0、APAC、OECD 地域では並行するフレームワークが出現しており、企業は透明性、テスト、リスク分類に関してより厳しい要件に直面することになります。同時に、企業や政府機関では、調達プロセスやベンダー評価に AI ガバナンスとセキュリティ要件を組み込むケースが増えています。成熟した AI ガバナンスを備えた企業は、規制された信頼性の高い契約を獲得する際に明確な優位性を獲得しますが、そのようなガバナンスを持たない企業は、コンプライアンス コストの上昇、運用の中断、ビジネス チャンスの損失に直面することになります。
軽減策
AI による AI の保護: AI を活用したトリアージ ツールは、アラートをフィルタリングし、優先度の高い脅威を優先させることができます。自動化された修復/復旧/改善キャンペーンは、パッチを開発者のワークフローに直接プッシュし、AI で強化された DevSecOps プラットフォームは、欠陥が本番環境に影響を与える前に、継続的な脅威モデリング、静的分析、異常検知を提供します。
AI 認識型セキュリティの実装:特にアーキテクチャのチェックポイントや本番環境のレビューでは、人間による監視が依然として重要です。開発者は、自動化された脆弱性スキャンを CI/CD パイプラインに統合し、AI 対応の静的解析ツールを導入して、AI によって生成されたコード内の安全でないパターンを検出する必要があります。
記録された未来 Vulnerability Intelligence AI が生成した出力に新たな脆弱性が生じ、それが武器化される前に発見するのに役立ちます。
シャドー AI ガバナンス:明確な使用ポリシーを確立し、すべての AI モデルと API の登録を義務付け、承認されていないアプリケーションに代わる安全な代替手段を提供します。教育と技術検出ツールを組み合わせて、不正なAIトラフィックを検出し、コンプライアンス違反を軽減します。
AIサプライチェーンを保護する: AI関連の依存関係をすべてレビューし、サプライヤーにAI部品表AIBoMの開示を要求し、サードパーティコンポーネントの情報漏洩/侵入指標の監視を実装します。
記録された未来 Third-Party Intelligence AIサプライチェーンのリスクを評価し、優先順位を付けるのに役立ちます。
規制への準拠: EU AI 法や NIST AI RMF 2.0 などのフレームワークに基づいて AI 資産をリスク カテゴリにマッピングし、監査可能性の制御を実装し、AI セキュリティ保証に対するクライアントの要求に備えます。
AIセキュリティポスチャーの測定と報告: AIセキュリティ負債の主要なリスク指標KRIを開発し、修復/復旧/改善の進捗状況を定期的に報告し、これらの指標をクライアント向けのセキュリティ保証に組み込みます。
リスクシナリオ
シナリオ:シナリオ: 広く使用されている AI 支援コーディング プラットフォームによって、何千ものオープン ソース ライブラリとエンタープライズ ソフトウェア システムに知らないうちに埋め込まれた重大な脆弱性が生じます。 この欠陥はソフトウェアの依存関係を通じて、複数の分野の運用環境に伝播します。
脆弱性を大規模に悪用
重要なシステム:視覚アクター / 敵対者は、自動スキャンを使用して脆弱なインスタンスを迅速に見つけて悪用し、不正アクセス、データ盗難、運用の中断につながります。
組織的な搾取キャンペーン
高価値セクターをターゲットにする:金融、医療、物流プロバイダーは、業務の重要性とデータの価値により優先順位が付けられます。
将来アクター / 敵対者がサプライチェーンパートナーに軸足を移す:
シミュレーションアクターは、情報漏洩/侵入ベンダーと統合ポイントを使用して、相互接続された組織へのアクセスを拡大し、信頼関係を利用して防御を回避します。
大規模な知的財産の流出:独自のコードベース、アルゴリズム、戦略文書が盗まれた。
搾取された知的財産は、競合他社によって収益化されるか、違法市場で販売されます。
業務の中断とブランドの毀損:重要なシステムの破壊により、取引、物流、サービスの提供が停止し、
顧客、パートナー、規制当局の間でサイバーレジリエンスが不十分であるという認識。