「シャドウAI」とは:あらゆる企業に潜む、管理外のAIリスク

主な洞察

  • 「シャドウAI」は至る所に存在しています。従業員の80%以上が承認されていないAIツールを使用しており、企業環境全体で665種類の生成AIアプリケーションが確認されています。
  • 金銭的なコストは数値化可能です。「シャドウAI」は平均的な情報漏洩コストを67万ドル押し上げ、AIの取り扱い不備に起因する内部関係者によるリスクは、組織に年間1,030万ドルの損失をもたらしています。
  • AIの使用禁止は効果がない。禁止措置後も、従業員のほぼ半数が個人用AIアカウントを使い続けている。禁止措置よりも、ガバナンスの徹底と承認された代替手段の方が効果的である。
  • 検知には複数のレイヤーが必要です。効果的なシャドウAIの検出には、ネットワーク、SaaS、エンドポイント、ブラウザ、およびID管理の各レイヤーが連携して機能することが不可欠です。
  • エージェント型AIは、新たなフロンティアです。監視なしに自律的に動作するAIエージェントは、従来のガバナンスでは対処できない、持続的で機械並みのスピードを持つリスクを生み出します。

従業員はすでにAIを利用しています。問題は、その事実を企業が把握しているかどうかです。UpGuardの「シャドウAIの現状」レポートによると、従業員の80%以上が承認されていないAIツールを使用しており、IBMの「2025年データ侵害コストレポート」では、5社に1社の組織が、承認されていないAIに関連するデータ侵害をすでに経験していることが明らかになりました。 従業員によるAIの導入スピードと、組織によるガバナンスの遅れとのギャップが、新たな企業リスクのカテゴリー「シャドウAI」を生み出しました。本記事では、シャドウAIとは何か、なぜ発生するのか、シャドウITとの違い、それがもたらす財務的・コンプライアンス上のリスク、そして実際に機能する検知・ガバナンスプログラムの構築方法について解説します。

シャドウAIとは何ですか?

「シャドウAI」とは、組織のIT部門やセキュリティ部門の認識、承認、または管理なしに、従業員が人工知能(AI)のツール、モデル、サービスを利用することを指します。その範囲は、個人がChatGPTに自社独自のソースコードを貼り付けるような行為から、部署全体が機密性の高い顧客データを処理する未承認のAIプラグインを導入するようなケースまで多岐にわたります。

この問題の規模は桁外れだ。ハーモニック・セキュリティが2,240万件の企業向けAIプロンプトを分析したところ、企業環境全体で665種類の生成AIツールが稼働していることが判明したが、公式のAIサブスクリプションを購入していた企業はわずか40%にとどまった。 「シャドーAIエコノミー」——従業員が独自に採用している無料プランのAIツール、ブラウザ拡張機能、コードアシスタント、組み込み型SaaS機能などから成る、広範かつ管理されていないエコシステム——は、今や多くの組織において、公式に導入されたAIを遥かに凌駕している。

「シャドウAI」の定義は、チャットボットにとどまりません。これには、個人アカウントで使用されるGitHub Copilotのようなコードアシスタント、AI搭載のブラウザ拡張機能、翻訳・執筆ツール、社用ノートPC上でローカルに実行されるオープンソースモデル、さらにはIT部門の認識なしに作動するSaaSアプリケーションに組み込まれたAI機能などが含まれます。AIセキュリティガバナンスの枠外で企業データを処理するAIシステムであれば、すべてこれに該当します。

なぜ今、シャドウAIが重要なのか

その緊急性は急速に高まっています。ガートナーは、2030年までに企業の40%以上が、不正なシャドウAIに関連するセキュリティまたはコンプライアンス上のインシデントを経験すると予測しています。 2024年にはジェネレーティブAIのトラフィックが890%以上急増し、メンロ・セキュリティは2025年に企業全体でシャドウ・ジェネレーティブAIの利用が68%急増したと報告している。シャドウAIを管理、あるいは検知するためのポリシーを策定している組織はわずか37%にとどまっており(IBM、2025年)、ジェネレーティブAIのセキュリティリスクが深刻化する中、大多数の組織は手探りの状態にある。

シャドウAI 対 シャドウIT

シャドウAIは、シャドウITの一形態であり、その進化形ですが、検出が困難で、放置すればはるかに危険な、独自の特性を持っています。シャドウITが許可されていないハードウェア、SaaSアプリケーション、またはクラウドストレージを扱うのに対し、シャドウAIは企業データを能動的に処理・学習・保持し、大規模な内部脅威を生み出すような形で作用します。

シャドウAIとシャドウIT:企業が理解すべき主な違い

ディメンション シャドーIT シャドウAI
定義 許可されていないハードウェア、ソフトウェア、またはクラウドサービス 企業データを処理する、許可されていないAIツール、モデル、およびサービス
よくある例 個人用Dropbox、未承認のSaaSアプリ、不正なクラウドインスタンス 個人アカウントでのChatGPT、AIコードアシスタント、AIブラウザ拡張機能、ローカルLLM
データ漏洩のリスク 承認されていないサービスに保存された、または転送されたデータ AIモデルによって能動的に処理され、保存、学習、または公開される可能性のあるデータ
検出の難しさ 中程度 — CASBやネットワーク監視により検知可能 高 — ブラウザ経由のやり取り、API呼び出し、組み込みSaaS機能、およびローカルモデル
コンプライアンスへの影響 データの保存場所、アクセス制御違反 AIに関する規制(EU AI法)、データ利用に関する同意、出力結果に対する責任
導入速度 段階的に、ツールごとに 爆発的 — わずか1年でGenAIのトラフィックが890%急増

シャドウAIは、シャドウITが抱えるあらゆるリスクを継承するだけでなく、データトレーニングに伴うリスク、出力精度のリスク、そしてEU AI法のような枠組みによって現在義務付けられているAI特有の規制上の義務も加わります。

シャドウAIが発生する理由

効果的なガバナンスを構築するには、根本原因を理解することが不可欠です。ガバナンスが機能せず、承認されたツールが従業員が独自にアクセスできるものに追いついていない環境では、シャドウAIが蔓延してしまいます。

  • 生産性への圧力。従業員はプロセスよりもスピードを優先する。医療従事者は、ワークフローの迅速化を主な動機として挙げている。管理職の50%が、スピードこそがAI導入の原動力であると述べている(Healthcare Brew、2026年)。
  • 承認された代替手段が不十分であること。企業が従業員が独自に見つけたツールと同等のAIツールを提供できない場合、27%が「承認されていないツールの方が機能性が優れている」と回答している(Healthcare Brew、2026年)。
  • 方針の欠如。AIガバナンス方針を策定している組織はわずか37%にとどまっている(IBM、2025年)。明確な指針がないため、従業員はどのツールを使用し、どのデータを共有するかについて、各自で判断を下している。
  • 個人アカウントへのアクセスが容易であること。 生成AIユーザーの約47%が、企業の管理体制を完全に回避して、個人アカウント経由でツールにアクセスしている(Netskope、2026年)。
  • 実験的な取り組みの文化。医療従事者の26%が単に試行錯誤し、学ぶためにAIツールを利用していると回答している(Healthcare Brew、2026年)。
  • 禁止措置は逆効果となる。調査によると、組織内でAIの使用が禁止された後も、従業員のほぼ半数が個人用AIアカウントを使い続けることが一貫して示されている。禁止措置は、AIを根絶するどころか、むしろ「影のAI」をさらに地下に潜らせる結果となる。

Shadow AIのリスクとビジネスへの影響

Shadow AIは、財務、業務、コンプライアンス、および評判に関するリスクを生み出し、その利用規模が拡大するにつれてこれらのリスクは増大します。その証拠は明確かつ定量化可能です。

  • データ漏洩による損害額は67万ドル。シャドウAIの導入レベルが高い組織では、データ漏洩による平均損害額が463万ドルに達し、シャドウAIの導入が低い、あるいは全くない組織よりも67万ドル高い(IBM『2025年データ漏洩コスト報告書』)。
  • 1,950万ドルの内部者リスク。内部者リスクによる年間コストは1組織あたり1,950万ドルに達し、その53%(1,030万ドル)は悪意のない行為者によるもので、主にシャドーAIの過失が原因となっている(DTEX/Ponemon 2026年版『内部者リスクのコスト』)。
  • 579,113件の機密データ漏洩。Harmonic Securityの調査によると、全機密データ漏洩の92.6%は6つのAIアプリケーションに起因しており、漏洩したデータの主なカテゴリーはソースコード(30%)、法的文書(22.3%)、M&A関連データ(12.6%)であった。
  • 97%がアクセス制御を欠いていた。AI関連の情報漏洩を報告した組織のうち、97%が適切なAIアクセス制御を欠いていた(IBM、2025年)。
  • 検知までの遅延は247日。Shadow AIによる侵害の検知までに平均247日を要し、これは一般的な侵害よりも6日長い。これらの侵害は、顧客の個人識別情報(PII)(65%対世界平均53%)および知的財産(40%対33%)に、特に大きな影響を与えた(IBM、2025年)。

AIデータ漏洩の隠れた連鎖

データ流出の経路は単純明快ですが、監視するのは困難です。従業員が機密データをコピーし、AIツールに貼り付けることで、そのデータは組織のセキュリティ境界外へと流出します。この流出の連鎖には、チャットインターフェースへのコピー&ペースト、AIプラットフォームへのファイルアップロード、SaaSツールとAIサービス間のAPI連携、ページコンテンツを傍受するブラウザ拡張機能、そしてAIエージェントに継続的なデータアクセス権を付与するOAuthトークンなどが含まれます。

従業員の38%が、雇用主の許可なく機密性の高い業務情報をAIツールと共有したことを認めている(CybSafe/NCA、2024年)。特に重要な点として、Harmonic Securityの調査によると、機密データの漏洩事例の16.9%(98,034件)は、IT部門の監視が全く及ばない個人の無料プランアカウントで発生していた。

Shadow AIの事例とケーススタディ

実世界の事例は、さまざまな業界におけるシャドウAIがもたらす実際的な影響を浮き彫りにしている。

サムスンのChatGPTデータ漏洩(2023年)

サムスンの半導体エンジニア3名が、わずか1か月の間にソースコード、会議の議事録、チップの歩留まりテスト手順などをChatGPTに貼り付けることで、機密データを漏洩させた。サムスンは当初ChatGPTの使用を禁止したが、その後、社内のAIソリューション開発を優先する方針に転じた。この事件は、事後的な禁止措置は効果がないという傾向を示しており、組織は「シャドウAI」が定着してしまう前に、積極的な利用規定とデータ分類を整備する必要がある。

大規模な医療分野におけるAIの導入

2026年の調査によると、医療従事者の57%が、承認されていないAIツールに遭遇したか、あるいは使用したことがあることが明らかになった。臨床医は、SOAPノートの作成、診断仮説の生成、治療計画の策定にChatGPT、Claude、Geminiなどを利用しており、ビジネスアソシエイト契約(BAA)を結ばずに保護対象となる医療情報を処理している。医療サイバーセキュリティにおけるリスクは二重のものであり、HIPAA(医療保険の携行性と責任に関する法律)のプライバシー規定違反に加え、患者の安全に直接影響を及ぼしうる臨床的正確性への懸念がある。

ある医療システムへの介入により、承認済みのツールが提供された結果、不正なAI利用が89%減少するとともに、臨床医1人あたり1日32分の時間短縮が実現しました。ここから得られる教訓は明らかです。ツールを提供し、利用の枠組みを明確にすれば、利用は「闇」から「公認」へと移行するのです。

67万ドルの保険料

IBMが600の組織を対象に実施した世界規模の調査により、その財務的影響が数値化されました。シャドーAIは平均的な情報漏洩コストを67万ドル増加させ、組織の20%がシャドーAIを直接的な原因とする情報漏洩を報告しており、検出またはガバナンスに関するポリシーを策定していたのはわずか37%にとどまりました。 CISOがビジネスケースを構築する際、ガバナンスのROIはこれらの数値に反映されています。つまり、年間67万ドル未満のコストで運用できるガバナンスプログラムであれば、たった1回の情報漏洩事故で元が取れることになります。

シャドウAIを検知・防止する方法

効果的なシャドウAIの検知には、多層的なアーキテクチャが必要です。あらゆる手法を網羅できる単一のツールは存在せず、1つの検知方法に依存している組織では、他のチャネルを通じて動作しているAIツールを見逃してしまうことになります。

シャドウAI検出アーキテクチャ

ネットワーク、SaaS、エンドポイント、ブラウザの可視性を網羅する、多層型シャドウAI検知アーキテクチャ

  • ネットワーク層。既知の生成AI APIエンドポイント(api.openai.com、generativelanguage.googleapis.com、AnthropicのAPIドメイン)へのトラフィック分析 AI関連ドメインのDNS監視。暗号化されたAIトラフィックに対するSSL/TLS検査。ネットワーク検知・対応機能は、従業員がどのAIツールを選択しても、基盤となる可視化レイヤーを提供します。
  • SaaSレイヤー。SaaS AI検出のためのCASB統合。AIエージェント接続のためのOAuthおよびAPIトークンの監視。組み込まれたAI機能を明らかにするSaaS間統合の監査。クラウド検知とレスポンス機能により、AIサービスへの異常なデータフローを特定します。
  • エンドポイント層。AIツールへのコピー&ペースト操作に対するDLP監視ブラウザ拡張機能の監査。ローカルAIモデル(Llama、Mistral、およびネットワークレベルの制御をすべて回避する同様のオープンソースLLM)のアプリケーションインベントリ。GPUを多用するローカル推論のプロセス監視。
  • ブラウザ層。データ取り扱いルールを強制するエンタープライズ向けブラウザポリシー。AIとのやり取りにおけるブラウザベースのDLP。個人アカウントの検出 — 機密性の高いAIとのやり取りの45.4%は、個人のメールアカウントから発生しています。
  • アイデンティティ層。OAuthトークンの乱立を監視するためのアイデンティティ脅威の検知。AIエージェントの接続に関するサービスアカウントの監査。AIサービスへのSSOログインの追跡により、不正アクセスのパターンが明らかになる。

検知の手順書(6つのステップ)

  1. CASBおよびSaaS管理プラットフォームを通じて、既知のAIツールをすべて棚卸しする
  2. 生成AI APIエンドポイントへの接続について、ネットワークトラフィックを監視する
  3. 不正なAI連携がないか、OAuthトークンとAPIキーを監査する
  4. エンドポイントDLPを導入し、AIツールへの機密データの流れを検知する
  5. 企業のエンドポイント上でローカルAIモデルがインストールされていないかスキャンする
  6. ブラウザ拡張機能と個人アカウントの利用状況を確認する

ISACAの監査手法では、これらの手順を既存のIT監査サイクルに組み込むことが推奨されています。平均的な企業では、AIの利用に関連するデータポリシー違反が月平均223件発生しており(Netskope、2026年)、継続的な監視が不可欠となっています。

禁止ではなく、ガバナンスによる予防

効果的な脅威の検知は、成功への道のりの半分に過ぎません。残りの半分は、ガバナンスを人々の敵ではなく味方として機能させることです。

  • エンタープライズ向けのAIソリューションを提供する。承認されたツールが提供されると、不正利用は89%減少する(Healthcare Brew、2026年)。
  • AIとのやり取りに特化したデータ分類およびDLPポリシーを導入する。
  • 完全なブロックではなく、リアルタイムの指導や警告を導入する。
  • 定期的にAI監査を実施し、常に最新のAIシステム一覧を維持する。

シャドウAIのガバナンスとポリシー

シャドウAIのガバナンスは、従業員が回避してしまうような一律の禁止措置ではなく、データの境界線や承認された代替案に焦点を当てることで効果を発揮します。ガバナンス方針を策定している組織はわずか37%にとどまっています(IBM、2025年)。つまり、63%の組織が安全策を講じずに運営されていることになります。

効果的なAIのシャドーポリシーでは、AIツールを「完全承認」(標準的なデータ取り扱い以外の制限なし)、「限定使用」(特定のデータ取り扱いルールに従うことを条件に承認)、「禁止」(高リスクまたはコンプライアンス違反のツール)の3つのレベルに分類すべきである。クラウドセキュリティアライアンス(CSA)は、5つのステップからなるガバナンスフレームワークを推奨している。それは、「発見」、「分類」、「リスク評価」、「統制の実施」、そして「継続的な監視」である。

AIガバナンスの主要な構成要素としては、NIST AI RMFおよびコンプライアンス要件に準拠した既存のリスク管理フレームワークへのシャドーAIガバナンスの統合、セキュリティ、法務、コンプライアンス、事業部門を横断するAIガバナンス委員会、技術的統制と並行して実施されるAIリテラシー研修、および稼働中のすべてのAIシステムを網羅する定期的なAI監査などが挙げられる。AIガバナンスツールを活用して検出とポリシー適用を自動化する組織は、手動プロセスにのみ依存する組織に比べて、対象範囲の拡大までの時間を短縮できる。

コンプライアンスおよび規制の影響

Shadow AIは、組織が存在すら把握していないAIシステムを管理・棚卸し・リスク分類することができないため、規制遵守を不可能にします。こうしたコンプライアンス上の死角は、具体的かつ測定可能なものです。

シャドウAIが主要な規制枠組み全体にコンプライアンス上の死角を生み出す仕組み

フレームワーク 主な要件 シャドウAIのリスク 証拠
EU人工知能法 AIシステムの棚卸しおよびリスク分類;AIリテラシー(第4条);2026年8月2日より発効する高リスク義務 「シャドー・ハイリスク」な導入は導入者に法的責任を生じさせ、世界全体の売上高の最大6%に相当する罰金が科される セキュリティ・ウィーク
GDPR 適法な処理、データ処理契約(第5条、第28条、第35条) データ保護当局の承認を得ずに個人データを無断で処理した場合、売上高の4%または2,000万ユーロのいずれか高い方の罰金が科される GDPR準拠
ヒパア PHIの保護、業務提携契約 BAAの対象外となるAIツールにPHIを入力する医療従事者 ヘルスケア・ダイブ
NIST AI RMF 統治、地図作成、測定、管理機能 未知のAIシステムについては、AIリスクを特定したり評価したりすることはできない NIST AI RMF
MITRE ATT&CK T1567: Webサービス経由の情報流出 Shadow AIは、監視の及ばない情報流出経路をクラウドAIサービスへと構築します MITRE ATT&CK
MITRE ATLAS AIによる敵対的攻撃の脅威マッピング 監視されていないAIシステムは、prompt injection モデルポイズニングの標的となる MITRE ATLAS

ガートナーは、AIガバナンスへの支出が2026年には4億9200万ドルに達し、2030年までに10億ドルを超えると予測している。これは、企業がコンプライアンスの重要性を認識していることを明確に示している。

エージェント型シャドウAI:新たなフロンティア

シャドウAIは、チャットボットによる対話という枠を超え、人間の監視なしに機械並みの速度で動作し、企業システムに常時アクセスできる自律型エージェントへと進化しています。エージェント型シャドウAI――従業員によって導入されたり、SaaSツールに組み込まれたりして、自律的に意思決定を行い、データにアクセスし、システムとやり取りする自律型AIエージェント――は、根本的に異なるリスクのカテゴリーを形成しています。

この違いは重要です。従来のシャドウAIでは、人間がChatGPTにデータを貼り付けて単一のやり取りを行うだけでした。一方、エージェント型シャドウAIでは、APIへのアクセス権を持つ自律型エージェントが、複数のサービスにわたってアクションを連携させ、継続的に稼働し、人間の確認なしに意思決定を行います。これらのエージェントは、従来のガバナンス体制を完全に迂回する、常時稼働するマシンスピードの「運用上の内部関係者」として機能します。

この脅威は単なる仮説ではありません。CrowdStrikeの「2026年グローバル脅威レポート」によると、攻撃者は90以上の組織において生成AIツールを悪用しており、犯罪者向けフォーラムではChatGPTの言及頻度が550%増加していることが判明しました。 98%の組織が承認されていないAIの使用を報告しており、49%が12ヶ月以内にシャドーAI関連のインシデントが発生すると予想している。ガートナーは、2025年には5%未満だった企業向けアプリケーションの40%が、2026年末までにタスク特化型AIエージェントを搭載するようになると予測している。

脅威の経路としては、内部APIを公開しているMCP(Model Context Protocol)サーバー、AIエージェント機能を備えたブラウザ拡張機能、永続的なデータアクセス権を持つOAuth接続エージェント、および監視されていないアクセスチェーンを生み出すAPIトークンの乱立などが挙げられます。エージェント型AIのセキュリティには、従業員がAIをどのように利用しているかだけでなく、AIが自律的に何を行っているかについても監視する必要があります。これには、 prompt injection など、セキュリティ対策が不十分なシャドウエージェントを悪用する攻撃も含まれます。CIO.comが報じているように、従来のガバナンスフレームワークは人間の速度で人間が開始するインタラクションを想定して設計されており、自律型エージェントの挙動には対応しきれていません。

シャドウAIに対する現代的なアプローチ

業界では、「禁止ではなくガバナンス」という明確な原則が定着しつつある。サムスンは当初のChatGPT利用禁止措置を撤回した。承認済みの代替ツールを提供した医療機関では、無許可での利用が89%減少した。この傾向は一貫しており、安全なAIツールを提供し、データの利用範囲を明確に定めている組織は、一律の禁止措置を試みる組織よりも優れた成果を上げている。

現代のシャドウAI対策には、ハイブリッドな攻撃対象領域全体にわたる統合的な可視性が不可欠です。新たな機能としては、AIネイティブなセキュリティプラットフォーム、SaaSのセキュリティ状態管理、ブラウザ層でのDLP、およびIDを認識するAIモニタリングなどが挙げられます。ネットワーク検知・対応(NDR)は依然として基盤となる層であり、生成AIエンドポイントへのトラフィック分析を行うことで、従業員がどのツールを選択しても可視性を確保できるからです。

Vectra AI 「シャドウAI」をどうVectra AI

シャドウAIは、根本的には可視性とシグナルの問題です。ポリシーやエンドポイント制御のみに依存している組織は、ネットワーク、クラウド、ID、SaaSの各領域で稼働しているAIツールを見逃してしまいます。Vectra AI、オンプレミス、マルチクラウド、ID、SaaS、AIインフラストラクチャにまたがる現代のネットワークを、単一の統合された攻撃対象領域として扱います。 許可されていないAIトラフィック、外部AIサービスへの異常なデータフロー、OAuthトークンの乱立によるID関連のリスクは、いずれも振る舞い を生み出します。AI駆動型の検知はこれらのシグナルを捕捉し、セキュリティチームがポリシーだけでは把握できない脅威を発見できるようにします。

結論

シャドウAIは、組織が無視したり、禁止したり、単一のツールで解決できるような問題ではありません。データは明白です。従業員の80%が承認されていないAIを利用しており、シャドウAIは情報漏洩によるコストを67万ドル増加させ、ガバナンスポリシーを策定している組織はわずか37%にとどまっています。AIがチャットボットから自律型エージェントへと進化するにつれ、リスクの範囲は、多くのセキュリティチームが認識している以上に急速に拡大しています。

今後の道筋は、可視化、ガバナンス、そして活用支援を組み合わせたものです。企業のあらゆる階層に存在するシャドウAIを検知します。全面的な禁止ではなく、データの境界線を定めるポリシーを構築します。コンプライアンス遵守が最も容易な選択肢となるよう、承認済みの代替案を提供します。そして、従業員がAIをどのように利用しているかだけでなく、AIが自律的に何を行っているかを監視することで、自律型シャドウAIへの備えを整えます。

侵害を前提として、ハイブリッドな攻撃対象領域全体にわたる統合的な可視化に投資する組織は、このリスクを管理できる態勢を整えることができるだろう。侵害が発生してから対応を迫られるのを待つ組織は、その代償を払うことになる。

Vectra AI 、攻撃対象領域全体にわたる統合的な可視性をどのようにVectra AI をご覧ください。

よくある質問 (FAQ)

シャドウAIは違法ですか?

シャドウAIを禁止することはできますか?

シャドウAIによるGDPR上のリスクとは何か?

シャドウAIは医療にどのような影響を与えるのでしょうか?

ガートナーはシャドウAIについてどのような予測をしているのでしょうか?

シャドウAIポリシーはどのように作成すればよいですか?

CASBはシャドウAIに対してどのような役割を果たすのでしょうか?