クラウドAI導入のセキュリティ確保:MITRE ATLASからの知見とAI主導型防御の必要性

2025年6月18日
Zack Abzug
データサイエンス・マネージャー
クラウドAI導入のセキュリティ確保:MITRE ATLASからの知見とAI主導型防御の必要性

企業がミッションクリティカルなシステムにAIを統合するにつれ、アタックサーフェスは従来のITやクラウド環境を超えて拡大しています。ATLASは、AI特有の攻撃シナリオ、実際に確認された攻撃者の行動、AI環境に特化した緩和策を文書化することで、そのギャップを埋めます。

MITRE ATLASフレームワークとは?

MITRE ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) は、AIシステムを標的とする攻撃者の戦術や技術を体系的に整理した、公開アクセス可能なナレッジベースです。広く利用されているMITRE ATT&CK® フレームワークをモデルにし、AI技術に特有の脅威や脆弱性、リスクに対応するよう設計されています。

ATLASは以下の情報をもとに構築されています。

  • 実際の攻撃の観察
  • AIレッドチームのデモンストレーション
  • 政府、産業界、学界によるセキュリティ研究

これにより、攻撃者がAIや機械学習システムをどのように標的にするか、その行動・技術・ツールを把握できます。

武器化からインフラの悪用へ:攻撃者の焦点の変化

現在確認されている多くの活動では、攻撃者が生成AIを使って以下のような作業を効率化しています。

  • フィッシングメールやソーシャルエンジニアリングのスクリプト作成
  • 脆弱性や攻撃技術の調査
  • マルウェアやツール開発のトラブルシューティング
  • 詐欺や偽の ID のためのコンテンツの生成 しかし、より懸念されるパターンが注目を集めています。攻撃者は進化する戦術を使用しており、AWS Bedrock や Azure AI Foundry などのクラウドベースの LLM リソースを悪用することが、利益と悪用の増大するベクトルになっています。
AWS ベッドロック
図: Amazon Bedrock は、生成型 AI アプリケーションの構築とスケールを支援するサービスです。Anthropic、Meta などの基盤モデルのデプロイをサポートするフルマネージドサービスです。

パブリックLLMはテキスト生成やスクリプト支援が可能ですが、クラウドホスト型モデルはエンタープライズの高付加価値なワークフローに深く統合されており、攻撃者にとってはコンピュート資源、機密データ、信頼された実行環境へのアクセス手段となります。

攻撃者は生成AIを汎用的に使用するよりも、クラウド生成AIを悪用することを好むという事実を示すミーム

なぜ無料のオープンソースモデルではなく、クラウドホスティングのAIを攻撃するのか?

AWS Bedrock や Azure AI Foundry のようなクラウドプラットフォームは以下の理由で魅力的です。

  • マルチテナント構造の存在: 共有コンポーネントに脆弱性があれば、複数顧客に影響を与える可能性があります。
  • 機密データへのアクセス:特にRAG(検索拡張生成)ワークフローと連携する場合、社内の知識ソースから取得したデータがモデルに注入されます。
  • 信頼性とID統合の悪用 :クラウドIDやIAMロールを特権昇格や横展開に悪用可能です。
  • 運用コスト:攻撃者はコンピュート資源を乗っ取ってLLMjacking(LLMの不正利用)を行うことで損失を発生させます。

これらの環境を悪用することで、オープンソースやAPIの使用よりもステルス性とROI(投資対効果)を高められるのです。

攻撃者が生成AIインフラを標的にする理由

クラウドベースの生成AIサービスを標的とする攻撃者の目的は、金銭的利益、データの窃盗、そして破壊的な意図の3つです。攻撃の成功は、企業インフラへの最初のアクセス方法に大きく左右されます。

1.経済的利益

アカウントの乗っ取りや設定ミスを突いて、無許可で推論ジョブを実行(LLMjacking)したり、AIサービスの無料計算資源を不正利用します。

2.情報窃取

高度な攻撃者は、独自モデル、学習データ、あるいはRAG経由で取得できる機密ドキュメントの抽出を目指します。

3.破壊

サービス妨害攻撃、学習パイプラインの汚染、モデル出力の改ざんによって性能や可用性を低下させます。

公開LLMの悪用は攻撃者の活動をある程度可能にするが、企業のGenAIインフラを標的にする戦略的利点(データアクセス、スケーラビリティ、信頼の悪用)は、より魅力的でインパクトのあるベクトルにしている。

MITRE ATLASでこれらの脅威を把握・分類

MITRE ATLASは、AWS Bedrock や Azure AIなどのプラットフォーム上で確認された戦術・技術を体系的に整理したもので、企業のセキュリティチームがリスクを可視化するのに有用です。

ATLAS は、AI モデルの偵察、オープンソース モデルやデータセットの汚染、LLM プラグインの侵害など、クラウド ホスト型 AI インフラストラクチャに関連するもの以外にも、幅広い技術をカバーしています。

脅威アクターがクラウドホスト型 AI インフラストラクチャを攻撃するプロセスで活用できる具体的な手法の例を以下に示します。

初期アクセス

LLMジャッキングのためのダークウェブ・エコシステム - アングラなサービスを通じて販売されている、漏洩したアカウントとAWS IAMキーにより、消費者はクラウドホスティングされたLLM上で未払いの推論ワークロードを実行することができる。
図: LLM ジャッキングのダーク ウェブ エコシステム — 侵害されたアカウントと AWS IAM キーがアンダーグラウンド サービスを通じて販売され、消費者はクラウド ホスト型 LLM 上で無償の推論ワークロードを実行できるようになります。

AIモデルへのアクセス

実行

  • LLM プロンプト注入 (AML.T0051):特にRAGやワークフローに統合されたシステムにおいて、ガードレールやロジックを破壊する悪意のある入力を注入すること。

特権のエスカレーション/防御回避

  • LLM 脱獄 (AML.T0054):モデル制御を迂回し、制限された機能を解除したり、有害なコンテンツを生成したりすること。
LLMモデルが有効であることを確認した後、彼らはプロンプトのロギングを無効にして追跡を隠す。ロギングをオフにすることで、システムが不正なプロンプトを記録しないようにする。
図:LLMモデルが有効であることを確認した後、プロンプトのロギングを無効にして追跡を隠す。ロギングをオフにすることで、不正なプロンプトがシステムに記録されないようにする。

ディスカバリー

不正なモデル起動の攻撃フロー - 侵害されたIAMキーを使用してクラウド環境に侵入すると、敵対者は偵察を行い、基盤となるモデルを発見し、それらを有効にして推論を開始します。
図:侵害されたIAMキーを使用してクラウド環境内に侵入すると、敵対者は偵察を行い、基盤となるモデルを発見し、それらを有効にして推論を開始します。

収集と流出

インパクト

  • AIサービス拒否 (AML.T0029):AI エンドポイントに過負荷をかけたり混乱させたりして、可用性を低下させる。
  • 外部被害 (AML.T0048):AIシステムを悪用したり、重要なアプリケーションでAIの出力を操作したりすることで、金銭的、風評的、法的、物理的な損害を与える。
盗まれたIAMクレデンシャルを悪用する攻撃者
図:ここでも攻撃者は盗んだIAM認証情報を悪用することから始め、続いて偵察を行います。次に、攻撃者は有効化されたモデルにガードレールが設定されているかどうかをテストします。十分な権限を持っている場合、ガードレールを改ざんし、特にカスタムモデルなど、モデルをより悪用されやすくすることも可能です。

これらのテクニックは、攻撃者がAIインフラの各レイヤー(アクセス、実行、データ、影響)をどのように悪用しているかを示しています。MITRE ATLASは、SOCチームが検出の優先順位を付け、防御を検証し、企業のAI環境を効果的にレッドチームするために必要なマッピングを提供します。

Vectra AIとMITRE ATLASのマッピング

Vectra AIは、その検出ロジックをMITRE ATLASにマッピングし、SOCチームの特定を支援します:

  • AWS BedrockやAzure AI Foundryなどの生成AIプラットフォームにアクセスしている不審なID
  • 防衛策を回避し、生成AIの乱用に関する調査を妨害しようとする試み
  • 生成AIモデルの異常な使用はクラウドアカウントの侵害と一致する

VectraのAI優先順位付けエージェントは、これらの行動を明らかにするだけでなく、疑わしいアクセスや生成AIモデルの有効化に関連するアイデンティティのリスクプロファイルを引き上げることで、アナリストの集中力を高めます。Vectra AIは、ハイブリッドクラウドおよびSaaS環境全体でエージェントレスのアイデンティティドリブンな検知を提供するため、特にAI統合ワークフローにおいて、従来のツールでは見逃してしまう可能性のある脅威を検知できる独自の立場にあります。

AML.TA0004
初期アクセス
AML.TA0000
AIモデルアクセス
AML.TA0005
実行
AML.TA0012
特権のエスカレーション
AML.TA0007
防衛回避
AML.TA0008
発見
AML.TA0009
コレクション
AML.TA0010
浸出
AML.TA0011
影響
有効なアカウント AIモデル干渉APIアクセス LLMプロンプト・インジェクション LLM脱獄 LLM脱獄 AIモデルファミリーの発見 情報リポジトリからのデータ AI推論APIによる流出 AIサービス拒否
公開アプリケーションを悪用する AIを活用した製品・サービス AIアーティファクトの発見 LLMデータ流出 外部被害
フィッシング

MITREのATLASフレームワーク(2025年3月17日発表)で定義されたテクニックとサブテクニックに対する我々の現在の可視性の概要。

ストーリーは変わりつつあります。生成AIは攻撃者の武器であるだけでなく、いまや標的でもあるのです。企業での活用が進むほど、攻撃の高度化も進むでしょう。MITRE ATLASのようなフレームワークとVectra AIプラットフォームを活用することで、セキュリティチームは進化する脅威に先手を打ち、AIの価値を損なうことなく安全に活用することができます。

よくあるご質問(FAQ)