AIが攻撃対象に:セキュリティ・スタックが迅速に適応しなければならない理由

2025年6月19日
Lucie Cardiet
プロダクト・マーケティング・マネージャー
AIが攻撃対象に:セキュリティ・スタックが迅速に適応しなければならない理由

AIシステム、特に大規模言語モデル(LLM)を搭載したシステムは、もはや従業員の生産性向上を支援するだけではありません。従来のセキュリティ・ツールが想定していなかった新たなリスクも生み出して検知

こうした脅威は、malware phishing 添付ファイルという形ではやってこない。AIロジックやIDの悪用、クラウドサービスや信頼されたワークフローの内部で展開される見えにくい行動によって発生する。

そのため、セキュリティチームは MITRE ATLASAI Risk RepositoryOWASP Top 10 for LLM Applicationsのようなフレームワークに注目している。これらのリソースは、攻撃者がどのようにAIを標的にしているのか、セキュリティの盲点はどこにあるのかを組織が理解するのに役立ちます。

AIの攻撃対象は爆発的に拡大しているが、ほとんどのSOCはそれに気づいていない

AIは今や日常業務の一部となっている。コパイロット、インテリジェントアシスタント、AIを活用した検索システムなどのツールは、カスタマーサポートの改善、分析の自動化、開発の効率化に活用されている。

しかし、この変化によって攻撃対象が拡大した。

クラウドAI導入のセキュリティに関する最近のブログでは、攻撃者がAWS BedrockやAzure AIなどのプラットフォームをどのように悪用しているかを概説した。コンピュートリソースのハイジャック、悪意のあるプロンプトの注入、クラウドIDの悪用といったテクニックは机上の空論ではなく、すでに起こっている。これらの脅威の多くは MITRE ATLASでは、AIシステムに対する実際の敵の行動を追跡している。

AIはもはや悪用されるだけの道具ではない。今やAIはターゲットそのものなのだ。

さらに2つのフレームワークが重要な背景を加えている:

  • AIリスクリポジトリ AIリスクリポジトリは、AIの構築、展開、使用方法に関連する770以上のリスクをカタログ化している。これらの脅威の65%以上は、可視性と制御が最も弱いことが多い導入後に発生する。
  • LLM LLMアプリケーションのためのOWASPトップ10は、データ漏洩、プロンプトの操作、システムのオーバーリーチを含む、言語モデル特有の脆弱性のトップ10を概説しています。

今日の脅威は、境界の外側ではなく、信頼されたシステムやワークフローの内側で展開されている。

従来のツールは、適切な場所を探すように設計されていないため、それらを見逃してしまう。

LLM と Gen AI 2025 OWASP LLMとGen AIトップ10リスト

3つのフレームワーク、1つの警告:AIが生み出す新たなリスク

AIが脅威モデルをどのように変化させるかを理解することは、3つの異なる、しかし相補的な視点から学ぶことを意味する:

  • MITRE ATLASは、AI推論APIの悪用やモデル制限の回避など、攻撃者が実際に使用するテクニックをマッピングしています。
  • AIリスク・リポジトリーは、開発から配備に至るまで、AIのライフサイクル全体にわたってうまくいかない可能性がある場所を明らかにする。
  • OWASP Top 10 for LLM Applicationsは、LLMが従来のITシステムにはなかった方法でどのように悪用されたり操作されたりするかに焦点を当てている。

これらは単なる学術的なツールではなく、あなたのSOCがすでに見落としているかもしれないものを説明するものだ。AIシステムはこれまでとは異なる振る舞いをする。従来のセキュリティ・ロジックを覆すような方法で、意思決定を行い、動的に反応し、データやユーザーと相互作用する。

これらすべてのフレームワークを結びつけているのは、リアルタイムの行動ベースの検知の必要性である。静的なルールやシグネチャ、既知の悪質業者のリストだけではもはや十分ではない。

従来のセキュリティ・ツールでは不十分な点

多くの組織は、malware発見、異常なトラフィックの検知 、不正アクセスのブロックなどを目的に構築されたツールに依存している。これらのツールは重要だが、AI特有のリスクを想定したものではない。

ほとんどのレガシー検出ツールが捕らえないものがここにある:

  • 正規のユーザーがAWS Bedrockのような生成AIサービス上で不正なジョブを実行し、コンピュートリソースを使用し、隠れたコストを積み上げている。
  • 注意深く作られた一連のプロンプトを通じて、機密情報を漏らすように操作されるチャットボット
  • 学習データの微妙な変化により、AIモデルが偏った、あるいは有害な出力をするようになること。

この種のインシデントは、ファイルやエンドポイントに焦点を当てたツールには不審に見えない。手遅れになるまで、それらは通常のAPIコール、通常のユーザーセッション、または信頼されたアプリケーションの動作に見える。

AI脅威のフレームワークを実行に移す

リスクを理解することは始まりに過ぎない。セキュリティ・リーダーにとっての真の課題は、これらの洞察を運用化すること、つまり日々の検知やレスポンス一部にすることである。

今日、ほとんどのSOCは自信を持って答えることができない:

  • 組織全体で誰が生成AIサービスにアクセスしているのか?
  • 深夜に大きな推論ジョブを実行するなど、異常な動作をしているアカウントはあるか?
  • データ流出やポリシー違反につながる可能性のある方法で、AIシステムが操作されていないか。
  • 私たちは 検知AIモデルのガードレールが迂回されているかどうか?

Vectra AI Platformはその振る舞い 検知ロジックをMITRE ATLASに直接マッピングすることで、これらの課題に対処します。この連携により、SOCチームは、従来のツールでは見過ごされがちな以下のような高リスクのアクティビティを表面化することができます:

  • 通常そのようなサービスとは関係のないユーザーまたはIDによる生成AIプラットフォームへの不審なアクセス
  • 生成AIモデルとのインタラクション中にロギングやモニタリングを回避しようとする試み
  • アカウントの漏洩またはモデルの不正使用を示唆する異常な使用パターン

Vectra AI主導 優先順位付けエンジンは、生成AIアクティビティに関与するアイデンティティのリスクプロファイルを自動的に引き上げることで、アナリストの生産性をさらに向上させ、チームが最も重要なことに集中できるようにします。

このプラットフォームは、ハイブリッドクラウドとSaaS環境全体にわたってエージェントレスでIDファーストの可視性を 提供するため、モデルやインフラに変更を加えることなくAI関連の脅威を検知 できる独自の位置にある。このため、生成AIがワークフローに深く統合されている本番環境では特に効果的です。

AIはもはや単なるツールではなく、ターゲットである

企業のAI導入が加速する中、攻撃者は迅速に適応している。MITRE ATLASで概説されているテクニックは、もはやニッチなものではなく、最新のAIシステムを悪用するための一般的な戦術になりつつあります。

セキュリティプログラムをこれらのフレームワークと連携させ、Vectra AI Platformのようなソリューションを導入することで、チームは受動的な可視化からプロアクティブな検知へと移行することができます。AIの脅威をリアルタイムで検知 、クラウドホストのLLMを保護し、生成AIへの投資が攻撃者のエントリーポイントとなるリスクを低減するために必要なコンテキストを得ることができます。

Microsoft 365における生成AIリスクについてもっと知りたいですか?
Vectra AIがCopilot導入における可視性のギャップをどのように埋めるか、Hunt Club Podcastのエピソードをお聞きください:
- 脅威ブリーフィング:攻撃者はどのように Copilot を使用して SharePoint セキュリティを回避しているか
- 脅威ブリーフィング:Copilot for M365 Attack Surface
- 製品ブリーフィング:攻撃者によるMicrosoft Copilot for M365の悪用の検出

セルフガイド・デモをご覧いただくか、当社チームにご連絡いただき、Vectra AIが企業の未来を守るためにどのように役立つかをご確認ください。

よくあるご質問(FAQ)