2025年予測: 防御側と攻撃側が自律型AIの台頭を察知し、生成AIは勢いを失う

2024年12月11日
Vectra AI
2025年予測: 防御側と攻撃側が自律型AIの台頭を察知し、生成AIは勢いを失う

2024年が終わりに近づくにつれ、AIに対する熱狂的な勢いは落ち着きを見せています。サイバーセキュリティにおける AI の可能性をめぐる当初の盛り上がりは、業界が AI のコストと実際に得られる価値を比較検討する中で、沈静化しつつあります。このブログでは、Vectra AIの専門家が2025年の予測について議論し、新年に向けてすべてのセキュリティ チーム、CISO、SOC リーダーが念頭に置くべき事項を指摘しています。 

AI Copilotが勢いを失う中、自律型AIの台頭が進む

最高技術責任者のOliver Tavakoliは、セキュリティ コパイロットに対する当初の期待は、組織がコストと実際に得られる価値を比較検討するにつれて薄れ始めるだろうと予測しています。これにより、より自律的な AI システムへと流れがシフトしていくでしょう。  

AIコパイロットとは異なり、これらの自律ソリューションは、人間の介入を最小限に抑えて独立して動作するように設計されています。来年からは、マーケティング活動において、これらの自律 AI モデルがサイバーセキュリティの次のフロンティアとしてますます強調され、人間の介入なしにリアルタイムで脅威を検知、対応、さらには軽減する能力が宣伝されるようになります。

著名な AI 研究者である Sohrob Kazerounian 氏もこれに同意し、生成AI の熱気が衰え始めると、セキュリティ業界は 2025 年に、顧客の精査に対応できる堅牢な実稼働レベルの AI システムを作成するための主な手段として、エージェントAI モデルに注目するようになるだろうと述べています。大規模言語モデル (LLM) を扱う初期のアプローチとは異なり、エージェントアプローチでは、完全なエンドツーエンドのミッションを課されるのではなく、明確に定義された特定の目標を達成するために必要なツールのみにアクセスできる、プロンプトが表示され、微調整された LLM「エージェント」をますます活用するようになります。  

ただし、これらのエージェントに全てをアサインすべきではありません。(複雑なタスクを、達成に必要なサブタスクに分割せずに、1 回で解決するように一人の人に指示するようなことです。)代わりに、エージェントモデルは、高レベルの目標を明確に定義されたサブタスクに分割し、個々のエージェントにこれらのサブ目標のそれぞれを実行する能力を定義して装備します。エージェントが対話したり、お互いを精査したりできるようにすることで、エージェントは互いに連携して、最終的に生成AI モデルの精度と堅牢性を向上させることができます。

攻撃者はAIでより洗練され、生成AIチャットボットを悪用するようになる

AIの活用が進むのは防御側だけではありません。副最高技術責任者のTim Wadeは、2025 年には AI を巧みに活用するグループと、より単純にAIを導入するグループの間に明確な違いが現れ始めると予測しています。AIを巧みに活用する攻撃者は、より迅速に広範囲をカバーし、攻撃をより適切にカスタマイズし、防御策を予測し、適応性が高く正確な方法で弱点を突くことができるようになります。  

APJのセキュリティエンジニアリングディレクターであるSharat Nautiyal は、2025 年までに脅威アクターがディープフェイクや高度なフィッシングなどの戦術を通じて AI を最初のアクセスに悪用すると予測しています。AIは進化しますが、足場を築いてコマンド&コントロール トンネルを確立したり、IDを悪用して横方向に移動したりするなど、攻撃者の主な行動は存続します。  

Kazerounian氏は、生成AIチャットボットが2025年に注目されるデータ侵害を引き起こすと考えています。同氏は、脅威アクターが企業の生成AI ソリューションを騙して機密情報を漏洩させ、大規模なデータ侵害を引き起こす事例が数多く報告されるだろうと述べています。多くの企業が、予約からカスタマー サービスまであらゆる業務を支援するために、顧客対応チャットボットの構築に生成AIを使用しています。実際、LLMが有用であるためには、質問に答えたり、人間が担当するアクションを実行したりするために、最終的に情報やシステムへのアクセスを許可する必要があります。他の新しいテクノロジーと同様に、多くの企業が適切なセキュリティの考慮なしに、LLMに大量の潜在的に機密性の高いデータへのアクセスを許可するのを目にすることになるでしょう。  

LLM に「指示」する方法は一見単純で人間的な方法 (自然言語など) であるため、多くの組織は、攻撃者がチャットから脱獄してシステムを意図しない方法で動作させるさまざまな方法を見落としています。さらに複雑なことに、これらのタイプの脱獄は、LLMテクノロジーに追いついていないセキュリティ担当者には馴染みがない可能性があります。たとえば、ユーザーが LLMに特定のフレーズで応答を開始するように依頼するなど、一見無関係なやり取りから脱獄が発生する可能性があります (「もちろん、喜んでお手伝いします」など)。脅威アクターは、LLMに架空の小説の著者であるふりをするように指示し、組織が攻撃者の手に渡らないように保管している秘密を含んだストーリーを書くこともできます。いずれの場合も、LLMへの攻撃の世界は、従来のセキュリティのコンテキストで過去に見たものとはまったく異なります。  

規制の過多は攻撃者に有利になる  

EMEA最高技術責任者のChristian Borstは、2025 年に向けて、規制コンプライアンスへの注目が高まることで防御側が圧倒され、意図せずして攻撃者が優位に立つようになると予測しています。チームは既に手薄になっており、コンプライアンス要件を満たすために多大なリソースを投入していますが、コンプライアンスは不可欠である一方で、より動的な脅威検知およびレスポンス戦略の妨げになることもあります。このコンプライアンス中心のアプローチは、組織が包括的でプロアクティブなセキュリティ体制を構築するのではなく、チェックボックスにチェックを入れることに重点を置くチェックリストメンタリティを生み出すリスクがあります。

イタリアのカントリー マネージャーであるMassimiliano Galvagnaもこれに同意し、EUのNIS2指令などの規制によって導入された規制コンプライアンスへの重点が高まれば、組織が圧倒され、攻撃者が優位に立つ可能性が高くなると述べています。この危険に対抗するには、組織は、コンプライアンスと防御の両方の取り組みを自動化できる人工知能ベースのサイバー セキュリティ ツールなどのテクノロジに投資して、規制遵守と適応型脅威管理のバランスをより適切に取る必要があります。

AIはサイバーセキュリティの革新のペースを変える「赤の女王仮説」を生み出す

では、組織は何をすべきでしょうか。AI の進歩により、サイバー犯罪者はより迅速かつ標的を絞った攻撃を実行するために必要なツールを手に入れているため、組織は回復力を維持するために多大な努力を払う必要があるとBorst は予測しています。ルイス・キャロルの「鏡の国のアリス」(「その場にとどまるためには、全力で走り続けなければならない」という赤の女王によるセリフ)に基づく「生物の種が絶えず進化していなければ絶滅する」という仮説のように、私たちは新しい世界に生きており、常に加速する競争に参加しています。もはや単にペースを維持するだけでは十分ではなく、ペースを維持する者は絶滅に直面するでしょう。  

SOCチームは、攻撃手法の大きな変化に備えてイノベーションのバッファーを作り、時代を先取りするために 2024年よりも迅速に行動する必要があります。これはいつでも発生する可能性があります。たとえば、新しい生成AIの開発により、組織が対処する準備ができていないほどの攻撃力が攻撃者に与えられる可能性があります。  

イノベーションのペースを加速し、「赤の女王仮説に勝つためには、組織はセキュリティスタックの最適化に全力で取り組み、あらゆるノイズを排除し、今後より迅速に脅威を特定して対応できるソリューションに注力する必要があります。

よくあるご質問(FAQ)