2024年の予測サイバーセキュリティにおけるジェネレーティブAIの役割  

2023年11月30日
Vectra AI セキュリティ・リサーチ・チーム
サイバーセキュリティ
2024年の予測サイバーセキュリティにおけるジェネレーティブAIの役割  

2023年には、生成AIが主流となり、地域、業界、年功序列を問わず、より多くの個人がこの技術を活用しています。マッキンゼーの「The state of AI in 2023: Generative AI's breakout year」では、回答者の79%が仕事や仕事以外で生成AIに触れたことがあると回答し、22%が自分の仕事で定期的に使用していると回答しています。 

生成AIの導入と投資は増加傾向にあるが、マッキンゼーの報告書によると、多くの組織が生成AIによる潜在的なリスクに対処していません。サイバーセキュリティ上のリスクを軽減するために、高度なAI技術の利用を減らすための対策を行っていると答えた回答者は3分の1以下でした。 

ビジネスとサイバーセキュリティにおける生成AIの台頭

2024 年には、生成 AI がビジネスと社会においてさらに重要な役割を果たすと予測されています。 最近の研究によると、生成 AI の導入は急激に増加し、さまざまな業界で使用が 30% 増加すると予測されています。 これらのインテリジェントな AI と機械学習を活用したシステムが私たちの日常生活にさらに浸透するにつれて、サイバーセキュリティの状況は課題と革新の両方に直面する準備が整っています。

以下に、Vectra AI の専門家が 2024 年のサイバーセキュリティに関する生成 AI 関連の予測をまとめ、すべてのセキュリティ チーム、CISO、SOC リーダーが新年に向けて最重要事項に留意すべきことを指摘しています。 

生成AI:イノベーションのツールとサイバーセキュリティの課題

未来への備え:AI時代のサイバーセキュリティ戦略

最高技術責任者のOliver Tavakoli氏は、生成 AI が電子メール セキュリティの有効性を損なうと予測しています。 「さらに、ソーシャル エンジニアリング攻撃における生成 AI の利用は、現在のセキュリティ防御線が不十分であるという警鐘として機能します。 その結果、組織はゼロトラスト、マイクロセグメンテーション、検知およびレスポンスメカニズムなどの下流のセキュリティ アプローチに方向転換すると予想しています。」

政治的な意味合い選挙と情報インテグリティにおけるAIの役割 

著名な AI 研究者の Sohrob Kazerounian 氏は、2024 年の選挙に向けて、 生成 AI が選挙の不信感と偽情報に影響を与えると考えています。「米国が現在選挙の年であることを考えると、生成 AI モデルが幅広く利用可能であること、およびその比較的使いやすさは広範囲に影響を与えるでしょう。 質の高いコンテンツ(候補者の偽造音声やビデオ、ニュースを装った大量生産されたフィクションなど)を伴う大規模な偽情報が、これまで以上に簡単になるでしょう。 私たちの感覚を信頼できないことは、不信感や被害妄想につながり、人々の間の社会的、政治的関係をさらに崩壊させる可能性があります。」

AIトレンドの変化:LLMの減少、ディープフェイクの増加

EMEA CTOのChristian Borst氏は、 広範なLLMの使用は消え去るだろうが、ディープフェイクは急増すると考えている“。「今年の誇大広告の最初の波を受けて、多くの組織が大規模言語モデル (LLM) の使用方法を模索しています。 しかし、表面下を探ってみると、目新しさの要素はすぐに蒸発してしまうことは明らかです。 LLM はコンテキストを理解したり、信頼できる出力を提供したりできないため、通常、使用するのが非常に困難です。そのため、LLM の広範な実用的な使用は制限されています。 したがって、来年は、LLM ツールがより機能的で使いやすくなるのを待って、企業が LLM の使用を縮小することになるでしょう。  

「脅威アクターは LLM の使用に関して同じ問題に直面することになるため、AI が悪意のあるコードを生成するような複雑なアクティビティはあまり見られなくなるでしょう。 しかし、サイバー犯罪者が生成 AI を利用して、より現実的で洗練されたディープ フェイクを作成すると予想されます。 これにより、より説得力のある音声または視覚的なフィッシングルアーを通じて、ユーザーをだまして機密データを放棄させたり、悪意のあるものをクリックさせたりする可能性が高まります。」

規制の状況:AIの革新と統制のバランス

そして、生成 AI (およびより一般的な AI) に関しては、2024 年には規制と政策が大きな役割を果たすことになります。Vectra AI CEO の Hitesh Sheth 氏によると、AI の将来は規制上の決定 にかかっています。 「2024 年には、AI の規制と政策において画期的な進歩が見られると私は予測しています。 人工知能に関するバイデン大統領の大統領令に基づいて、政府機関全体の意思決定者は、AIのリスクを抑制し、その利点を活用するためのより具体的な規制を評価し、導入することになる。 AI が進化し続けるにつれて、こうした規制の発展においては、透明性の主張と、急速に起こっている継続的なイノベーションの促進との間でバランスをとることが重要になります。」  

Sohrob Kazerounian、 Distinguished AI Researcherは、 AIの倫理的、法的、政治的ジレンマが訴訟を引き起こすと 予測することに同意しています。AIに関する倫理的、法的、社会政治的な問題は、ますます厄介なものになるでしょう。米国における全般的な政治的麻痺を考えると、AIの規制に関する強固な規制や法的枠組みが、必要なほど早く出現する可能性は低いでしょう。著作権で保護された素材が生成AIモデルのトレーニングに使用されていることに関する訴訟は、今後も増えるでしょう」

結論:注意と責任を持ってAIを受け入れる

生成 AI がサイバーセキュリティの状況を大きく変えることは疑いの余地がありません。 また、セキュリティ ツールを進化させ、脅威インテリジェンスを向上させ、セキュリティ オペレーション センターを変革する可能性があります。 こうした機会を活用しながら、知識、回復力、そして複雑なダンスにおいて一歩先を行く決意を身に付けて、慎重に歩みを進めていきましょう。

生成AI は、Vectra AI の設立使命であるサイバー攻撃との戦いを支援するテクノロジーを使用する、新しくてエキサイティングな機会を提供します。 Vectra Attack Signal Intelligence の背後にある AI について詳しく知りたい場合は、最新の ホワイトペーパー を今すぐダウンロードしてください。