AI:2つの小さな文字 - 多くの大きな利点

2022年3月10日
Yann Fareau
EMEAクラウドセキュリティ・セールス・ディレクター
AI:2つの小さな文字 - 多くの大きな利点

「人工知能は人間の愚かさにはかなわない」とアルベルト・アインシュタインは皮肉った。今日、私たちは、AIがサイバーセキュリティに向けた競争において重要かつ不可欠な利点をもたらすことができるところまで進化している。とはいえ、優秀なセキュリティ・マネジャーでさえ、これがどのように、あるいはなぜそうなるのか、必ずしも理解していない。

現状AIとサイバーセキュリティ

この投稿は、この状況の背景を説明する私のささやかなキャンペーンを開始するものである。

AI」(「機械学習」という言葉もある)という言葉は、今日、サイバーセキュリティベンダーの手の込んだマーケティングプレゼンテーションのいたるところに登場している。実際、ほとんどすべての販促資料に登場していると言っていいだろう。AIが今流行しているにもかかわらず、サイバーセキュリティコミュニティは、このテーマに関する乏しい知識とわずかなスキルしか身につけていないようだ。平均的な意思決定者は、例えば教師ありモードと教師なしモードといった大まかな原則はある程度理解しているだろうし、ディープラーニングとシャローラーニングを区別することさえできるだろう。しかし、サイバーセキュリティにおいてディープラーニングをどのように戦術的に適用するかは、ほとんど未知のままであり、あるいは誤解されたままである。

幸いなことに、このような欠陥が永久に続くことはないだろう。ほんの数年前まで、クラウド、同様の理解力格差が存在していたことを思い出すかもしれない。しかし、このような欠陥を改善し、AIの導入を早めるために、私たちは多くのことができる。

Vectra AIはその戦略の中心にAIを据えている[1]。これは、攻撃者が望む目的を達成するためにどのように行動するかを推測するために、AIを活用したソリューションを開発する組織である:攻撃者はランサムウェアを展開するのか?それともデータ流出か?この文脈では、AIは人間の分析では識別できない異常を検知する手段となる。AIは異常を選別し、決定木やクラスタリング・アルゴリズム[2]に従って分類する。そして、それらを順番にマッピングして将来の攻撃経路を明らかにし、アラートに優先順位をつけて最も重大な脅威に注意を向けさせる。

Vectra AI は、この目標を達成するために最も適切な学習モデルを定義している。この分野は、サイバー攻撃の最先端技術が進化するにつれて、今後も重要性を増していくだろう。

AIについて知っておくべき4つのこと

では、私たちはAIについて何を知る必要があるのだろうか?4つの簡単な提案を紹介しよう:

まず、AIの力を理解することは不可能ではない。

表面的なマーケティング・プレゼンテーションよりも、利用できる貴重なリソースはたくさんある。私自身は、機械学習が対処できるサイバーセキュリティの問題[3]、AIの使用を管理する原則[4]、適応的な機械学習モデルを説明する白書[5]など、最近人気のある実質的な議論から恩恵を受けている。もちろん、このトピックに関する内容の多くは、機械学習モデルを特定の目的を達成するために推進する複雑な数式を深く掘り下げる、困難なものである[6]。しかし、専門家でないすべての人が関わることができる、よりアクセスしやすい資料も増えている。その最たるものが、Vectra AI 。

第二に、この取り組みを真にリードする組織には、装飾的な仕掛けで顧客の目をそらす必要はない。

プレゼンテーションの内容が薄かったり、説得力に乏しかったりすると、それを補うために、よりエキサイティングなフォーマットを作りたくなるのは自然なことだと、私はコンサルティング時代に学んだ。AIの分野では、目を見張るようなグラフィック効果を持つ非凡なUIに出くわしたら、自問してみよう:真の洞察や価値の乏しさを覆い隠すことが目的なのだろうか?顧客が求めているのは効率性と収益性であって、美人コンテストではない。

第三に、AIは自動的に覚醒するわけではない。

AIモデル、特に教師ありモデルの基本原則は、価値を創造することである。そのためには、バイアスがなく、現実世界の脅威を十分に代表するデータセットでトレーニングする必要がある。現在利用可能な多くのソリューションは、この事実を軽視する傾向がある。教師なしモデルは、そのドメイン全体の「正常な」行動を認識し、それから逸脱を発見しようとするもので、価値がないわけではありません。しかし、訓練なしでこれを行うことには、すでに危険にさらされている環境にこのようなソリューションを導入することの難しさから始まる、明確な欠点があります[8]。

私が若く、リスクマネジメントの資格を取得していた頃、データに依存するアクチュアリーのリスクを計算する際には、ある格言を適用することを学んだ:「ゴミを入れればゴミが出てくる。同じ格言が今日のAIにも当てはまる。

第四に、サイバーセキュリティにおいて、AIは経験豊富な人間のアナリストに取って代わることはできない。

AIによって強化されたセキュリティ環境では、人間の調査力と判断力が不可欠であることに変わりはないが、彼らは必然的に異なる地形を観察し、侵害の指標(IOC)を探すことに集中する。理想的には、熟練したセキュリティ研究者が攻撃パターンを分析し、データサイエンティストと協力してAIベースのセキュリティ・ソリューションを構築することである。彼らが生み出すテクノロジーは、脅威を検知し反応する能力がますます向上する。しかし、人間によるインプットが不可欠であることに変わりはない。

この記事では、あえて詳細な説明を避けた。私の意図は、興味を喚起し、さらなる探求のための出発点を提供することだけである。私の同僚であるVectra AIと私は、機械学習モデルのサイバーセキュリティアプリケーションを探求する記事を定期的に発表しており、脅威の検知、優先順位付け、相関付けという観点から、その目的について詳細な説明と記述を行っている。

AIの理解力格差を一緒に埋めましょう!

  

参考文献

[1]ホワイトペーパーAIを支えるVectra AI

[2]https://hbr.org/2021/01/when-machine-learning-goes-off-the-rails

[3]https://www.wavestone.com/fr/insight/intelligence-artificielle-cybersecurite/

[4]https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6

[5]https://link.springer.com/article/10.1007/s42979-021-00557-0