2024年2月27日

すべてのAIがサイバーセキュリティにおいて同じではない理由

サイバー脅威を防ぐにはAIだけでなくディープラーニングが必要

人工知能(AI)の急速な進歩は、サイバーセキュリティの状況を根本的に変えつつあります。AIを搭載したツールは、脅威の検知を自動化し、セキュリティ・チームをより効率的にする上で大きな可能性を秘めています。しかし一方で、このようなテクノロジーは攻撃者がますます巧妙で検知が困難な攻撃を仕掛ける力を与えることにもなります。企業は今、「良い」AIを活用すると同時に、この新しい種類の「悪い」AIからの攻撃を防御するという重大な課題に直面しています。

良い面では、AIは脅威の監視を自動化し、人的ミスを減らし、日常的にアラートを追っているセキュリティ・オペレーション(SOC)チームに時間を取り戻し、予防と検知をより効果的かつ効率的にすることができます。最近の報告によると、従来型のサイバーセキュリティツールによる誤検知は、SOCチームメンバーの時間を著しく圧迫し、 1週間あたり2営業日以上の生産性の損失をもたらしています。

逆に攻撃者にとっても、AIは 従来のアンチウイルス(AV) – のような従来のサイバーツールからの検出を回避しながら機密データを盗み、継続的に形を変えるマルウェアを作成・操作することをはるかに容易にしています。 Verizon 2023 Data Breach Investigation Report によると、脅威アクターによるAIの利用により、攻撃の成功率は30%以上にまで上昇しています。こうした攻撃手法の進化とAIが突きつける厳しい現実は、従来のセキュリティ対策を時代遅れにしつつあります。

競争上の優位性を解き放つ可能性があることから、昨年は 69%の組織 lがジェネレーティブAIツールの採用に踏み切った。しかし、多くのことが危ぶまれる中、組織はAIのリスクと限界を理解し、敵に先んじ、高度なサイバー脅威を予測するために何が必要かを理解する必要がある。

AIの課題に対する評価と限界

生成AIの普及に伴い、新たなサイバー脅威が日々、しかも以前よりもはるかに速いスピードで出現しています。最近の例としては、とてもリアルなディープフェイクやフィッシング攻撃があります。脅威グループはChatGPTのようなツールを使って、スパムフィルターや読者・視聴者が引っかかりにくい、文法的に正しい電子メール、動画、画像を作成しています。私たちは、 ケリー・クラークソンマーク・ザッカーバーグテイラー・スウィフトといった知名度の高い人物を使ったディープフェイクの報告をよく目にします。また、 CFOを装ったハッカー が、多国籍企業の財務担当者を騙して2,500万ドルを送金させた例もあります。

大規模な言語モデルの使用に関する懸念は、フィッシングやソーシャル・エンジニアリングの領域だけにとどまりません。企業が典型的なビジネス活動の中でこのような生成AIツールを使用することで、予期せぬ結果を招くことへの懸念が広がっています。例えば、最近起こったサムスンの情報漏えい事件後、同社はChatGPTやその他のAIベースのツールを従業員に禁止し、テクノロジーやこれらのプラットフォームで共有される機密データが悪用された場合の潜在的なセキュリティリスクを減らしています。 サムソン のケースでは、社内の機密ソースコードがエンジニアによって誤ってChatGPTにアップロードされ、流出した後に取り締まりが行われました。

私たちは、攻撃者がFraudGPT、WormGPT、EvilGPTのようなツールを使用して高度なテクニックを洗練されていないユーザーに対して使って攻撃することで、対応がより困難になりつつあるのを目の当たりにしています。これらのツールを使用することで、サイバー犯罪者は、新しいマルウェア・コードを作成したり、既存のコードをリバース・エンジニアリングしたり、新しい攻撃ベクトルを生成するための脆弱性を特定したりするさまざまなタスクをより簡単に実行することができます。

脅威者がAIを利用して攻撃をより賢く、よりステルスに、より迅速に行うようになるにつれ、AI機能を謳う新しいソリューションを導入する組織がますます増えています。しかし、 すべてのAIが同じように作られているわけではなく、AIを搭載していると主張する多くのソリューションには限界があります。高度な敵対的AIに対して、基本的な機械学習(ML)だけのAIでは到底立ち向かうことはできません。サイバーセキュリティ・コミュニティは、「侵入を前提とする」消極的なアプローチから、予防に重点を置いたアプローチに転換する必要があります。

さらに、近年注目を集めてきた エンドポイント検出と対応(EDR)のブーム は、終焉を迎えています。EDRはあまりにも時代遅れで、受動的であり、今日の高度で敵対的なAI主導のサイバー脅威に対しては効果がありません。ほとんどのサイバーセキュリティツールはMLモデルを活用していますが、これにはいくつかの欠点があります。例えば、利用可能なデータのごく限られたサブセット(通常2~5%)だけでトレーニングされ、それでも未知の脅威に対しても50~70%の検知精度を提供するすることはできますが、同時に嵐のような誤検知を引き起こします。また、MLモデルの作成には人間の介入が必要となり、小規模なデータセットで訓練されるため、人間のバイアスやエラーに大きく影響を受けます。

今日、サイバーセキュリティはその進化において極めて重要な局面を迎えており、より優れた、より高度なAIでAIと戦うことでしか生き残る道はありません。

「生成AIの新時代において、新たなAIの脅威に対抗する唯一の方法は、未知の脅威を予防・予測できる高度なAI技術を使用することです。EDRのような時代遅れのツールに頼ることは、自宅で火事が起こって警報が鳴り響いていてから庭のホースで消火しようとすることに等しいです。EDRが脅威の先手を打って防御できるという考え方は誤りです。まだ発見されていない脆弱性を突いた攻撃に備え、誤検知を抑え、セキュリティチームのストレスを軽減するためには、セキュリティの予測的予防へのシフトが必要不可欠です。

-- 2023年第4版「Voice of SecOps」ディープラーニングの威力
ディープラーニングの威力

AIの進歩により、ランサムウェアやその他のサイバー攻撃を検知して事後対応するのではなく、未然に防ぐことができるようになりました。ディープラーニング(DL)はAIの中でも最先端の技術であり、真の予防を実現する唯一の方法です。これをサイバーセキュリティに適用し、ディープニューラルネットワークを活用して脅威を学習させることで、自律的に予測し、既知および未知のマルウェア、ランサムウェア、ゼロデイ攻撃を防ぐことができるようになります。

従来型のMLでは、学習に必要なデータの一部しか活用できていません。DLを使えば、データの処理精度が格段に向上し、既知・未知の脅威を迅速に予測・防止できるようになります。

世界には有名なDLフレームワークがいくつか存在しますが、サイバーセキュリティに完全に特化したものは1つしかありません:それが Deep Instinct Prevention Platformは、 何百万もの生データを継続的に学習しており、時間の経過とともに、非常に正確でインテリジェントなモデルとなっています。DLモデルは悪意のあるファイルの構造を理解しており、予測による予防を実現するセキュリティ・ソリューションとしてさまざまな環境に実装と導入が可能になっています。これにより、サイバーセキュリティチームは、時代遅れの「侵入を前提とする」という考え方から、新しい予測的予防アプローチに移行することができます。

これからの攻撃側のAIのスピードと敏捷性に対抗できる力を持つのは、ディープラーニングだけです。

AI、機械学習、ディープラーニング: AIと機械学習、そしてディープラーニングとは?

Deep Instinctは、世界初で唯一のサイバーセキュリティ専用に自社開発されたディープラーニング・フレームワークを使用して、ランサムウェアやその他のマルウェアを阻止するために、予防ファーストのアプローチを実現しています。

AIと「侵入を前提とする」メンタリティの終焉

2023年は、生成AIが注目を集めた年でした。2024年は、このAIを要因としたサイバー攻撃の変化が起こり、組織が予防を重視せざるを得なくなる年になるでしょう。

Deep Instinctでは、「侵入を前提とする」という考え方は効果がなく、組織にとっては極めて危険な結果を引き起こすと考えています。企業は、ディープラーニングのような、より洗練された形態のAIを活用してAI駆動型の脅威と戦うことではじめて、高度な攻撃から身を守ることができます。

ディープラーニングがサイバーセキュリティにどのような変革をもたらすかについての詳細は、このブログ記事をご覧ください。