Googleが警告:自己進化型AIマルウェアの新時代突入!サイバー攻撃は「AI対AI」の様相へ

Googleが警告:自己進化型AIマルウェアの新時代突入!サイバー攻撃は「AI対AI」の様相へ

テクノロジーAIセキュリティサイバーセキュリティAIマルウェアサイバー犯罪Google

Googleの脅威インテリジェンスグループが発表した最新レポートによると、サイバー犯罪の世界に大きな変化が生じており、攻撃者は人工知能(AI)を生産性向上のためだけでなく、既に活動中のサイバー攻撃に直接活用し始めていることが明らかになりました。これは、AIが悪用される新たな時代の幕開けを警告するものです。

AIはサイバー攻撃の進化を加速させる

AIによるマルウェアの自動生成と適応

Googleの「GTIG AI Threat Tracker: Advances in Threat Actor Usage of AI Tools」レポートは、国家支援を受けた攻撃グループや犯罪組織が、Geminiのような大規模言語モデル(LLM)やその他の一般公開されているシステムを悪用し、攻撃のライフサイクル全体で攻撃を自動化、適応、そして規模を拡大している現状を浮き彫りにしています。特に注目すべきは、PROMPTFLUX、PROMPTSTEAL、PROMPTLOCKといったマルウェアファミリーが、実行段階でAIを統合し、悪意のあるコードを動的に生成することで、その挙動を巧妙に隠蔽している点です。例えば、PROMPTFLUXはGeminiのAPIと連携し、1時間ごとにVBScriptを書き換えることで、アンチウイルス検出を回避し続ける「思考するロボット」のように進化します。

ソーシャルエンジニアリングにおけるAIの利用

さらに懸念されるのは、AIの安全ガードレールを回避するためのソーシャルエンジニアリング攻撃です。イランや中国(疑惑)の攻撃者は、学生、研究者、あるいは「キャプチャー・ザ・フラッグ」形式のサイバーセキュリティコンテスト参加者を装い、Geminiに制限された脆弱性や悪用に関するデータを提供するよう誘導しています。あるケースでは、イラン支援のMUDDYCOASTがGeminiを使用してマルウェアスクリプトのデバッグ中に、自身のコマンド&コントロールインフラストラクチャを誤って露呈してしまい、Googleによるその操作の解体を招きました。

AI搭載ハッキングツールの地下市場の成熟

AIを活用したハッキングツールの地下経済も急速に成熟しています。Googleの研究者たちは、英語とロシア語のフォーラムで、フィッシングメール生成、ディープフェイク作成、マルウェア開発の自動化といった機能を提供する数十もの多機能なツールが販売されていることを発見しました。これらはソフトウェア・アズ・ア・サービス(SaaS)のようにサブスクリプションモデルで提供されており、参入コストを低下させています。

AI時代のサイバーセキュリティにおける新たな課題

国家支援グループによるAIの積極的な採用

国家支援グループは、AIを最も活発に採用している層の一つです。北朝鮮のMASANやPUKCHONGはGeminiを暗号資産詐欺キャンペーンやエクスプロイト開発に利用しており、イランのAPT42は自然言語のリクエストをSQLクエリに変換して個人情報を抽出する「Data Processing Agent」を実験しました。Googleはこれらの活動に関連するアカウントや資産を無効化し、その情報をモデルや分類器のさらなる誤用に対する防御力強化に活用しています。

AIの責任ある開発と展開の必要性

Googleのレポートは、「AI、特に生成AIの可能性は計り知れない」と結論付けています。しかし、同時に「イノベーションが進むにつれて、業界はAIを責任ある形で構築・展開するためのセキュリティ基準を必要としている」と警鐘を鳴らしています。DeepTempoの最高経営責任者であるEvan Powell氏は、「Anthropicが攻撃者によるClaudeの利用について、またOpenAIがChatGPTの利用について報告した最近のレポートと合わせ、GoogleのGTIGによる本日のレポートは、攻撃者がAIを活用して生産性と洗練度を高めていることを確認している」と述べています。さらに、「攻撃者の生産性は急速に向上しており、他のレポート(Anthropicのレポートなど)が示すように、人間には追いつけない速度と知性で、攻撃キャンペーン全体を計画・実行していることさえ示唆している。」と指摘しています。

Googleのセキュリティ対策と業界への提言

このような増大するリスクに対処するため、Googleは「Secure AI Framework(SAIF)」を提供しています。これは、組織がAIシステムを責任ある形で設計、構築、展開するのを支援するための基本的なブループリントです。SAIFは、データ収集やモデルトレーニングから、展開、監視に至るまで、AIライフサイクル全体を網羅するセキュリティ原則を確立するための技術的および倫理的なガイドとして機能します。Googleは、このフレームワークを通じて、AIの進化とセキュリティのバランスを取るための業界全体の取り組みを促進したいと考えています。

考察:AIマルウェアの進化がもたらす未来と我々の備え

AIマルウェアの自律性と検出回避能力の飛躍的向上

Googleの警告は、サイバーセキュリティにおける新たな「軍拡競争」の始まりを告げています。これまでのマルウェアが開発者の意図した範囲内で動作していたのに対し、AI駆動型マルウェアは自己学習・自己進化する能力を持つため、その挙動を予測し、防御することが格段に困難になります。PROMPTFLUXのように、人間が理解・分析する間もなくコードを刻々と変化させるマルウェアは、従来のシグネチャベースの検出方法を無力化する可能性を秘めています。これは、セキュリティ対策が常に一歩遅れをとるという、サイバーセキュリティの根本的な課題をさらに深刻化させるでしょう。

AIの「悪用」から「自律的脅威」へのパラダイムシフト

単にAIが悪用されるという段階から、AI自体が自律的な脅威となりうるというパラダイムシフトが起こりつつあります。攻撃者はAIを「道具」として使うだけでなく、AIに「自律的な判断」をさせることで、より複雑で、より大規模な攻撃を、より少ない人的リソースで実行できるようになります。これは、サイバー攻撃の敷居を大幅に下げ、これまで専門知識を持たなかった者でも高度な攻撃を実行できる環境を生み出す可能性があります。将来的には、AIが自ら脆弱性を発見し、攻撃コードを生成・実行・最適化する「自律型攻撃エージェント」が登場するシナリオも現実味を帯びてきます。

人間とAIの知恵比べ:新たなセキュリティスタンダードの構築へ

この状況に対抗するためには、AIの防御能力を向上させるだけでなく、AIの悪用を防ぐための倫理的・技術的な基準を業界全体で策定・共有することが不可欠です。GoogleのSecure AI Framework(SAIF)のような取り組みは、その第一歩となるでしょう。しかし、AIの進化は指数関数的であるため、規制や基準の策定がそのスピードに追いつくことは困難です。長期的には、AI同士が攻防を繰り広げる「AI対AI」の戦いがサイバー空間の日常となる可能性も考えられます。その中で、人間はAIの能力を理解し、それを安全に管理・活用する「オーケストレーター」としての役割がより重要になってくるでしょう。AIの可能性を最大限に引き出しつつ、そのリスクを最小限に抑えるための、継続的な対話と協調が求められています。

画像: AIによる生成