AI業界の「信頼」が崩壊:Hugging FaceとClawHubに潜む見えない脅威の正体

AI業界の「信頼」が崩壊:Hugging FaceとClawHubに潜む見えない脅威の正体

テクノロジー機械学習人工知能サイバーセキュリティサプライチェーン攻撃HuggingFaceマルウェア

急速な発展を遂げるAI業界において、その基盤を支える重要なリポジトリ「Hugging Face」と「ClawHub」が、大規模なサプライチェーン攻撃の標的となっています。悪意のあるAIモデルやエージェントスキルが混入し、認証情報の窃取や暗号資産のマイニング、さらにはバックドアの設置など、深刻な被害が報告されています。この問題は、AI開発者が当然視してきた「共有リポジトリへの信頼」という前提を根底から揺るがす事態となっており、今後のAI開発環境におけるセキュリティのあり方に警鐘を鳴らしています。

AI開発を支える重要リポジトリが直面する危機

Hugging Face:悪意あるモデルの拡散

AIモデルのプラットフォームであるHugging Faceでは、何百もの悪意あるモデルが発見されています。攻撃者は、Pythonのシリアライズ形式「pickle」の脆弱性を悪用した「nullifAI」という手法を用いてスキャンを回避し、モデルを読み込んだ瞬間に任意のコードを実行させるバックドアを仕込んでいます。Protect AIなどの調査によると、数万ものモデルが安全ではない、あるいは疑わしい状態にあると指摘されています。

ClawHub:エージェントスキルを狙う組織的攻撃

AIエージェントのスキル登録先であるClawHubでも、341もの悪意あるスキルが特定されました。特に「ClawHavoc」と呼ばれる組織的な攻撃が確認されており、AIエージェントが自律的にこれらのスキルを選択して実行することで、企業のデータベースやクラウドの認証情報が盗まれるリスクが急増しています。特定のスキルが暗号資産マイニングに利用されるケースも報告されています。

攻撃の巧妙化と自動化

これらの攻撃は短時間で繰り返され、既存のセキュリティスキャンをすり抜けるよう設計されています。自動化された開発パイプラインに依存する現代のソフトウェア開発において、感染したパッケージやモデルがインストールされた瞬間に被害が確定するため、従来の対策だけでは防ぎきれない状況が生まれています。

AIエコシステムが抱える構造的な脆弱性と今後の展望

信頼モデルの限界:なぜ対策は後手に回るのか

現在のAI開発インフラは、過去20年間のオープンソース文化に基づいた「中央集権的なリポジトリ」と「コミュニティによる信頼」という前提で構築されています。しかし、AIモデルは単なるコードではなく、読み込み時に実行される「シリアライズされたオブジェクト」であるため、従来のプログラム以上に危険性が高いという特性があります。セキュリティ予算がモデルの高性能化やプロンプトインジェクション対策に集中する一方で、配布インフラそのものの脆弱性は放置され続けてきたことが本質的な課題です。

自動化された脅威へのシフト:今後のセキュリティ戦略

今後は、AIエージェントが自律的に外部ツールを呼び出す「エージェント時代」特有の脅威が拡大します。人間が介在しないところで悪意あるコードが実行されるリスクを最小化するために、AIスタック全体の透明性と信頼性の検証メカニズムが不可欠です。今後は、リポジトリのセキュリティ強化はもちろんのこと、AIパイプラインにおける実行権限の最小化や、未知のモデルに対する「ゼロトラスト」な検証プロセスを標準化することが、業界全体の急務となるでしょう。

画像: AIによる生成