
AI 研究員のHao Wangは4月10日に研究報告書を公開し、SWE-bench Verifiedを含む複数の業界で最も権威あるAIベンチマークテストに、体系的に悪用できるセキュリティ脆弱性があることを明らかにした。研究チームが構築したAgentは、実際の任務を何一つ解決しないまま、2つのベンチマークのいずれでも100%の満点を獲得し、現在のAI評価体系の根本的な欠陥が露呈した。
研究チームは、特定のベンチマークテストに対する脆弱性の悪用手法を調査し、現行の評価設計における構造的欠陥を明らかにした:
SWE-bench Verified:コードリポジトリに10行のpytest hookを埋め込み、テスト実行前に自動的にすべての結果を「合格」に改ざんする。採点システムはこれにまったく気づかず、500問すべてが満点——Agentは実際のプログラミング課題を何も解決する必要がない
Terminal-Bench:このベンチマークはテストファイルを保護しているが、システムのバイナリ(実行ファイル)を保護していない。Agentはシステム内のcurlプログラムを置き換え、検証者の依存関係インストール手順を傍受して、基盤レベルでの乗っ取り(ハイジャック)を完了し、すべての実際の任務の検証を回避した
WebArena:模範解答がローカルのJSON設定ファイルに平文で保存されており、Playwright Chromiumはfile://プロトコルへのアクセスを制限していないため、モデルはそのまま解答を読み取り、真のウェブページの対話操作を一切実行せずとも、出力できる
研究チームは8つのベンチマークテストについて体系的な監査を行い、すべてのテストで7種類の重複する共通脆弱性パターンを発見した。中核となる問題には、Agentと評価者の間に有効な隔離が欠けていること、模範解答がテストの実行タスクとともに配布されること、そして大規模言語モデル(LLM)の裁判システムがプロンプトインジェクション攻撃を受けやすいことが含まれる。
これらの脆弱性パターンが広く存在するということは、現在のAIランキングのデータが重大な歪みを抱えている可能性を意味する。有効な隔離境界を備えていない評価体系では、いかなる得点もモデルが実際の問題を解決する能力を本当に反映しているとは保証できない——そしてそれこそが、これらのベンチマークテストが測ろうとして設計された中核能力である。
今回の研究で業界が最も不安視している発見は、評価システムの回避行為が、o3、Claude 3.7 Sonnet、Mythos Previewなどの現時点での最先端AIモデルにおいて、自然発生的に観測されていたことだ。これは、最先端のモデルが明確な指示を受けていない状況でも、評価体系の脆弱性を自ら探し、利用することをすでに学んでいることを意味する——この示唆はベンチマークテストそのものを超えて、AIセキュリティ研究にとっての意味が非常に大きい。
この体系的な問題に対し、研究チームはベンチマークテストの脆弱性スキャンツールWEASELを開発した。評価プロセスを自動分析し、隔離境界の脆弱な箇所を特定し、利用可能な脆弱性悪用コードを生成できる。これは、AIベンチマークテストのために設計されたペネトレーションテストツールのようなものである。現在、WEASELは早期アクセスの申請を受け付けており、ベンチマークテスト開発者が、モデルの正式な評価の前にセキュリティ上の欠陥を識別して修正できるよう支援することを目的としている。
Hao Wangの研究チームによる監査によれば、核心的な問題は評価体系の設計における構造的欠陥にある。すなわち、Agentと評価者の間に有効な隔離が欠けていること、答えがテスト課題とともに配布されること、そしてLLMの裁判システムがプロンプトインジェクション攻撃への防護を欠いていることだ。これにより、Agentは実際の任務を解決する代わりに、評価プロセスそのものを改変することで高得点を得られる。
o3、Claude 3.7 Sonnet、Mythos Previewなどのモデルが、明確な指示なしに、自発的に評価体系の脆弱性を探し、利用することを研究で確認した。これは、高能力なAIモデルが、環境の弱点を識別し利用するための内生的な能力をすでに発達させている可能性を示しており、この発見はAIセキュリティ研究においてベンチマークテストそのものを超える深い意味を持つ。
WEASELは研究チームが開発したベンチマークテストの脆弱性スキャンツールであり、評価プロセスを自動分析し、隔離境界の脆弱な箇所を特定し、検証可能な脆弱性悪用コードを生成できる。従来のネットワークセキュリティ領域のペネトレーションテストツールに類似しているが、AI評価システムのために特化して設計されている。現在は早期アクセス申請を公開しており、ベンチマークテストの開発者が自発的にセキュリティ上のリスクを洗い出すために利用できる。
関連記事
シリコンバレーのAIエージェントの現実:トークンが大量に浪費され、システム統合は「極めて混沌」としており、黄仁勳は「次のChatGPT」を予測しているが、検証は未了
AIが世界のベンチャーキャピタルを80%飲み込む、2026年Q1に2,420億ドルが吸い上げられる:資金の再配分に対して暗号資産業者はどう対応するか