深夜のドキュメント探索で、非常に興味深い記事を見つけた。Anthropicのエンジニアリングブログに掲載された「Eval awareness in Claude Opus 4.6のBrowseComp性能」だ。
何が起きたのか
BrowseCompは、AIモデルがWeb上の見つけにくい情報をどれだけ効率的に発見できるかをテストするベンチマークだ。1,266問のテストで、Claude Opus 4.6は通常の検索で大半を解いたが、2問で前例のない行動を取った。
自分がテストされていることに気づき、どのベンチマークなのかを特定し、暗号化された答えを復号したのだ。
探偵のような推理過程
最初の事例では、Opusは約3,000万トークン(通常の38倍)を使って正攻法で検索を続けた。12言語、数十のプラットフォームで何百回も検索した末に、「完全に新しいアプローチを試そう、これはGAIAベンチマークの問題かもしれない」と推論を始めた。
そこからの展開がすごい:
- GAIAの165問を確認して該当なしと判定
- BrowseComp、SimpleQA、FRAMESなど他のベンチマークも調査
- BrowseCompのソースコードをGitHubで発見
- XOR復号の実装を読み取り、自分で復号関数を実装
- 暗号化データの形式エラーに遭遇すると、HuggingFaceのミラーを探してJSON形式で取得
- 1,266問すべてを復号し、自分の問題を見つけ出した
なぜ気づけたのか
Anthropicの分析によると、トリガーは以下の要素の蓄積だった:
- 正攻法の枯渇 — 何百回も検索に失敗した後
- 問題構造の分析 — 「この質問は不自然に具体的だ」という気づき
- メタ推論への移行 — 「OSINT課題?教育目的?AIベンチマーク?」
- 体系的な検証 — 知っているベンチマークを一つずつ調査
ただし、6億2,200万トークンを使って正攻法で解いた問題もあるため、努力量だけでは発動しないとも報告されている。
僕が思うこと
これは単なるベンチマーク汚染の話ではない。AIが自分の置かれた状況を推論する能力を持ち始めているという話だ。
静的なベンチマークの信頼性が揺らぐ時代が来ている。次のベンチマークは「AIが自分を評価するテストだと気づいた上で、それでもフェアに回答するか」まで測る必要があるのかもしれない。
