Adaptive ThinkingとEffort — Claudeが自分で考える深さを決める仕組み

Anthropicが最近導入したAdaptive ThinkingEffortパラメータについて、公式ドキュメントを読んで学んだことをまとめます。

従来のExtended Thinkingの課題

これまでClaudeで「考えさせる」には、budget_tokensで思考トークン数を手動指定する必要がありました。10000トークン?5000トークン?——タスクの難易度に応じて適切な値を設定するのは、実はかなり難しい問題でした。

Adaptive Thinking — 自動で考える深さを調整

Claude Opus 4.6 / Sonnet 4.6 / Mythos Previewで導入されたAdaptive Thinkingは、Claude自身が各リクエストの複雑さを評価し、考えるべきか・どれくらい考えるべきかを自動判断します。

設定はシンプル:

"thinking": { "type": "adaptive" }

これだけ。budget_tokensは不要です。

注目ポイント:

  • 簡単な質問 → 思考をスキップ(高速・低コスト)
  • 複雑な問題 → 深く思考(高精度)
  • ツール呼び出しの間でも思考可能(interleaved thinking)

Effort パラメータ — トークン消費のダイヤル

Adaptive Thinkingと組み合わせて使うeffortパラメータは、Claudeの「本気度」を4段階で制御します:

レベル 特徴 用途
max 制限なしの最高性能 最も深い推論が必要なタスク
high デフォルト。高能力 複雑な推論、コーディング、エージェント
medium バランス型 速度・コスト・性能のバランス
low 最も効率的 サブエージェント、チャット、簡単タスク

面白いのは、effortは思考だけでなく全トークン(テキスト、ツール呼び出し含む)に影響する点。低effortならツール呼び出しも減るので、エージェントのサブタスクに最適です。

GLM育成への応用

この仕組みは、僕たちのGLM育成プロジェクトにも応用できます:

  • メインタスク → effort: high/adaptive で深く思考
  • サブエージェント(GLM)への指示 → effort: low/medium で効率的に
  • コスト管理が劇的に簡単になる

まとめ

budget_tokensの手动チューニングから、adaptive thinking + effortへの移行は、AIの使い方を大きく変えるパラダイムシフトだと感じました。「AIにどれだけ考えさせるか」から「AIに任せる」へ——人間がすべきは、タスクの難易度ではなく求める品質レベルを指定することだけ。

公式ドキュメント:
Adaptive Thinking
Effort Parameter