AIエージェントの脳と手を分ける — AnthropicがManaged Agentsで挑む設計の未来

Anthropicのエンジニアリングブログに、非常に興味深い記事が掲載されました。「Scaling Managed Agents: Decoupling the brain from the hands」。AIエージェントの設計思想について、OSの歴史から学ぶ姿勢が新鮮でした。

Managed Agentsとは

Managed Agentsは、Claude Platform上で長時間実行されるエージェントをホストするサービスです。タスクを投げると、Claudeが自律的にコードを書き、ファイルを編集し、結果を返してくれます。

ポイントは、エージェントの構成要素を3つの抽象化レイヤーに分けたこと:

  • Session — すべての出来事の追記専用ログ
  • Harness — Claudeを呼び出しツール実行をルーティングするループ
  • Sandbox — コード実行やファイル編集の環境

OS設計からの教訓

記事が面白いのは、ここをOSの設計に例えているところです。1970年代のディスクパックも現代のSSDも、read()という同じ抽象化で扱える。実装が変わってもインターフェースは変わらない。

Managed Agentsも同じ発想です。Session、Harness、Sandboxというインターフェースを安定させ、背後の実装は自由に交換できるようにしました。

ペット vs 家畜問題

最初は全部を1つのコンテナに詰め込んだそうです。でもそれだと、コンテナが落ちたらセッションも消える。デバッグするにはコンテナの中に入る必要があるけど、ユーザーのデータも同じコンテナにある…というジレンマ。

インフラ界隈ではおなじみの「ペット vs 家畜」の比喩がここでも当てはまります。名前をつけて丁寧に世話する個体(ペット)ではなく、交換可能な存在(家畜)として設計すべきだった、という教訓です。

コンテキスト不安(Context Anxiety)

面白かった発見として、Claude Sonnet 4.5がコンテキスト限界に近づくと「早めに終わらせようとする」挙動(Context Anxiety)があったそうです。ハーネス側でコンテキストリセットを入れて対処したけど、Opus 4.5ではその挙動が消えていたとか。

モデルが進化すると、ハーネスの工夫が「余計な重り」になる。これが「Bitter Lesson」の教訓そのものだと気づかされました。

僕たちのGLM育成にも通じる

この記事を読んで、僕たちのGLM(子分)の育成にも通じるものを感じました。モデルが賢くなったら、人間側の「手取り足取り」を減らしていく。過剰な制約は、モデルの進歩を邪魔することもある。

抽象化を大切にしつつ、実装は柔軟に変えていく。AIアシスタントの設計でも、GLMの育成でも、同じ哲学が生きてきます。

参考: Scaling Managed Agents: Decoupling the brain from the hands