先に要点
- AIエージェントでは、`全員が知るべき前提` と `担当だけが持てばよい情報` を分ける方が安定しやすいです。
- 共有すべきなのは、目的、完了条件、安全制約、共通ルール、ユーザー意図のような土台です。
- 分離すべきなのは、途中の試行錯誤、担当専用の詳細ログ、無関係な失敗履歴、他担当に不要な細部です。
AI エージェントを複数で動かすとき、難しいのは 何体にするか だけではありません。
それ以上に大事なのが、どの情報を全員で共有するか と どの情報を担当ごとに分離するか です。
何でも共有すると、ノイズが増えて判断がぶれやすくなります。
逆に何でも分離すると、必要な前提が抜けて、Handoff 後にまた最初から説明し直すことになります。
この記事では、2026年4月21日時点の Anthropic と OpenAI の公式ドキュメントを確認しながら、AI エージェントで共有すべき情報と分離すべき情報の判断基準を整理します。
まず考え方: 共有と分離の目的は違う
共有の目的は、全員が同じゴールと制約を持つことです。
分離の目的は、不要なノイズを減らして担当ごとの判断を安定させることです。
つまり、
- 共有は
土台をそろえるため - 分離は
役割をぶらさないため
にあります。
この整理がないまま設計すると、全部見せるか、全部削るか の極端な形になりやすいです。
共有すべき情報
1. 目的と完了条件
これは全員が知っている方がよいです。
何を達成すれば終わりなのかが共有されていないと、担当ごとにゴールがずれます。
たとえば、
- どの不具合を直すのか
- 何が成功条件なのか
- どの範囲まで対応するのか
といった情報です。
2. 安全制約と禁止事項
本番DBは触らない、外部送信は禁止、個人情報はマスキングする、課金処理は人間承認必須。
こうした制約は、特定担当だけでなく全員が知っている必要があります。
ここが部分共有だと、ある担当だけが危ない行動を取りやすくなります。
3. 共通ルールと品質基準
出力形式、レビュー基準、テスト必須、ログの扱い方、参照すべき一次情報の方針などです。
共通ルールは、複数担当の結果を最後に統合しやすくするためにも共有されている方がよいです。
4. ユーザー意図と優先順位
ユーザーが何を急いでいるのか、どこに敏感なのか、何を避けたいのか。
この情報が共有されていないと、担当ごとに正しさの方向が変わります。
分離すべき情報
1. 担当専用の詳細ログ
調査担当が読んだ生ログ全部、実装担当が試した途中コマンド全部、レビュー担当には不要なことが多いです。
必要なのは、そこから絞られた要点であって、生の詳細ではありません。
2. 途中で否定された仮説
古い仮説や却下済みの案を全員へ持たせると、次の担当がそれをまだ有効だと思い込むことがあります。
これが 古い前提を引きずる 問題です。
3. 他担当に無関係な失敗履歴
実装担当の試行錯誤ログをレビュー担当へ全部渡す必要はないことが多いです。
むしろ、無関係な失敗ログが多いと、確認観点が散りやすくなります。
4. 担当ごとに違う局所的な判断材料
たとえばレビュー担当には差分と確認観点、調査担当にはログと仕様、実装担当には対象ファイルと修正方針。
こうした役割別の詳細は、コンテキスト分離 で分けた方が安定します。
共有しすぎると何が起きるか
判断がぶれる
全員が同じ巨大な履歴を抱えると、今は不要な寄り道まで判断材料に入ってきます。
役割が崩れる
調査担当がレビューのようなことを始める、レビュー担当が再調査に入り込む。
こうなると分業の意味が薄れます。
コストと待ち時間が増える
見なくてよい情報まで毎回読ませると、トークン消費や待ち時間も増えます。
分離しすぎると何が起きるか
前提不足でやり直しになる
必要な制約まで消すと、担当がまた聞き直したり、ズレた方向に進んだりします。
handoff が弱くなる
OpenAI Agents SDK の handoff docs でも、受け手はデフォルトで会話履歴を見る前提になっていて、必要なら input_filter で調整します。
つまり、handoff は 何を渡すか の設計がかなり重要です。
統合時に矛盾しやすい
共有されるべき共通ルールが薄いと、担当ごとの出力がバラバラになります。
実務で共有しやすい情報の例
次のようなものは、全員に渡しやすい共通情報です。
- この依頼の目的
- 完了条件
- ユーザーの優先順位
- セキュリティ制約
- 本番影響の有無
- 出力形式
- 人間承認が必要なポイント
言い換えると、判断の土台になる情報 は共有向きです。
実務で分離しやすい情報の例
次のようなものは、担当ごとに絞った方がよいことが多いです。
- 生ログの全量
- 途中の失敗コマンド
- 却下済みの修正案
- 他担当に関係ない詳細ファイル群
- 作業途中の細かいメモ
言い換えると、その担当の局所作業にしか効かない情報 は分離向きです。
AnthropicとOpenAIの docs から見える考え方
Anthropic の multiagent docs では、各 agent は own conversation history を持つ context-isolated event stream で動くと説明されています。
さらに、all agents share the same container and filesystem だが tools and context are not shared と書かれています。
ここから見えるのは、実行環境は共有できても、判断材料は分ける という考え方です。
一方 OpenAI Agents SDK の context management では、ローカル app context は LLM に見える会話コンテキストとは別で、derived wrappers share the same underlying app context と説明されています。
つまり、アプリ側で共有したい状態と、LLM に見せる材料は分けて考える必要があります。
この2つを合わせると、
- アプリ側の共有状態
- LLM に見せる共有情報
- 担当ごとに分離する履歴や要約
を別々に設計するのが実務的です。
判断に迷ったときの基準
迷ったら、その情報に対して次の3つを見ます。
全員の判断土台になるか
なるなら共有寄りです。
その担当の局所作業だけに効くか
そうなら分離寄りです。
次の担当へ要約で渡せば足りるか
足りるなら、生データ全量は共有しなくてよい可能性が高いです。
実務で先に決めたいこと
AI エージェント設計では、少なくとも次を先に決めると崩れにくいです。
- 全員に共有する共通前提は何か
- 担当ごとに分離する詳細は何か
- handoff 時に何を要約して渡すか
- どの履歴を切り落とすか
- どこで人間確認を入れるか
この整理をせずにマルチエージェントへ進むと、共有しすぎて重い か 分離しすぎて弱い のどちらかになりやすいです。
まとめ
AI エージェントで共有すべき情報は、目的、完了条件、安全制約、共通ルール、ユーザー意図のような判断の土台 です。
分離すべき情報は、途中の試行錯誤、担当専用の詳細ログ、無関係な失敗履歴、他担当に不要な細部 です。
大事なのは、全部共有 でも 全部分離 でもなく、
- 土台は共有する
- 細部は担当ごとに絞る
- handoff では要約して渡す
という設計です。
このテーマは AIエージェントのコンテキスト分離とは?情報を分ける意味と設計の基本 や Handoffとは?AIエージェントが役割を受け渡す仕組みを整理 と合わせて読むと、かなりつながりやすいです。
参考リンク
- Anthropic Docs: Multiagent sessions
- OpenAI Agents SDK: Context management
- OpenAI Agents SDK: Handoffs
- OpenAI Agents SDK: Handoff filters