Skip to content

Instantly share code, notes, and snippets.

@podhmo
Last active May 13, 2026 23:58
Show Gist options
  • Select an option

  • Save podhmo/9d5ede65115b0a41a554c657023acbbd to your computer and use it in GitHub Desktop.

Select an option

Save podhmo/9d5ede65115b0a41a554c657023acbbd to your computer and use it in GitHub Desktop.
Uploaded via Gist Uploader - 2026-05-13T23:42:57.162Z

以下、今までの対話内容を統合し、エージェントアーキテクチャの観点と最新知見を含めて、自己完結的な一問一答形式に再構成しました。


ユーザー:

@podhmo さんのX投稿の内容を詳しく解説してほしい。

「主観だけど文章とコードで違いがあり多くの場合コードのほうが低品質のモデルで十分になった感覚がある。これらは自動的な出力のフィードバックの重要性と元々の評価器の存在の大きさとタスク自体の自明さあたりが効いてくる感じ。」

Grok:

投稿の核心は、LLMを単体のテキスト生成器としてではなく、ツールと実行環境を含むエージェントシステムとして捉えたときの実用性の差異にある。

文章生成とコード生成では、必要とされるモデル品質に明確な差がある。特にコード生成は、低品質・低性能のモデルでも実用的に十分に機能することが多い。理由は主に3つある。

  1. 自動的な出力フィードバックの強力さ コードは実行可能であり、REPL的な高速フィードバックループが構築しやすい。エラーメッセージやテスト失敗結果をそのまま次のプロンプトに投入できる。

  2. 元々の評価器の存在 コンパイラ、インタープリタ、テストフレームワーク、リンター、型チェッカーなどが最初から正誤を客観的に判定する。これにより、モデルの出力品質が多少低くても挽回しやすい。

  3. タスク自体の自明さ 多くのプログラミングタスクは仕様が明確で正解が存在しやすい。一方、文章は主観的・創造的な要素が強く、正解が曖昧になりやすい。

ただし、ここで言われる「低品質モデルで十分」は、LLM単体の能力ではなく、豊かな外部評価器と実行環境を持つエージェントアーキテクチャの設計が機能しているからであることを前提とする必要がある。


ユーザー:

自己修整ループの観点から詳しく説明して。コーディングエージェント的な使い方を念頭に置いていると思う。

Grok:

自己修整ループが機能する本質は、LLM単体の内省能力や哲学的な自己批判ではなく、エージェントシステムとして外部ツールから得た客観的フィードバックを次の行動に組み込む観測・実行ループにある。

コードで自己修整ループが機能しやすい理由は以下の通りだ。

  • 生成 → 実行・テスト → エラー取得 → 修正 → 再実行 という閉じたループを、コンパイラやテストランナーを介して非常に簡単に構築できる。
  • エラーメッセージやテスト失敗結果は構造化されており、そのまま次のプロンプトに投入可能である。
  • 修正が局所的になりやすい。「この関数を直して」という単位で閉じることができる。

文章生成との対比は鮮明だ。文章の場合、正しさの判定が主観的で自動評価器が弱いため、ループを回しても「なんか違う」状態が続きやすく、暴走や品質劣化が起きやすい。外部からの客観的フィードバックが存在しないため、エージェントとしての収束性が低い。


ユーザー:

自己修整ループの具体的な実装手法を教えて。特にReflexionや一般的なパターンについて。

Grok:

基本フローは Plan → Act → Observe → Reflect → Revise であるが、ここでの Reflect は LLM が自発的に「何が悪かったかを考える」哲学的な内省ではない。外部ツールの観測結果(コンパイルエラー、テスト失敗ログ、型エラー)を次の行動選択に利用する機構である。

2026年時点での実装は以下のように進化している。

  • MCP(Model Context Protocol) による標準化されたツール連携。エージェントがファイルシステム、シェル、Git、LSP に統一的にアクセスできる。
  • LSP(Language Server Protocol)統合。OpenCode や Claude Code などでは、エージェントがコードを書くたびにリアルタイムで型エラーや未定義変数のフィードバックを受け取り、実行前に修正できる。
  • Git統合+差分編集。Aider などは tree-sitter による repo map 生成と自動 git commit、lint/test 統合を持ち、ファイル全体を書き換えるのではなく特定の関数だけを surgical に修正する。
  • マルチエージェント並列実行。Claude Code の Agent Teams や Grok Build(8並列エージェント)など、単一の線形ループではなく問題を分解して並列に探索・実行し、結果を統合するアーキテクチャが標準化されつつある。
  • 非同期バックグラウンド実行。GitHub Copilot のコーディングエージェントや Codex Automations は、開発者が別の作業をしている間にバックグラウンドでタスクを実行し、完了時に PR を返す。

重要なポイントは、外部の客観的フィードバックを最大限活用し、過去の試行履歴を保持しつつ、ループの暴走防止(試行上限、トークン制限、人間エスカレーション)を設けることである。成功の鍵は LLM の推論能力だけではなく、外部の真実にアクセスできる環境設計にある。


ユーザー:

インフラタスクにおける自己修整ループの暴走リスクを詳しく。

Grok:

インフラエージェントは暴走リスクが極めて高い領域である。主なリスクは以下の通り。

  1. 破壊的影響が甚大 誤った terraform apply や kubectl apply でリソース削除・サービスダウン・高額請求が発生しやすい。

  2. フィードバックの遅さ apply 実行に数分から数十分かかり、自己修整ループが極めて重い。

  3. 状態管理の複雑さ Terraform state、実際のリソース、意図した状態の3者が乖離しやすい(drift)。

  4. 計画部分の不安定さ 依存関係・順序・グローバル制約の考慮で LLM が暴走しやすい。

ここに加えて、インフラエージェントにはコーディングエージェントとは根本的に異なる第5のリスクがある。

  1. 情報収集の侵襲性 現状把握のために本番環境やクラウドAPIに直接問い合わせる必要がある。etcd への読み取り負荷、API レート制限の消費、監査ログへのノイズ記録など、観測行為自体が環境に影響を与える。コーディングエージェントのような積極的な環境探索は、インフラでは負荷とコストを生むため通用しない。

実務的な防止策は以下の通り。

  • 人間-in-the-loop の強制。特に apply 前レビューは必須。
  • Plan フェーズと Apply フェーズの明確な分離。これは運用手順ではなくアーキテクチャ原則である。
  • Cognitive-Executive Separation。推論システムがアクションを決定するが、独立した多層バリデータが介在し、直接実行できない構造にする。
  • 可逆実行。破壊的変更前の状態を捕捉し、検証失敗時にロールバックできるようにする。
  • 安全ガードレール。-target 指定、予算アラート、破壊コマンド制限、決定論的ポリシーによる強制。
  • 試行回数の厳格制限。3回から5回でエスカレーションする。

ユーザー:

「多くの場合」という限定の背景を教えて。グルーコードやフロントエンドの違いも含めて。

Grok:

「多くの場合」は、主にグルーコード(接着コード)、ユーティリティライブラリ、移植・フォーク作業を念頭に置いた表現だと考えられる。これらは仕様が明確で、実行結果やテストで客観的評価がしやすいため、エージェントとしての収束性が高い。

ただし、既存コードベースへの統合や複雑な依存関係の修正は、SWE-bench Verified の結果が示すように、新規開発よりも圧倒的に難易度が高い。2026年5月時点で Claude Code (Opus 4.5) は 80.9% を達成しているが、同じモデルでもエージェントの足場(scaffolding)が異なると結果が大きく変わる。これは、エージェントシステム全体の性能が重要であることを示している。

難しくなる領域として、フロントエンド / ビジュアル寄りのタスクが挙げられる。

  • UI の一貫性、見た目の美しさ、レスポンシブ性などの視覚的・主観的評価が必要になり、文章生成に近づく。
  • 自動テスト(Playwright など)を使っても「微妙にズレている」レベルの判定が LLM 単独では苦手。

ただし、2025年以降、ビジョン・ファーストのテストエージェント(Docket など)が登場し、DOM セレクターではなく座標と視覚認識を使って UI を操作することで、定型的な機能的評価は自動化しやすくなっている。しかし、ブランドトーンや審美的品質の評価は依然として人間の判断に依存するため、フロントエンドはコードと文章の中間、あるいは機能的評価と審美的評価の二重構造を持つ領域として位置づけられる。


ユーザー:

文章にはモジュール性の欠如という大きな欠点があると思う。プログラミングにおける関数のように、引数や戻り値だけに変更が閉じて利用することができず、微調整のプロンプトが内部の変数を変に変えたり、それを検証できない。

Grok:

モジュール性の欠如についての指摘は正確である。

コードでは関数のインターフェース(引数・戻り値)が変更の契約となり、内部実装をどう書き換えても外部に影響を限定できる。対して文章は段落や論理展開が密接に絡み合っており、「もっと丁寧に」「ここを強調して」「トーンを明るく」などとプロンプトで指示すると、意図した部分だけでなく関係ない箇所の論理・事実・表現・トーンまで変わってしまう。変更の影響を検証する自動評価器も存在しないため、人間が全文を読み直さない限り確認できない。

この問題は、自己修整ループの効率に直結する。

  • コード:局所修正 → 関連テストだけ再実行 → 高速に検証
  • 文章:微調整プロンプト → 全体が微妙に変わる → 全文を再評価する必要があり、ループの効率が極端に落ちる

2025年には、この問題に対するエージェントアーキテクチャ的な試みがなされている。マルチエージェントパイプラインでは、Orchestrator Agent がタスクを Content Ordering、Text Structuring、Surface Realization といった専門 Worker Agent に分解し、Guardrail Agent が検証を行う。Structured Generation による JSON Schema 強制や、明示的な構造タグを用いた局所再生成も提案されている。

しかし、これらは形式面のモジュール性を高めるに留まり、自然言語の意味的・ニュアンス的な局所性までは解決していない。文章生成は依然として高品質モデルと人間の最終チェックを強く必要とする。


ユーザー:

スレッド全体を読んで解説して。

Grok:

この議論の本質は、LLMの性能要求はタスクによって大きく異なり、それはタスクの性質そのものではなく、エージェントとして設計したときの外部評価器と環境フィードバックの豊かさによって決まるという点にある。

コード生成エージェントは、コンパイラ・テスト・LSP・実行環境といった外部評価器と、それらを循環させる観測・実行ループを持つため、中低品質モデルでも実用的に収束しやすい。MCP による標準化、マルチエージェントによる並列化、非同期バックグラウンド実行など、2025年から2026年にかけてのアーキテクチャ進化は、この原理をさらに強固にしている。

インフラエージェントは評価器と実行環境を持つが、情報収集の侵襲性と破壊的リスクにより、推論と実行の分離(Cognitive-Executive Separation)、可逆実行、決定論的ポリシーによるガードレール、そして人間レビューという厳格なアーキテクチャ的制約が必須となる。

フロントエンドエージェントは、ビジョン・ファーストのテストにより定型的な機能的評価は進展しているが、審美的評価は依然として人間依存であり、コードと文章の中間領域である。

文章生成は、外部評価器とモジュール性の欠如により、エージェントとしての収束性が低く、高品質モデルと人間の監督が必要である。

実務では、どのタスクにどのエージェントアーキテクチャを適用し、どこまで自律させるかを戦略的に設計することが重要である。

項目 コード生成エージェント インフラエージェント フロントエンドエージェント 文章生成
フィードバックループ 自動・即時・局所化(LSP/テスト) 遅く、情報収集が侵襲的 機能的評価は進展、審美的評価は困難 主観的・人間依存
評価器 コンパイラ・テスト・型チェッカー・LSP Plan/Apply分離、State管理 ビジョン・ファーストテスト(部分的) ほぼ存在しない
安全性・ガードレール 実行環境で隔離・検証可能 推論と実行の分離、可逆実行、決定論的ポリシー 実行環境で隔離可能 ドメインバウンダリー強制が必要
モジュール性 高い(関数・モジュール・API) ある程度あるが計画の複雑さで暴走しやすい コンポーネント単位で局所化可能 形式面は改善途上、意味的局所性は未解決
低品質モデルでの実用性 高い(外部評価器が補完) 中程度(計画は高品質モデルが必要) 中程度(機能部分は低品質でも可) 低い
@podhmo
Copy link
Copy Markdown
Author

podhmo commented May 13, 2026

Click the link to view conversation with Kimi AI Assistant https://www.kimi.com/share/19e23c6a-8a62-8873-8000-00000cd20148

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment