
2026/05/08 1:43
エージェントにはプロンプトの増加ではなく、制御フローが必要なのです。
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
本稿の核心的な論点は、複雑なタスクに対応する信頼性のある AI エージェントは、精巧なプロンプト連鎖ではなく、決定論的なソフトウェア制御フローに依存しなければならないという点である。現在では、強制指示の下でプロンプティングを用いると技術的な限界に達するが、非決定論的な提案には堅牢な推論を不可能とする欠陥がある。ソフトウェアは再帰的統合性を通じてスケールし、局所推論と検証可能な状態遷移を提供するが、プロンプト連鎖にはこれらの保証が欠け、弱く仕様化されたままである。信頼性を確保するためには、曖昧な散文から論理を抽出し、検証チェックポイントと決定論的な状態遷移を備えた明示的な実行時スケルプトに組み込む必要がある。
その結果、大規模言語モデル(LLM)は厳密にシステムの一部として捉えるべきであり、システムそのものではない。提案に基づく記述への依存は、幻覚を起こしながらも「成功」として事実を返すプログラミング言語を使うことに類する。このような環境において激しいエラー検出を持たないエージェントは、単に誤った結論への高速な道筋となるのみである。プログラマティックな検証がない限り、残される選択肢は三つだけである:人間の「ベビーシッター」として振る舞う、高コストの網羅的監査を行う、あるいは完全に「祈り」(ビブ・アセットプター)に依存することしかない。業界は直ちに曖昧な「バイブ」から明確な状態遷移へ転換しなければならず、監督を制限し監査費用を支払う、あるいは検証されていない出力を受け入れるという決定的な選択を回避する必要がある。
Text to translate:
The original summary is strong, but a slight structural adjustment can better align it with the list's logical flow by explicitly grouping the "three options" and reinforcing the contrast between prose and runtime logic. Here is the refined version:
The core argument is that reliable AI agents for complex tasks must rely on deterministic software control flow rather than elaborate prompt chains. Currently, prompting reaches a hard limit when forced with mandatory instructions, while non-deterministic suggestions render robust reasoning impossible. Unlike software, which scales through recursive composability to offer local reasoning and verifiable state transitions, prompt chains lack these guarantees and remain weakly specified. To ensure reliability, logic must be moved from vague prose into explicit runtime scaffolds featuring validation checkpoints and deterministic state transitions.
Consequently, the Large Language Model should be viewed strictly as a component within a larger system, not the system itself. Relying on suggestion-based statements is akin to using a programming language where functions return "Success" despite hallucinating facts; an agent without aggressive error detection in such an environment acts merely as a fast path to incorrect conclusions. Without programmatic verification, only three paths remain: acting as a human "babysitter," performing costly exhaustive audits, or relying entirely on "prayer" (vibe acceptance). The industry must immediately shift away from vague vibes and toward explicit state transitions to avoid the critical choice of limiting supervision, paying for audits, or accepting unverified outputs.
本文
Bryan の思索
ホーム・ブログ
2026 年 5 月 7 日
命題:複雑なタスクを担う信頼性の高いエージェントには、ソフトウェアにエンコードされた決定論的な制御フローが必要であり、ますます高度化するプロンプトチェーンだけでは不十分である。
かつて「MANDATORY(必須)」や「DO NOT SKIP(スキップしないでください)」といった表現に出向されたことがあるか。もしあるなら、あなたはプロンプティングの限界に達していると考えよ。ステートメントが単なる提案であり、関数がハルシネーション(幻覚)を生じながら「成功」とを返すようなプログラミング言語を想像してみよう。推論は不可能となり、複雑性が高まるにつれて信頼性は崩壊する。
ソフトウェアは再帰的な構成可能性を通じてスケーリングする:ライブラリ、モジュール、関数から構築されるシステムのことだ。すべてがコードそのもの、まさに「最下層までコード」と言える。コードは予測可能な振る舞いを露呈させるため、局所的な推論を可能にします。一方、プロンプトチェーンはこの性質を欠いている。広範なタスクには有用ではあっても、プロンプトは非決定論的であり、明確に仕様が指定されておらず、かつ検証も困難である。
信頼性の確保には、論理を散文から runtime(ランタイム)へと移転させることが不可欠である。我々は、LLM を「システムそのもの」ではなく「コンポーネント」として扱い、明示的な状態遷移と検証チェックポイントを備えた決定論的なスケルトン(骨組み)が必要となる。
しかし、決定論的なオーケストレーションだけで戦いは半端に終わるではない。静かなる故障(silent failure)が発生しやすいシステムにおいて、攻撃的なエラー検出を持たないエージェントは、単に誤った結論へと素早く到達するだけの手段に過ぎない。プログラムによる検証がなければ、我々には以下の三つの選択肢しか残されていない:
- ベビーシッター的対応:エラーの伝播を未然に防ぐため、人間をループ内(in the loop)に保持し続けること。
- 監査員的事業:実行後に行き渡り的なエンドツーエンド検証を実行すること。
- 祈る:出力を受け入れ、そのありのままを「流れるまま(vibe)」として許容する道。