
2026/03/16 5:56
大型言語モデルは、使用すると疲労感を覚えることがあります。
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
Text to translate
(combining all key points while staying true to the source):**
Summary
The article, dated 15 Mar 2026, recounts the author’s experience working with large language models such as Claude and Codex after long sessions. The writer identifies several frustrations:
- “Dumbing down” the model to save money,
- Context rot (the model losing earlier prompts), and
- A bloated Codex/Claude harness that slows progress.
Mental fatigue causes the author’s own prompts to degrade; after roughly 30 % of a prompt is used, key context can be lost. Debugging large files creates a slow feedback loop—each tweak requires re‑parsing and can take about 10 minutes, with only ~2 % compaction achieved by the end.
The author warns against “doom‑loop psychosis”: when prompts become rushed or interrupted, it’s a signal to take a break rather than continue. A clear, confident prompt that evokes excitement (“the AI will crush it”) is more likely to succeed; uncertainty and impatience predict failure.
To accelerate feedback, the writer now asks the LLM to reproduce specific failure cases within a sub‑5‑minute loop, effectively applying a test‑driven development (TDD) style with the model as a test harness. By giving explicit success criteria (“reproduce failure in < 5 min, optimize code path, omit unnecessary pieces”), the LLM can generate faster feedback cycles and consume less context.
The author frames exhaustion from working with LLMs as a “skill issue” and highlights the risk of cognitive outsourcing—letting the AI fill undefined requirements without proper human thought. When progress stalls or context grows too quickly, the solution is to re‑iterate faster, reduce context usage, and save debugging time.
This revised summary incorporates all ten key points, avoids unwarranted inferences, and presents a clear, reader‑friendly overview of the article’s main arguments.
本文
2026年3月15日
数日ごとに、ClaudeやCodexで4〜5時間も苦戦した後にベッドへ入って、「何が起きたんだろう」と頭を抱えることがあります。
モデルを責めるのは簡単です――選択肢が多すぎて:
- コスト削減のためにモデルをダウンサイジングしている
- コンテキストローテーション(情報が腐敗)
- Codex/Claude Code/[挿入ハーネス] が肥大化している
翌日、休息でコンテキストウィンドウをクリアした状態で戻ると、LLMのおかげで高速かつ満足のいく作業ができることも珍しくありません。何が起きているのでしょう?
1. 疲れすぎて実験が遅い
疲労するとプロンプトの質が低下します。
これは明らかです:精神的に疲れていると、悪いプロンプトを書いてしまい、その結果AIも仕事を下手くそにしてしまいます。
例:
ある程度内容の濃いプロンプト(コンテキストの30%がAIと問題を合わせるために使われた後)を送信し、提出直後に重要な情報を抜かしたことに気づき、LLMを中断して不足情報を与え、続けてもらう。Claude CodeやCodexで「誘導」するだけでも結果は悪くなるのが確実です。
2. フィードバックループが遅すぎてコンテキストが膨張
現在取り組んでいる作業では、大きなファイルを解析する必要があります。解析ロジックにバグがあり、LLMと共に解決しようとしています。問題は、微調整ごとに再解析が必要で、時間がかかる点です。まるで10分間スピンするスロットマシーンのようです。
さらに悪いことに、これらのタスクは新しい実験を開始するためにかなりのコンテキストを要します。そして解析作業の終わりには、LLMは2%も圧縮ギリギリ。結果として、非常に鈍いAIか、完了後に最近の実験を知っているふりをしているAIになってしまいます。
3. AIとのハッピーパス ― 悪プロンプトによるドゥームループ精神症候群を回避
「素晴らしいプロンプトを書いて楽しめない」状態に達したら、まずは投げ出すべきです。これが最初のサインです。半端な書き方で短く、中断しフラストレーションが高まっているなら、一旦休憩を取る時です。
ここではメタ認知も必要です:
- 実際に問題を考えず、AIにギャップを埋めてもらうことを期待していないか?
これは非常に誘惑的な罠です。AIsは未定義の要件を補完するのが得意ですが、まだ十分ではありません。
時には「終わりの状態」を明確に描いたプロンプトを書いて、提出直後からすでに結果を祝福してしまうことがあります。AIが必ず成功するという感覚です。これこそが毎回探すべき感覚です。不安や焦りだけなら、うまくいかないでしょう。
4. 遅いフィードバックループを認識し問題化する
上記の解析問題では遅さと痛みが伴いました。スロットマシーンが数秒/数分で回転してほしい、15/20/30分は嫌です。
そのために始めたこと:
- 新しいLLMセッションを立ち上げる
- フィードバックループ速度を問題として提示する
- 5分以内のサイクルを望む旨を表明する
- 失敗例を示し、できるだけ早く再現してもらう
これはTDDに似てきますね。私はいつもスカッとしたエンジニアでした。テストを書いてはいましたが、独自問題用の詳細なケースや統合テストを作る時間を割くことはありませんでした。時間がかかりすぎて、フィードバックループが完璧でなくても報酬は得られました。
AIに明確な成功基準を与えると:
「この特定の失敗ケースを再現し、実行時間を5分未満に保ってください。コードパスを最適化する方法や、不要な部分を省略しても構いません。」
こうすればAIは問題を再現(初回は遅くても)しつつ、より速いフィードバックサイクルのレバーを作ります。その結果、コンテキスト消費が減り賢くなる。これでデバッグ時間を数時間短縮できる可能性があります。
5. 結論
LLMと仕事する中で疲れたら、実は「スキルの問題」かもしれません。
自分が疲れてドゥームループ精神症候群に陥っていることを認識しなければなりません。要求をアウトソースする魅力はありますが、それは罠です。完璧なプロンプトを書く行為を楽しめず、95%満足できる結果に戻れると確信できないなら、休憩を取るか問題を真剣に考え直すべきです。
作業が遅く、コンテキストが急速に膨らむように感じたら、それを解決の課題にしましょう。LLMと共に高速で少ないコンテキストで反復できる道を探ります。
購読
メールまたはRSSフィードで私のブログを購読できます。