大型言語モデルは、使用すると疲労感を覚えることがあります。

2026/03/16 5:56

大型言語モデルは、使用すると疲労感を覚えることがあります。

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

Text to translate

(combining all key points while staying true to the source):**


Summary

The article, dated 15 Mar 2026, recounts the author’s experience working with large language models such as Claude and Codex after long sessions. The writer identifies several frustrations:

  • “Dumbing down” the model to save money,
  • Context rot (the model losing earlier prompts), and
  • A bloated Codex/Claude harness that slows progress.

Mental fatigue causes the author’s own prompts to degrade; after roughly 30 % of a prompt is used, key context can be lost. Debugging large files creates a slow feedback loop—each tweak requires re‑parsing and can take about 10 minutes, with only ~2 % compaction achieved by the end.

The author warns against “doom‑loop psychosis”: when prompts become rushed or interrupted, it’s a signal to take a break rather than continue. A clear, confident prompt that evokes excitement (“the AI will crush it”) is more likely to succeed; uncertainty and impatience predict failure.

To accelerate feedback, the writer now asks the LLM to reproduce specific failure cases within a sub‑5‑minute loop, effectively applying a test‑driven development (TDD) style with the model as a test harness. By giving explicit success criteria (“reproduce failure in < 5 min, optimize code path, omit unnecessary pieces”), the LLM can generate faster feedback cycles and consume less context.

The author frames exhaustion from working with LLMs as a “skill issue” and highlights the risk of cognitive outsourcing—letting the AI fill undefined requirements without proper human thought. When progress stalls or context grows too quickly, the solution is to re‑iterate faster, reduce context usage, and save debugging time.


This revised summary incorporates all ten key points, avoids unwarranted inferences, and presents a clear, reader‑friendly overview of the article’s main arguments.

本文

2026年3月15日

数日ごとに、ClaudeやCodexで4〜5時間も苦戦した後にベッドへ入って、「何が起きたんだろう」と頭を抱えることがあります。
モデルを責めるのは簡単です――選択肢が多すぎて:

  • コスト削減のためにモデルをダウンサイジングしている
  • コンテキストローテーション(情報が腐敗)
  • Codex/Claude Code/[挿入ハーネス] が肥大化している

翌日、休息でコンテキストウィンドウをクリアした状態で戻ると、LLMのおかげで高速かつ満足のいく作業ができることも珍しくありません。何が起きているのでしょう?


1. 疲れすぎて実験が遅い

疲労するとプロンプトの質が低下します。
これは明らかです:精神的に疲れていると、悪いプロンプトを書いてしまい、その結果AIも仕事を下手くそにしてしまいます。

例:
ある程度内容の濃いプロンプト(コンテキストの30%がAIと問題を合わせるために使われた後)を送信し、提出直後に重要な情報を抜かしたことに気づき、LLMを中断して不足情報を与え、続けてもらう。Claude CodeやCodexで「誘導」するだけでも結果は悪くなるのが確実です。


2. フィードバックループが遅すぎてコンテキストが膨張

現在取り組んでいる作業では、大きなファイルを解析する必要があります。解析ロジックにバグがあり、LLMと共に解決しようとしています。問題は、微調整ごとに再解析が必要で、時間がかかる点です。まるで10分間スピンするスロットマシーンのようです。

さらに悪いことに、これらのタスクは新しい実験を開始するためにかなりのコンテキストを要します。そして解析作業の終わりには、LLMは2%も圧縮ギリギリ。結果として、非常に鈍いAIか、完了後に最近の実験を知っているふりをしているAIになってしまいます。


3. AIとのハッピーパス ― 悪プロンプトによるドゥームループ精神症候群を回避

「素晴らしいプロンプトを書いて楽しめない」状態に達したら、まずは投げ出すべきです。これが最初のサインです。半端な書き方で短く、中断しフラストレーションが高まっているなら、一旦休憩を取る時です。

ここではメタ認知も必要です:

  • 実際に問題を考えず、AIにギャップを埋めてもらうことを期待していないか?
    これは非常に誘惑的な罠です。AIsは未定義の要件を補完するのが得意ですが、まだ十分ではありません。

時には「終わりの状態」を明確に描いたプロンプトを書いて、提出直後からすでに結果を祝福してしまうことがあります。AIが必ず成功するという感覚です。これこそが毎回探すべき感覚です。不安や焦りだけなら、うまくいかないでしょう。


4. 遅いフィードバックループを認識し問題化する

上記の解析問題では遅さと痛みが伴いました。スロットマシーンが数秒/数分で回転してほしい、15/20/30分は嫌です。

そのために始めたこと:

  1. 新しいLLMセッションを立ち上げる
  2. フィードバックループ速度を問題として提示する
  3. 5分以内のサイクルを望む旨を表明する
  4. 失敗例を示し、できるだけ早く再現してもらう

これはTDDに似てきますね。私はいつもスカッとしたエンジニアでした。テストを書いてはいましたが、独自問題用の詳細なケースや統合テストを作る時間を割くことはありませんでした。時間がかかりすぎて、フィードバックループが完璧でなくても報酬は得られました。

AIに明確な成功基準を与えると:

「この特定の失敗ケースを再現し、実行時間を5分未満に保ってください。コードパスを最適化する方法や、不要な部分を省略しても構いません。」

こうすればAIは問題を再現(初回は遅くても)しつつ、より速いフィードバックサイクルのレバーを作ります。その結果、コンテキスト消費が減り賢くなる。これでデバッグ時間を数時間短縮できる可能性があります。


5. 結論

LLMと仕事する中で疲れたら、実は「スキルの問題」かもしれません。
自分が疲れてドゥームループ精神症候群に陥っていることを認識しなければなりません。要求をアウトソースする魅力はありますが、それは罠です。完璧なプロンプトを書く行為を楽しめず、95%満足できる結果に戻れると確信できないなら、休憩を取るか問題を真剣に考え直すべきです。

作業が遅く、コンテキストが急速に膨らむように感じたら、それを解決の課題にしましょう。LLMと共に高速で少ないコンテキストで反復できる道を探ります。


購読

メールまたはRSSフィードで私のブログを購読できます。

同じ日のほかのニュース

一覧に戻る →

2026/03/16 4:12

「Chrome DevTools MCP」 (原文と同じく略語をそのまま使用します)

## Japanese Translation: **改訂要約** Chrome の MCP(Machine‑Code Processor)サーバーは、現在実行中の Chrome セッションに直接コーディングエージェントを接続できるようになり、新しいインスタンスを毎回起動する必要がなくなりました。 この機能を利用するには、`chrome://inspect#remote-debugging` でリモートデバッグを有効化し、MCP サーバーを `--autoConnect` フラグ付きで起動します(例:`gemini-cli --autoConnect --channel=beta`)。 エージェントがセッションを要求すると、Chrome は許可ダイアログを表示し、「Chrome is being controlled by automated test software」というバナーを表示します。エージェントはそのアクティブなセッションに対して Network や Elements などの DevTools パネルへアクセスできます。 MCP サーバーは依然として元々の起動方法をサポートしています:ユーザープロファイルの指定、リモートデバッグポート経由での接続、または隔離された一時プロファイルの実行。 サンプルワークフローは次のとおりです。リモートデバッグを有効化した後、エージェントプロンプトに「Check the performance of https://developers.chrome.com」と入力すると、MCP サーバーが接続し、ページを開き、パフォーマンストレースを取得します。 Chrome M144(Beta)で利用可能なこの機能は、デベロッパーが新しいセッションを開くことなく手動の DevTools 使用と AI 支援デバッグをシームレスに切り替えられるようにし、将来的に MCP を通じてコーディングエージェントへより多くの DevTools パネルデータを段階的に公開する基盤を整備します。

2026/03/16 6:22

カナダの法案 C‑22 は、カナダ国民への大量メタデータ監視を義務付けています。

## Japanese Translation: > Bill C‑22(Lawful Access Act)は、通信事業者および電子サービスプロバイダー(ESP)への法執行アクセスを拡大すると同時に、一部のプライバシー制限を強化します。従来のBill C‑2で広範な無証拠要求が認められていた点を置き換え、通信事業者に対しては「サービス確認」権限のみを限定的に付与します。他の加入者情報については、合理的根拠基準に基づく裁判所承認命令が必要となります。 > > 本法ではまた、Supporting Authorized Access to Information Act(SAAIA)も導入されます。この条項はBill C‑2の多くの要件を反映しつつ、GoogleやMetaなどのESPにも適用します。ESPはデバイス・機能テストへの協力、要求の秘密保持、および「コアプロバイダー」として指定される可能性があります。コアプロバイダーは、データ抽出ツールの開発・テスト・維持管理、監視装置の設置、当局への機能通知、そして特定メタデータ(例:送信ログ)を最大1年間保持する義務があります。ただし、**送信内容、ウェブ閲覧履歴、またはソーシャルメディア活動の保持を強制されることはありません**—この例外はシステム的脆弱性への対処に限定されています。 > > 監督はインテリジェンス・コミッショナーが承認した省令によって行われますが、多くの詳細は機密扱いとなっています。本法は、ブダペスト条約第二追加議定書や米国のCLOUD Actなどとの国際情報共有協力を改善することを目的としていますが、重大な市民権利懸念を提起し、通信事業者およびESPに大きなコンプライアンス負担を課す可能性があります。結果として、ユーザーの監視リスクが高まる恐れがあります。

2026/03/16 4:25

49 MB のウェブページ

## Japanese Translation: 記事は、現代のニュースサイトがデータ量の多いリクエストや侵入的な広告、トラッキングスクリプトで読者を過剰に負荷させていると主張し、滑らかな閲覧体験よりも収益を優先していることを指摘しています。 - **具体的証拠:** ニューヨーク・タイムズの記事1件が422のネットワークリクエスト、49 MBのデータを生成し、安定するまでに2分かかったと報告されています。2006年には同じページは1.5 Mbpsの接続で数分間停止していた(10曲分のMP3音源に相当)。 - **広告インフラ:** クライアント側のプログレマティックオークションがRubicon ProjectやAmazon Ad Systemsなどのエクスチェンジへ何十もの同時入札リクエストを送信し、膨大なJavaScript解析を要求します。 - **トラッキングペイロード:** 約5 MBのトラッキングスクリプトがPOSTビーコンをファーストパーティー端点(例: a.et.nytimes.com/track)やクロスサイトトラッカー(doubleclick.net、casalemedia)へ送信し、バックグラウンドでユーザー識別情報を構築します。IABの「purr」同意エンドポイントはページロード直後にこれらのスクリプトを即座に起動させるため、クッキーバナーはプライバシー保護ではなく法的シールドであることが示されています。 - **UX戦術:** パブリッシャーはCPMやビューアビリティ指標を読者体験よりも重視し、モーダルポップアップ、低コントラストの閉じアイコン、強制スクロール、自動再生のスティッキービデオ(CPU熱、バッテリー消費、Fitts法違反)や「Read More」ボタンで記事を切り捨て、追加広告をロードします。これらは広告iframeが遷移後に読み込まれる際にレイアウトシフト(CLS)を引き起こし、Google Core Web Vitalsの指標による離脱率を高めます。 - **モバイル問題:** モバイルニュースサイトはコンテンツに約11 %しかビューポートを割り当てず、狭いスリット状の表示領域がインタラクションコストを増大させます。 - **緩和策:** 非必須オーバーレイはスクロール深度≥50 %または60 秒滞在後に遅延し、モーダルキューを順序付け、アクセシブルで低侵襲のモーダルを使用し、非同期コンテンツ用スペースを確保してCLSを回避します。 - **代替案:** text.npr.org、lite.cnn.com、およびRSSフィードといった軽量フォーマットは、読者が余計な要素のないプライバシーフレンドリーなニュース消費を好むことを示し、広告中心のUIパラダイムに挑戦します。 **結果:** このまとめはすべての主要ポイントを完全に反映し、説明のない推測を避け、記事の主張を明確で読者フレンドリーな概要として提示しています。

大型言語モデルは、使用すると疲労感を覚えることがあります。 | そっか~ニュース