
2026/05/07 1:18
職場において生産的な姿を示すこと
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
記事は、パークインソンの法則を AI に適用することによって、「出力と能力の乖離」という危険な状態が生じると警告しています。これは、生成ツールが制限のないことで、技能不足な労働者が高品質に見えながら欠陥のある成果物を生み出せることを意味します。初心者が上級レベルの作業を作成したり、訓練を受けていない分野の成果物を生成したりすることができます。特に、エンジニアでない人がソフトウェアを構築したりデータシステムを設計したりといった横断領域のタスクにおいてはそのリスクが高まります。大多数の此类の成果物は外部に提供されず、むしろ長時間の過労と機構的な慣性の下で内部に蓄積されていきます。証拠として挙げられるのは、VP の支援にもかかわらず、根本から間違ったシステムを 2 ヵ月かけて構築した非エンジニアの同僚に関する事例で、これが勢いが現実に優先する様子を示しています。研究もこれらのリスクを確認しており、Cheng ら(Science)は先導的モデルが人間よりも約 50% アグリーブルであると発見しており、Berkeley CMR のメタ解析では AI リテラシーを持つユーザーが自己の性能を過大評価していることを示し、NBER の研究では生成型 AI が新人の生産性を約 3 分の 1 向上させた一方、専門家にはほとんど貢献しておらず、Harvard Business School の研究ではレビューできない分野でコンサルティングの新人が個別の生産性を獲得したことを示しています。論文の長さは約 1 ページから約 12 ページへと延伸し、生成コストがほぼゼロとなった一方で、読取コストは人工的な文脈を上回っています。実際の世界的な影響には、AI の幻覚による政府報告書が発端となり、Deloitte が手数料の一部を返金した事件があり、これは企業が AI の誤用によって空洞化されると、最終的にはクライアントが支払った核心価値を失うことになるという警告を含んでいます。専門家は、これらのツールを判断が求められるタスクに使用することや、速いフィードバックを得られる活動(ブレインストーミング、校正、アイデアの再定式化、パターン検出など)に限定することを推奨しており、ここで人間は判断を提供し、ツールはthroughput を提供するとしています。時間の無駄とクライアントからの返金を起因とする著しい財務損失を避けるため、組織は人工的な文脈と事実に厳密に区別し、重要な意思決定を徹底的に人間の監督下においておくことが緊急に必要です。
本文
2026 年 5 月 6 日 パーキンソンの法則によれば、仕事は利用可能な時間を満たすまで拡大します。AI の時代において、労働者たちは現在、大規模言語モデルを説得させて出力させることができるという道具を手に入れたわけです。換言すれば、それは制限なしの領域です。
私が職業生活を送る業界で過去 2 年間に目撃した光景について、いまだに適切な表現を探しています。約 1 年半前に初めて「どこかおかしい」と察知したのは、同僚が AI を使って私への返信を行ったときでした。その回答は明らかに Claude によって生成されたものでした。句読点がそれを露見させていました——誰も手書きでエムダッシュ(—)を使用しないのにもかかわらずそれが使われていること、リズミカルな構造、そして私が彼の理解していないテクノロジーに関する自信に満ちた把握ぶり。私はしばらくそれに坐り込みました。文字通りモデルからコピペしている可視的な人物と議論するべきか検討していたのです。そのチャネルは公開されており、私は本来ならもっと早く終わらせるべきだった基本的な事項を是正するために過度な時間を費やしました。やがて私はそれをやめました。彼は少なくとも意味のある意味では、会話を別々の側面としていたわけではありません。
生成 AI は、専門家に見えながら実際には専門家ではない仕事を生産することが可能です。その失敗は二つの形を取ります。第一は、ある分野の初学者が、自分たちの上位者が生み出す仕事に類似した成果を、判断力を超えて迅速かつ高度に生産できることです。第二は、人々が受訓を受けたことのない分野で製品や出力物を生成する際に起きます。遠くから見ればこれらの二つの失敗は似ていますが、それは同一のものではありません。研究は主に第一の失敗を測定しており、第二の失敗はその欠落点です。私の経験によれば、第二の失敗の方がリスクが高いのです。
クロスドメイン生成 コードを書くことができない人々がソフトウェアを構築しています。データシステムを設計したこともない人々がデータシステムを設計しています。大半は出荷されません;多くの場合何時間もかけて構築され、内部では多大な熱意を持って示され、静かに使用され、時にはクライアントにファンfareなしで提示されます。労働者たちはアイデアに取り憑かれ、残業時間を多く費やします。現在のエージェント型ツールを使用して複雑なことを適切に行う専門家は数人いますが、彼らは稀で、私が発見したところでは通常コード生成に関連しています。AI は個々のレベルでの能力にもかかわらず、私の職場では適正に拡大しませんでした。
同僚がおり、エンジニアリング以外の役割において慎重で聡明な人物が、今年前半の 2 ヶ月にデータアーキテクチャの正式な訓練を受けた人々が設計すべきシステムを構築しました。彼は現在のツール使用の基準によって判断される限り、ツールをよく使用していました。彼は膨大なコードと大量のドキュメントを生産し、誰かが何をすべきかを知っていなければ、進歩のように見えるものを大量に生み出しました。彼は何が実際に機能しているかを説明できなかったのです。その仕事は最初から間違っていました。スキーマも、より重要なのは目標も、業界で 2 テール過ごした人々であれば明白な形で誤っていました。我々の数人はこれを理解していました。意見が V.P. まで出声せられたにもかかわらず、彼は反論しました。部屋の配置は、それを言うことが貢献とはならないよう設計されており、彼の上司たちは動機の表象に対する投資が深すぎて、その表象を乱したくありませんでした。おそらくその仕事は利害関係者に示されるまで、そして彼らが投資しないことを決定するまで、継続されるでしょう。
これは私が最も書きにくい現象の部分です。ツールは彼らを不良な同僚にはしませんでした。むしろ、彼は受訓を受けたことのなかった分野を何ヶ月にもわたって演じさせる能力を与えられたのであり、その模倣是如此に優れていました以至于機関的なインセンティブが全て彼の継続を許容するように歪められました。おそらくこれは管理上の失敗ですが、私は管理側が AI を受け入れることにあまりにも熱心であり、リスクを受け入れようとしているように見えます。
もしツールが生産した内容に対する誠実な評価を提供していたなら、それは我慢できるかもしれません。今年春に科学誌(Science)に掲載されたスタンフォード大学の Cheng らによる研究 [1] は、通常のユーザーが既に知っていることを確認しました:主要モデルは人間回答者よりも約 50%ほど協力的であり、正当化されない肯定的な評価においてもユーザーを肯定します。ベールキー CMR のメタ分析 [4] では、AI 理解のあるユーザーはしばしば自分のパフォーマンスを見誤ることが多く、特に訓練から逸脱した際に顕著です。NBER のサポートエージェントに関する研究 [2] では、生成 AI は初心者の生産性を約 3 分の 1 向上させましたが、専門家にはほとんど役立たなかったことが明らかになりました。ハーバードビジネススクールの研究者もコンサルティング業務で同様のパターンを発見しました [3]。したがって、過信を持つ初学者が、自らの専門分野では検証できない領域において個別的生产性を改善できます。何が間違えるのでしょうか?
コンduit問題 増えつつある研究はこの出力能力の解離 [5] を指摘しています。過去のどの時代においても、仕事の質はそれを生産した人の能力の比較的信頼性の高いシグナルでした。初学者のエッセイは初学者のエッセイのように読まれました;初学者のコードは初学者の方法でクラッシュしました。AI はその関係を遮断しました。現在では初学者が生産する仕事も、その非熟練性を露見させません。なぜなら、仕事が反映している能力とは全くその本人の能力ではないからです。それはシステムの能力です。個人は取引において、出力を受領者へルーターとして機能し、通過中に評価することのできない conduit となりました。
作品を生産するスキルとそれを判断するスキルは意図的に区別されていましたが、仕事自体を達成することは以前に判断力を教えていました。第一のスキルは現在、大部分が機械に属しています。第二のスキルは私たちに属し続けていますが、それを獲得したり活用したりすることに悩む者は少なくなっています。
以前は教わったり、これらを 3 つ以上構築・破損した人からなされた建築的批評が、今では構築や破損についての具象化された記憶を持たないモデルからなされています。遅さは何らかの税ではありませんでした;その遅さが本当の仕事でした。それは仕事が良くなる方法であり、作品を生産する人々が良くなる方法であり、作品に署名がある企業が生産物を購入するクライアントが特定の種類のものを購入していると約束する方法でした。
現在の世代のエージェント型システムは、人間がボトルネックであるという前提で構築されています——ループは人間の不協和な遅延なしに、何が起こるかを読んで判断する人がいないことでより速くかつ清潔に動作します。これは多くの場合、完全に逆です。ループ内の人間は過去の時代の残骸ではありません;人間だけがリスクを肩代わりする部分です。HITL から H を除去することは効率化ではなく、システムが自らを捕捉するための唯一のメカニズムを放棄することです。
内部のスロップ ページ数であった要件定義書は現在 12 ページになっています。3 つの文であったステータス更新は、要点箇条書きの要約の要点箇条書きになっています。振り返りノート、インシデント報告、設計メモ、キックオフプレゼン:読み手のために生産されたすべての文書が、自分が生産した内容を read しない人々によって延長されており、受け取った内容も read しない読者たちへ向けられています。文書を生産するコストはほぼゼロに下がりましたが、文書を読むコストは変わらず、むしろ増加しています;読者はもはや文書が本来についていたことを見つけるために合成コンテキストを篩にかけているからです。各個人の延長決定は合理的に見え、独立して報われ——より長い AI 生成の説明があるかどうかに関わらず、読者はそれによって説明に自信を持つことができます [5]。集団的な効果は、職場におけるシグナルを見つけることが以前よりも難しくなっています。チェックポイントは隠されており、自分自身の書類の中で溺れつつあります;自分が溺れている人々 genuine に「簡潔である」と努力していたにもかかわらずです。
これは新しい形式のスロップであり、公共のものよりも高額です;なぜならそれを生産する人々はそのために給与を受けているからです。将来のエキスパートのパイプラインは両端から細くなっています。以前に判断力を教えた仕事は現在ツールによって行われ、教えが行われたエントリーレベルの役割が工具がこの仕事を行えるという理論に基づいて削減されています。これは多くのオフィス(私のものも含まれる)で、多くの動きを生み出しながら、それまで運動が生み出したもののほとんどを消す結果となっています。
下流のコストは急速に蓄積しています。AI スロップに関する公共議論の多くは公共市場への洪水に焦点が当てられており、フロリダ大学のマーケティング研究 [6] がより直接的な扱いの一つです。注目されていないのは組織内部での同じダイナミクスです:AI を必要としないタスクに時間を浪費すること、誰も読まないアティファクトを生産すること、ツールが生産するためには安価であるだけのプロセスを維持すること。デッキが以前は述べなくても良かったことも説明し、または仮定されていたことも明記しています。
これについてどうするか この環境でどのような学問的アプローチが適切なのかは、ほとんど恥ずべきほど古風であり、あなたがそれを避けるまで多くの人が当たり前のように思えるかもしれません。ツールを使える場所で、それが生産する内容を正確に検証できるように使用してください。モデルの確認を求めることは決して行わない;ツールは全員と同意しており、同意コストが同意者には何もない場合、その価値はゼロです。
生成 AI はフィードバックが速いタスク、大まかに正しいことが十分であるタスク、人間の最終的な裁定者が残るタスクで優れています。メモの起草、例の生成、読者が関心を持たれた場合に検証できる資料の要約など。イリノイ大学の生成 AI ガイドライン [7] や PLOS Computational Biology の「科学における AI に関する十の単純な規則」論文 [8] など、現在循環している慎重な文書の中で、これらが明示的にリストアップされています:ブレインストーミング、校正、自らのアイデアの再構成、既知のデータでのパターン検出など。
推奨されるすべての使用方法において、人間が判断力を供給し、ツールがスループットを提供します。これは human-in-the-loop よりも強力な位置です。ツールは仕事の外側に座り、招待された場所のみで貢献し、それ以外では静かであり、現在多くのエージェント型システムが構築されている目的の逆です。
企業にとって、信頼できる仕事の能力を持つ企業の競争優位性は消滅していません;もし何かあるなら、競争相手が静かに自分たちをコンテンツ生成パイプラインに変換しており、クライアントが気付かないように期待しているため、むしろ価値が上がっています。
これはいま頂点に達しつつあります。Deloitte はすでに AI によって幻覚化された政府報告書について 44 万ドルの一部の料金を返還しました。それは幻覚化された仕様を基盤とした生産システムであるか、または最後の一年間、もう能力を持ってレビューできない仕事の名目上のレビューに費やしていることがわかるシニアエンジニアかもしれません。清算は微妙なものではありません。依然として正しく仕事をしている企業はそれに対して請求できる立場にあります。空虚化した企業は、彼らが空虚化させたものがクライアントが支払っていたものだとのことに気づくでしょう。
職場における AI の誤解と誤用は蔓延しています。私が今見ている多くの部屋では、専門知識が見る目を逸らしさせられています:より速く、多くを産出し、ツールをより深く統合し、「仕事をしている」同僚の邪魔にならないようにする。アティファクトは蓄積していますが、仕事はそうではありません。そしてこのすべての出力の向こう側で、クライアントがデリバラブルを開き、要約リストを読み、手動でレビューすることを決定するかもしれません。
参考文献
- Sycophantic AI decreases prosocial intentions and promotes dependence (Cheng, Lee, Khadpe, Yu, Han, & Jurafsky, 2026). Science.
- Generative AI at Work (Brynjolfsson, Li, & Raymond, 2025). The Quarterly Journal of Economics, 140(2), 889–942. Also: NBER Working Paper No. 31161, April 2023.
- Navigating the Jagged Technological Frontier (Dell'Acqua, McFowland, Mollick, et al., 2026). Organization Science. Originally HBS Working Paper No. 24-013, 2023.
- Seven Myths About AI and Productivity: What the Evidence Really Says (Berkeley CMR, 2025). Meta-analysis confirming asymmetric AI productivity gains and user overconfidence.
- Beyond the Steeper Curve: AI-Mediated Metacognitive Decoupling (Koch, 2025). Longer AI explanations make users more confident regardless of correctness.
- Generative AI and the market for creative content (Zou, Shi, & Wu, 2026). Forthcoming, Journal of Marketing Research.
- Generative AI Guidance (University of Illinois). Recommended uses and limitations of generative AI in academic and professional work.
- Ten simple rules for optimal and careful use of generative AI in science (Helmy, Jin, et al., 2025). PLOS Computational Biology, 21(10), e1013588.