未来すべてが虚偽であるというのか、たぶん。では私たちはこれからの道はどこへ向かうべきなのか?

2026/04/16 22:32

未来すべてが虚偽であるというのか、たぶん。では私たちはこれからの道はどこへ向かうべきなのか?

RSS: https://news.ycombinator.com/rss

要約

日本語翻訳:

記事は、大規模言語モデルが自動車産業の初期の混乱期に匹敵する社会リスクをもたらすことを鮮明な警告として伝えています。現状、これらのシステムは低品質な「スロープ(slop)」をユーザーへ洪水のように供給することで情報品質を低下させ、欺瞞的な嘘を助長し、動物虐待や児童虐待に関わる disturbing な合成コンテンツを生成しています。デジタル的害悪を超えて、この文本では AI に依存することは人間の能力を能動的に侵食し、自然な持続力、筋記憶、そして「metis(メティス:実用的な叡智)」として知られる実践的知恵を減少させると主張しています。さらなる惨劇を防ぐため、Anthropic などの大手企業の従業員には、意図的に技術進歩を遅らせるために辞職することを呼びかけるべきです。労働者による即時の「攻撃への抵抗(aggression resistance)」および、デジタル排出に対して企業に財務的責任を負わせる新たな立法なしでは、恐ろしい結末がすぐに出現するでしょう。したがって、ユーザーには低品質なコンテンツの拒否、自宅向け AI サービスからの解約、そして人間の主体性を損なうモデルとの取引への署名を避けるよう助言されています。この記事は最後に、業界全体での組合化を呼びかけ、企業の要求に抵抗し、テクノロジーが人類に代わるものではなく人類のために機能することを確保することを求めて結論づけています。

Text to translate:

The original summary is clear, accurate, and well-balanced. No revision is necessary.

Summary:

The article delivers a stark warning that large language models pose societal risks comparable to the early, chaotic days of the automobile industry. Currently, these systems degrade information quality by flooding users with low-quality "slop," facilitate deceptive lying, and generate disturbing synthetic content involving animal cruelty or child abuse. Beyond digital harms, the text argues that relying on AI actively erodes human abilities, reducing our natural persistence, muscle memory, and practical wisdom known as "metis." To prevent further catastrophe, employees at major firms like Anthropic are urged to quit their jobs to intentionally slow technological advancement. Without immediate aggression resistance from workers and new legislation holding companies financially responsible for digital emissions, frightening outcomes will emerge soon. Consequently, users are advised to refuse poor-quality content, stop subscribing to home AI services, and avoid signing deals with models that compromise human agency. The piece concludes by calling for industry-wide unionization to resist corporate demands and ensuring technology serves humanity rather than replacing our essential skills.

本文

目次

  • はじめに
  • ダイナミクス(変化の動き)
  • コルチャー(文化・風土)
  • インフォメーション・エコロジー(情報生態系)
  • イロイラな出来事(面倒ごとの羅列)
  • 心的危険要因
  • 安全性
  • 労働と仕事
  • 新しい職种
  • 今後どこへ向かうのか

これまでに:新しい仕事について

多くの読者の方々は、私が機械学習の wonders(驚異的な成果)、特に大規模言語モデル(LLM)がコード生成においてどれほど優れており、Suno というツールがうめられるメロディを洗練された曲に変えるという不可思議さを十分に紹介していないことに、少なからずいら立ちを感じていることだろう。だが、この記事は自動車を運転する速さや利便性について語るものではない。誰もが自動車は高速で移動できることは知っているはずだ。私が問いかけたいのは、都市の形態に何が起こるか、である。

パーソナル・オーソモービル(個人用自動車)は街路を再構築し、都市内の馬とその排泄物をほぼ絶滅させるに至り、地域交通や都市間鉄道に取って代わり、新たな建築類型を萌芽させ、都市の分散化を促し、郊外の無秩序な拡散(スプロール)を生み、偶発的な社会的交流を減少させ、インターステート・ハイウェイ・システムをもたらしたがその過程で黒人コミュニティを破壊するなど、鉛中毒を多くの人々に与え、若者の死因としてトップクラスのものとなり、米国の多くの地域は現在も極めて自動車依存している。しかし、私たち住民の約三分の一は運転していないのだ。

私はドライバーであり、自転車乗りであり、公共交通利用者であり、歩行者でもある。故に、パーソナル・オーソモービルの技術、そして米国がこれらを利用する特定の仕方によって、私たちの生活がいかに多大に影響を被っているかを毎日考え続けている。「AI」という言葉も、同じような意味合いで考えてほしい。

私たちが直面しうる未来の一部は、重苦しいものでありながら管理可能かもしれない。他方、大勢の人々が住居、健康、あるいは命を失うなど、とんでもなく恐ろしい未来もあるかもしれない。今後何が起こるかについては確信を持ってはいないが、2026 年における「可能な未来の空間」は 2022 年よりも遥かに広大に感じられる。しかも、そのほとんどはネガティブな光景に見える。

すでに多くの「バットシュ」(愚かな未来)が存在しており、私はそれに深く疲弊している。検索結果には低品質な内容(スロップ)が溢れ、ジムでも病院の受診時でも同様の事態が見られる。カスタマーサポート、請負業者、エンジニアらは LLM を使用して私に無視できない嘘をつく。電力会社は料金を値上げし、その理由をデータセンターにあるとしている。LLM スクレイパーによって私が運営するウェブサイトがダウンさせられ、利用に支障が出ている。苦難を演じる動物の合成ビデオを見ており、警察の過酷な振る舞いについて嘘をつく生成されたウェブページにも凝視している。メールボックスには LLM によるスパムが、モデレーション・ダッシュボード上には人工的に生成された児童性的虐待イメージ(CSAM)が存在する。また、人々が仕事、食料、旅行、芸術、さらには人間関係まで ChatGPT に外部委託する様子を見て驚愕している。精神保健危機の虚妄な領域を埋めるチャットボットを読んでいるのも私である。

私は蒸気圧縮品(vapourware)の分析を求められ、無意味な主張を否定することを余儀なくされている。膨大な量の LLM が生成したプル・リクエストも精査する必要がある。潜在顧客は、もし私に依頼した場合にも行われていた作業を Claude に頼もうとしている。幸いにして Claude のコードは劣悪だが、それが改善される可能性があることに恐怖を感じている。自宅を失うことへの懸念も持っている。再教育を検討できるが、私の核心的な能力—that is, 読むこと、考えること、書くこと—は大きく言語モデルの爆発範囲(blast radius)に完全に含まれている。建築家を目指して入学し、やがて ML がその分野を飲み込んでしまう光景を想像している。

同世代の多くの人々が ML の応用可能性について熱狂的であり、実際にそれを個人レベルで利用している姿を見ると、深い疎外感さえ覚える。政府や産業界は「AI」に全面的に投資しており、これを行うことにより、予測不能だが潜在的に壊滅的な影響(個人、文化的、経済的、人道的な側面)を早めることを懸念している。

過去数年間、この問題について多く思索を重ねてきたが、最も適切な対応は「止まる」ことだと考えられる。ML による支援は、私たちのパフォーマンスや持続性を低下させ、手作業で課題を解決することによって獲得する運動記憶や深い理論構築というものを否定してしまう。これはジェームズ・C・スコット氏が用いた「メティス(metis)」という概念の育成を見失うことにつながる。私は自分の執筆、ソフトウェア開発、そして私生活において LLM を一切使用していない。なぜなら、良い文章を書く能力、深く論理的に思考する力、そして世界の中で確実に根ざし続けることを重視しているからである。仮に探求的目的を超えて ML ツールを導入する場合も、極めて慎重に進めなければならない。また、LLM から取り込む情報自体を最小限に抑える努力も行っている。料理の本は人間によって書かれたものを購入し、大学のウェブサイトを見つめながら野生動物を特定し、友人と問題談義を行うのである。読者の皆様にも同様にして取り組んでいただきたい。

読者を侮辱するな:自らの思考を行い、自らの言葉で文章を作成せよ。「スロップ」を送ってくる人々には異議を唱えなさい。職場や友人との関係において ML による危険因子を指摘しなさい。自宅では ChatGPT の利用料を支払うことを控え、御社に Gemini との契約を結ばせないよう説得しなさい。労働組合を結成または参加し、Copilot の採用を求める経営側の要求に対し反対姿勢を示すべきだ。畢竟、これはあくまで娯楽目的のものであるはずだからである。

議会の議員らに電話をかけ、ML 企業が排出する炭素とデジタルエミッションに対して責任を負うよう、強力な規制を求めよ。ML データセンターに対する税制優遇措置への反対運動も推進せよ。もし Anthropic や xAI など、関連企業で働いているなら、あなたの役割が未来の形成にどう寄与しているかを真剣に思索すべきだ。正直にいえば、その職位を離れるべきだと考えている。

ML の進歩自体を完全に止めることはないと考える:まだ多くの人がそれを達成しようとしているからだ。ただし、スピードは鈍らせることができるので、これは良いことだ。現在のモデルですでに非常に高性能だが、既存技術の影響が完全に現れ、文化・産業・政府が適応するには時間がかかるだろう。ML モデルの進展を一日も遅らせることは、法的文書中に導入される技術的負債やエラーに対して対処する時間を稼ぐのに役立つ。また、ML 生成による CSAM、洗練された詐欺、稀なソフトウェアの脆弱性、そして「AI バビー」に対する備えにも一歩ずつ近づける。労働者が新たな仕事を見つける時間もある。

ML を遠ざけることは、今後数十年にかけてあなたの良心を安らげることも意味する。かつて倫理的な理由で本来なら良い職場であったものを退職した私の経験から、その決断に対して満足感を感じてきた。読者の皆様も同様に感じられると確信している。もし私が間違っていたとしても、後からでも構築すればよいのである。

しかしながら…

この世代の ML システムやそれらを登場させた人々に対して苦い嫌悪感を抱いている一方で、彼らは実用的であるように見える。私はそれらを利用したい。そしていつの日には利用するだろう。

例えば、私の家には色を変えるライトが設置されているが、そのプロトコルは全く聞いたことがなく、どこから手をつけて良いかさえ分からない。マニュアルを掘り下げ、ゼロから理解するための時間を一ヶ月費やすこともできるし、あるいは LLM にクライアントライブラリを作成してもらうことも可能だ。セキュリティ上の影響は限定的であり、私自身で検証可能な制約されたユースケースである。また、技術的負債を他者に押し付けることもない。私は依然として多くのコードを書いているし、いつでも停止することができる。

果たしてどんな害があるだろう? そうだろう? …そうだろうか?


本稿には、多くの友人が議論、読み物、そしてフィードバックを提供してくださり、心より感謝申し上げます。ペーター・アルバロ、ケビン・アミドン、アンドレ・アルコ、タバー・ベイン、シルヴィア・ボトロス、ダニエル・エスピーセット、ジュリア・エヴァンス、ブレッド・グリーンリー、コーダ・ヘール、マーク・ヘドランド、サラ・ハフマン、ダン・メッス、ネルソン・ミナー、アレックス・ラッセムセン、ハーパー・リード、ダリア・サパー、ピーター・セイベル、ライス・サイフ、ジェームズ・ターンブルといった皆様へのお礼を申し上げます。

この作品は、私の他の言葉やソフトウェアのほとんどと同様に、完全に手作業によって作成されました—主に Vim を用いてです。まずヘッダー、箇条書き、散文を組み合わせた Markdown の輪郭を作成し、その後数回にわたって再編成を行いました。構造が整った後、その輪郭を散文として書き直し、Pandoc を使用してタイピングしました。執筆過程において随時大幅な改訂を加え、次にタイピングされた PDF に対して二回の完全な編集サイクルを行っております。初回は iPad とスタイラスを使用し、二度目は伝統的なペンと紙を用いて朗読しながら行いました。

完成した草案を友人たちに見てもらい、出版前にフィードバックを得ています。鋭敏な思想や魅力的な言い回しの一部は彼らの貢献归功于です。一方、誤りや嫌悪すべき見解については当然ながら全責任を私自身が負います。

同じ日のほかのニュース

一覧に戻る →

2026/04/16 23:23

Claude オプス 4.7

## Japanese Translation: Claude Opus 4.7 は、すべての Claude プラットフォーム、API、Amazon Bedrock、Google Cloud Vertex AI、Microsoft Foundry において大幅な向上と一般利用を開始しました。先進的なソフトウェア工学における主要な飛躍として、長期的自律性と自己検証機能が強化された Opus 4.6 を引き継ぎます。モデルのビジョン能力も著しく向上し、最大約 375 万画素(従来の 3 倍以上)までの画像に対応します。料金は Opus 4.6 と同一の、入力トークン当たり 5 ドル、出力トークン当たり 25 ドルで維持され、より微細なトレードオフ制御を可能にする新たな"xhigh"レベルが導入されました。内部評価では、93 タスクからなるベンチマークにおけるコーディング精度が 13% 向上し、4 つの以前は解決不能だったタスクを完遂することを実現するなど大きな進歩が見られます。また、「General Finance」モジュールでは、Opus 4.6 の 0.767 に対し 0.813 という大幅な金融分析能力の進歩、CursorBench(明確回答率 70%)や Complex Multi-step Workflows(+14%)といったベンチマークでも著しい向上を記録。さらに Rakuten-SWE-Bench 上の本番タスク解決数は 3 倍に増加し、コード品質でも二位桁の改善が実現しました。これらの進展は、Devin などのような環境での長期的自律性を可能にし、Replit においては同等かそれ以下のコストで高性能な実行を達成します。新機能としては、「task budgets」ベータ版およびバグレビュー専用の `/ultrareview` スラッシュコマンドが含まれます。本リリースは「Project Glasswing」の一貫した慎重な安全アプローチと整合しており、自動的な防護機構により高リスクのサイバーセキュリティ用途をブロックすると同時に、正当な研究者に新しい Cyber Verification プログラムへの参加を呼びかけています。結論として、Opus 4.7 は金融分析や工学など重要分野における一貫性の新基準を設定し、次世代 AI ツールの採用準備が整った企業向けに、強化されたパフォーマンスと戦略的リソース管理を提供します。

2026/04/17 2:12

ほぼすべてのことに適用可能なコードックス。

## Japanese Translation: OpenAI は、Codex アプリに対する主要なアップデートを導入し、それを受動的アシスタントからユーザーのコンピュータを直接操作する能動的で自律的なエージェントへと変革します。macOS 上の高度なバックグラウンド機能(カーソル制御[見る、クリック、打つ]とマルチエージェント並列処理)を活用し、Codex はプルリクエストのレビュー、SSH を介したリモート環境の管理、PDF やスプレッドシートなどのリッチなファイルプレビューを開くことができます。アプリ内に統合されたブラウザを通じて、ユーザーは Web ページ上に直接コメントを付けることで正確な指示を提供できます。新しいシステムには、個人のコンテキストと好みを記憶するためのメモリレイヤーが追加され、90 以上のプラグインにより GitHub、GitLab、Atlassian、CircleCI、CodeRabbit などの外部ツールとの接続が可能になります。Codex は désormais、来週の日数や週間を跨いで作業をスケジューリングし、自律的に目覚めることで長期タスクをサポートします。また、Google Docs、Slack、Notion、コードベース内のオープンなコメントに基づき、能動的にアクションを提案します。さらに、このアップデートには gpt-image-1.5 が統合され、製品コンセプト、フロントエンドデザイン、マockアップ、ゲームなどの同じワークフロー内で画像の生成と反復を行うことができます。今日、ChatGPT にサインインしたデスクトップユーザー向けにロールアウトされており、これらの機能は間もなく Enterprise、Edu、EU、UK アカウントにも拡大されます。

2026/04/17 6:56

グイが、デュオテープ、古いカメラ、およびCNCマシンを組み合わせて、AIを駆使したハードウェアハッカー用の腕を作成しました。

## Japanese Translation: **改善されたサマリー:** 本テキストの主なメッセージは、電子機器に対する安全なピンプローブを可能化することを目的としたソースアベイラブルなハードウェアハッキング自動化スタックである「AutoProber」の導入です。標準的なツールが盲目的に進む可能性に対して、AutoProber は CNC モーション制御、光学顕微鏡、リアルタイムオシロスコープ監視を「安全第一」というアーキテクチャに統合します。本システムはプロジェクトを読み込み、ハードウェアと接続し、軸をキャリブレーションし、エージェントまたはダッシュボードを使用してターゲットを検出およびアノテーション済みマップをステッチします。特に重要なのは、安全が独立したチャンネル(オシロスコープ チャンネル 4)によって執行されており、電圧を連続的に監視することであり、あらゆる曖昧さ、アラート、またはトリガーが発生した場合に自動回復なく即座に停止し、作業者の介入を必須としている点です。 GRBL 互換 CNC ミル(例:SainSmart Genmitsu)、USB 顕微鏡、および Siglent オシロスコープを基盤とし、本スタックは現在、特定の安全制約付きで制限リリースカンドイドとして存在しています:コントロールダッシュボードが信頼できないネットワークに露出させてはならないこと、および商用ライセンス発行にはメールでの申請が必要であることが含まれます。本プロジェクトは、複雑なプローブ作業中の機器破損や人身傷害を防ぐために、ダッシュボード上でのプローブターゲット承認などの作業者による専用の監督を強調しており、ハードウェアハッキングにおける標準的な自動化ワークフローの前提を根本的に変化させます。

未来すべてが虚偽であるというのか、たぶん。では私たちはこれからの道はどこへ向かうべきなのか? | そっか~ニュース