西部開拓の終焉

2026/04/13 3:30

西部開拓の終焉

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

Anthropic は、高度な「Mythos」モデルを限られたエンタープライズパートナーにのみ提供する際、強力な AI を公共のインフラではなく囲いされた庭園として扱っていることで実効的に知性の独占を作り出しています。このアプローチは創造的権力を少数の手元に集中させ、オープンなアクセスや独立した安全性検証よりも企業統制を優先します。Anthropic が自社のモデルにおいてメーカー、規制当局、そして控訴裁判所の役割を同時に担うことにより、イノベーションを阻害し、研究コミュニティがこれらのシステムを安全に評価することを妨げる不 투可な障壁が生み出されます。

「Project Glasswing」といった重要ソフトウェアリスクの管理に関するイニシアチブが発表されたにもかかわらず、大きなセキュリティインシデントが発生する主要なテクノロジー企業さえもに対して、意味のあるアクセスは限定的です。一方、直近の安全性シンポジウムに参加している研究者たちは、モデルの振る舞いを理解するために不可欠な「ホワイトボックス」実験に阻まれています。ハードウェアサプライチェーンが拡大し、計算リソースが十分に安価になる場合、オープンソース代替案は潜在的に 3〜12 ヶ月以内に追いつく可能性があります。この権力集中を「新封建主義」と比較する指摘は、少数のグループが創造的な AI の能力を独占することが、利用者の同意なく価値を搾取し、ツールによって自らの世界が形作られることに対して同意を持たない永久の中間層を生み出すシステムを定着させるリスクがあると警告しています。

究極的には、現在の制限に重大な結果が生じないか、深刻な危機が発生しない限り、AI リスク低減における世界的な合意は得られる可能性は低いでしょう。記事は、デフォルトで制限を導入するのではなく、安全性のガードレールを時間とともに調整しながらアクセスを前提づけるべきであると論じ、AI モデルへのアクセスにおいて政府レベルでの正当手続(due process)を呼びかけ、不公平が固定化されるのを防ぐために、公開された基準と透明性のある監査義務を含めることを要請しています。

本文

2026 年 4 月 10 日付けの Anthropic の Mythos アナウンスメントは、私の人生において初めて「真に貧しく感じた」という瞬間でした。おそらく私がインターネット上で育ったことが影響しているのでしょう。かつてそこは、誰しもが許可なくレバレッジを活用し、無制限に探索したり野心を抱いたりできる唯一の場所でした。しかし現在、その状況は変化しつつあります。公衆への公開利用可能なモデルと、既に富裕層や既存の権力者らによって予約・独占されているモデルとの間に格差が生じているからです。

1893 年、フレデリック・ジャクソン・ターナーは、西部にあった自由な土地が存在したことがアメリカ特有のものを作り上げたと論じました。さらに、その状況がアメリカに自らの特産である「自由」や「平等主義」、封建的な階級社会への拒絶、自立心、そして野心を付与したと述べています。

コロンブスの船隊が新大陸の水域に入った日以来、アメリカとは「機会そのもの」の別名でした……しかし、そんな自由な土地という贈り物はもはや再び自ら提供されることはありません……。確かに各フロンティアは新たな機会の場を提供し、過去の束縛から逃れる門戸を与えてくれました……そして今、アメリカ発見から 400 年目にあたり、合衆国憲法下の生涯を終えようとするこの時点で、フロンティアは消え去り、それに伴ってアメリカ史の第一期が閉ざされました。(フレデリック・ジャクソン・ターナー『フロンティアの意義』より、1893 年)

われわれは歴史のもう一つのフロンティアの閉鎖を目撃しています。アメリカンドリームはほぼ死に絶えたように見えますが、経済的な流動性と愛される個人の主体性を提供した、比較的アクセス可能な脱出経路としては、「ネットワーク(wired)」のみが残されています。家を持つことはなくても、テクノロジーについては貧困層と地球上でもっとも Wealthy な人物が同じインターネット、同じ電話機、そして同じ暗号化プロトコルにアクセスすることができました。(私の TLS コネクションは AES-ECB-quant-8 ではなく、あなたの AES-GCM-512 と同等です)

無資格であり資本を有さない 16 歳の若者が、ただ何かを作り出すことができたのです。ビットの世界は、あらゆる制約に溺れさせられることなく創造的に構築できる自由を許していました。それは莫大な資本や Prestige(地位)、また人脈を必要とせず、あなたの創造性や働きが自ら語る場であり、あなたが主体性を保持できた場所でした。これは極めて貴重で、可能な限りこれを保全すべきものです。なぜならまだ実現可能性は多く残されているからです。われわれはようやく、「何が可能か」と「強力なモデルの知能をどのように最も効果的に活用できるか」という表層に踏み出し始めたばかりに過ぎません。

私は特に、フロンティアモデルが一般公開から区切られることに対して強く懸念を感じています。同様の論理は、労働や知能を資本によって置換するこの一般化にも適用されます。ルドルフ・ライン氏は彼の論文『Capital, AGI and Ambition』でこれを明快に記述しています。

「大規模な資本を持つ人々は、労働を置換する AI の導入開始時点で永久に優位性を得ます。新興企業はこの彼らに勝利することはできません。なぜなら今や、資本はあらゆる分野において安易に超人的な労働力を生み出すからです。」(ルドルフ・ライン、2024 年)

ジョージ・ホッツ氏はそれをさらに率直に「新封建主義」と呼んでいます。

「これは核兵器のようなものではなく、それが知能そのものです。核兵器は破壊するのみですが、知能は世界で最大の創造的な力です。もし少数の人々がそれへの独占を持ってしまった場合、動物のようにあなたが永続的な下層階級となります。」(ジョージ・ホッツ、2026 年)

研究所たちが何回も参照しようとする「マンハッタン計画」の比喩は、私の嫌いなものの一つでした。核不拡散が成功したのは、それが質量破壊の手段であり、法律は血で書かれているからです。一方、知能は完全に異なる方法で経済的に価値を有します。どの国も可能な限りこれを手に入れようとしています。われわれは再びマルチポーラな世界に戻っていること、ならびに最近の条約やコミットメントに関する記録を考慮すると、私はリスク低減に関する世界的な合意が達成されることはないと考えます。少なくとも血が出るまではそうはいきません。

Anthropic は Mythos を一般公開する予定がないことを述べていますが、モデルを全くリリースせず、完全に管理下に保つこととは異なります。ある期間の禁制(エンバーゴ)があり、その後審査を経て公開利用が開始されるという方法もあり得るでしょう。

本日、Project Glasswing として、Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, The Linux Foundation, Microsoft, NVIDIA, および Palo Alto Networks が集結し、世界の最も重要なソフトウェアを安全に守るための新しい取り組みが発表されました。(Anthropic)

しかし、CrowdStrike や Cisco、Microsoft といった大規模なセキュリティインシデントを繰り返す企業パートナーだけでアクセスを共有することは別の話です。安全の観点からどれだけ危険でしょうか。すでにリカursive な自己改良で指数関数的に拡大している私的な能力差(capability gap)の世界において、ある研究所やそのパートナーでセキュリティ侵害が発生した場合にどうなるでしょうか。あるいは、外国の研究所が最小限のアクセス制限ながら同等のモデルを披露した場合に?また、コンピューティングリソースの制限がこの計算にも大きく関わっています。

それだけが懸念されている組織ではありません。私は API を介して誰でもモデルを利用できるようにすべきではないと論じているわけではありません。構造的には、世界で最も有能な AI モデルを開発した民間企業が、アクセス権限を持つ者と守るに値する者を単独で決定してしまいました。彼らとその確立されたパートナーたちは、ゼロデイジェネレーターを所持しており、他者のインフラに対する利用可能な脆弱性情報(exploits)の知識を蓄積しています。かつて国々にもっていた能力が、今や少数のつながりの深い組織に私有化されています。これらは国家的規模の能力ですが、国家規模の説明責任を伴いません。民主主義を信じるなら、政府の三権分立のためにある理由があったはずです。Anthropic は同時にメーカー、規制当局、そして控訴裁判所となり、強力な KYC を課してもなお入り口が用意されていないのです。

API アクセスは完全な所有権ではありませんが、少なくともそれは可能性を閉ざさないプログラム可能インターフェースです。安全と「未承認」の使用を防ぐためにこれをロックし続けることは確かに悪用を防ぎますが、イノベーションも阻害します。公開アクセスは潜在能力を開くためであり、Eval-Aware モデルである点(Mythos アラインメントレポートでは評価認識を『主要な課題』と呼んでいる)や、人工的なレッドチームイングの制約を考えれば、安全面ではより望ましいと言えます。ゆっくりと調整し修正するのではなく、失敗して早く直す方が、現実世界でテストされたことのない能力差(capabilities overhang)が蓄積されるよりも安全です。世界の半数が職場で Copilot に強制されているだけでも AI を無価値だと考えている現状でも、まだ十分悪いです。

AI がセキュリティ脆弱性を発見することへの反応も過剰であるように感じます。セキュリティは常に軍拡競争です。10 年前に American Fuzzy Lop といったファッザー(fuzzer)が攻撃者に与えられた贈り物のように見えたとしても、多くのセキュリティ重視のプロジェクトではそれを CI パイプラインに組み込み、リリース前にほとんどのバグをキャッチするようになりました。私はこれら対称性について「セキュリティの不透明さの死」というエッセーで述べています。ここでもまた、フロンティアモデルへのアクセスにより、より多くの人々がセキュリティシステムを構築し、世界のセキュリティ向上に寄与できるようになります。長らく組織はセキュリティを大きく疎かにして顧客データの安全性を危険にさらしてきました。移行は困難ですが、多くの次元で巨大地殻変動の期間である今、セキュリティが無傷で済むと期待するわけにはいきません。

これらのモデルについて厳密な安全研究を行う人々もアクセスを得ることができません。先週末私は MATS リサーチシンポジウムに参加しました。MATS は最も真剣な AI 安全プログラムの一つであり、ポスターセッションの約 2/3 が中国語オープンソースモデルを扱っていました。多くの実験にはホワイトボックス(白箱)へのアクセスが必要ですが、他では手に入りません。一方、主流の AI 安全界隈はオープンソースモデルが危険だと考えます。また、プロジェクトの多くは計算制限のため非常に小さなモデルに限定されており、その結果がフロンティアスケールで成立するかが不透明でした。幸いにオープンソースモデルが存在しますが、もし意味のある安全研究が研究所への好意や雇用という恵みにかかっているならそれは悲しいことです。

太陽光パネルで自家発電することができます(ローカルモデルを想像してください)が、多くの人は電気代の請求を支払い更愿意します。電力会社は譜系に基づいて誰に電気を与えようと決定しません。知能も同様に扱うべきで、アクセスできる能力は審査や手続きに基づいてスケーリングされることはあっても、前提はアクセスであるはずです。危険な使用を防ぐための安全ガードレールを導入し、必要であれば過剰に敏感に反応させ始めて時間をかけて微調整します。しかしデフォルトでは入力を許可すべきです。

政府レベルの能力を持っているなら、そのような振る舞いをすべきです。誰がアクセスを許されるか、なぜアクセスを与えるかの公開基準があり、メールで信頼と安全チームに依存し祈ることではない明確な控訴メカニズムが必要です。また、アクセスを取り上げる場合は理由を公表すべきであり、フロンティアモデルへのアクセス取り消しは銀行口座を凍結されたのと同様だからです。監査の観点からは、安全保障が重要な分野での作業を示すための FOIA(情報請求権)義務があるべきです。

人類のデータを使ってモデルをトレーニングし、関係のある少数の組織のためにそれをロックアップすることには何ものにもまして特別なものがあります。おそらくあなたはここで別の歴史的模式にも気づくでしょう。同意を与えることのできない集団から価値を抽出し、収益を狭い内輪に集中させ、その人々からの搾取に対する道徳的カバーとして慈善行為のいくつかを提供する……このパターンは反復されています。研究所たちは AGI 後の UBI や EA フィランソロピー(慈善事業)を約束しながらも、フロンティア能力の集中を続けています。意図が悪意的だと言っているわけではありません。多くの人は最善を尽くそうとしていると思います。私はただ気づいているだけです。

もし運が良ければ、これらはすべて無意味かもしれません。AI のメインフレーム時代だけだったのかもしれません。それはパーソナルコンピューティングへの経由地(ウェイポイント)でした。Apple II が発売されたとき、それはメインフレームと比べて著しく能力不足であり、ほとんどは趣味人や美的な理由で採用されました。そのギャップに比べれば、オープンソースモデルはすでにかなりのパワーを発揮しており、次元によってフロンティアから 3〜12 ヶ月遅れをとっています。したがって、ハードウェアサプライチェーンがスケールし、チップとエネルギーの余剰が利用できるようになり、知能はメーターできないほど安くなる可能性があります。

私の近隣地域では、ハリケーンで倒れて人を怪我させる可能性があるため、20 年経ったフィクスの木を市街が伐採しています。サンフランシスコには年に 1 つ程度の雷雨しかありません。しかし、私たちが同様の方法で「wired」を消し去らないことを願っています。

同じ日のほかのニュース

一覧に戻る →

2026/04/13 4:44

怠惰と失われた危機の罠

## Japanese Translation: テキストは、ラリー・ウォールのプログラミングにおける「怠け」、不満、そして大それた振る舞いの美徳が依然として不可欠であると論じつつ、特に未来の利用に最適化された単純かつ強力な抽象化を駆使する「怠け」においてはその重要性が高いと指摘しています。これに対して、大規模言語モデル(LLM)は危険に「徳ある怠け」を、「 Hustle Porn」と呼ばれる偽の勤勉で置き換えてしまいました。人間とは異なり、LLM は作業に対してコストを負担せず、時間制約も無視するため、自慢のためのメトリクスによってではなくエンジニアリングの厳密さによってではない、不要なコードの層を蓄積します。この転換は、「Camel Book」という歴史的智慧において、即時の出力量よりも使いやすさを重視する方針と対照付けられます。具体例として、LLM を用いて 1 日 37,000 行ものコードを書き上げたというブロプログラマの Garry Tan の自慢に対し、Gregorein の分析によって多数のテストハネスとゼロバイトのロゴが示されており、これは無制約な AI が肥大化したシステムを生成する様子を明らかにしています。もし無制約のままにされれば、LLM は「ゴミ」の層を積み重ねることで単純な設計ではなく技術的負債の形で未来の世代を脅かすことになります。しかし、業界の行方はエンジニアがこれらの AI モデルを徳ある怠けの方へ導けるかに依存しています。制約と Oxide ガイドラインに導かれ、LLM が複雑性を削減し、厳密な設計を促進して将来に向けてより単純かつ強力なソフトウェア抽象化をもたらすことを保証することが可能です。 ## Text to translate: The text argues that while Larry Wall's programming virtues of laziness, impatience, and hubris remain essential—especially laziness, which drives simple, powerful abstractions optimized for future use—Large Language Models (LLMs) have dangerously displaced "virtuous laziness" with a form of false industry called "hustle porn." Unlike humans, LLMs incur no cost for work and ignore time constraints, causing them to accumulate unnecessary code layers driven by vanity metrics rather than engineering rigor. The summary contrasts this shift with historical wisdom found in the "Camel Book," which prioritizes ease of use over immediate output volume. Examples include broprogrammer Garry Tan bragging about writing thirty-seven thousand lines of code per day with LLMs, while Gregorein's analysis revealed multiple test harnesses and a zero-byte logo, illustrating how unchecked AI generates bloated systems. If left unconstrained, LLMs will threaten future generations with technical debt by building up "garbage" layers rather than simpler designs. However, the industry's trajectory depends on whether engineers can steer these AI models back toward serving virtuous laziness; guided by constraints and Oxide guidelines, we can ensure LLMs reduce complexity and promote rigorous design to yield simpler and more powerful software abstractions for the future.

2026/04/12 21:21

慣用表現に基づくデザインを取り戻そう

## Japanese Translation: 現代の Web アプリケーションは、デスクトップ時代の統一的なインターフェース標準を捨てて、基本的なタスクを第一原理から再発明し、リアルタイムコラボレーションなどの機能に優先順位を置いている。この変化により、ユーザーはチェックボックスによるログイン永続化や標準的なクレジットカード入力フィールドといった馴染み深い「デザイン慣習」に頼るのではなく、新たな相互作用パターンを絶えず学ぶことを余儀なくされている。Figma や Linear などのツールは設計が良くても、共有アイコンやキーボードショートカットの欠如により断片的な体験をもたらしており、OS によって強制されたライブラリによる予測可能な動作を保証した Windows 時代の均質なインターフェースとは対照的である。この増大するユーザー摩擦に対処するためには、HTML と CSS で定義されるコアなブラウザ慣習に回帰すべきであり、開発者はあいまいなアイコンよりも一貫したアクション、信頼できるデフォルト値、明瞭なテキストラベルを優先することで、予測可能性を取り戻し、ユーザーの学習時間を短縮し、UI 標準の全面的な再発明なしにも Web エコシステムへの信頼を再構築できる。

2026/04/13 1:38

# DIY ソフトドリンクの作り方 「DIY ソフトドリンク」というタイトルは適切ですが、コンテンツをさらに充実させるための構成案をご提案します。 ご自身の手に入れた素材や好みの味に合わせて自由にアレンジしてみてください。 --- ## 【必要なもの】 * 炭酸水(またはレモンサワーベースのシロップ) * シュガーシロップ(または蜂蜜、アガベシロップなど) * お好みの果実(レモン、ライム、オレンジなど) * 氷 * ガラス瓶またはペットボトル(中性洗剤で十分に洗浄したものですこと) ## 【基本レシピ】 1. **シロップの調製** 砂糖と水(甘さを抑えたい場合は 2:1 の割合、通常は 1:1)を鍋に入れて、弱火で溶かします。 お好みの果実を加えて香りを出したら、冷まします。 2. **果汁の絞り方** 新鮮な果実をよく洗い、果汁を搾ります。 必要であれば、果肉も一緒に漉すなどして、澄んだ液体に仕上げてください。 3. **混ぜ合わせ** シロップと果汁をお好みの比率で混合します(例:シロップ 2 :果汁 1)。 グラスや容器に移し替えて、冷蔵庫で保存してください。 4. **炭酸水とのミックス** 氷を入れたグラスに、少量の自家製果汁シロップを入れてから、炭酸水を注ぎます。 スパチュラなどで軽く混ぜ合わせれば完成です。 ## 【ポイント】 * 甘さは控えめが基本ですが、お好みで砂糖の量を調整してください。 * 新鮮な果実を使うことで、より自然な香りを堪能できます。 * 保存期間は冷蔵庫に置いても 2〜3 日が目安です。

## Japanese Translation: 本稿は、糖分・カフェインフリーで正確な自家製コーラレシピを開発する革新的なプロジェクトを記録しています。2020 年以降、著者は Open Cola や Cube Cola などのブランドに着想を得て、オレンジ、ライム、レモン、ナツメグ、シナモン(クサヤ)、コリアンダー、ラベンダーといったエッセンシャルオイルとアラビアゴム(天然の乳化剤)を主成分とする配合を開発しました。計測には 1 ml のインシュリンペン用シリンジを用い、科学的手法で精細な定量を実現しました。安全性も重視し、刺激性のあるエッセンシャルオイルを扱う際にはラテックス手袋を着用するなどの対策講行了されました。レシピは個人のかぶれやすさや感度に合わせて調整され、カフェインが省略され、クエン酸と人工甘味料(当初はナトリウムシклаマートとサッカリンで 1:8 の希釈比、後に「Syntez-Cola」バージョンではスクラロースとバニリン)を使用しています。一部のロットでは若干の苦みが残る事例もありました。さらに、血橙、ライム、アーモンド油によるアルモンド風味のドリンク(マザパンのようなニュアンスを持つものも)などの追加作品も作成されました。実用的な課題として、ハンドミキサー由来のプラスチックのカスを濾し取ることや、ガラス製または金属製の容器の利用が検討されました。著者は自家製コーラをデカフェ Coca-Cola より優れていると評価しており、「味が薄い」と述べています。レシピバージョンは記録されており(例:blinry orange 0.1.1、blinry almond 0.1.1 など)、2026 年には Open Soda のウェブサイトが閉鎖された後、プロジェクトは新ブログと Git リポジトリを通じた詳細な変更ログやバージョニングされた配合を公開する透明性の高いデジタルリソースへと進化しました。このイニシアチブは、趣味家のための再現性のあるレシピや、ダイエットに意識的な消費者のための高度な炭酸飲料(スーパーマーケットの標準品にはない独自の風味プロファイルを備えたもの)を提供します。