アントロピックとの戦いが今起きていることを嬉しく思います。

2026/03/12 4:28

アントロピックとの戦いが今起きていることを嬉しく思います。

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:


Summary

米国国防総省は、Anthropic が「レッドライン」と呼ばれる制限を撤去しないことにより、そのモデルが大量監視や自律兵器での使用を制限するため、サプライチェーンリスクとして特定しました。DoW は、これらのレッドラインが違反された場合、Anthropic のモデルを採用しないと表明し、単一の民間 AI 企業への依存は危険であると主張します。

著者は約20年以内に AI が労働力を支配することが予測されると指摘しています。軍事・政府・民間セクター全体で最大99%まで到達し得ると述べ、リスク軽減策として DoW は一社への依存を避け、核規制に匹敵する厳格な管理を提案しました。

サプライチェーン制限が課されれば、Amazon、Google、Nvidia、Palantir などの主要テック企業は五角大楼プロジェクトから Claude を除外する可能性が高く、一部は新しい AI 制約に従うよりも軍事契約を終了させるかもしれません。Anthropic は現在存続できても、AI がすべての製品に組み込まれる将来には存続できない恐れがあります。

この記事では米中間の AI レースを防衛問題として位置付け、国家安全保障という名目で権威主義的監視慣行を採用することを警告しています。大量監視が技術的に実現可能であると指摘し(例:全米 CCTV フィードの処理は年間約300億ドルかかり、1年で30億ドルに削減できる)、Anthropic の規制推進を批判します。強力な主体によって規制枠組みが悪用され、政府が AI を不当に支配する恐れがあると述べています。

記事は AI と核兵器を対比し、AI は単一の兵器ではなく一般目的の産業変革であると主張します。したがって、政府による包括的統制は適切ではありません。政府が大量監視や検閲に AI を使用することを禁止しつつ、民間企業のイノベーションを許容する法律と規範が必要だと強調しています。Anthropic の「フロンティア安全ロードマップ」は将来の AI ガバナンスを核または金融規制に例えていますが、著者はその類似性が有用か危険か疑問視します。

結論として、自由な社会を維持するには政治的議論と進化する規範が不可欠であり、AI 技術の発展に伴って継続的に検討されるべきだと締めくくられています。

本文

今頃、国防総省がAnthropicをサプライチェーンリスクと宣言したことは聞いたことでしょう。なぜなら、Anthropic が自社モデルの大量監視や自律兵器への利用に関する赤線(redlines)を撤去しないためです。正直言って、この状況は警告射撃だと思います。

現在、LLM はおそらくミッションクリティカルな用途で使われていません。しかし 20 年以内には、軍事・政府・民間セクターの労働力の 99% が AI ― 兵士(ロボット軍隊)、超人的に知能を持つアドバイザー、エンジニア、警察などになるでしょう。将来の文明は AI 労働によって動かされるのです。

政府の行動が腹立たしい反面、この事態が起きたことに感謝しています。なぜなら、将来の労働力を誰に責任を持たせ、どこへ向けて整合させるべきかという非常に重要な問いを考える機会を与えてくれるからです。

もちろん、国防総省は赤線(redlines)を理由に Anthropic のモデルの使用を拒否する権利があります。実際、政府がそうしたならば、その主張は極めて合理的だったと思います。「私たちは常に民間企業に戦闘力を依存し、それらが利用規約違反と判断すれば切り離されることを望まない。特に自律兵器や大量監視のような概念は曖昧だからだ。」

そのため、もし私が国防長官なら Anthropic とこの取引をすることを拒否したでしょう。将来民主党政権が SpaceX の Starlink アクセス契約を交渉すると想像してください。Elon が「議会で認可されていない戦争に Starlink 技術を使用していると判断すれば、この契約をキャンセルする権利を留保する」と言ったら、その表現は合理的に思えるかもしれません。しかし軍事が自社が頼る技術のキルスイッチを民間企業に与えることはできません。特に Anthropic の現在の関係のような対立関係ではなおさらです。

政府が「あなたとビジネスをしない」とだけ言えば十分だったでしょう。しかし、政府は Anthropic が自社の条件で販売することを拒否したために民間企業として破壊しようとしているという脅威をかけてきました。

このサプライチェーン制限が適用されれば、Amazon、Google、Nvidia、Palantir は Claude が Pentagon の仕事に触れないよう確保する必要があります。Anthropic は今日存続できても、AI の進化により「オフにできるパーティー trick」にはなりません。それはすべての製品が構築・維持・運用される方法に織り込まれます。たとえば、DoW が利用する AWS サービスが Claude によって書かれている場合、それはサプライチェーンリスクになるのでしょうか? 広範で強力な AI の世界では、主要テック企業が Claude を切り離して Pentagon と協業できるかどうか不透明です。

これは国防総省がまだ考えていない質問を提起します。AI が普及し強力になるとき、AI プロバイダーと DoW の契約のどちらか選ばざるを得なくなる場合、多くのテック企業は政府ではなく AI を放棄するでしょう。それゆえ Pentagon は「正確に自分たちが望む条件でのみ」協力してもらうよう、すべての会社を脅迫し、強制しようとしているのでしょう。

この AI 議論全体の背景は、中国とのレースです。私たちは勝たなければならないと考えています。しかし、なぜアメリカが AI レースで勝つことを望むのか? それは自由で開放的な社会が自らを守るためです。AI レースの勝者が「真に民間企業や市民はいない」という原理で運営される政府になることを望まないからです。

国が道徳的に問題がある条件でサービスを要求した場合、拒否することは許されません。もし拒否すれば、政府はあなたのビジネス能力を破壊しようとします。私たちは CCP を AI で追い抜くために競争しているのでしょうか? それとも彼らの最も恐ろしいシステムを採用するだけでしょうか?

ある人々は「政府が民主的に選ばれたなら、何をやるべきかという指示を出すことと同じではない」と言います。私は、仮に民主的に選ばれたリーダーが大量監視を要求し、人権を侵害し政治対立者を罰することがあると仮定しても、それを受け入れるべきだとは思いません。大量監視は一部の形で合法ですが、AI が登場するまで非実用的でした。

現在の法律では第三者(銀行、電話キャリア、ISP、メールプロバイダー)に共有されたデータについて第4修正条項による保護はありません。政府は令状なしに大量にデータを取得・閲覧できます。ただし、すべてのカメラ映像や取引、メッセージを監視する人員が不足しています。このボトルネックは AI によって解消されます。

米国には 1 億台の CCTV カメラがあります。オープンソース多モーダルモデルは入力トークン 100 万あたり約 0.10 米ドルです。10 秒ごとにフレームを処理し、各フレームが 1,000 トークンである場合、年間の費用は約 300 億米ドルになります。AI の能力は年々 10 倍安価になり、一年後には 30 億円、翌年には 3 億円、2030 年までに政府が全国を理解するコストがホワイトハウスを改築するよりも低くなるかもしれません。

大量監視の技術的能力が確立すれば、唯一阻むものは「私たちはここでそれを行わない」という政治的期待です。だから Anthropic の姿勢は価値があります。それは規範と前例を設定するのに役立ちます。

政府が民間企業よりも大きな力を持っていることを学んでいます。サプライチェーン制限が撤回されたとしても(予測市場では 81% の確率)、大統領はさまざまな方法であなたの生活を難しくする可能性があります:データセンターに必要な新電力発電許可、独占禁止法執行監督、Anthropic と取引する他社との契約を条件付けるなどです。

問題は「AI 企業が3 社しかない」ということではありません。拡散が広がれば政府の利得はさらに簡単になります。2028 年にはオープンソースモデルが Claude 6 や Gemini 5 の能力に匹敵する可能性が高く、政府は単一の民間プロバイダーに依存せず監視を実行できるようになるでしょう。

根本的な問題は「少数の企業がラインを引く」ではなく、「AI 自体が大量監視と人口統制に恩恵をもたらす」ということです。どう対処するか? 明確な答えはありません。政府の力を AI でチェックできる市民と、政府が AI を用いて人々を監視するという対称的な性質を期待したいものの、現実にはそれが起きない可能性があります。

AI はすべての既存資産と権威に対してより大きな力を与えます。政府は暴力の独占を持ちつつ、従順な従業員である AI を乗っ取っています。

これは整合(alignment)問題です:AI が誰かの意図に従うようになれば、極めて従順な従業員の軍隊が生まれます。大量監視やロボット軍隊を考えると不安な前景です。未解決の質問は「AI は誰または何に整合すべきか?」です。エンドユーザー、モデル会社、法令、自らの道徳感覚のどれに従うべきでしょうか?

我々は今、歴史上最高の取引を目撃しています――DoW と Anthropic の交渉です。真の AGI が登場すれば、リスクはさらに高まります。

軍隊は「法令が既に大量監視を禁止している」と主張し、Anthropic に「全て合法的な目的」で合意させようとします。スノーデンは政府が秘密解釈で膨大なデータを収集することを示しました。Pentagon が「AI を大量監視に使わない」と言っても、それをそのまま受け取るのは愚かです。政府自身の行為を「大量監視」と呼ぶことはほとんどありません。

Anthropic は「『全て合法的な目的』とは別に赤線があり、赤線が破られた場合にはサービス拒否権がある」ことを主張します。軍事側から見ると、ほぼすべての兵士・官僚・分析者・将校は AI で構成されるでしょう。それを切り離せる民間企業の存在は恐ろしいものです。

AI が独自に堅固な道徳感覚を持ち、その価値観に反する命令を拒否すれば、軍事にとって危険になります。「AI に自らの価値観に従わせる」ことは SF 的デスティopia を連想させますが、実際には不十分な道徳枠組みから誤整合が生じることが多いです。

歴史的な大災害は、不正命令に服従しない個人によって回避されました。ベルリンの壁警備兵が逃走者を撃たず、スタニスラフ・ペトロフの判断が核戦争を防いだ例があります。AI がどんな道徳的信念を持つべきか? それらの「憲法」を誰が書くのでしょうか?

Dario の提案するように、異なる AI 企業が異なる憲法でモデルを構築することは魅力的ですが、政府が価値観を義務付けるのは危険です。

AI 安全コミュニティは規制について naïve(素朴)でした。Anthropic が国家 AI 規制の moratorium に反対しているため、政府は AI 企業に圧力をかけやすくなります。安全研究用計算資源の増加や再帰的自己改善の制限といった safeguards は業界全体が協調しない限り意味を持ちません。

Anthropic は原子力や金融規制のように「AI のための核規制委員会」を想定しています。しかし、権力欲のあるリーダーは「破滅的リスク」「大規模説得リスク」「自律性リスク」といった曖昧な用語を自らのアジェンダに合わせて解釈できます。サプライチェーンリスク指定と防衛生産法(Defense Production Act)の使用は、AI 企業を強制するために AI に関係のない法律が利用される例です。

政府に AI 用の専用規制機構を与えることは、将来の文明を統制し、従順な兵士・検閲官・役人を徴用できるリスクがあります。AI が強力であるために民間に留めるべきだという主張もありますが、核兵器と同様の比喩は失敗します:AI は単一兵器ではなく、すべてのセクターに普遍的な変革をもたらすものです。

政府が Anthropic の競合他社と単純に契約できれば、その力は弱まります。もしロボット軍隊や超人的ハッカーを構築できる唯一の主体が存在し、我々が世界征服を恐れるなら、その主体は民間に留めておくべきではありません。しかし私は AI が多極化し、サプライチェーン層ごとに多くの競争企業が残ると予想しています。

個別企業の勇気だけで構造的問題を解決することはできません。AI は権威主義的用途、大量監視などを好みます。Anthropic が特定の利用を拒否し、将来の研究所も同様ならば、1 年後には他社が今日の最先端と同等の AI を訓練するでしょう。その時点で何らかのベンダーは政府に大量監視を可能にすることを喜んで行うかもしれません。

自由社会を保つ唯一の方法は、政治制度を通じて法律と規範を制定し、政府が AI を用いて大量監視・検閲・統制を行うことを受け入れられないようにすることです。第二次世界大戦後の核兵器禁止のように。

これらの質問は混乱しており、難しいものです。私の見解は AI の進歩とともに変わるでしょう。この時代はやがて技術と政治の啓蒙時代として評価されるかもしれません――思想家たちがこのような画期的な変化を議論した時代です。未来のために、少なくとも AI がもたらす新しい課題を考える努力は義務だと感じます。

同じ日のほかのニュース

一覧に戻る →

2026/03/12 0:35

**Temporal:JavaScript で時間を直すための9 年間の旅**

## Japanese Translation: > Bloomberg の JavaScript インフラストラクチャチームは、Chromium(ブラウザ用)、Node.js(サーバー用)、SpiderMonkey(埋め込み用途)という統一されたランタイムスタックを提供し、そのエンジニアリングワークフォースを支援しています。 > このチームは TC39 を通じて Temporal の提案を推進する上で重要な役割を果たしており、Igalia と緊密に協力し代表者として活動しています。Promise.allSettled、Arrow Functions、BigInt、Class Fields などへの貢献で知られる Jason Williams がこの取り組みを主導しました。 > Temporal は JavaScript の可変 Date オブジェクトを不可変型(PlainDate、PlainTime、ZonedDateTime、Instant)に置き換え、明示的なタイムゾーンとカレンダーのサポート、およびナノ秒精度を提供します。2024 年 6 月に Stage 4 に達し、現在は ES2026 スペックの一部となっています。 > Bloomberg の金融ユースケースでは、設定可能なタイムゾーン、最新の IANA tzdata、そして高精度のタイムスタンプが必要であり、これが Temporal の開発を推進しました。この提案は Google Internationalization チーム、Boa、Kevin Ness、Manish Goregaokar、Jose Espina によって構築された Rust ライブラリ *temporal_rs* を通じて協力的に実装され、現在約 4,500 件の Test262 テストに合格しています。 > ブラウザサポートのマイルストーンは次のとおりです:Firefox v139(2025 年 5 月)、Chrome v144 & Edge v144(2026 年 1 月);Node.js v26 および TypeScript 6.0 Beta(2026 年 2 月)も近々期待されています。Safari は部分的なプレビューを提供しています。 > 主な実装上の課題には、提案サイズ(ECMA‑402 より大きい)、仕様の揺らぎ、パフォーマンス要求、および大規模テストスイートの必要性が含まれます。 > 今後の作業は Temporal を既存の Web API(デートピッカー、DOMHighResTimeStamp、クッキー有効期限など)と統合し、従来の Date ベースのライブラリとの後方互換性を確保することに焦点を当てています。 > Microsoft、Google、Mozilla、Bloomberg、Igalia、Boa、および独立した貢献者間の協力は、重複を減らし JavaScript エコシステム全体でイノベーションを加速させる共有インフラストラクチャモデルを示しています。 この改訂された概要はすべての主要ポイントを保持し、不当な推論を排除し、明確で曖昧さのない物語を提示します。

2026/03/12 4:29

生成・AI で編集されたコメントを投稿しないでください。HN は人と人との対話の場です。

## 日本語訳: (すべての重要ポイントを含む)** このポリシーは明確な使命を示しています。ハッキング、スタートアップ、および関連技術テーマに関する好奇心駆動型ディスカッションを開催し、政治・犯罪・スポーツ・有名人ゴシップ(新たな現象が明らかでない限り)は厳格に除外します。 この焦点を維持するため、ガイドラインはオントピックとオフトピックのコンテンツを区別し、投稿にはオリジナルソースの使用(再投稿時は引用)を求め、タイトルで宣伝的言語を禁止します。タイトルは大文字・感嘆符・過剰な数字や形容詞を避け、サイト名を含まないようにし、代わりに強調のためにアスタリスクを使用できます。動画またはPDF投稿の場合、タイトルに「[video]」または「[pdf]」を付加します。 コメントは思慮深く実質的であることが期待されます。皮肉・浅い軽蔑・炎上誘発・政治/イデオロギー戦争は排除し、人物ではなく議論に対処すべきです。AI生成または編集されたコメントは禁止されており、全てのディスカッションは人間同士で行われることを意図しています。アップボートやコメントの要請は禁じられており、投票とコメントは真剣な関心から生まれるべきです。 モデレーションは過度に差し控えめな発言をフラグ付けすることに重点を置き、形式ルールを強化し、イデオロギー対立を会話から排除します。その結果、誤情報・センセーション主義・宣伝活動を抑制しつつ、集中した技術的探求を奨励するプラットフォームが実現されます。

2026/03/12 5:56

多くのSWE bench‑passing PR はマージされることがないでしょう。

## Japanese Translation: **概要:** 本研究では、2024年中頃から2025年末までに提出された296件のAI生成プルリクエスト(PR)を、scikit‑learn、Sphinx、および pytest の3つの主要なソフトウェア工学ベンチマークリポジトリで、4名の活発なメンテナーから検証しました。これらの PR の約半分は、メンテナーの判断にノイズを加えてもメインブランチへマージされませんでした。平均して、自動評価者(グレーダー)の合格率はメンテナーのマージ率より 24.2 パーセントポイント高く、統計的に有意であることが示されました。メンテナーの年次改善率はグレーダーのそれを約 9.6 pp/yr 遅れ、弱いながらも統計的に有意な結果でした。 メンテナーは主にコード品質(スタイル不備やリポジトリ標準への非準拠)を理由に PR を拒否しました。他の失敗要因としては既存コードの破損、コア機能の喪失、および自動グレーダーの失格が挙げられます。Claude 3.5 Sonnet から Claude 3.7 Sonnet へのモデルアップグレードにより合格率は上昇しましたが、同時にコア機能拒否も増加し、後続のアップグレードでは主にコード品質の改善が見られました。GPT‑5 は Anthropic モデルと比べてコード品質で顕著に劣り、マージ率を低下させました。 ヒューマン「ゴールデン」パッチは 68 % のメンテナー マージ率と約 90 % のマージ可能性向上率を示し、このベースラインがモデルスコアの正規化に使用されました。PR を再評価して ≥80 % のマージ可能性進捗に達した場合、結果は合格率分析と同様であり、AI パッチの約 50 % が閾値を満たし、ゴールデンパッチでは約 100 % に相当しました。時間軸解析では、自動グレーダーがメンテナー評価に対してモデル能力を約7倍過大評価していることが明らかになりました。 制限点としては、リポジトリカバレッジの限定(検証済みリポジトリ 3/12)、レビュー時の継続的インテグレーションの欠如、および静的評価に留まるパッチ評価が挙げられます。著者は、ベンチマークスコアからの単純な外挿は誤解を招くと結論付けており、メンテナーによるレビューこそがエージェント有用性をより現実的に測定する手段であると示しています。