Are we repeating the telecoms crash with AI datacenters?

2025/12/03 20:14

Are we repeating the telecoms crash with AI datacenters?

RSS: https://news.ycombinator.com/rss

要約

AIデータセンターの拡張がテレコム崩壊を再現するという見方は、実際の数値を見ると違う。
1️⃣ テレコムでは光ファイバー利用率わずか2.7%で供給技術が指数関数的に進化し陳腐化した。一方AIは既存GPUが長期価値を保ち、利用率高い。
2️⃣ AI需要は過小評価される可能性があるが、ピーク時容量不足も発生しており、過剰建設リスクは限定的。
3️⃣ CAPEX増加は「革命」ではなく既存インフラの再利用であり、テレコム型バブルとは構造が異なる。

本文

AIデータセンターのブームが2000年代のテレコム崩壊を繰り返すという話はよく耳にします。
「インフラ投資が数十億ドル、過剰建設への懸念、バブル即発生の警告」といった類似点は明らかです。
しかし実際に数字を算出してみると、基礎的な状況は全く異なることが分かります。


テレコム崩壊で起きた本当の事象

  • 膨大なCAPEX:1995‑2000年に約2兆ドル(インフレーション調整後4兆ドル超)が、80〜90百万マイル相当の光ファイバー敷設に投じられました。2025年価値で年間約10億ドルです。
  • 利用率低下:2002年までに、このファイバーのわずか2.7%しか使用されていませんでした。
  • 需要過大評価:CEOはインターネットトラフィックが3〜4ヵ月で倍増すると主張しましたが、実際には約12ヵ月でした。これは年間で4倍の誤算により累積的に約256倍の余剰を生み出します。
  • 供給側技術進化:光トランシーバーは指数関数的に向上しました(例:1995年のWDMマルチプレクサが4–8キャリアから2000年には128キャリアへ、同一ファイバーで64倍の容量増加)。
  • インフラ寿命:光ファイバーは数十年間耐久し、未使用容量は永久に暗闇のままでした。

AIインフラ―:別物

観点テレコム(1990年代〜2000年代)AIデータセンター(2020年代)
供給側技術進化指数関数的(容量が100,000倍に増加)低下傾向(パフォーマンス/ワットの年次成長率≈69%→44%)
需要成長4倍と過大評価過小評価の可能性あり、エージェント転換で需要が加速するかも
利用率95%の暗ファイバー(未使用余剰)非常に高い。多くのプロバイダーはピーク時容量不足に直面している
技術曲線インフラが急速に陳腐化半導体物理極限に近づき、現行ハードウェアは長期価値を保つ
電力消費減少傾向増加(V100 300W → B200 1200W)
インフラ寿命数十年(ファイバー)年数(ハードウェアはより良いチップで刷新される)
  • GPU TDPは上昇中:V100 (2017) 300 W、A100 (2020) 400 W、H100 (2022) 700 W、B200 (2024) 1 000–1 200 W。
  • 冷却要件:B200は液冷が必要で、既存の空冷データセンターに改装を迫る。

実際には需要成長が加速している

利用タイプトークン消費
ChatGPT(平均)1ユーザー/日20+プロンプト、会話あたり3 000–4 000トークン
基本エージェントチャットトークンの4倍
マルチエージェントシステムチャットトークンの15倍
コーディングエージェント1セッションで150k以上のトークン
  • エージェントはユーザーあたり10〜100倍のトークン消費増加をもたらす。
  • インフラは既に高利用率で、プロバイダーはピーク時容量問題に直面している。

データセンターCAPEX:革命ではなく進化

  • AI前成長(2018‑2021):Amazon/Microsoft/GoogleのCAPEXが680億ドルから1240億ドルへ(年間約22%増)。
  • AIブーム(2023‑2025):2023年1270億ドル → 2024年2120億ドル(前年比67%)→ 2025年予測2550億ドル超。

規模は膨大だが、ヘッドラインで語られるような劇的飛躍ではない。多くのCAPEX項目は「退屈」なコンピュート・ストレージ・ネットワークをAIに再利用したものです。


予測がほぼ不可能になる理由

  • リードタイム:データセンター構築に2–3年、GPU注文には6–12か月。
  • 囚人のジレンマ:需要を過小評価するとUX低下・市場シェア喪失、過大評価は数十億ドルの無駄CAPEXに。
  • シナリオ計画(2027年容量)
    • シナリオ1:エージェント採用が緩やか → 現在インフラの3–4倍。
    • シナリオ2:主流化したエージェント → 現在インフラの30–50倍。

小さな誤算で25%過剰構築、20%不足構築になる可能性があり、財務・運用に大きな影響を与える。


短期的修正シナリオ

  1. エージェント採用の停滞:規制、幻覚問題や実装障壁で展開遅延。
  2. 財務工学の崩壊:クレジット市場が引き締まり、貸し手がAI成長予測に不信感を抱く(ただし主要プレイヤーはキャッシュフロー黒字)。
  3. 効率ブレークスルー:高速モデルやハードウェアの進化で現在の構築が過剰になる可能性。

光ファイバーが指数関数的技術向上により陳腐化したのと対照的に、GPU効率は減速しており、既存ハードウェアは長期価値を保つ。


主な違い

  • テレコム:需要が実現しないまま過剰建設。指数関数的供給進化でインフラが陳腐化。
  • AIデータセンター:採用速度よりも構築速度が速くなるリスクはあるものの、既存ハードウェアは有効性を保ち、過剰容量は利用遅延にすぎない。

結論

ファンダメンタルズを見ると、私たちはテレコム崩壊をそのまま繰り返しているわけではありません。リスクは異なります:

  • テレコム:過剰インフラが陳腐化。
  • AI:需要速度に対して過剰建設のリスク、短期的な財務痛みはあるものの継続利用で吸収される可能性大。

したがって、波打ち、統合、失敗は起こり得ますが、テレコム型崩壊というメンタルモデルを今日のAIデータセンタ―環境に当てはめるのは誤解です。

同じ日のほかのニュース

一覧に戻る →

2025/12/04 3:40

Ghostty is now non-profit

Ghostty は501(c)(3)非営利団体 Hack Club の財務スポンサーシップを受け、税優遇とコンプライアンスを確保しつつ無料・オープンソースで提供されます。 重要ポイント 1. **持続可能性**:個人依存から脱却し、寄付で運営を安定化。 2. **信頼性**:非営利体制により資金の乱用や商業転売が防止。 3. **公共利益**:ターミナル技術を公益優先で発展させ、広範な採用促進。

2025/12/03 5:33

Valve reveals it’s the architect behind a push to bring Windows games to Arm

SteamがArmチップ向けPCゲームの移植を支援し、Steam Frameは実質的にAndroidデバイスやノートPCでSteamを遊べるトロイの木馬。FexとProtonがx86コードをARMへJIT変換し、開発者は移植作業を減らせる。重要ポイント 1. ValveはArm向けオープンソース技術に資金提供している。 2. Fex+ProtonでWindowsゲームをスマホやノートPC上で実行可能。 3. Steam Frameは「VRヘッドセット」ではなく、ArmデバイスでSteam体験を拡張するためのハードウェア。

2025/12/04 2:44

Reverse engineering a $1B Legal AI tool exposed 100k+ confidential files

**要約(300字以内)** FilevineのAI法務プラットフォームで、サブドメイン `margolis.filevine.com` にアクセスすると、Box API管理者トークンが返る脆弱性を発見。1) **発見と報告**:2025年10月27日から責任ある報告を行い、Filevineは迅速に修正。2) **技術的詳細**:エンドポイント `/prod/recommend` に `{"projectName":"Very sensitive Project"}` を送るだけで、全Boxファイルシステムへの完全アクセス権が得られた。3) **リスクと教訓**:機密文書やHIPAA保護資料を数百万件抽出可能となり、法律事務所・クライアントに深刻被害。AI法務テック企業はデータ保護体制を徹底すべきである。