2025/12/03 20:14
Are we repeating the telecoms crash with AI datacenters?
RSS: https://news.ycombinator.com/rss
要約▶
AIデータセンターの拡張がテレコム崩壊を再現するという見方は、実際の数値を見ると違う。
1️⃣ テレコムでは光ファイバー利用率わずか2.7%で供給技術が指数関数的に進化し陳腐化した。一方AIは既存GPUが長期価値を保ち、利用率高い。
2️⃣ AI需要は過小評価される可能性があるが、ピーク時容量不足も発生しており、過剰建設リスクは限定的。
3️⃣ CAPEX増加は「革命」ではなく既存インフラの再利用であり、テレコム型バブルとは構造が異なる。
本文
AIデータセンターのブームが2000年代のテレコム崩壊を繰り返すという話はよく耳にします。
「インフラ投資が数十億ドル、過剰建設への懸念、バブル即発生の警告」といった類似点は明らかです。
しかし実際に数字を算出してみると、基礎的な状況は全く異なることが分かります。
テレコム崩壊で起きた本当の事象
- 膨大なCAPEX:1995‑2000年に約2兆ドル(インフレーション調整後4兆ドル超)が、80〜90百万マイル相当の光ファイバー敷設に投じられました。2025年価値で年間約10億ドルです。
- 利用率低下:2002年までに、このファイバーのわずか2.7%しか使用されていませんでした。
- 需要過大評価:CEOはインターネットトラフィックが3〜4ヵ月で倍増すると主張しましたが、実際には約12ヵ月でした。これは年間で4倍の誤算により累積的に約256倍の余剰を生み出します。
- 供給側技術進化:光トランシーバーは指数関数的に向上しました(例:1995年のWDMマルチプレクサが4–8キャリアから2000年には128キャリアへ、同一ファイバーで64倍の容量増加)。
- インフラ寿命:光ファイバーは数十年間耐久し、未使用容量は永久に暗闇のままでした。
AIインフラ―:別物
| 観点 | テレコム(1990年代〜2000年代) | AIデータセンター(2020年代) |
|---|---|---|
| 供給側技術進化 | 指数関数的(容量が100,000倍に増加) | 低下傾向(パフォーマンス/ワットの年次成長率≈69%→44%) |
| 需要成長 | 4倍と過大評価 | 過小評価の可能性あり、エージェント転換で需要が加速するかも |
| 利用率 | 95%の暗ファイバー(未使用余剰) | 非常に高い。多くのプロバイダーはピーク時容量不足に直面している |
| 技術曲線 | インフラが急速に陳腐化 | 半導体物理極限に近づき、現行ハードウェアは長期価値を保つ |
| 電力消費 | 減少傾向 | 増加(V100 300W → B200 1200W) |
| インフラ寿命 | 数十年(ファイバー) | 年数(ハードウェアはより良いチップで刷新される) |
- GPU TDPは上昇中:V100 (2017) 300 W、A100 (2020) 400 W、H100 (2022) 700 W、B200 (2024) 1 000–1 200 W。
- 冷却要件:B200は液冷が必要で、既存の空冷データセンターに改装を迫る。
実際には需要成長が加速している
| 利用タイプ | トークン消費 |
|---|---|
| ChatGPT(平均) | 1ユーザー/日20+プロンプト、会話あたり3 000–4 000トークン |
| 基本エージェント | チャットトークンの4倍 |
| マルチエージェントシステム | チャットトークンの15倍 |
| コーディングエージェント | 1セッションで150k以上のトークン |
- エージェントはユーザーあたり10〜100倍のトークン消費増加をもたらす。
- インフラは既に高利用率で、プロバイダーはピーク時容量問題に直面している。
データセンターCAPEX:革命ではなく進化
- AI前成長(2018‑2021):Amazon/Microsoft/GoogleのCAPEXが680億ドルから1240億ドルへ(年間約22%増)。
- AIブーム(2023‑2025):2023年1270億ドル → 2024年2120億ドル(前年比67%)→ 2025年予測2550億ドル超。
規模は膨大だが、ヘッドラインで語られるような劇的飛躍ではない。多くのCAPEX項目は「退屈」なコンピュート・ストレージ・ネットワークをAIに再利用したものです。
予測がほぼ不可能になる理由
- リードタイム:データセンター構築に2–3年、GPU注文には6–12か月。
- 囚人のジレンマ:需要を過小評価するとUX低下・市場シェア喪失、過大評価は数十億ドルの無駄CAPEXに。
- シナリオ計画(2027年容量)
- シナリオ1:エージェント採用が緩やか → 現在インフラの3–4倍。
- シナリオ2:主流化したエージェント → 現在インフラの30–50倍。
小さな誤算で25%過剰構築、20%不足構築になる可能性があり、財務・運用に大きな影響を与える。
短期的修正シナリオ
- エージェント採用の停滞:規制、幻覚問題や実装障壁で展開遅延。
- 財務工学の崩壊:クレジット市場が引き締まり、貸し手がAI成長予測に不信感を抱く(ただし主要プレイヤーはキャッシュフロー黒字)。
- 効率ブレークスルー:高速モデルやハードウェアの進化で現在の構築が過剰になる可能性。
光ファイバーが指数関数的技術向上により陳腐化したのと対照的に、GPU効率は減速しており、既存ハードウェアは長期価値を保つ。
主な違い
- テレコム:需要が実現しないまま過剰建設。指数関数的供給進化でインフラが陳腐化。
- AIデータセンター:採用速度よりも構築速度が速くなるリスクはあるものの、既存ハードウェアは有効性を保ち、過剰容量は利用遅延にすぎない。
結論
ファンダメンタルズを見ると、私たちはテレコム崩壊をそのまま繰り返しているわけではありません。リスクは異なります:
- テレコム:過剰インフラが陳腐化。
- AI:需要速度に対して過剰建設のリスク、短期的な財務痛みはあるものの継続利用で吸収される可能性大。
したがって、波打ち、統合、失敗は起こり得ますが、テレコム型崩壊というメンタルモデルを今日のAIデータセンタ―環境に当てはめるのは誤解です。