
2026/03/25 2:30
ARMベースの AGI 用 CPU
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
Armは、Neoverseプラットフォームを基盤とした次世代AIインフラ向けの最初の量産可能シリコン製品であるArm AGI CPUを発表しました。
本チップは、より高いメモリ帯域幅、効率的な単一スレッド型Neoverse V3コア、および持続負荷下での利用可能スレッド数が増加したことにより、現在のx86システムと比べてラックあたり2倍以上の性能を提供します。内部評価では、AGI‑CPUロック全充填版と同等のx86構成との比較が行われています。これまでArmはIP(知的財産)およびコンピュートサブシステムのみを提供していたため、AGI CPUは既存のNeoverse CSSロードマップと共存する新たなデータセンター向けシリコンラインへの初の参入となります。
ASRockRack、Lenovo、およびSupermicroから商用システムがすでに利用可能であり、OCP DC‑MHSリファレンスサーバ(1 OU デュアルノード)が導入されています。
リファレンス構成では、ブレードあたり2チップ(272コア)を使用し、標準36 kWラックに30ブレードで8,160コアを実現します。液体冷却200 kWバリアントは336CPUを収容でき、45,000コア以上が可能です。
Metaが主導パートナーおよび顧客としてAGI CPUの共同開発に携わっており、メガワット規模のインフラストラクチャとMetaのMTIAアクセラレータとの連携を図っています。その他のローンチパートナーにはCerebras、Cloudflare、F5、OpenAI、Positron、Rebellions、SAP、およびSK Telecomが含まれます。ハイパースケール、クラウド、シリコン、メモリ、ネットワーキング、ソフトウェア、システム設計および製造の分野で50社を超える主要企業が、Armコンピュートプラットフォームのシリコンへの拡張を支援しています。
ラックあたりの高性能は、ハイパースケールデータセンター、クラウドサービス、シリコン製造、メモリ設計、ネットワーキング、ソフトウェアスタック、および業界全体のシステムアーキテクチャに影響を与える可能性があります。性能主張は内部評価に基づくものであり、実際の結果は変動する場合があることに注意してください。また、本ブログ投稿にはArmのSEC提出書類で記載されているリスクを伴う将来予測的声明が含まれています。
本文
本日、Arm は Arm AGI CPU を発表しました。これは Arm Neoverse プラットフォームを基盤にした、本番環境向けのシリコンであり、次世代 AI インフラストラクチャを支える新しいクラスです。
35 年以上にわたる歴史の中で初めて、Arm は自社製シリコン製品を提供します。Arm Neoverse プラットフォームは従来の IP と Arm Compute Subsystems(CSS)を超え、カスタムシリコンからプラットフォームレベルのソリューション統合、または Arm 設計プロセッサーへの展開まで、顧客により多くの選択肢を提供します。これは AI インフラストラクチャの急速な進化と、エコシステムから本番環境で迅速かつ大規模にデプロイできる Arm プラットフォームへの需要増加を反映しています。
エージェント型 AI インフラの台頭
AI システムはますますグローバルスケールで継続的に稼働しています。従来、人間が計算のボトルネックでした―人々がシステムと対話できる速度が、作業が通過する速さを決定していました。しかし、エージェント型 AI の時代では、ソフトウェアエージェントがタスクを調整し、多数のモデルと相互作用し、リアルタイムで意思決定するため、その制約は消えます。
AI システムが継続的に動作し、ワークロードが複雑化するにつれ、CPU はモダンインフラストラクチャのペースメーカーとなります。現代の AI データセンターでは、CPU が数千もの分散タスクを管理します:アクセラレータのオーケストレーション、メモリとストレージの管理、ワークロードスケジューリング、データ移動――そしてエージェント型 AI では、大規模なエージェントへのファンアウト調整まで行います。
この変化は CPU に新たな要求を課し、プロセッサーの進化を必要とします。Arm Neoverse はすでに AWS Graviton、Google Axion、Microsoft Azure Cobalt、NVIDIA Vera など、今日の主要ハイパースケール・AI プラットフォームを支えています。AI インフラストラクチャが世界規模で拡大する中、エコシステム全体から Arm に対しさらなる機能提供を求める声が高まっています。Arm AGI CPU はこの変化に対応するために開発されました。
Arm AGI CPU:ラックスケールのエージェント効率を実現
エージェント型 AI ワークロードは、大規模で持続的なパフォーマンスを要求します。Arm AGI CPU は、数千コアにわたる並列負荷下でも高いタスク単位性能を維持し、モダンデータセンターの電力・冷却制限内で運用できるよう設計されています。
Arm AGI CPU の全要素―動作周波数、メモリと I/O アーキテクチャ―は、密集型ラック展開における大規模並列高性能エージェントワークロードを支えるために最適化されています。
参考サーバ構成:
- 1 OU、2‑ノード設計で 2 チップ使用。各ブレードは専用メモリと I/O を備え、272 コアを搭載。
- ブレードは標準の空冷 36 kW ラックに完全装填し、30 ブレードで合計 8 160 コア。
- Supermicro と提携した液体冷却 200 kW 設計では、336 台の Arm AGI CPU を収容でき、45 000 コア以上を実現。
この構成により、Arm AGI CPU は最新 x86 システムと比べて 2 倍以上 のラック単位性能を提供します。これは Arm アーキテクチャの根本的優位性とシステムリソースの精密なマッチングによるものです。
- クラス最高水準のメモリ帯域幅により、1 ラックあたり有効スレッド数が増加。x86 CPU は持続負荷下でコア間競合が発生し性能低下します。
- 高性能かつ省電力な単一スレッド Arm Neoverse V3 コアは旧世代と比べて優れた処理能力を持ち、各スレッドがより多くの仕事をこなします。
- より多くの有効スレッドと1 スレッドあたりの作業量増加により、ラック単位で大規模な性能向上を実現。
AI エコシステム全体での早期勢い
Arm AGI CPU は、エージェント型 AI インフラ拡張の最前線にあるパートナーから既に強力な商業的採用を得ています。導入予定はアクセラレータ管理、エージェントオーケストレーション、サービス・アプリケーション・ツールの密集化(エージェントタスク拡張)、AI データセンターを支えるネットワークとデータプレーン計算の増強などです。
主要パートナー:
Meta は Arm AGI CPU の共同開発により、ギガワット規模のインフラを最適化し、Meta アプリ群と同社独自 MTIA アクセラレータとの連携を実現。その他、Cerebras、Cloudflare、F5、OpenAI、Positron、Rebellions、SAP、SK Telecom がリードパートナーとして参画しています。各社は Arm と協力し、クラウド・ネットワーキング・エンタープライズ環境で AI 主導サービスを加速させています。ASRockRack、Lenovo、Supermicro から商用システムの受注が可能です。
導入促進
Arm は Arm AGI CPU 1 OU Dual Node Reference Server を発表します。これは Open Compute Project(OCP) DC‑MHS スタンダードフォーマットサーバーです。Arm はこのリファレンス設計を提供し、ファームウェア、システムアーキテクチャ仕様、デバッグフレームワーク、診断・検証ツールをすべて Arm ベースのシステムに適用可能な形で公開します。詳細は近日開催される OCP EMEA サミットで発表予定です。
Arm インフラストラクチャの新章
Arm AGI CPU の発売は、データセンターにおける Arm の旅路とコンピューティングイノベーションにおけるリーダーシップを新たな段階へ進めます。AI が業界を再構築する中で、Arm はハイパースケールクラウドプロバイダーから AI スタートアップまで、エコシステム全体の進歩を支えることにコミットしています。
Arm AGI CPU は Arm の新しいデータセンター向けシリコン製品ラインの最初のオファリングであり、すぐに注文可能です。今後も最高レベルの性能・スケール・効率を提供する製品が計画されており、Arm Neoverse CSS ロードマップと並行して進化し、すべての Arm データセンター顧客がプラットフォームアーキテクチャとソフトウェア互換性を共有しながら前進できるようにします。
パートナーの声
Cerebras
「Cerebras では超高速で大規模推論向け AI インフラを構築しています。Arm コンピュートプラットフォームを AGI クラスインフラへ拡張することは、エコシステムとグローバルスケールで AI を展開する顧客にとって大きな前進です。」 – Andrew Feldman, CEO, Cerebras
Cloudflare
「Arm AGI CPU は次世代ワークロード向けに設計された高性能・省エネルギーのコンピューティングを提供します。」 – Stephanie Cohen, Chief Strategy Officer, Cloudflare
Meta
「Arm と協力し、データセンターのパフォーマンス密度を大幅に改善する効率的なコンピュートプラットフォームを開発しました。これにより進化する AI システムのマルチ世代ロードマップをサポートできます。」 – Santosh Janardhan, Head of Infrastructure, Meta
OpenAI
「Arm AGI CPU は、拡張中に大規模 AI ワークロードを調整するオーケストレーション層を強化し、システム全体の効率・性能・帯域幅を向上させる重要な役割を果たします。」 – Sachin Katti, Head of Industrial Compute, OpenAI
Positron
「Positron の推論加速技術と省エネルギー Arm AGI CPU プラットフォームを組み合わせることで、データセンター運用者がより高いパフォーマンス/ワット・コスト比で先端 AI モデルをスケールできる強力な機会を提供します。」 – Mitesh Agrawal, CEO, Positron AI
Rebellions
「Arm AGI CPU と Rebellions の NPU を新しい高密度サーバ構成に組み合わせ、AI 推論ワークロードのスケーラブルで省エネルギーなプラットフォームを提供しています。」 – Marshall Choy, Chief Business Officer, Rebellions
SAP
「Arm AGI CPU は次世代 AI 主導ビジネスソリューションを支援する機会を拡大します。」 – Stefan Bäuerle, Senior Vice President, Head of HANA & Persistency, SAP
SK Telecom
「我々の主権的 A.X ファウンデーションモデルと推論最適化 AI サーバーを組み合わせることで、世界中に提供しながら AIDC の競争力を高めます。」 – Suk‑geun (SG) Chung, CTO & Head of AI CIC, SK Telecom
先行き予測に関する声明
本ブログ記事には Arm の製品ロードマップ、将来の性能、予定される貢献、およびパートナー導入に関する前向きな表明が含まれています。これらは現在の期待を基にしており、実際の結果が大幅に異なる可能性があるリスクと不確定要素があります。Arm の業績に影響を与える可能性のある要因については、米国証券取引委員会への Arm の提出資料をご参照ください。
性能主張は、Arm 内部推計を基に、Arm AGI CPU ベースサーバーの完全装填ラックと同等の x86 ベース構成との比較で算出しています。実際の結果はシステム設定、ワークロード、およびその他要因によって異なる場合があります。
すべての製品名および会社名は、それぞれの保有者が登録商標または商標です。
*推計に基づくものです。