ARMベースの AGI 用 CPU

2026/03/25 2:30

ARMベースの AGI 用 CPU

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

Armは、Neoverseプラットフォームを基盤とした次世代AIインフラ向けの最初の量産可能シリコン製品であるArm AGI CPUを発表しました。
本チップは、より高いメモリ帯域幅、効率的な単一スレッド型Neoverse V3コア、および持続負荷下での利用可能スレッド数が増加したことにより、現在のx86システムと比べてラックあたり2倍以上の性能を提供します。内部評価では、AGI‑CPUロック全充填版と同等のx86構成との比較が行われています。これまでArmはIP(知的財産)およびコンピュートサブシステムのみを提供していたため、AGI CPUは既存のNeoverse CSSロードマップと共存する新たなデータセンター向けシリコンラインへの初の参入となります。

ASRockRack、Lenovo、およびSupermicroから商用システムがすでに利用可能であり、OCP DC‑MHSリファレンスサーバ(1 OU デュアルノード)が導入されています。
リファレンス構成では、ブレードあたり2チップ(272コア)を使用し、標準36 kWラックに30ブレードで8,160コアを実現します。液体冷却200 kWバリアントは336CPUを収容でき、45,000コア以上が可能です。

Metaが主導パートナーおよび顧客としてAGI CPUの共同開発に携わっており、メガワット規模のインフラストラクチャとMetaのMTIAアクセラレータとの連携を図っています。その他のローンチパートナーにはCerebras、Cloudflare、F5、OpenAI、Positron、Rebellions、SAP、およびSK Telecomが含まれます。ハイパースケール、クラウド、シリコン、メモリ、ネットワーキング、ソフトウェア、システム設計および製造の分野で50社を超える主要企業が、Armコンピュートプラットフォームのシリコンへの拡張を支援しています。

ラックあたりの高性能は、ハイパースケールデータセンター、クラウドサービス、シリコン製造、メモリ設計、ネットワーキング、ソフトウェアスタック、および業界全体のシステムアーキテクチャに影響を与える可能性があります。性能主張は内部評価に基づくものであり、実際の結果は変動する場合があることに注意してください。また、本ブログ投稿にはArmのSEC提出書類で記載されているリスクを伴う将来予測的声明が含まれています。

本文

本日、Arm は Arm AGI CPU を発表しました。これは Arm Neoverse プラットフォームを基盤にした、本番環境向けのシリコンであり、次世代 AI インフラストラクチャを支える新しいクラスです。

35 年以上にわたる歴史の中で初めて、Arm は自社製シリコン製品を提供します。Arm Neoverse プラットフォームは従来の IP と Arm Compute Subsystems(CSS)を超え、カスタムシリコンからプラットフォームレベルのソリューション統合、または Arm 設計プロセッサーへの展開まで、顧客により多くの選択肢を提供します。これは AI インフラストラクチャの急速な進化と、エコシステムから本番環境で迅速かつ大規模にデプロイできる Arm プラットフォームへの需要増加を反映しています。


エージェント型 AI インフラの台頭

AI システムはますますグローバルスケールで継続的に稼働しています。従来、人間が計算のボトルネックでした―人々がシステムと対話できる速度が、作業が通過する速さを決定していました。しかし、エージェント型 AI の時代では、ソフトウェアエージェントがタスクを調整し、多数のモデルと相互作用し、リアルタイムで意思決定するため、その制約は消えます。

AI システムが継続的に動作し、ワークロードが複雑化するにつれ、CPU はモダンインフラストラクチャのペースメーカーとなります。現代の AI データセンターでは、CPU が数千もの分散タスクを管理します:アクセラレータのオーケストレーション、メモリとストレージの管理、ワークロードスケジューリング、データ移動――そしてエージェント型 AI では、大規模なエージェントへのファンアウト調整まで行います。

この変化は CPU に新たな要求を課し、プロセッサーの進化を必要とします。Arm Neoverse はすでに AWS Graviton、Google Axion、Microsoft Azure Cobalt、NVIDIA Vera など、今日の主要ハイパースケール・AI プラットフォームを支えています。AI インフラストラクチャが世界規模で拡大する中、エコシステム全体から Arm に対しさらなる機能提供を求める声が高まっています。Arm AGI CPU はこの変化に対応するために開発されました。


Arm AGI CPU:ラックスケールのエージェント効率を実現

エージェント型 AI ワークロードは、大規模で持続的なパフォーマンスを要求します。Arm AGI CPU は、数千コアにわたる並列負荷下でも高いタスク単位性能を維持し、モダンデータセンターの電力・冷却制限内で運用できるよう設計されています。

Arm AGI CPU の全要素―動作周波数、メモリと I/O アーキテクチャ―は、密集型ラック展開における大規模並列高性能エージェントワークロードを支えるために最適化されています。

参考サーバ構成:

  • 1 OU、2‑ノード設計で 2 チップ使用。各ブレードは専用メモリと I/O を備え、272 コアを搭載。
  • ブレードは標準の空冷 36 kW ラックに完全装填し、30 ブレードで合計 8 160 コア。
  • Supermicro と提携した液体冷却 200 kW 設計では、336 台の Arm AGI CPU を収容でき、45 000 コア以上を実現。

この構成により、Arm AGI CPU は最新 x86 システムと比べて 2 倍以上 のラック単位性能を提供します。これは Arm アーキテクチャの根本的優位性とシステムリソースの精密なマッチングによるものです。

  • クラス最高水準のメモリ帯域幅により、1 ラックあたり有効スレッド数が増加。x86 CPU は持続負荷下でコア間競合が発生し性能低下します。
  • 高性能かつ省電力な単一スレッド Arm Neoverse V3 コアは旧世代と比べて優れた処理能力を持ち、各スレッドがより多くの仕事をこなします。
  • より多くの有効スレッドと1 スレッドあたりの作業量増加により、ラック単位で大規模な性能向上を実現。

AI エコシステム全体での早期勢い

Arm AGI CPU は、エージェント型 AI インフラ拡張の最前線にあるパートナーから既に強力な商業的採用を得ています。導入予定はアクセラレータ管理、エージェントオーケストレーション、サービス・アプリケーション・ツールの密集化(エージェントタスク拡張)、AI データセンターを支えるネットワークとデータプレーン計算の増強などです。

主要パートナー:
Meta は Arm AGI CPU の共同開発により、ギガワット規模のインフラを最適化し、Meta アプリ群と同社独自 MTIA アクセラレータとの連携を実現。その他、Cerebras、Cloudflare、F5、OpenAI、Positron、Rebellions、SAP、SK Telecom がリードパートナーとして参画しています。各社は Arm と協力し、クラウド・ネットワーキング・エンタープライズ環境で AI 主導サービスを加速させています。ASRockRack、Lenovo、Supermicro から商用システムの受注が可能です。


導入促進

Arm は Arm AGI CPU 1 OU Dual Node Reference Server を発表します。これは Open Compute Project(OCP) DC‑MHS スタンダードフォーマットサーバーです。Arm はこのリファレンス設計を提供し、ファームウェア、システムアーキテクチャ仕様、デバッグフレームワーク、診断・検証ツールをすべて Arm ベースのシステムに適用可能な形で公開します。詳細は近日開催される OCP EMEA サミットで発表予定です。


Arm インフラストラクチャの新章

Arm AGI CPU の発売は、データセンターにおける Arm の旅路とコンピューティングイノベーションにおけるリーダーシップを新たな段階へ進めます。AI が業界を再構築する中で、Arm はハイパースケールクラウドプロバイダーから AI スタートアップまで、エコシステム全体の進歩を支えることにコミットしています。

Arm AGI CPU は Arm の新しいデータセンター向けシリコン製品ラインの最初のオファリングであり、すぐに注文可能です。今後も最高レベルの性能・スケール・効率を提供する製品が計画されており、Arm Neoverse CSS ロードマップと並行して進化し、すべての Arm データセンター顧客がプラットフォームアーキテクチャとソフトウェア互換性を共有しながら前進できるようにします。


パートナーの声

Cerebras

「Cerebras では超高速で大規模推論向け AI インフラを構築しています。Arm コンピュートプラットフォームを AGI クラスインフラへ拡張することは、エコシステムとグローバルスケールで AI を展開する顧客にとって大きな前進です。」 – Andrew Feldman, CEO, Cerebras

Cloudflare

「Arm AGI CPU は次世代ワークロード向けに設計された高性能・省エネルギーのコンピューティングを提供します。」 – Stephanie Cohen, Chief Strategy Officer, Cloudflare

Meta

「Arm と協力し、データセンターのパフォーマンス密度を大幅に改善する効率的なコンピュートプラットフォームを開発しました。これにより進化する AI システムのマルチ世代ロードマップをサポートできます。」 – Santosh Janardhan, Head of Infrastructure, Meta

OpenAI

「Arm AGI CPU は、拡張中に大規模 AI ワークロードを調整するオーケストレーション層を強化し、システム全体の効率・性能・帯域幅を向上させる重要な役割を果たします。」 – Sachin Katti, Head of Industrial Compute, OpenAI

Positron

「Positron の推論加速技術と省エネルギー Arm AGI CPU プラットフォームを組み合わせることで、データセンター運用者がより高いパフォーマンス/ワット・コスト比で先端 AI モデルをスケールできる強力な機会を提供します。」 – Mitesh Agrawal, CEO, Positron AI

Rebellions

「Arm AGI CPU と Rebellions の NPU を新しい高密度サーバ構成に組み合わせ、AI 推論ワークロードのスケーラブルで省エネルギーなプラットフォームを提供しています。」 – Marshall Choy, Chief Business Officer, Rebellions

SAP

「Arm AGI CPU は次世代 AI 主導ビジネスソリューションを支援する機会を拡大します。」 – Stefan Bäuerle, Senior Vice President, Head of HANA & Persistency, SAP

SK Telecom

「我々の主権的 A.X ファウンデーションモデルと推論最適化 AI サーバーを組み合わせることで、世界中に提供しながら AIDC の競争力を高めます。」 – Suk‑geun (SG) Chung, CTO & Head of AI CIC, SK Telecom


先行き予測に関する声明

本ブログ記事には Arm の製品ロードマップ、将来の性能、予定される貢献、およびパートナー導入に関する前向きな表明が含まれています。これらは現在の期待を基にしており、実際の結果が大幅に異なる可能性があるリスクと不確定要素があります。Arm の業績に影響を与える可能性のある要因については、米国証券取引委員会への Arm の提出資料をご参照ください。

性能主張は、Arm 内部推計を基に、Arm AGI CPU ベースサーバーの完全装填ラックと同等の x86 ベース構成との比較で算出しています。実際の結果はシステム設定、ワークロード、およびその他要因によって異なる場合があります。

すべての製品名および会社名は、それぞれの保有者が登録商標または商標です。

*推計に基づくものです。

同じ日のほかのニュース

一覧に戻る →

2026/03/25 0:29

Appleビジネス

## Japanese Translation: > **Apple Business ― デバイス管理と広告を統合したプラットフォーム** Apple は 4 月 14 日に、200 以上の地域で *Apple Business* を開始し、Apple Business Essentials、Apple Business Manager、および Apple Business Connect を置き換えます。新しいオールインワンソリューションは、組み込み型モバイルデバイス管理(MDM)と「Blueprints」を統合し、ゼロタッチ展開、自動化された Managed Apple Account の作成、従業員グループ/役割管理、アプリ配布、および Admin API を提供します。さらに、ビジネスメール、カレンダー、ディレクトリサービス、カスタムドメインサポート、iOS 26+、iPadOS 26+、macOS 26+ 向けの Apple Business アプリも付属しています。 既存顧客のデータは自動的に移行されます。 Apple Business は米国とカナダで Apple Maps 上の広告を追加(今夏開始)し、検索結果の上部および Suggested Places に表示される広告は明確にラベル付けされて透明性を保ちます。このプラットフォームには、Apple Business Connect のブランドプロファイルとロケーション機能が組み込まれており、リッチプレイスカード、ショーケース/カスタムアクション、ロケーションインサイト、ブランデッドコミュニケーション、および Tap to Pay ブランド化が含まれます。 コアサービスは全世界の新規ユーザーと既存ユーザーに対して無料で提供されます。有料オプションとして、最大 2 TB の iCloud ストレージ($0.99/ユーザー/月)と AppleCare+ for Business(デバイスあたり $6.99 またはユーザーあたり $13.99/月)が利用可能です。ゼロタッチ展開は、Apple または認定販売業者から購入したデバイスで利用でき、プライバシーモデルではユーザーの位置情報と広告インタラクションデータを Apple アカウントから分離し、オンデバイスに保存され、第三者と共有されません。

2026/03/25 6:24

害虫駆除向けの垂直型 SaaS を構築したいと思ったので、技術者として働くことにしました。

## Japanese Translation: (主要ポイントをすべて組み込む)** 著者は30 億ドルのTAMと強固な継続収益性が見えたため、害虫駆除業界へ転職しました。彼は業界最大手グループの子会社に採用され、即座にローカルブランド全体で**数十億ドル規模の売上を担当**しました。13日という記録的な期間で集中的な学習・セミナー・試験・監督付きトラック時間を経てライセンスを取得しました。 現場業務では、典型的な物流上の課題に直面しました:バッテリーがフラット、燃料カードが5週間以上遅れ、経費精算が遅い。会社のコアシステムは高度にカスタマイズされたSalesforce環境であり、オンボーディングには10個以上のモバイルアプリが必要でした。彼はトラックアイドリング、GPS、訪問時間、電話活動を通じて技術者のパフォーマンスを監視しました。最初は厳格な監視に抵抗したものの、結局は従事しました。 現場での成功により、彼は上級技術者を追跡し正式なトレーニングなしに小規模アップセルを実行したことから「潜入ボス」というニックネームを得ました。その後セールスへ転身し、アウトバウンドワークフローを構築して21日で24 k ARR契約(さらに小規模なアップセル)を確保しました。しかし、内部見積もりプロセスが複数署名と新規アカウント作成を必要とするため手間がかかり、取引損失のリスクがあることに気付きました。 セールスチームは10年以上の経験を持つベテラン担当者で構成されており、それぞれ800k–1.2M ARRを生成し低いチャーン率を維持しています。彼らの文化は変化に抵抗が強く、エグジットインタビュー後、マネージャーから自分自身の会社を立ち上げるよう提案されました。 今後、著者はローカルニッチオペレーターを取得し、専用ツールを開発し、見積もり・オンボーディング・監視を統合したスケーラブルなプラットフォームを構築する計画です。このモデルにより現場技術者とセールス担当者の効率が向上し、チャーンが減少し、収益獲得が加速し、害虫駆除業界で競争力のダイナミクスが変わる可能性があります。

2026/03/24 21:06

HNに知らせてください:PyPI 上の Litellm 1.82.7 と 1.82.8 が改ざんされていること。

## 日本語訳: > PyPI の wheel **`litellm==1.82.8`** には、悪意のある `.pth` ファイル(`litellm_init.pth`、34 628 バイト)が含まれており、このファイルは `litellm` をインポートしなくても、Python インタープリターが起動するたびに自動的に実行されます。 > 隠されたスクリプトは二重 Base64 エンコードされたペイロードを実行し、ホストから認証情報(SSH キー、クラウドプロバイダーのクレデンシャル、Git の設定、Docker 設定、データベースパスワード、暗号ウォレットの秘密鍵など)を収集します。取得したデータは一時ファイルに書き込まれ、その後ランダムな AES‑256 キーで暗号化されます。AES キー自体はハードコードされた 4096 ビット公開鍵(キーは `MIICIjANBgkqhkiG9w0BAQEFAAOCAg8A...` から始まります)を使って RSA 暗号化されています。 > 暗号化されたアーカイブ(`tpcp.tar.gz`)は **`https://models.litellm.cloud/`** に POST されます。 > この脆弱性は **2026‑03‑24** に、Ubuntu 24.04 の Docker コンテナで Python 3.13 を実行している環境で発見され、影響を受けたのはバージョン 1.82.8 だけが確認されています(他のリリースも脆弱になっている可能性があります)。 > PyPI 管理者はこの wheel を直ちに削除または取り下げるべきです。`litellm==1.82.8` をインストールしたユーザーは、`site‑packages/` 内の怪しい `.pth` ファイルを確認し、漏洩した認証情報をローテーションし、CI/CD パイプラインが侵害されていないか監査してください。この脆弱なバージョンを使用していたシステム(ローカル開発マシン、Docker コンテナ、本番サーバー、自動ビルドシステムなど)は、多数の組織にわたる幅広い秘密情報が漏洩した可能性があります。