
2026/03/17 5:01
**Nvidia、エージェント型AI専用「Vera CPU」を発表** - **Vera CPU の概要** - エージェント型人工知能(Agentic AI)のワークロードに特化した専用プロセッサ。 - Nvidia 独自の先進アーキテクチャと、AI 推論・意思決定を最適化した命令セットを統合。 - **主な技術的特徴** - 複雑な推論タスクを高速化する高密度コア設計。 - 大規模モデルデータのレイテンシ低減に寄与する組み込みメモリ階層。 - データセンターでのスケーラブル導入を可能とする省電力設計。 - **想定される活用事例** - リアルタイム意思決定が求められる自律システム。 - 高速かつ信頼性の高い推論を必要とする企業向けAIアプリケーション。 - 次世代エージェント型モデルを探索する研究プラットフォーム。 - **戦略的インパクト** - 専用AIハードウェアにおいてNvidiaをリーダーへと押し上げる。 - エージェント知能ソリューション開発者向けエコシステムの拡大。
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
NVIDIA の Vera CPU(エージェント型AIと強化学習に特化した設計)は、現在完全生産段階に入り、本年後半にパートナーを通じて出荷される予定です。ラックスケールCPUの2倍の効率を実現し、多くのワークロードで50 %高速動作を提供します。また、88個のオリンピウスコアが空間マルチスレッド(Spatial Multithreading)を使用して1つのコアで2タスクを同時に処理できるよう設計されています。LPDDR5Xメモリサブシステムは最大1.2 TB/sの帯域幅を提供し、Veraラックには256個の液冷CPUが統合され、22,500以上の同時AI環境をサポートします。
VeraはNVLink‑C2C経由でNVIDIA GPUと密接に連携し、1.8 TB/sのコヒーレント帯域幅(PCIe Gen 6 の7倍)を提供します。システムは単一または二重ソケットをサポートし、ConnectX® SuperNICカードとBlueField‑4 DPUsを統合してネットワーキング、ストレージ、およびセキュリティ機能を実装しています。主要なハイパースケール企業(Alibaba, Meta, Oracle Cloud Infrastructure)やシステムメーカー(Dell Technologies, HPE, Lenovo, Supermicro, ASUS, Compal, Foxconn, GIGABYTE, Pegatron, Quanta Cloud Technology, Wistron, Wiwynn)が協力してVeraを導入しています。
エンタープライズ顧客にはAlibaba、Meta、Oracle Cloud Infrastructure、CoreWeave、Lambda、Nebius、Nscale、ByteDance、および国立研究所(Leibniz Supercomputing Centre、Los Alamos、Lawrence Berkeley、TACC)が含まれ、AIワークロード用にVeraの導入を計画または開始しています。Cloudflare、Crusoe、Together.AI、Vultrなどのクラウドプロバイダーも科学計算で使用する意向です。
CursorやRedpandaといったソフトウェアベンダーによるベンチマークでは、Kafka互換ワークロードで最大5.5倍の低レイテンシを実現し、AIコーディングエージェントのスループットも向上しています。Veraプラットフォームはレイテンシ、スループット、およびスケーラビリティにおいて大幅な改善を約束しており、企業AI導入、ハイパースケールデータセンター、および科学研究計算の在り方を再構築する可能性があります。
本文
NVIDIA Vera CPU – データ処理、AIトレーニング、および大規模エージェント推論における最高性能とエネルギー効率
ニュース概要
- NVIDIA Vera CPU は 従来のラックスケールCPUの2倍の効率を実現し、速度が50 %向上しています。
- Vera を導入している顧客は、Alibaba、ByteDance、Meta、Oracle Cloud Infrastructure、CoreWeave、Lambda、Nebius、Nscale です。
- 現在 Vera を採用している製造パートナーには Dell Technologies、HPE、Lenovo、Supermicro、ASUS、Compal、Foxconn、GIGABYTE、Pegatron、Quanta Cloud Technology (QCT)、Wistron、Wiwynn が含まれます。
主なハイライト
| フィーチャー | 詳細 |
|---|---|
| 性能・効率 | 単一スレッドで最高のパフォーマンスとバンド幅を提供。88個の NVIDIA 独自設計オリンポスコアを搭載し、各コアは Spatial Multithreading により2つのタスクを同時実行して予測可能な性能を実現します。 |
| メモリサブシステム | 第2世代低消費電力 LPDDR5X を採用し、最大 1.2 TB/s のバンド幅を提供。一般向け CPU の約2倍の帯域幅でありながら、消費電力は半分です。 |
| 整合性・相互接続 | NVIDIA Scalable Coherency Fabric と NVLink‑C2C インタコネクト(1.8 TB/s の一貫性バンド幅)を統合しています。 |
| ラック構成 | 1 ラックあたり最大256個の液体冷却型 Vera CPU を配置可能で、22,500以上の同時 CPU 環境をサポートし、大規模 AI ファクトリーに最適です。 |
| モジュラーアーキテクチャ | NVIDIA MGX モジュラーリファレンスアーキテクチャは世界中で 80 社のエコシステムパートナーと連携しています。 |
| サーバ構成 | 強化学習、エージェント推論、データ処理、オーケストレーション、ストレージ管理、クラウドアプリケーション、HPC 向けに最適化されたダブル・ソケットとシングル・ソケットの両方を提供します。 |
| ネットワーク & セキュリティ | NVIDIA ConnectX® SuperNIC カードと BlueField®‑4 DPUs を統合し、ネットワーキング、ストレージ、セキュリティを高速化します。 |
エコシステム採用
-
AI 開発プラットフォーム
- Cursor: Vera により AI コーディングエージェントのスループットが向上しています。
- Redpanda: Apache Kafka 対応ワークロードで最大5.5倍低いレイテンシを達成しました。
-
国立研究機関
- Leibniz Supercomputing Centre、Los Alamos National Laboratory、Lawrence Berkeley National Laboratory (NERSC)、Texas Advanced Computing Center (TACC)。
- TACC は科学アプリケーションで大幅な性能向上を報告し、Horizon システムに Vera ベースノードを導入予定です。
-
クラウド & インフラプロバイダー
- クラウドサービス: Alibaba、ByteDance、Cloudflare、CoreWeave、Crusoe、Lambda、Nebius、Nscale、Oracle Cloud Infrastructure、Together.AI、Vultr。
- インフラストラクチャー: Aivres、ASRock Rack、ASUS、Compal、Cisco、Dell、Foxconn、GIGABYTE、HPE、Hyve、Inventec、Lenovo、MiTAC、MSI、Pegatron、Quanta Cloud Technology (QCT)、Supermicro、Wistron、Wiwynn。
入手可能性
- 生産: 完全に本格稼働しています。
- パートナー: 今後半年以内にパートナーからの提供が期待されます。
NVIDIA の GTC キーノート(Jensen Huang 先生)を視聴し、Vera に関するセッションでさらに詳しく学びましょう。