**Nvidia、エージェント型AI専用「Vera CPU」を発表**

- **Vera CPU の概要**
  - エージェント型人工知能(Agentic AI)のワークロードに特化した専用プロセッサ。
  - Nvidia 独自の先進アーキテクチャと、AI 推論・意思決定を最適化した命令セットを統合。

- **主な技術的特徴**
  - 複雑な推論タスクを高速化する高密度コア設計。
  - 大規模モデルデータのレイテンシ低減に寄与する組み込みメモリ階層。
  - データセンターでのスケーラブル導入を可能とする省電力設計。

- **想定される活用事例**
  - リアルタイム意思決定が求められる自律システム。
  - 高速かつ信頼性の高い推論を必要とする企業向けAIアプリケーション。
  - 次世代エージェント型モデルを探索する研究プラットフォーム。

- **戦略的インパクト**
  - 専用AIハードウェアにおいてNvidiaをリーダーへと押し上げる。
  - エージェント知能ソリューション開発者向けエコシステムの拡大。

2026/03/17 5:01

**Nvidia、エージェント型AI専用「Vera CPU」を発表** - **Vera CPU の概要** - エージェント型人工知能(Agentic AI)のワークロードに特化した専用プロセッサ。 - Nvidia 独自の先進アーキテクチャと、AI 推論・意思決定を最適化した命令セットを統合。 - **主な技術的特徴** - 複雑な推論タスクを高速化する高密度コア設計。 - 大規模モデルデータのレイテンシ低減に寄与する組み込みメモリ階層。 - データセンターでのスケーラブル導入を可能とする省電力設計。 - **想定される活用事例** - リアルタイム意思決定が求められる自律システム。 - 高速かつ信頼性の高い推論を必要とする企業向けAIアプリケーション。 - 次世代エージェント型モデルを探索する研究プラットフォーム。 - **戦略的インパクト** - 専用AIハードウェアにおいてNvidiaをリーダーへと押し上げる。 - エージェント知能ソリューション開発者向けエコシステムの拡大。

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

NVIDIA の Vera CPU(エージェント型AIと強化学習に特化した設計)は、現在完全生産段階に入り、本年後半にパートナーを通じて出荷される予定です。ラックスケールCPUの2倍の効率を実現し、多くのワークロードで50 %高速動作を提供します。また、88個のオリンピウスコアが空間マルチスレッド(Spatial Multithreading)を使用して1つのコアで2タスクを同時に処理できるよう設計されています。LPDDR5Xメモリサブシステムは最大1.2 TB/sの帯域幅を提供し、Veraラックには256個の液冷CPUが統合され、22,500以上の同時AI環境をサポートします。

VeraはNVLink‑C2C経由でNVIDIA GPUと密接に連携し、1.8 TB/sのコヒーレント帯域幅(PCIe Gen 6 の7倍)を提供します。システムは単一または二重ソケットをサポートし、ConnectX® SuperNICカードとBlueField‑4 DPUsを統合してネットワーキング、ストレージ、およびセキュリティ機能を実装しています。主要なハイパースケール企業(Alibaba, Meta, Oracle Cloud Infrastructure)やシステムメーカー(Dell Technologies, HPE, Lenovo, Supermicro, ASUS, Compal, Foxconn, GIGABYTE, Pegatron, Quanta Cloud Technology, Wistron, Wiwynn)が協力してVeraを導入しています。

エンタープライズ顧客にはAlibaba、Meta、Oracle Cloud Infrastructure、CoreWeave、Lambda、Nebius、Nscale、ByteDance、および国立研究所(Leibniz Supercomputing Centre、Los Alamos、Lawrence Berkeley、TACC)が含まれ、AIワークロード用にVeraの導入を計画または開始しています。Cloudflare、Crusoe、Together.AI、Vultrなどのクラウドプロバイダーも科学計算で使用する意向です。

CursorやRedpandaといったソフトウェアベンダーによるベンチマークでは、Kafka互換ワークロードで最大5.5倍の低レイテンシを実現し、AIコーディングエージェントのスループットも向上しています。Veraプラットフォームはレイテンシ、スループット、およびスケーラビリティにおいて大幅な改善を約束しており、企業AI導入、ハイパースケールデータセンター、および科学研究計算の在り方を再構築する可能性があります。

本文

NVIDIA Vera CPU – データ処理、AIトレーニング、および大規模エージェント推論における最高性能とエネルギー効率


ニュース概要

  • NVIDIA Vera CPU は 従来のラックスケールCPUの2倍の効率を実現し、速度が50 %向上しています。
  • Vera を導入している顧客は、Alibaba、ByteDance、Meta、Oracle Cloud Infrastructure、CoreWeave、Lambda、Nebius、Nscale です。
  • 現在 Vera を採用している製造パートナーには Dell Technologies、HPE、Lenovo、Supermicro、ASUS、Compal、Foxconn、GIGABYTE、Pegatron、Quanta Cloud Technology (QCT)、Wistron、Wiwynn が含まれます。

主なハイライト

フィーチャー詳細
性能・効率単一スレッドで最高のパフォーマンスとバンド幅を提供。88個の NVIDIA 独自設計オリンポスコアを搭載し、各コアは Spatial Multithreading により2つのタスクを同時実行して予測可能な性能を実現します。
メモリサブシステム第2世代低消費電力 LPDDR5X を採用し、最大 1.2 TB/s のバンド幅を提供。一般向け CPU の約2倍の帯域幅でありながら、消費電力は半分です。
整合性・相互接続NVIDIA Scalable Coherency Fabric と NVLink‑C2C インタコネクト(1.8 TB/s の一貫性バンド幅)を統合しています。
ラック構成1 ラックあたり最大256個の液体冷却型 Vera CPU を配置可能で、22,500以上の同時 CPU 環境をサポートし、大規模 AI ファクトリーに最適です。
モジュラーアーキテクチャNVIDIA MGX モジュラーリファレンスアーキテクチャは世界中で 80 社のエコシステムパートナーと連携しています。
サーバ構成強化学習、エージェント推論、データ処理、オーケストレーション、ストレージ管理、クラウドアプリケーション、HPC 向けに最適化されたダブル・ソケットとシングル・ソケットの両方を提供します。
ネットワーク & セキュリティNVIDIA ConnectX® SuperNIC カードと BlueField®‑4 DPUs を統合し、ネットワーキング、ストレージ、セキュリティを高速化します。

エコシステム採用

  • AI 開発プラットフォーム

    • Cursor: Vera により AI コーディングエージェントのスループットが向上しています。
    • Redpanda: Apache Kafka 対応ワークロードで最大5.5倍低いレイテンシを達成しました。
  • 国立研究機関

    • Leibniz Supercomputing Centre、Los Alamos National Laboratory、Lawrence Berkeley National Laboratory (NERSC)、Texas Advanced Computing Center (TACC)。
    • TACC は科学アプリケーションで大幅な性能向上を報告し、Horizon システムに Vera ベースノードを導入予定です。
  • クラウド & インフラプロバイダー

    • クラウドサービス: Alibaba、ByteDance、Cloudflare、CoreWeave、Crusoe、Lambda、Nebius、Nscale、Oracle Cloud Infrastructure、Together.AI、Vultr。
    • インフラストラクチャー: Aivres、ASRock Rack、ASUS、Compal、Cisco、Dell、Foxconn、GIGABYTE、HPE、Hyve、Inventec、Lenovo、MiTAC、MSI、Pegatron、Quanta Cloud Technology (QCT)、Supermicro、Wistron、Wiwynn。

入手可能性

  • 生産: 完全に本格稼働しています。
  • パートナー: 今後半年以内にパートナーからの提供が期待されます。

NVIDIA の GTC キーノート(Jensen Huang 先生)を視聴し、Vera に関するセッションでさらに詳しく学びましょう。

同じ日のほかのニュース

一覧に戻る →

2026/03/17 5:59

MistralがLeanstralをリリース --- (※「Leanstral」はそのまま固有名詞として扱います。)

## Japanese Translation: --- ## Summary Leanstral は **Lean 4 専用に設計された最初のオープンソースコードエージェント** であり、Apache 2.0 ライセンスの下でリリースされ、重みファイルをダウンロードできるほか、一時的な無料 API エンドポイント(`labs-leanstral-2603`)と公開された技術レポートがあります。 このモデルは **証明工学タスクに最適化された非常にスパースな 6 B‑パラメータアーキテクチャ** を採用し、Lean を完璧な検証器として活用した並列推論を実現しています。モデルは **lean‑lsp‑mcp データセット** 上で訓練されており、Mistral Vibe 経由で任意の Model‑Composed Pipelines(MCP)をサポートします。 **FLTEval** で評価すると—FLT プロジェクトにおける形式的証明の完了と新概念の定義をベンチマークし、単独の数学問題ではなく実際のタスクを測定する—Leanstral‑120B‑A6B は **pass@2 スコア 26.3 と pass@4 スコア 29.3** を達成し、GLM5‑744B‑A40B(≈16–20)や Kimi‑K2.5‑1T‑32B よりも優れた性能を示しています。Claude 系列モデルと比較すると、Leanstral は **$36 で pass@2 スコア 26.3** を達成し、Sonnet の $549(スコア 23.7)に対して同等の性能です。また **pass@16 スコア 31.9 が $531** で得られ、Sonnet の $8,031.9 と比較しても大幅に低価格です。Claude Opus 4.6 モデルは依然として最高品質ですが、$1,650 という価格は Leanstral の同等スコア時の費用の約 90 倍以上になります。 実際のケーススタディでは、その実用性が示されています: * Lean 4.29.0‑rc6 の破壊的変更を診断し、`def` と `abbrev` 間の定義等価性問題を特定して正しい修正案を提示し、ユーザーに説明しました。 * Princeton の CS 441 コースから Rocq 定義を Lean に変換し、カスタム記法を扱い、証明が提供されていないプロパティも自動で証明しました。 Leanstral は **Mistral Vibe** に統合されており、ユーザーは `/leanstall` エンドポイントを呼び出してゼロセットアップのコーディングと証明を行えます。一時的な API エンドポイント(`labs-leanstral-2603`)はフィードバックと観測データ収集のために利用可能です。ユーザーはモデル重みをダウンロードし、Leanstral をローカルで実行したり、Mistral Vibe にサインアップして完全なドキュメントへアクセスすることもできます。 この軽量かつコスト効果の高いツールは、開発者や研究者が形式的検証ワークフローを加速させるために活用でき、コミュニティへの貢献と学術界および産業界での広範な採用を促進します。

2026/03/17 3:12

Meta、jemallocへの再挑戦を強化

## Japanese Translation: ``` ## Summary Meta は、Linux カーネルや Meta のインフラストラクチャ内のコンパイラなど重要なコンポーネントを動かす高性能メモリアロケータである jemalloc に注力することを決定しました。この移行は長期的なメリットに基づいており、保守コストの削減、コードベースの近代化、および進捗を遅らせていた技術的負債の排除が目的です。今回の取り組みの一環として、オリジナルのオープンソース jemalloc リポジトリはアーカイブから外されました。 主な改善領域は以下の通りです: - **技術的負債削減** – 効率と信頼性を向上させるためにクリーンアップとリファクタリングを実施。 - **Huge‑Page Allocator (HPA)** – CPU の効率化を図るためにトランスペアレントヒュージページ(THP)の使用を改善。 - **メモリ効率** – パッキング、キャッシュ、およびパージング機構の最適化。 - **AArch64 最適化** – ARM64 プラットフォームでのアウト・オブ・ザ・ボックス性能を確保。 Meta はオープンソースコミュニティに貢献を呼びかけ、jemalloc の将来ロードマップを共に形作ることによって、Meta 自身のソフトウェアユーザーとこのアロケータに依存する広範なエコシステム双方に利益をもたらすよう促しています。 ```

2026/03/17 2:17

小さなWebは、あなたが考えているよりもずっと大きいものです。

## 日本語訳: **概要** 本文は、**「小さなウェブ」― 通常のブラウザとサーバーでアクセスできる非営利・個人向けサイトが依然として膨大かつ活発だが、1 ページだけでまとめるにはあまりにも大きい」という事実を説明しています。** - **背景**:Gemini プロトコルは世界中に約 6,000 のカプセル(capsule)という独自のエコシステムを持ち、そのフォーラムには主に IT 専門家で構成される約 100 名が参加し、商業的利用は推奨していません。 - **手法**:著者は Kagi が公開する更新フィードを配信しているサイトのリストを使用しました。このリストは昨年の約 6,000 件から今日では約 32,000 件に増加し、多くはプライベートブログや企業がホストするサイト(例:Blogger)です。 - **フィルタリングプロセス** 1. 各フィードをダウンロードし、タイムスタンプと有効な XML があることを確認した結果、約 25,000 サイトに絞られました。 2. 月間更新が 1 回未満のサイトを除外すると、約 9,000 のアクティブサイトが残ります。 - **結果**:3 月 15 日時点でこれら 9,000 サイトは 1,251 件の更新(主に新しいコンテンツ追加)を生成し、過去の日付とほぼ同程度です。毎日の更新量を見ると、単一ページの集約は非実用的であり、小さなウェブはその規模と活発さからそのような表示には不向きです。 - **結論**:サイズが大きいにも関わらず、小さなウェブは成長を続け、主流プラットフォームに対する広告なしの代替手段として機能します。 - **行動喚起**:著者は読者に対し、このページへの参照 URL を含む Webmention を送信してもらい、継続的な関与を促しています。