CERN は、リアルタイムで LHC のデータをフィルタリングするために、シリコンへ焼き付けられた小型 AI モデルを利用しています。

2026/03/28 17:06

CERN は、リアルタイムで LHC のデータをフィルタリングするために、シリコンへ焼き付けられた小型 AI モデルを利用しています。

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

CERN(欧州原子核研究機構)は、リニア・ハドロン衝突器(LHC)がリアルタイムで生成する膨大なデータストリームをフィルタリングするために、シリコンチップに焼き付けられたカスタムAIモデルを使用しています。LHCは年間約40,000 エクサバイトのデータを生成し、一時的には数百テラバイト/秒というピーク値に達しますが、分析対象として保持される衝突イベントはわずか0.02%です。このカットを通過するイベントを決定するため、CERN のレベル‑1トリガーは約1,000個のフィールドプログラマブルゲートアレイ(FPGA)を用い、50ナノ秒未満で判断を下さなければなりません。これらのFPGA は AXOL1TL アルゴリズムを実行し、このアルゴリズムは PyTorch や TensorFlow などの人気フレームワークから HLS4ML のようなツールでコンパイルされた非常に小さなニューラルネットに依存しています。FPGA/ASIC ハードウェアは完全なネットワーク層よりも事前計算済みのルックアップテーブルによって支配されており、ほぼ即時に出力を得ることができます。この最初のフィルタ後、25,600 台の CPU と 400 台の GPU を備えたハイレベルトリガーファームがデータをさらに縮小し、1 日あたり約 1 ペタバイトに抑えます。

将来的には、高輝度 LHC(HL‑LHC)が2031 年から開始され、衝突ごとのデータ量が約10 倍になる予定です。CERN はすでに次世代の超コンパクト AI モデルと最適化された FPGA/ASIC デザインを開発しており、この成長に対応できるようにしています。同様の低遅延・リソース効率的な技術は、オートノマス車両、高頻度取引、医用画像診断、航空宇宙分野などでも有用となる可能性があります。

本文

スイス・ジュネーブ — 2026年3月28日

CERN(欧州原子核研究機構)は、シリコンチップに物理的に焼き付けられた極めて小型のカスタムAIモデルを用いて、大型ハドロン衝突器(LHC)から生成される膨大なデータをリアルタイムでフィルタリングしています。


LHCトンネルと検出器

概要

  • LHCは年間約40 000エクサバイトのデータを生成し、現在のインターネット容量の約1/4に相当します。
  • ピーク時にはデータストリームが秒間数百テラバイトに達し、いかなる既存の記憶装置や従来型計算システムでも収容・処理できないレベルです。

全データを保存または処理することが物理的に不可能であるため、CERNは検出器レベルでミリ秒単位の意思決定を行う必要があります。すなわち、衝突イベントの中から科学的価値が高いものだけを残し、それ以外は永遠に破棄するというリアルタイム選択プロセスです。この過程は現代科学における最も要求度の高い計算課題の一つです。

この極端な要件を満たすため、CERNは従来型GPUやTPUベースのAIアーキテクチャから意図的に離れました。代わりに、非常に最適化され、超小型のAIモデルを開発し、直接カスタムシリコン—主にFPGA(フィールド・プログラマブルゲートアレイ)とASIC(特定用途向け集積回路)へコンパイルして実装しています。ハードウェア埋め込み型のモデルは検出器系統の最先端で超低遅延推論を可能にし、決定がマイクロ秒やナノ秒単位で行われる必要があります。


データ課題

  • プロトンバッチは光速に近い速度で移動し、約25 ナノ秒ごとに交差します。
  • 各クロスオーバー時に数十億のプロトンが互いを通過しますが、本当のハード衝突(プロトン同士の直接衝突)は比較的稀です。
  • 衝突が起きると、検出器は結果として生じる粒子シェアから数メガバイトの生データを取得します。
  • LHCはピーク輝度時に最大で秒間数百テラバイトを生成でき、現行技術では全量を保存・処理することは物理的に不可能です。

総衝突イベントのわずか**0.02 %**だけが最終的に分析用として保持されます。
最初で最も重要なフィルタリング段階、レベル1トリガー(Level‑1 Trigger)はこのミリ秒単位の意思決定を担います。この段階は約1 000台のFPGAで構成され、50ナノ秒未満に入力データを評価します。専用アルゴリズム AXOL1TL がこれらチップ上で直接実行され、検出器信号をリアルタイムで解析し、科学的価値があると判断されたイベントのみを保存対象として選定します。それ以外のデータは即座に完全に破棄されます。


AI アプローチと技術スタック

  • CERN のAIモデルは極めて小型かつLHC環境固有の制約に最適化されています。
  • モデルはオープンソースツール HLS4ML を用いてコンパイルされ、PyTorchやTensorFlowで記述された機械学習モデルを合成可能なC++コードへ変換します。
  • そのコードはFPGA・SoC・カスタムASICに直接デプロイでき、GPU/TPUベースの解決策よりも高速かつ低消費電力・低面積で実現できます。

CERN のアプローチの特徴は、チップリソースの大部分をニューラルネットワーク層自体に割り当てる代わりに、広範な事前計算済みルックアップテーブル(LUT)を実装する点です。これらのテーブルは一般的な入力パターンの結果を事前に保存し、ハードウェアがほとんどの場合で即座に出力できるようにします。全浮動小数点計算を行わずに済むため、必要とされるナノ秒レベルの低遅延を実現しています。

2番目のフィルタリング段階、ハイレベルトリガー(High‑Level Trigger)は25 600CPUと400GPUからなる大規模なサーフェスレベル計算農場で動作します。レベル1トリガーがデータ量を激減させた後も、この農場は秒間テラバイト単位のデータを処理し、最終的に一日あたり約ペタバイトの科学的価値あるデータへと縮小します。


今後の計画

現在のLHCは「高輝度 LHC(HL‑LHC)」という大規模アップグレードが予定されており、2031年に稼働開始が見込まれています。このアップグレードでは衝突器の輝度を劇的に増加させ、各衝突で約10倍のデータを生成し、イベントサイズも大幅に拡大します。

CERN はすでに AI ハードウェアパイプラインをこの予想されるデータ量増加に備えて積極的に準備しています:

  • 超小型 AI モデルの次世代版を開発
  • FPGA・ASIC 実装をさらに最適化
  • 高速低遅延性能を維持しつつ、より高いデータレートで効果的なイベント選択を行うためにリアルタイムトリガーシステム全体を強化

この前向きな取り組みは、原子核物理学が今後数十年にわたり画期的発見を継続できるよう、データ量が10倍増加しても対応可能であることを保証します。


意義

AI業界全体が巨大言語モデルへと拡大し、膨大な計算資源とエネルギーを必要としている一方、CERN は逆の方向へ進んでいます。最小限のリソースで実装可能な、超高速・省電力の AI モデルを開発し、FPGA と ASIC への直接埋め込みを追求しています。

この取り組みは「チビAI」の実世界的デモンストレーションとして極めて説得力があります。LHC のトリガーシステムにおいて、ナノ秒単位で膨大なデータストリームから意思決定を行うため、従来型汎用 AI アクセラレータでは到底達成できない性能を実現しています。

粒子物理学以外でも、CERN のアプローチはリアルタイムかつ超低遅延推論が要求される分野(自律システム、高頻度取引、医用画像解析、航空宇宙)における高性能計算システムの設計へ影響を与える可能性があります。世界的なコンピューティングパワーとエネルギー効率への需要が増大する中で、CERN のモデルは「サイズ拡張」ではなく「極限まで最適化」を示す実用的代替策として注目に値します。


主な情報源

ソース説明確認リンク
CERN公式LHC データ処理とトリガーシステムhttps://home.cern/science/computing

ニュース提供者:John

同じ日のほかのニュース

一覧に戻る →

2026/03/28 9:39

エージェントに集中し、ファイルシステムへは干渉しないようにしましょう。

## Japanese Translation: (以下はご提示いただいたテキストの日本語訳です) ``` ## Summary `jai` は軽量なサンドボックスツールで、ユーザーが Codex や Claude などの言語モデルエージェントをフルコンテナイメージを構築せずに実行できるようにします。 - 現在の作業ディレクトリを「jail」として囲み、そのディレクトリ内は完全に書き込み可能にし、他のすべてのファイルを読み取り専用にします。 - ユーザーのホームディレクトリへの変更はコピーオンライトオーバーレイでキャプチャされ、元のファイルは触れられません;`/tmp` と `/var/tmp` はサンドボックス内でプライベートです。 - このツールは単一コマンド(`jai codex`、`lai claude`、または単に `jai`)で起動でき、ユーザー自身の非特権アカウントで実行するか、選択したモードに応じて専用の Jai ユーザーで実行します。 - 三つの隔離モードが利用可能です:**Casual**(弱い機密性、ほとんどのファイルが読み取り可能)、**Strict**(強い機密性、別UIDと隠しホームを使用)、および **Bare Home**(完全な隔離、NFS‑home サポート有効)。 - `jai` はスタンフォード大学 Secure Computer Systems と Future of Digital Currency Initiative のフリーソフトウェアです。Docker を ad‑hoc サンドボックス化に補完しますが、bubblewrap や chroot より軽量であり、より強い隔離を必要とするケースではコンテナや VM に取って代わるものではありません。 ```

2026/03/28 11:17

AMD の Ryzen 9 9950X3D2 Dual Edition は、1枚のチップに合計 208 MB のキャッシュを搭載しています。

## Japanese Translation: **概要:** AMD の新しい Ryzen 9 9950X3D2 デュアルエディションは、以前の X3D モデルで採用されていたハイブリッドキャッシュレイアウトを廃止し、両方のプロセッサダイに 64 MB の 3D V‑Cache を追加しています。各ダイには 16 MB の L2 キャッシュ、32 MB の組み込み L3 キャッシュ、および追加で 64 MB の V‑Cache が備わっており、チップレットペア全体で合計 208 MB のキャッシュが確保されます。既存の X3D チップ(例:7900X3D、7950X3D、9900X3D、9950X3D)では、追加の 64 MB V‑Cache は1つのダイにのみ搭載されています。AMD のドライバソフトウェアはキャッシュ恩恵を受けるワークロードをそのコアへルーティングしますが、このプロセスは一般的には信頼できますが、稀に失敗することがあります。デュアルダイ構成により、すべてのコアが大きなキャッシュプールにアクセスできるようになり、AMD によれば標準の 9950X3D と比べてゲームやその他のキャッシュ依存型アプリケーションで最大10 %の性能向上を実現できます。

2026/03/28 4:15

申し訳ありませんが、その件についてはお手伝いできません。

## Japanese Translation: **概要** この記事では、macOS 26が導入した視覚的不整合について説明しています。サードパーティアプリケーションのウィンドウはもはやApple独自の丸みを帯びた角を表示せず、YouTubeやSafariなどで「不格好」な端が目立つようになりました。既存の多くのチュートでは丸みを完全に取り除いていますが、著者はすべてのApple以外のGUIアプリケーションに対して **23 ポイント** の単一かつ統一された半径を強制することを提案しています。 解決策は動的ライブラリ(`SafariCornerTweak.dylib`)で、内部 `NSThemeFrame` メソッドのいくつか―`_cornerRadius`、`_getCachedWindowCornerRadius`、`_topCornerSize`、`_bottomCornerSize`―をスワップし、デフォルトの半径値を上書きします。 **ビルド手順** ```bash clang -arch arm64e -arch x86_64 -dynamiclib \ -framework AppKit SafariCornerTweak.m \ -o SafariCornerTweak.dylib ``` 生成された dylib は `/usr/local/lib/` にコピーされ、アッドホック署名で署名されます。その後、LaunchAgent の plist(`com.local.dyld-inject.plist`)を介して起動時に `DYLD_INSERT_LIBRARIES` を設定しロードします。 ユーザーは System Integrity Protection (SIP) を無効化せずにクリーンで一貫した UI を享受でき、サードパーティ開発者は自動的にウィンドウが望ましい丸みを取得し、ブランドの一貫性とユーザー体験が向上します。

CERN は、リアルタイムで LHC のデータをフィルタリングするために、シリコンへ焼き付けられた小型 AI モデルを利用しています。 | そっか~ニュース