**TorchLean:Lean によるニューラルネットワークの形式化**

2026/03/01 12:03

**TorchLean:Lean によるニューラルネットワークの形式化**

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

TorchLean は、学習済みモデルを第一級の数学オブジェクトとして扱う Lean 4 フレームワークであり、実行と形式的検証が共有する単一の正確な意味論を提供します。
このフレームワークは、操作タグ付き SSA/DAG 計算グラフ IR に低減される eager モードとコンパイルモードを備えた PyTorch スタイルの検証済み API を提供します。IEEE‑754 binary32 カーネル(IEEE32Exec)による実行可能な Float32 意味論と、証明関連の丸めモデルを実装し、ランタイムモジュールでは数値的仮定と信頼境界を明示化することで、実際に動作するものと検証されるものとの意味的ギャップを橋渡しします。
検証は、この共有 IR 上でネイティブの Interval Bound Propagation(IBP)および CROWN/LiRPA スタイルの境界伝搬を使用し、証明モジュール内で証明書チェックが行われます。TorchLean は、認定された堅牢性、物理情報付きニューラルネットワーク残差バウンド、およびリヤプノフスタイルのニューラルコントローラー検証に対するエンドツーエンドの検証をサポートし、普遍近似定理などの機械化された結果を活用します。
システムは Frontend(モデル定義、レイヤー、Lean でのトレーニング/推論コード;eager とコンパイル実行)、Runtime(意味論、数値仮定、信頼境界)、および Verification(境界伝搬、証明書チェック)の三つの密接に統合されたモジュールに構成されています。このアーキテクチャは、同じ共有表現が実行・解析・証明を駆動し、学習ベースシステムの完全に形式化されたエンドツーエンド検証のための意味論優先インフラストラクチャを提供します。

本文

イリノイ大学アーバナ・シャンペーン校


要旨

ニューラルネットワークは安全性やミッションクリティカルなパイプラインにますます導入されていますが、検証・解析結果の多くはモデルを定義し実行するプログラミング環境とは別に作成されるため、実際に動作しているネットワークと解析対象との間に意味的ギャップが生じます。これにより、演算子の意味、テンソルレイアウト、前処理、浮動小数点の端ケースなど、暗黙の合意事項に保証が依存することになります。

本研究では TorchLean を紹介します。TorchLean は Lean 4 証明支援システム上で学習済みモデルを「第一級オブジェクト」として扱い、実行と検証で同一の正確な意味論を共有するフレームワークです。TorchLean は以下を統合します。

  1. PyTorch 風の検証可能 API(即時実行モードおよびコンパイルモード)が、共通のオペレーションタグ付き SSA/DAG 計算グラフ IR に低減されます。
  2. 実行可能な IEEE‑754 binary32 カーネルと証明に関係する丸めモデルを用いた Float32 の意味論を明示します。
  3. IBP と CROWN/LiRPA 風の境界伝搬を利用した検証で、証明書チェックも行います。

TorchLean は、認定されたロバスト性、PINN(Physics‑Informed Neural Networks)に対する物理情報残差上限、リヤプノフ型ニューラル制御器の検証など、エンドツーエンドで実証されており、普遍近似定理を含む機械化された理論結果も併せて提供します。これらは学習支援システムの完全に形式的なエンドツーエンド検証のための「意味論優先」インフラストラクチャであることを示しています。


主な貢献

  • Lean 4 上で即時実行とコンパイルモードを備えた PyTorch 風の検証可能 API。
  • IEEE‑754 binary32 カーネルと丸めモデルによる明確な Float32 意味論。
  • IBP と CROWN/LiRPA 型境界伝搬により、証明書チェック付きで検証を実行。
  • 認定ロバスト性、PINN 残差上限、リヤプノフ型ニューラル制御器のエンドツーエンド検証と機械化理論(普遍近似定理)を含む。

システムモジュール

TorchLean は、単一の正式意味論を共有する三つの密接に統合されたモジュールで構成されています。

  1. TorchLean (フロントエンド)

    • Lean 内でモデル・レイヤー・訓練/推論コードを定義できる PyTorch 風 API。
    • 迅速な反復のための即時実行と、オペレーションタグ付き SSA/DAG グラフ IR に低減するコンパイルモード。
    • 実行・解析・証明で共通に使用される単一表現。
  2. Runtime (意味論)

    • IEEE‑754 binary32 カーネル(IEEE32Exec)による実行可能 Float32 意味論。
    • 数値仮定と信頼境界を明示する証明関連丸めモデル。
    • 「意味的ギャップ」を排除し、動作と検証が同一であることを保証。
  3. Verification

    • 共有グラフ IR 上での IBP と CROWN/LiRPA 風境界伝搬。
    • 計算された境界値を Lean 内で検証する証明書チェック。
    • ロバスト性、PINN 残差上限、および制御指向安全/安定性(リヤプノフ型)検証をサポート。

同じ日のほかのニュース

一覧に戻る →

2026/03/04 7:24

あなたとチャットボットとの会話を私に強要しないでください。

## Japanese Translation: > **メインメッセージ:** 著者は「あなたのチャットボットに話しかけさせない」という原則を擁護しています。AI に文章を書かせると、結果として生まれるプローズはしばしば冗長で不透明になり、著者が呼ぶ *AI Slop*(AIスロップ)になります。この問題を回避するためには、まず何を言いたいのか決めてから、それを簡潔に表現し、ジャーナリズムの逆ピラミッド方式を模倣すべきです。 > > **重要性:** 人間のコミュニケーションは個人が育んだ信念を伴います。AI の出力をそのままコピーすると、その意図が曖昧になり「悪いコミュニケーション」を生む可能性があります。AI のテキストが明確で独立しており、読者の視点を尊重している場合は許容できるかもしれませんが、それ以外の場合は *AI Slop* に寄与します。 > > **PR(プルリクエスト)への実践的ヒント:** 開発者はしばしば長い AI 要約を生成し、冒頭の重要情報(レデ)が埋もれてしまいます。この問題に対処する一般的な方法として、短い人間が作成した説明文を先頭に付け加え、意図と主要な決定事項を明示します。これによりレビュアーは目的を迅速に把握でき、編集作業を最小限に抑えることができます。依存関係のバンプなど、目的が明らかなルーチン変更については、この前置きを省略しても構いません。 > > **結論:** AI 出力を貼り付ける前に一度立ち止まってください。チャットボットの言葉を他者に解釈させる必要があるかどうかを問うべきです。PR やその他の文脈で最小限のキュレーションを行う「ベストエフォート」戦略は、読者の理解力を尊重し、編集時間を短縮し、協働性を向上させ、コードベースを読みやすく保ちます。これらは企業がドキュメントとレビュー全体で *AI Slop* を抑制することで得られるメリットです。

2026/03/03 23:02

マックブック プロ(新型 M5 Pro と M5 Max搭載)

## Japanese Translation: Appleは2026年3月3日に最新のMacBook Proラインアップを発表しました:14インチと16インチモデルが新しいM5 ProおよびM5 Maxチップで動作します。 M5シリコンはFusion Architectureを採用し、最大18コアCPU(6つのスーパーコア+12のパフォーマンスコア)と各コアにNeural Acceleratorsを備えたGPUを搭載しており、AI性能が前世代より最大4倍、元のM1より8倍高速です。SSDは読み書き速度が最大14.5 GB/sで、以前の約2倍速く、ストレージ容量はM5 Proで最低1 TB(M5 Maxでは2 TB)、メモリオプションは64 GB(307 GB/s)または128 GB(614 GB/s)です。 バッテリー寿命は最大24時間に延長され、高速充電では≥96 W USB‑Cを使用して0 %から50 %まで約30分で充電できます。接続性にはWi‑Fi 7、Bluetooth 6(Apple N1チップ経由)、3つのThunderbolt 5ポート、8K対応HDMI、SDXCスロット、MagSafe 3、および外部ディスプレイ最大2台(M5 Pro)または4台(M5 Max)が含まれます。 ディスプレイはLiquid Retina XDRパネルでピークHDR輝度が1600 ニト、オプションのナノテクスチャコーティングがあります。12MP Center StageカメラにDesk View機能、スタジオ品質マイク、6スピーカー構成のSpatial Audioシステムが組み込まれ、メディア体験を充実させます。 macOS Tahoeは強化されたSpotlight、Apple Intelligence、Messages/FaceTime/PhoneでのLive Translation、新しいControl Center、Liquid Glass UI、および拡張カスタマイズオプションを搭載しています。 Appleは環境への取り組みを強調しています:全体で45 %のリサイクル素材使用(ケースは100 %再生アルミニウム、バッテリーは100 %再生コバルト)、製造における電力の50 %が再生可能エネルギーから供給され、紙パッケージは100 %ファイバーベースです。 価格は14インチM5 Proで$2,199(教育用$2,049)から開始し、16インチM5 Maxは$3,599(米国小売$3,899、教育用$3,299)となります。予約は3月4日から始まり、3月11日にスペースブラックまたはシルバーで入荷します。Appleはトレードインクレジット、AppleCare+/AppleCare Oneプラン、パーソナルセットアップセッション、およびApple Cardの毎月分割払い(0 % APR、米国顧客向け3 % Daily Cash back)を提供します。

2026/03/04 3:54

インテルの破壊的な18 Aプロセスノードが、データセンター向けに288コア構成のXeonで初登場します。

## Japanese Translation: > **概要:** > インテルは、次世代Xeon 6+プロセッサー(コードネーム「Clearwater Forest」)を発表しました。18A(1.8 nm)プロセス上で構築され、最大288個の省エネルギー型Darkmontコアを備えています。テレコミュニケーション、クラウド、およびエッジAIワークロード向けに設計されたこのCPUは、Advanced Matrix Extensions(AMX)、QuickAssist Technology(QAT)、およびIntel vRAN Boost を搭載し、5G/6G および AI 推論タスクで仮想化ラジオアクセスネットワークをサポートします。各コアには64 KBのL1命令キャッシュがあり、拡張フェッチ/デコードパイプライン、より深いアウト・オブ・オーダーエンジン、および高スカラー/ベクトルスループットを実現する追加実行ポートがあります。コアは4つのグループに分けられ、約4 MBのL2キャッシュを共有し、パッケージ全体で1 GB以上のレベルキャッシュを提供します。このプロセッサーは現在のXeonソケットとドロップイン互換であり、最大12チャネルのDDR5‑8000メモリをサポートし、96 PCIe 5.0レーン(64 CXL 2.0レーン)を提供します。これにより、デュアルソケットシステムで576コアを実現できます。年末までに出荷予定のこのCPUは、テレコミオペレーターとクラウドプロバイダーがラックあたりの仮想マシン数を増やしつつ、電力消費を削減できるよう設計されています。 この改訂された概要は、主要ポイントをすべて保持し、市場への影響に関する推測的な主張を除外し、欠落していたキャッシュ情報を追加しています。