
2025/12/23 3:59
**ユニバーサル推論モデル** - パス率:*ARC1*で **53.8 %** - パス率:*ARC2*で **16.0 %**
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
概要:
本研究は、ユニバーサル・トランスフォーマー(UT)が難解な推論タスクで卓越した性能を発揮することを示し、これらの強みを活かした新しいアーキテクチャ「ユニバーサル・リーディングモデル」(URM)を導入しています。UTを体系的に分析することで、著者はその成功が主に2つの特徴―再帰的な誘導バイアス(モデルが層間で内部状態を繰り返し精緻化すること)と強力な非線形構成要素―に起因しており、わずかなアーキテクチャ上の変更ではないことを示しています。URMは、この基盤を拡張し、局所パターンを捉える短い畳み込み層と、再帰性の恩恵を保持しつつトレーニング効率を維持するための切り捨てバックプロパゲーション(truncated back‑propagation through time)を追加しています。論文はこれらの発見を文脈化し、UTがARC‑AGIや数独などの課題で使用されてきたものの、以前の研究ではその優秀性の理由が特定されていなかったと述べています。URMは現在、ARC‑AGI 1(53.8 % pass@1)およびARC‑AGI 2(16.0 % pass@1)で最先端の結果を達成しており、同様の設計原則がさらなる向上をもたらす可能性を示唆しています。コードは公開されているため、研究者や開発者はURMを高度な推論問題に容易に適用でき、複雑な問題解決ドメインでAIの能力をさらに押し上げることが期待できます。
本文
概要
ユニバーサルトランスフォーマー(UT)は、ARC‑AGI や数独などの複雑な推論タスクで広く活用されていますが、その性能向上に寄与する具体的要因は十分に検討されていません。本研究では UT の各バリアントを体系的に分析し、ARC‑AGI における改善は主に再帰型の誘導バイアスとトランスフォーマー固有の強力な非線形成分から来ることを示しました。これらの知見に基づき、短い畳み込み層と切り捨て付き逆伝播(truncated backpropagation)を追加した ユニバーサル・リジーニング・モデル(URM) を提案します。本手法は推論性能を大幅に向上させ、ARC‑AGI 1 で 53.8 % の pass@1、ARC‑AGI 2 で 16.0 % の pass@1 といった最先端の結果を達成しました。コードは以下の URL にて公開しています。
投稿履歴
送信者: Zitian Gao
[メールを見る] | [v1]
2025年12月16日 火曜 18:58:45 UTC(74 KB)