
2026/01/04 6:34
ループ構造を用いた言語モデルによる潜在推論のスケーリング
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
改善された要約
本論文では、推論を事前学習段階に直接組み込む新しいファミリーの事前学習済みループ言語モデル(LoopLM)である Ouro を紹介する。 LoopLM は反復的潜在計算、学習された深さ割り当て用のエントロピー正則化目的関数を使用し、7.7 兆トークンまでスケールできる。著者は Rui‑Jie Zhu, Zixuan Wang, Kai Hua, Tianyu Zhang, Ziniu Li, Haoran Que, Boyi Wei, Zixin Wen, Fan Yin, He Xing, Lu Li, Jiajun Shi, Kaijing Ma, Shanda Li, Taylor Kergan, Andrew Smith, Xingwei Qu, Mude Hui, Bohong Wu, Qiyang Min, Hongzhi Huang, Xun Zhou, Wei Ye, Jiaheng Liu, Jian Yang, Yunfeng Shi, Chenghua Lin, Enduo Zhao, Tianle Cai, Ge Zhang, Wenhao Huang, Yoshua Bengio, そして Jason Eshraghian は、Ouro 1.4B および 2.6B モデルが多数のベンチマークで最大12 Bパラメータの最先端LLMと同等またはそれを上回る性能を示すことを実証している。制御実験により、この優位性は容量増加ではなく、優れた知識操作によるものであることが明らかになり、LoopLM の内部推論トレースは明示的な思考連鎖(chain‑of‑thought)手法よりも最終出力に近いという結果となった。著者らは LoopLM を推論重視型言語モデルの新たなスケーリング方向として提案している。モデルは未定義の HTTP URL(概要で提供)から入手可能である。提出履歴:v1 2025年10月29日、v2 2025年11月3日、v3 2025年11月14日、v4 2025年11月17日。
本文
著者: Rui‑Jie Zhu、Zixuan Wang、Kai Hua、Tianyu Zhang、Ziniu Li、Haoran Que、Boyi Wei、Zixin Wen、Fan Yin、He Xing、Lu Li、Jiajun Shi、Kaijing Ma、Shanda Li、Taylor Kergan、Andrew Smith、Xingwei Qu、Mude Hui、Bohong Wu、Qiyang Min、Hongzhi Huang、Xun Zhou、Wei Ye、Jiaheng Liu、Jian Yang、Yunfeng Shi、Chenghua Lin、Enduo Zhao、Tianle Cai、Ge Zhang、Wenhao Huang、Yoshua Bengio、Jason Eshraghian
概要:
現代の大規模言語モデル(LLM)は、主にチェーン・オブ・ソート(CoT)などの明示的なテキスト生成を通じて「思考」を学習しますが、これは推論をトレーニング後に遅延させ、事前学習データを十分に活用できない欠点があります。本研究では、再帰的オウロボリス(Ouroboros)から名付けられた Ouro を提案し、公開しています。これは、以下の3つの手法を通じて事前学習段階に推論機能を組み込む Loop Language Models (LoopLM) のファミリーです。
- 潜在空間での反復計算
- 学習された深さ割り当てを促すエントロピー正則化目的関数
- 7.7 兆トークンにスケーリング
Ouro 1.4B と 2.6B モデルは、幅広いベンチマークで最大12 B の最先端LLMと同等かそれ以上の性能を示します。制御実験により、この優位性は知識容量の増加ではなく、知識操作能力の向上によるものであることが明らかになりました。また、LoopLM は明示的な CoT よりも最終出力と整合性の高い推論トレースを生成することを示しています。これらの結果は、思考時代における新たなスケーリング方向として LoopLM の可能性を浮き彫りにします。本モデルは以下から入手できます: [http URL]。
提出履歴
- v1 – 2025年10月29日水曜 17:45:42 UTC (14,928 KB)
- v2 – 2025年11月3日月曜 06:54:49 UTC (9,619 KB)
- v3 – 2025年11月14日金曜 02:14:36 UTC (9,607 KB)
- v4 – 2025年11月17日月曜 20:03:56 UTC (9,607 KB)