**「極めてシンプルな自己蒸留でコード生成性能を向上させる」**

2026/04/04 19:26

**「極めてシンプルな自己蒸留でコード生成性能を向上させる」**

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

(欠落していた詳細を追加したもの)**

Self‑distillation(SSD)は、外部検証や強化学習を用いずに、自身のサンプリング出力で微調整することでLLMのコード生成精度を向上させる軽量手法です。Qwen3‑30B‑Instruct に適用すると、SSDは LiveCodeBench v6 の pass@1 を 42.4 % から 55.3 % に引き上げ、特に難易度の高いコーディングタスクで最大の改善を示しました。Qwen と Llama モデル(サイズ 4B、8B、30B)のインストラクションスタイルとシンキングスタイル両方で同様の向上が観測されました。技術は温度0.9で解答をサンプリングし、最初の512トークンで切り捨てた後、そのサンプルに対して標準的な教師付き微調整を行います。SSD の効果は、文脈依存でトークン分布を再構築することで、精度と探索性の矛盾を解決できる点に起因します。高い精度が必要な際には注意喚起トレイルを抑制し、探索中には多様性を保持します。コストのかからないポストトレーニング拡張として、RLや人間による検証を回避できるSSDは、他のLLMがコード生成性能を向上させ、ソフトウェア開発ツールや教育への広範な展開を促進する魅力的な選択肢となります。

本文

概要

大規模言語モデル(LLM)が、検証器・教師モデル・強化学習を一切用いずに、自身の生データのみでコード生成性能を向上させることは可能でしょうか?
私たちは「シンプルな自己蒸留(SSD)」という手法で肯定的に回答します。具体的には、モデルから特定の温度とトランケーション設定で解答サンプルを生成し、そのサンプルに対して標準的な教師付き微調整を行います。

  • SSD によって Qwen3‑30B‑Instruct の LiveCodeBench v6 での pass@1 が 42.4 % から 55.3 % に改善され、特に難易度が高い問題で顕著な向上を示します。
  • この手法は Qwen と Llama 系列の 4 B・8 B・30 B スケールにわたり、指示型(Instruct)と思考型(Thinking)の両バリアントでも有効です。

簡単な方法でこうした成果が得られる理由を理解するため、LLM のデコーディングにおける「精度対探索」衝突を追跡し、SSD が文脈依存的にトークン分布を再構築することで、精度が重要な箇所では散乱した尾部(ディスラクター)を抑制しつつ、探索が必要な領域では有用な多様性を保持すると示しました。

総じて SSD は LLM のコード生成性能向上のための補完的な事後学習手段として位置付けられます。

同じ日のほかのニュース

一覧に戻る →

2026/04/05 4:39

Microsoft は現在、**「Copilot」という名称を冠した主力製品が4つあります。** | # | 製品 | 主な機能 | |---|------|-----------| | 1 | **GitHub Copilot** | Visual Studio Code、GitHub.com、その他の IDE で開発者向けに AI がコード補完を行うサービス。 | | 2 | **Microsoft 365 Copilot** | Word・Excel・PowerPoint・Outlook・Teams 等の Office アプリ内で、メール作成や文書作成、プレゼンテーション制作、データ分析などを支援する統合アシスタント。 | | 3 | **Power Platform Copilot** | Power Apps、Power Automate、Power Virtual Agents の AI 強化機能。自然言語で入力した内容をアプリロジックやフロー、チャットボットへと変換します。 | | 4 | **Dynamics 365 Copilot** | Dynamics 365 スイート全体(営業・顧客サービス・財務・運営など)において、文脈に応じた AI アシスタントが機能を補完します。 | Azure 内の「Copilot」ツール(例:Azure OpenAI Studio など)やその他ニッチな製品もありますが、上記4つが Copilot ブランドを掲げる主要商用製品です。

## Japanese Translation: **要約:** マイクロソフトは、現在「Copilot」という名称を自社エコシステム内の少なくとも75個の異なる製品・サービス・機能に使用しています。著者は、単一の情報源がすべての事例を列挙していないため、製品ページ、ローンチアナウンス、およびマーケティング資料を精査しながらこのリストを作成しました。この「Copilot」は、アプリや組み込みAIヘルパーからキーボードキー、ノートパソコンライン全体、さらには開発者が独自のCopilotを作成できるツールまで多岐にわたり、マイクロソフト製品群内でブランドがどれほど浸透しているかを示しています。読者がこの複雑な環境をナビゲートしやすくするため、各Copilotをカテゴリ別にグループ化し、それらの間のリンクを表示した視覚的マップを作成しました。このインタラクティブ図は、個々の項目をクリックして相互関係を見ることができるため、マイクロソフトの戦略を明確にし、企業や開発者にとって統合機会を浮き彫りにする可能性があります。

2026/04/04 23:53

**Show HN: TurboQuant‑WASM ― ブラウザ上で動く Google のベクトル量子化**

## Japanese Translation: (以下は日本語訳です) ## Summary この記事では、**botirk38/turboquant** の新しい実験的 WebAssembly ビルドを発表しています。これは npm パッケージ `turboquant-wasm` として配布されます。このビルドは Zig 0.15.2 と Bun ツールチェーンのおかげで、Web ブラウザと Node.js の両方で動作します。WASM バイナリは緩和された SIMD 命令セット(`@mulAdd FMA → f32x4.relaxed_madd`)を使用し、ベクトル化された QJL 符号のパッキング/アンパックとスケーリングを実現します。簡易 TypeScript API(`TurboQuant.init()`、`encode()`、`decode()`、`dot()`)により、開発者は高次元ベクトルを圧縮しつつ内積精度を保持できます;出力は金額値テストで検証され、オリジナルの Zig 参照と完全に一致します。 主な技術的詳細: - **実行環境要件**:Chrome 114+、Firefox 128+、Safari 18+;Node.js 20+。 - **圧縮性能**:1024 次元ベクトルで約 4.5 ビット/次元(約 6 倍圧縮)。 - **ドット積精度**:`dot()` はデコードせずにドット積を計算し、単位ベクトルで dim = 128 の場合、平均絶対誤差 < 1.0。 リリースは Google Research の TurboQuant 論文(ICLR 2026)を基盤としており、botirk38/turboquant のオリジナル Zig 実装に感謝しています。将来のアップデートではブラウザ/Node.js サポートの拡大や、より高い次元での圧縮率・誤差メトリックの改善が期待されます。Web とサーバー環境で効率的かつ忠実なベクトル圧縮を可能にすることで、`turboquant-wasm` は開発者が帯域幅とストレージ負荷を削減しながら計算精度を維持できるよう支援します。

2026/04/04 23:48

「『ケアレス・ピープル』の作者は、Metaに対して否定的な発言を行うことが禁じられています。

## Japanese Translation: ### 要約 著者の本『Careless People』は、大手企業でのセクシャルハラスメントと検閲を主張しています。これに対し、同社は彼女を黙らせる措置を取り、これは書籍内で述べられた主張に対する報復の証拠となります。この事件は、企業が有害な物語を発表した内部告発者や批評家を処罰する方法を示しています