**ナノコード:200ドルで購入できる最高のClaudeコード ― TPUs上で動くピュアJAX実装**

2026/04/05 23:21

**ナノコード:200ドルで購入できる最高のClaudeコード ― TPUs上で動くピュアJAX実装**

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

nanocode は、Constitutional AI を使用して Google TPU 上でエンドツーエンドで Claude‑style コード生成モデルをトレーニングする軽量な JAX ベースのライブラリです。
d24 モデル(1.3 B パラメータ)は、TPU v6e‑8 で約 9 時間で ~US$200 でトレーニングできます;より小さな d20 モデル(477 M パラメータ)は、約 1.5 時間で ~US$34 です。

トレーニングデータは FineWeb_EDU と The Stack‑V2 の 1:5 混合に、約 120 K の単一ターン指示サンプルと約 2 000 の長文コンテキストロールアウト(Read, Edit, Grep, Bash ツール呼び出しを連鎖)を追加したものです。
トークナイザーの学習では、<|user_start/> や <|assistant_end/> といった特殊トークンが追加され、約 2 B の文字で構築されています。

性能: CORE は d24 で 0.227(GPT‑2 XL の 0.257 を上回る)、bits‑per‑byte fwe = 0.759, sv2 = 0.445。
ポストトレーニング評価では、好み精度が 0.45 から 0.88 に上昇し、bits‑per‑byte は安定(≈0.247→0.248)しています。

整合性パイプラインは Constitutional AI を採用しており、合成データ生成 + 批判ループ → 選択/拒否ペア → 監督付きファインチューニング → Direct Preference Optimisation (DPO) により SOUL ボイス(カジュアルでフレンドリー、すべて小文字、指示主導)を強制します。

nanocode の最小構成は 5.5 k 行のコードベースとモジュラー設計により、ツール、SOUL、および合成データパイプラインを簡単にカスタマイズできます。そのエージェント型 CLI(

scripts.nanocode
)は TPUs 上でスプラッシュ注意機能付きで実行され、許可後にファイル操作やシェルコマンドのリアルタイム実行が可能です。

将来のイテレーションではツールセットを拡張し、合成データパイプラインを洗練させるか、より大きな TPU へスケールアップすることで、対話型でプロダクション品質のコード生成に低オーバーヘッドを維持できる可能性があります。

本文

Nanocode – 最小限のエージェント型コーディングパートナー


概要

  • 目的 – Claude風モデルを使って、エンドツーエンドでエージェント型コーディングを行う
  • フレームワーク – JAX(TPU最適化)、Karpathy の nanochat にインスパイア
  • 主要構成要素
    • SOUL.md – モデルのキャラクターと価値観
    • エージェントインターフェース – ツール呼び出し(
      Read
      ,
      Edit
      ,
      Grep
      ,
      Bash
    • 合成データ生成 – Constitutional AI(SFT + DPO)

はじめに

# Google TRC 経由で無料TPUアクセス (+ $300 クラウドクレジット)
export NANOCODE_BASE_DIR="$HOME/.cache/nanocode"
export MODEL_TAG=d24   # 他サイズの場合は変更

# トークナイザーとモデル用データを事前学習
python -m data.pretrain -d fineweb-edu -n 300
python -m data.pretrain -d the-stack-v2-dedup -n 60

# トークナイザートレーニング
python -m scripts.tok_train --max-chars=2000000000
python -m scripts.tok_eval

学習パイプライン

1. ベースモデル

python -u -m scripts.base_train \
    --batch-size=32 \
    --minibatch-size=1 \
    --config=configs.d24 \
    --eval-every=500 \
    --sample-every=500
  • 結果 – 13億パラメータ、TPU v6e‑8で約9時間(≈$200)。

2. エージェント型 SFT

# ロールアウトをダウンロード
export HF_TOKEN=YOUR_HF_TOKEN
ROLLOUTS_DIR="$NANOCODE_BASE_DIR/rollouts"
hf download smohammadi/nanocode-tulu-selfoss-evol \
    --repo-type dataset --local-dir "$ROLLOUTS_DIR/nanocode-tulu-selfoss-evol"
hf download smohammadi/nanocode-long-context \
    --repo-type dataset --local-dir "$ROLLOUTS_DIR/nanocode-long-context"

# 学習
python -u -m scripts.agentic_sft \
    --batch-size=32 \
    --minibatch-size=1 \
    --eval-every=500 \
    --sample-every=500
  • 出力 – 小文字でツール呼び出しに対応した応答。

3. ダイレクト・プレファレンス最適化(DPO)

# プレファレンスデータをダウンロード
hf download smohammadi/nanocode-tulu-selfoss-evol-preference \
    --repo-type dataset --local-dir "$ROLLOUTS_DIR/nanocode-tulu-selfoss-evol-preference"
hf download smohammadi/nanocode-long-context-preference \
    --repo-type dataset --local-dir "$ROLLOUTS_DIR/nanocode-long-context-preference"

# 学習
python -u -m scripts.dpo \
    --batch-size=32 \
    --minibatch-size=1 \
    --eval-every=100 \
    --sample‑every=100
  • 結果 – 精度が 0.45 → 0.88 に向上、bpb の減少はほぼ無視できる。

エージェントを実行

python -m scripts.nanocode --max-tokens=4096 --attn-impl=splash
  • CLI 経由で対話。ツール呼び出しがある場合は承認を求められる。

  • 例:

    <|bos|><|user_start|>
    Can you fix the bug in hello.py?<|user_end|>
    

    エージェントの応答には

    Edit
    ツール呼び出しが含まれる。


評価とレポート

# ログをローカルへコピー
gcloud compute tpus tpu-vm scp \
  --zone=europe-west4-a \
  --recurse \
  nanocode:/users/salmanmohammadi/nanocode/reports/d24 .

# Markdown レポートを HTML に変換
brew install pandoc   # 未インストールの場合
pandoc d24/report.md -o d24/report.html --standalone
open d24/report.html

Nanocode の拡張

  1. SOUL をカスタマイズ – 新しい性格特性を定義
  2. ツールを再定義 – ドメイン固有のアクションを追加
  3. 合成データ生成 – 提供されたパイプライン(
    dev/process_datasets.py
    ,
    dev/scenarios_to_rollouts.py
    )を利用
  4. ファインチューニングと再学習 – 上記手順に従い、新しいデータで実施

クイックリファレンス

ステップコマンド目的
トークナイザー
scripts.tok_train
ボキャブラリー構築(≈20億文字)
ベーストレーニング
scripts.base_train
13億パラメータモデル
エージェント型 SFT
scripts.agentic_sft
ツール使用を教える
DPO
scripts.dpo
SOUL に合わせて整合性を取る

自分だけのエージェント型コーディングパートナーを作り上げてください!

同じ日のほかのニュース

一覧に戻る →

2026/04/06 3:45

Gemma 4(iPhone向け)

## Japanese Translation: AI Edge GalleryはiPhone専用アプリで、デバイスのハードウェア上で大規模言語モデルを完全にオフラインで実行し、インターネット接続なしで高性能な生成型AIをユーザーに提供します。最新リリースではGemma 4をサポートし、以下の新機能が追加されました: - **Agent Skills** ユーザーはWikipedia事実照合、インタラクティブマップ、視覚要約カードなどのモジュールツールでLLMを拡張でき、URLまたはGitHub Discussionsからスキルをロードできます。 - **AI Chat with Thinking Mode** 対応モデルに対してステップバイステップの推論ビューを提供し、多段会話の透明性を高めます。 - **Ask Image** デバイスカメラまたはフォトギャラリーを使用したマルチモーダルオブジェクト認識と視覚パズル解決が可能です。 - **Audio Scribe** 音声録音をリアルタイムで文字起こし・翻訳し、オンデバイス言語モデルを利用します。 - **Prompt Lab** 温度やtop‑kなどのパラメータ調整が可能なプロンプトテスト用ワークスペースです。 - **Mobile Actions** ファインチューニングされたFunctionGemma 270mモデルにより、オフラインデバイス制御と自動タスクを実現します。 - **Tiny Garden** 自然言語で仮想庭園を植えたり収穫したりできる実験的ミニゲームで、同じくFunctionGemma 270mベースです。 アプリにはカスタムオープンソースモデルのダウンロード・ロードと特定ハードウェア上での性能評価が可能な柔軟なサンドボックスがあります。全ての推論はデバイス内で行われるため、インターネットは不要であり、プロンプト、画像、および機密データの100 %オンデバイスプライバシーを確保します。プロジェクトはオープンソース(GitHub: https://github.com/google-ai-edge/gallery)で、スキルや機能のコミュニティ貢献を歓迎しています。 この要約はすべての主要ポイントを網羅し、推測的表現を避けつつ主旨を明確かつ簡潔に提示しています。

2026/04/04 18:20

**LÖVE:Lua用 2D ゲームフレームワーク**

## Japanese Translation: > **概要:** > LÖVEは、Windows、macOS、Linux、Android、およびiOS上でLuaを使用して2Dゲームを構築するための無料かつオープンソースのフレームワークです。プロジェクトはGitHubに安定リリースを公開し、CI経由でnightly/unstableビルド(Ubuntu PPA `ppa:bartbes/love-unstable` および Arch AUR パッケージ `love-git` を含む)も提供しています。すべてのバイナリは、LÖVE APIを網羅する完全なテストスイート(`testing/`)とともに配布されます。各プラットフォーム用の詳細なビルド手順が用意されており、LinuxではCMake、macOS/iOSではXcode、Androidには専用リポジトリがあります。また `love‑experiments` リポジトリは実験的変更を保持しています。ドキュメントはプロジェクトのWikiにあり、コミュニティサポートはフォーラム、Discord、subreddit、およびWikiから提供されます。貢献はプルリクエストで受け付けられますが、LLMや生成AIによって生成されたコードは品質維持のため拒否されます。主な依存関係にはSDL3、OpenGL 3.3+ / OpenGL ES 3.0+、Vulkan/Metal、OpenAL、Lua/LuaJIT/LLVM‑lua、FreeType、harfbuzz、ModPlug、Vorbisfile、およびTheoraが含まれます。

2026/04/06 7:31

日本では、ロボットはあなたの仕事を奪うものではなく、誰も取りたがらない職務を担ってくれます。

## Japanese Translation: --- ## 要約 日本経済産業省は、総理大臣高市早苗氏の支援を受けて、2040年までに世界市場の **30 %** を占める国内物理‑AIセクター構築計画を発表し、約 **63億ドル** の資金を投入します。このイニシアチブは深刻な労働力不足が主因であり、日本の就業年齢人口は **59.6 %** に減少しており、今後20年間で約 **1500万人** へと縮小すると予測され、将来の労働供給に脅威を与えています。 日本の製造業者はすでに **70 %(2022年)** の産業用ロボット市場を支配しており、強固な基盤があります。政府の戦略は実験的試作から、**稼働時間、人間介入率、生産性への影響** で測定される有料顧客導入へとシフトします。 このハイブリッドエコシステムを示す主要プレーヤーは次の通りです: - **Mujin**:既存の産業用ロボットを自律的なピッキング・物流プラットフォームに変えるロボティクス制御ソフトウェア。 - **WHILL**:東京とサンフランシスコで創業されたスタートアップ。電動車両、搭載センサー、ナビゲーションシステム、クラウドベースのフリート管理を組み合わせた短距離自律輸送。 - **SoftBank**:視覚と言語モデルとリアルタイム制御を結合し、環境を認識して複雑なタスクを自律的に実行できるロボットを産業現場で可能にする。 - **Terra Drone**:運用データ+AI を活用し、自律防衛システムの信頼性向上を図る。 日本の優位性は、高精度部品(アクチュエーター、センサー、モーションコントロール)にあり、物理システムと AI の統合に対して戦略的な堀を形成しています。投資は純粋なハードウェアではなく、オーケストレーションソフトウェア、デジタルツイン、シミュレーションツール、統合プラットフォームへと徐々に向けられています。 結果として生まれるハイブリッドモデルは、大手企業がスケールと信頼性を提供し、スタートアップがソフトウェア革新を推進する構造であり、製造業・物流・自律輸送・防衛部門を再形成する可能性があります。これにより、ハードウェアの卓越性と高度な AI オーケストレーションを融合したバランスの取れたエコシステムが実現します。