Unsloth Studio(ユンサロウ・スタジオ)

2026/03/18 0:26

Unsloth Studio(ユンサロウ・スタジオ)

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

Unsloth Studio(ベータ)は、Windows、macOS、Linux、またはWSL上で誰でもAIモデルを直接自分のコンピュータ上でトレーニング・実行・エクスポートできる無料のオープンソース・ノーコードWebインターフェイスです。GGUFやsafetensorsなどの人気モデル形式に対応し、CPUまたはGPUハードウェアを使用できます。70 %少ないVRAMで精度を損なうことなく、500 + のモデルを2倍速くトレーニングできると約束しています。このプラットフォームにはPDF、CSV、JSON、およびYAMLファイルから合成データセットを自動的に作成するData Recipesが含まれ、損失曲線、勾配、およびGPU使用率のリアルタイムモニタリングも提供します。llama.cpp をベースに構築され、vLLM、Ollama、LM Studio などのツールと互換性があります。現在は基本的なハードウェア統計以外のテレメトリーを収集していません。将来のアップデートではマルチGPUサポート、Apple MLX、AMD、およびIntel の互換性が追加され、大規模言語モデル以外のモデルカバレッジも拡大します。リソース要件を低減し、データをオンプレミスに保つことで、Unsloth Studio はクラウドコストを削減し、研究者や企業のプロトタイピングを迅速化できると同時に、Apache 2.0 と AGPL‑3.0 の許諾形態でコミュニティ貢献を促進します。

Summary Skeleton

What the text is mainly trying to say (main message)
Unsloth Studio(ベータ)は、Windows、macOS、Linux、およびWSL上でローカルにAIモデルをトレーニング・実行・エクスポートできる単一のオープンソースノーコードWeb UI を提供します。

Evidence / reasoning (why this is said)
GGUF、safetensors など複数のモデル形式をサポートし、CPUまたはGPUで動作し、70 % 少ない VRAM で 500 + のモデルを 2 倍速くトレーニングできると主張しています。Data Recipes は PDF、CSV、JSON、および YAML から合成データセットを生成し、リアルタイムで損失、勾配、および GPU 使用率を監視します。

Related cases / background (context, past events, surrounding info)
ツールは llama.cpp をベースに構築され、vLLM、Ollama、LM Studio などのフレームワークと統合され、現在は最小限のハードウェアデータのみを収集しテレメトリーを行っていません。ライセンスはコアが Apache 2.0、オプション UI コンポーネントが AGPL‑3.0 であり、オープンソースの成長を促進します。

What may happen next (future developments / projections written in the text)
今後のアップグレードでは自動マルチ GPU サポート、Apple MLX、AMD、および Intel の互換性が追加される予定です。計画されたリリースは、大規模言語モデル以外のモデルファミリーを拡大することを目指しています。

What impacts this could have (users / companies / industry)
ユーザーは多様な AI モデルをローカルで低いリソース要件でトレーニングでき、クラウドコストを削減できます。企業は高速プロトタイピングとデプロイメントのためにプラットフォームを採用し、データプライバシーを維持しながらオープンソースのライセンスが広範なコミュニティ貢献を促進します。

本文

Unsloth Studio(ベータ)
オープンソースでノーコードの Web UI。統合されたローカルインターフェイス上で、モデルのトレーニング・実行・エクスポートを一括して行えます。


速やかな始め方

  1. クローンとインストール
    git clone https://github.com/unslothai/unsloth.git
    cd unsloth
    pip install -e .
    
  2. Studio のセットアップ
    unsloth studio setup
    unsloth studio -H 0.0.0.0 -p 8888
    
  3. Docker(任意)
    docker run -d \
      -e JUPYTER_PASSWORD="mypassword" \
      -p 8888:8888 -p 8000:8000 -p 2222:22 \
      -v $(pwd)/work:/workspace/work \
      --gpus all \
      unsloth/unsloth
    

主な機能

  • ローカルでのモデル実行 – Mac、Windows、Linux 上でノーコード推論。CPU ではチャットのみ、NVIDIA GPU でフルトレーニングが可能。
  • ノーコードでのトレーニング – 500 件以上のモデルを 2 倍速かつ VRAM を 70 % 低減してファインチューニングできます。
  • データレシピ – PDF、CSV、JSON をグラフ・ノードワークフローで変換し、利用可能なデータセットにします。
  • 可観測性 – ロス、勾配ノルム、GPU 使用率をリアルタイムで追跡。どのデバイスからも進捗確認ができます。
  • モデルのエクスポート/保存
    safetensors
    GGUF
    へエクスポートし、llama.cpp、vLLM、Ollama、LM Studio 等で利用可能です。
  • Model Arena – 2 つのモデルを横並びでチャット・比較できます。

対応プラットフォームとハードウェア

プラットフォーム推論トレーニング
Windows / Linux / WSL✔️(CPU ではチャットのみ)✔️ NVIDIA GPU(RTX 30/40/50、Blackwell、DGX Spark/Station)
macOS✔️(CPU ではチャットのみ)⚠️(MLX によるトレーニングを近日公開予定)
Apple Silicon (MLX)、AMD、Intel今後対応予定

ライセンス

  • Unsloth コア:Apache 2.0
  • Unsloth Studio UI:AGPL‑3.0

二重ライセンスによりオープンソース開発を継続しつつ、エコシステムの活性化を図ります。


プライバシーとデータ収集

  • 使い方のテレメトリは一切取得しません。
  • 必要なハードウェア情報(GPU 型式、デバイス)は互換性確認のみです。
  • 完全にオフラインでローカルに実行されます。

よくある質問

質問回答
Unsloth はデータを収集しますか?いいえ – 必要最低限のハードウェア情報のみ取得します。
AGPL‑3.0 ですか?Studio UI のみ AGPL‑3.0、コアは Apache 2.0 です。
自分の設定を使えますか?はい – YAML ファイルをインポートすると UI が設定をプリセットします。
モデルをトレーニングする必要がありますか?必要ありません – GGUF やその他のモデルを直接ダウンロードして使用できます。

動画とチュートリアル


NVIDIA、Hugging Face、llama.cpp、PyTorch、そしてオープンモデルラボの皆様に感謝します。楽しいトレーニングを!

同じ日のほかのニュース

一覧に戻る →

2026/03/18 3:59

**スラグの十年**

## 日本語訳 --- ## 要約 Slug アルゴリズムのライブラリは十周年を迎え、パブリックドメインに移行しました。これにより開発者はライセンス費用から解放され、強力な GPU‑direct テキストレンダリングが提供されます。2016 年秋に開発され、2017 年中頃に *JCGT* に論文が掲載され、その直後に Slug ライブラリのバージョン 1.0 が公開されました。 **主要な技術的進歩** - **ダイナミック拡張(Dynamic Dilation)**:MVP 行列とビューポート寸法を用いて頂点シェーダで半ピクセル外側に自動拡張を計算します(式 \(d = \frac{s^3t + s^2\sqrt{u^2+v^2}}{u^2+v^2-s^2t^2}\))。これにより不要なパディングが排除され、エッジは鮮明に保たれます。 - **バンド分割最適化の削除**:ピクセルシェーダを簡素化し、バンドデータサイズを 4 つの 16‑bit コンポーネントから 2 に半減します。 - **アダプティブスーパーサンプリングの廃止**:ダイナミック拡張がエイリアシングを処理するため、追加コードはほぼ読み取り可能な文字だけに効果がありました。 - **絵文字レンダリングの簡素化**:レイヤーごとのループから独立したグリフレイヤリングへ切り替え、頂点数オーバーヘッドを削減しました。 これらの変更は、2016 年代のコンソールでの頑健性と高速化、高品質なアンチエイリアス出力(任意のスケールやパースペクティブ)を実現し、新しい GPU への保守性も向上させることを目的としていました。 **業界採用** Slug は C4 Engine のテキストエンジン、後に Radical Pie 方程式エディタで活用されました。Activision、Blizzard、id Software、2K Games、Ubisoft、Warner Brothers、Insomniac、Zenimax などの主要ゲームスタジオや、Adobe などの非ゲーム企業もライブラリを使用しています。 **パブリックドメイン状態** 特許 #10 373 352(2019 年に付与)は 2026 年 3 月 17 日からパブリックドメインへ譲渡されました。USPTO に Form SB/43 が提出され、料金が支払われたため、すべてのコードが自由に利用可能です。参照用頂点シェーダとピクセルシェーダは GitHub 上で MIT ライセンスされています。 **影響** 開発者は Slug の GPU‑direct レンダリングとダイナミック拡張を、ゲーム、アプリケーション、あるいは任意のグラフィックスソフトウェアにライセンス料なしで統合できます。簡素化されたシェーダは開発時間とリソース消費を削減し、パブリックドメイン公開によりコミュニティによる貢献が促進され、技術のさらなる洗練が期待されます。 ---

2026/03/18 5:23

**仕事を成し遂げる:メタプロンプティング・コンテキストエンジニアリング・スペック駆動型開発システム**

## 日本語訳: **GSD(“Get Shit Done”)** は、Claude Code、OpenCode、Gemini CLI、Codex、Copilot、および Antigravity など複数の AI コーディングランタイムを統合する軽量メタプロンプトフレームワークであり、コンテキストロット(文脈劣化)を緩和し、信頼性の高いコード生成を実現します。 インストールは `npx get-shit-done-cc@latest` で行い、ランタイムごとにグローバルまたはローカル設定(例:`--claude --global`、`--opencode --local` 等)を選択します。 コアワークフローは一連のコマンドによって駆動されます: - `/gsd:new-project` (プロジェクトスケルトン作成) - `/gsd:discuss-phase`、`/gsd:plan‑phase`、`/gsd:execute‑phase`、`/gsd:verify‑work`、`/gsd:complete‑milestone`、`/gsd:new‑milestone` - `/gsd:quick`(アドホックタスク)でオプションフラグ `--discuss`、`--research`、`--full` を付与可能。 各フェーズは構造化ファイル(`PROJECT.md`、`REQUIREMENTS.md`、`ROADMAP.md`、`STATE.md`)と XML 形式の計画を生成し、Git に対してアトミックにコミットします。コミットは `feat(08‑02): add email confirmation flow` のようなパターンに従い、正確な bisect と明瞭な履歴が保証されます。 GSD は研究者・計画者・実行者・検証者という 4 人のエージェントを調整し、メインコンテキストウィンドウ(≈30–40 %)を新鮮に保ちつつ数千行のコードを生成します。 設定は `.planning/config.json` に格納され、ユーザーは `mode`、`granularity`、`workflow.research`、`git.branching_strategy` およびモデルプロファイル(`quality`、`balanced`、`budget`)を指定できます。また、`.env` やシークレット・キー等の機密ファイルを保護する deny リストも用意されています。 本プロジェクトは MIT ライセンスで公開されており、OpenCode、Gemini CLI、および Codex 用のコミュニティポートが存在します。Amazon、Google、Shopify、Webflow のエンジニアに信頼されており、最小限の “ロールプレイ” オーバーヘッドを重視しています―数個のシンプルなコマンドで複雑なワークフロー管理を抽象化します。 今後のアップデートではエージェントオーケストレーションの拡張、クイックモードフラグの洗練、および設定オプションの強化を目指しています。ワークフローを簡素化しツールング・オーバーヘッドを削減することで、GSD は個人開発者および企業にとって開発サイクルの高速化とコード品質の向上を実現できます。

2026/03/18 3:37

Python 3.15 のJIT(Just‑In‑Timeコンパイラ)が再び順調に進んでいます。

## Japanese Translation: (すべての主要ポイントを取り入れています):** CPython 3.15/3.16 JIT プロジェクトは、初期段階でパフォーマンスマイルストーンを達成しました。macOS AArch64 上では、JIT が tail‑calling インタプリタより約11〜12 %高速であり、x86_64 Linux では標準インタプリタを約5〜6 %上回っています。また、パフォーマンステストは幅広い結果を示しています。`unpack_sequence` マイクロベンチマークを除けば、約20 %の遅延から100 %以上の速度向上まであります。 主な技術的進歩には次が含まれます: - **トレース記録**:単一の「tracing」命令とデュアルディスパッチテーブルを使用し、インタプリタの肥大化を削減。Linux 上では約6 %遅延から約1〜2 %高速に改善しました。 - **参照カウントの除去**:分岐除去最適化で、命令ごとのオーバーヘッドを削減し、貢献者にとって有益な学習機会を提供します。 JIT チームは 2025 年に主要スポンサーを失いましたが、コミュニティの監督によって努力が継続しています。コア貢献者には Savannah Ostrowski、Mark Shannon、Diego Russo、Brandt Bucher、Hai Zhu、Zheaoli、Tomas Roun、Reiden Ong、および Donghee Na が含まれます。中間レベルの貢献者数は 2 人から 4 人に増加しました。 Savannah の 4 台のマシンで毎日 JIT を実行し、パフォーマンスフィードバックを提供し、回帰を検出し、新しい最適化を検証します。スプリント計画(Cambridge コア スプリント)は、CPython 3.15 で 5 %高速な JIT、3.16 では 10 %、フリースレッディングサポートの追加、および JIT の各段階で活躍するメンテナーを 2 人ずつ確保することを目指しています。 これらの進歩により CPython は競争力を維持し、より広いコミュニティ参加を促進し、フリースレッディングなど将来の機能への土台を築いています。

Unsloth Studio(ユンサロウ・スタジオ) | そっか~ニュース