
2026/01/27 0:01
**OSS ChatGPT WebUI の概要** - **モデル数:** 530種利用可能 - **主な機能:** - MCP(マルチコマンド処理) - ツール統合 - Gemini RAG(検索拡張生成) - 画像生成 - 音声生成
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
最新のLLMSリリースは、拡張性、モデルアクセス、およびユーザー向けツールに対する包括的な改修を実現します。
拡張性 – 新しいプラグインベースアーキテクチャ(
llms/extensions + ~/.llms/extensions)が旧来のモノリシック設計を置き換え、開発者は機能を簡単に追加または差し替えることができます。モデルカタログ – 公開されている
models.dev カタログと統合し、24社(OpenAI、Anthropic、Google Gemini、Nvidia など)から530+のモデルを取得し、それらの設定を llms.json にマージします。UI の拡張 – モデルセレクターはスマート検索、モダリティ別高度フィルタリング、並び替え、お気に入り、および豊富なモデルカードを提供します。Gemini RAG Extension はファイルストア管理を実装し、ドラッグ&ドロップアップロードと背景インデックス作成で Retrieval Augmented Generation ワークフローをサポートします。
Python 関数呼び出し – ツールは
ctx.register_tool(暗黙または明示的な JSON スキーマ)経由で登録でき、セッションごとのツールセレクター UI で有効/無効を切り替えられます。MCP サポート – fast_mcp 拡張が Model Context Protocol を追加し、Anthropic の Git MCP Server や Gemini の画像/音声生成など外部 MCP サーバーからのツールの動的検出・実行を可能にします。
コア拡張 –
core_tools(メモリ、ファイルシステム、数式、Python/JS/TS/C# でのコード実行)とデスクトップ自動化用 computer_use が専用 UI(計算機、コード実行)と共にバンドルされています。メディアハンドリング – Google、OpenAI、OpenRouter、Chutes、Z.ai、Nvidia で画像生成をサポートし、音声 TTS は現在 Gemini の Flash/Pro Preview に限定されます。生成されたメディアは
~/.llms/cache 内に SHA‑256 ファイル名でキャッシュされ、SQLite を通じて参照します。メディアギャラリー拡張はローカル SQLite DB(~/.llms/user/default/gallery/gallery.sqlite)にすべての生成ファイルを自動インデックスし、ライトボックスプレビュー付きで高速閲覧を実現します。システムプロンプト – 置換可能な
system_prompts 拡張は200以上のキュレート済みプロンプトを提供し、ユーザー固有のライブラリは ~/.llms/user/<github-user>/system-prompts.json に保存されます。永続化 – クライアント側 IndexedDB からサーバー側 SQLite(
~/.llms/user/app/app.sqlite)へ移行し、マルチデバイスアクセスを可能にします。また単一背景スレッドで同時書き込みが行われ、認証有効時には自動的にデータ分離が実現されます。CLI – すべての機能はコマンドライン(
llms -m <model> --out image "<prompt>"、llms --serve 8000 等)からアクセスできるようになり、自動化とリモート操作が簡便になります。本文
主要リリース概要
- フォーカス:拡張性、プロバイダーサポートの拡充、ユーザー体験の向上
統合により 24 のプロバイダーから 530 + モデルを利用可能models.dev
主な機能
| 機能 | 説明 |
|---|---|
| モデルセレクター | 検索・フィルタリング・ソート・お気に入り機能付きのフルパワー対話ダイアログ。 |
| 拡張機能 | プラグインアーキテクチャで機能、プロバイダー、UI を自由に追加可能。 |
| Gemini RAG | ファイル検索ストレージ、ドキュメントアップロード・同期、RAG ワークフローを実装。 |
| ツールサポート | Python 関数呼び出し、MCP サポート、デスクトップ自動化(コンピュータ使用)。 |
| KaTeX 数式描画 | LaTeX で美しい数式をレンダリング。 |
| 計算機 UI | Python の数式評価に優れたユーザーインターフェース。 |
| コード実行 UI | CodeMirror エディタで Python、JS、TS、C# を実行。 |
| 画像生成 | Google、OpenAI、OpenRouter、Chutes、Nvidia などを組み込みサポート。 |
| 音声生成(TTS) | Gemini 2.5 Flash/Pro Preview モデルで対応。 |
| メディアギャラリー | 生成された画像・音声をライトボックスプレビューで閲覧。 |
| サーバー側 SQLite ストレージ | 高速永続化、同時利用、バイナリ資産はローカルキャッシュ。 |
| CLI 強化 | クエリ、モデル選択、ツール呼び出し、拡張機能・プロバイダー管理、メディア生成などの強力なコマンドを提供。 |
目次
- 新しいモデルセレクター UI
- 拡張性へのリライト
- 拡張機構
- Gemini RAG 拡張
- ツールサポート
- MCP サポート
- コアツール(コンピュータ使用、計算機、コード実行)
- KaTeX 数式描画
- 画像生成サポート
- 音声生成サポート
- メディアギャラリー
- システムプロンプトライブラリ
- サーバー側 SQLite ストレージ
- 画像キャッシュと最適化
- CLI – 今までで一番強力に
- アップグレード手順
はじめに
# インストールまたはアップグレード pip install llms-py --upgrade # ポート8000 でウェブ UI と API サーバーを起動 llms --serve 8000
ヒント:
を使えばワンショットクエリがすぐに実行できます。llms "What is the capital of France?"
モデルセレクター UI(再設計)
- 検索・発見 – 名前、ID、プロバイダーを即時検索
- フィルタリング – 名称、プロバイダー、入出力モダリティで絞り込み
- ソート – 知識カットオフ、リリース日、最終更新日、コンテキストサイズ順
- お気に入り – スター付きカードで高速アクセス
- モデルカード – 各モデルの詳細概要を表示
拡張性
を再設計し、公開 Client & Server API を提供。llms.py- 拡張はフォルダー単位で UI やサーバー機能をフック(
,__parser__
,__install__
,__load__
)により追加可能。__run__ - 既定拡張は
にあり、カスタム拡張が優先される。~/.llms/extensions - インストール/アンインストール:
# GitHub から利用可能な拡張を一覧表示 llms --add # 拡張をインストール llms --add fast_mcp # アンインストール llms --remove fast_mcp
Gemini RAG 拡張
| 機能 | 説明 |
|---|---|
| ファイルストア管理 | プロジェクト/知識ベースごとに隔離されたストアを作成。 |
| ドラッグ&ドロップアップロード | PDF、テキスト、Markdown など。 |
| スマート分類 | フォルダーで整理。 |
| コンテクスチュアル RAG チャット | ストア全体、特定カテゴリ、単一文書を対象に質問可能。 |
| 双方向同期 | ローカル DB と Gemini File API を調整。 |
ツールサポート
Python 関数呼び出し(ツール)
def get_current_time(tz_name: Optional[str] = None) -> str: """ISO‑8601 形式で現在時刻を取得します。"""
登録:
ctx.register_tool(get_current_time) # 暗黙的に登録 ctx.register_tool(get_current_time, group="my_tools") # 明示的にグループ化
CLI 使用例:
llms "What time is it?" --tools calc,get_current_time
MCP サポート(fast_mcp)
- 任意の MCP 準拠サーバーへ接続。
- ツールを自動検出・登録。
で設定。mcp.json
コアツール
| ツール | 説明 |
|---|---|
| memory_read / memory_write | 永続的キー/バリュー保存。 |
ファイルシステム (, , , ) | カレントディレクトリで安全操作。 |
| calc | Python math ライブラリを使った数式評価。 |
| run_python / run_javascript / run_typescript / run_csharp | サンドボックス環境でコード実行。 |
| computer_use | デスクトップ自動化:マウス、キーボード、スクリーンショット、シェルコマンド。 |
UI 拡張
計算機 UI
- クリーンでレスポンシブなデザイン(ダークモード対応)。
で履歴を永続化。localStorage- キーボードフリーアクセスと完全 Python 数学サポート。
コード実行 UI
- CodeMirror エディタに構文ハイライト&オートコンプリート。
- Python、JS、TS、C# をサポート。
KaTeX 数式描画
- Markdown パーサと自動統合。
- インライン (
) とブロック ($...$
) の両方をレンダリング。$$...$$
メディア生成
| プロバイダー | 対応 |
|---|---|
| ✅ | |
| OpenAI | ✅ |
| OpenRouter | ✅ |
| Chutes | ✅ |
| Z.ai | ✅ |
| Nvidia | ✅ |
CLI 例
# 画像生成 llms --out image "A serene mountain landscape" # 音声(TTS) llms --out audio "Welcome to our podcast"
生成ファイルは
~/.llms/cache に保存されます。
メディアギャラリー
- すべての生成資産をインターセプト。
- SQLite (
) にメタデータを保持。gallery.sqlite - 画像(縦・正方形・横長)と音声専用 UI を提供。
システムプロンプトライブラリ
拡張で 200+ のキュレート済みプロンプトを置き換え可能。system_prompts- カスタムプロンプトは以下に保存:
~/.llms/user/default/system-prompts.json # またはサインインユーザー別: ~/.llms/user/<github-user>/system-prompts.json
サーバー側 SQLite ストレージ
- クライアント側 IndexedDB からサーバー側 SQLite に移行。
- バイナリ資産はローカルキャッシュ、相対 URL のみを DB 保存。
- 書き込みは単一バックグラウンドスレッドで処理し、同時利用に対応。
- マルチテナンシー:認証済みユーザーごとにデータが分離。
CLI – これまでで最も強力
# ワンショットクエリ llms "What is the capital of France?" # モデル選択 llms -m claude-opus-45 "Explain quantum computing" # ツール使用 llms "Read file data.txt" --tools calc,get_current_time llms "No tools" --tools none # 拡張機能 llms --add fast_mcp llms --remove fast_mcp # プロバイダー管理 llms ls # 有効プロバイダー/モデル一覧 llms ls google # Google のモデルを表示 llms --enable google # プロバイダー有効化 llms --disable google # 無効化 llms --update-providers # 定義の更新 # メディア生成 llms --out image "A cat in a hat" llms -m gemini-2.5-flash-image --out image "Logo for a startup" # 音声文字起こし llms -m gpt-4o-audio-preview --audio interview.mp3 "Transcribe this interview" # サーバーモード llms --serve 8000
アップグレード
pip install llms-py --upgrade
llms.py からハッピー・ホリデーを! 🎄