
2026/02/13 4:15
**Show HN:** *Moltis – メモリ・ツール、自己拡張スキルを備えたAIアシスタント*
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
Moltis は、クラウドまたはローカルの Mac、VM、専用ホストに 1 分以内でデプロイできる軽量なパーソナル AI アシスタントです。
単一の自己完結型バイナリとして配布され、実行時にランタイム依存関係を持たず、自動的にローカル言語モデルをダウンロードして構成します。
インターフェースはデフォルトで安全な HTTPS を使用し、パスワード、トークン、および WebAuthn パスキー認証をサポートしています。ブラウザセッションは隔離された Docker コンテナ内で実行され、LLM フェッチからループバック、プライベート、リンクローカル IP をブロックします。
Moltis は最初のトークン出力を即座に返し、長時間実行中もスムーズな返信を提供します。また、豊富なプラグインとフックシステム、MCP ツールサーバー(stdio または HTTP/SSE)自動再起動機能、および Pi に触発されたランタイムでスキルを即時に作成し、セッション分岐とホットリロードをサポートします。
完全なファイルシステムまたはセッションごとの Docker/Apple コンテナ隔離を提供し、GGUF 埋め込み、埋め込みキャッシュ、ファイル監視/ライブ同期、およびセッションエクスポートに支えられたハイブリッドベクトル+全文検索によるコンテキストメモリを使用します。
複数のフロントエンドが利用可能です:Web UI、Telegram ボット、JSON‑RPC API、モバイル PWA で、複数のクラウド/ローカル TTS/STT プロバイダーに対応しています。
セキュリティはパスキー(WebAuthn)、範囲付き API キー、破棄時にゼロ化されるシークレット、人間による承認、オリジン検証(CSWSH)および厳格な「危険コード禁止」ポリシーで強化されています。
LLM プロバイダーのサポートには複数のクラウドプロバイダー、OpenAI Codex、GitHub Copilot、ローカルオフライン LLM、フォールバックチェーン、およびプロバイダーごとのメトリクスが含まれます。追加プロバイダーも近日中に参加予定です。
拡張性と可観測性の機能には MCP サーバーサポート、フックシステム、cron ジョブスケジューリング、環境上書き付き TOML 設定、動的ポート割り当て、Prometheus メトリクス、OpenTelemetry トレーシング、構造化ログ、プロバイダーごとのチャート、SQLite 永続化、およびリアルタイム WebSocket 更新が含まれます。
この改訂要約は、リストからすべての主要ポイントを反映しつつ、主旨を明確に保ち、不必要な推測を排除しています。
本文
あなたのパーソナルAIアシスタント
ドキュメント
- GitHubで閲覧
作者からのお知らせ
クラウド上で試す
- 1分以内に準備完了
- Molti(モリティ)を体験するにはクラウドが最適です。フル機能をご利用になる場合は、Mac、VM、または専用ホスト上で実行してください。
- DigitalOceanへのデプロイ
- 設定の詳細が必要ですか? Cloud Deploy のドキュメントを参照してください。
主な特徴
シングルバイナリ
- ランタイム依存はなく、ダウンロードして実行するだけ。
ローカルで自分のモデルを走らせる
- 自動ダウンロードとセットアップが組み込まれています。
HTTPS がデフォルト
- パスワード・トークン・パスキーアクセスに対応。
ブラウザセッションは隔離された Docker コンテナ内で実行
- より安全な自動化。
LLM 取得時にループバック、プライベート、リンクローカル IP をブロック
最初のトークンを高速に返す
- 長時間走らせてもスムーズに応答します。
プラグイン・フック・MCP ツールサーバー
- Stdio または HTTP/SSE、オートリスタート機能付き。
完全なファイルシステムまたはセッションごとの Docker/Apple Container 隔離
ハイブリッドベクトル+全文検索
- エージェントがコンテキストを覚えます。
Pi‑インスパイアされた自己拡張
- 実行時に自分自身のスキルを作成。
- セッションブランチング、ホットリロード対応。
Web UI、Telegram、または API
- 1つのエージェントで複数フロントエンドを提供。
複数クラウド・ローカル TTS/STT プロバイダーと対話可能
その他多数…
セキュリティ
- パスキー(WebAuthn)
- スコープ付き API キー
- 秘密情報は使用後にゼロ化
- 人間の介在による承認
- オリジン検証(CSWSH)
- 非安全コードなし
LLM プロバイダー
- 複数クラウドプロバイダー対応
- OpenAI Codex
- GitHub Copilot
- ローカル LLM(オフライン)
- プロバイダーフォールバックチェーン
- プロバイダーごとのメトリクス
(今後さらに追加予定)
メモリ
- ハイブリッド検索(ベクトル+全文検索)
- ローカル埋め込み(GGUF)
- OpenAI バッチ API(50%オフ)
- 埋め込みキャッシュ
- ファイルウォッチ / ライブ同期
- セッションエクスポート
拡張性
- MCP サーバーサポート
- フックシステム(ライフサイクル)
- Cron ジョブスケジューリング
- TOML 設定
- 環境変数オーバーライド
- 動的ポート割り当て
チャンネル
- Web UI
- Telegram ボット
- JSON‑RPC API
- モバイル PWA
- プッシュ通知
- マルチデバイス同期
観測性
- Prometheus メトリクス
- OpenTelemetry トレーシング
- 構造化ログ
- プロバイダー別チャート
- SQLite 永続化
- リアルタイム WebSocket
Ferris が脱皮しました。シェルが開きました。
これでクローがすべてのチャンネルで話し、何でも覚え、そして localhost を所有します。
ローカル AI アシスタントはまだ初期段階のソフトウェアです。Moltis はアルファ版として扱い、安全に実行してください。ツール権限を確認し、本当に必要な範囲外で広範なシステムアクセスを与えないよう注意しましょう。
ライセンス: MIT
- GitHub
- Discord
Fabien Penso が愛情込めて構築しました ❤️