
2025/12/12 2:20
Show HN: Sim – Apache-2.0 n8n alternative
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
Sim – Visual AI‑Agent Workflow Builder
Sim は、ユーザーがエージェント、ツール、および再利用可能なブロックを接続してAIエージェントのワークフローを視覚的に設計できる直感的なキャンバスを提供します。このプラットフォームはフローを即座に実行し、Copilot を統合してノードを自然言語コマンドで自動生成または修正できます。
ドキュメントはベクトルストア(
pgvector 拡張付き PostgreSQL データベース)へアップロードされ、エージェントの回答が提供されたコンテンツに基づいて行われます。
デプロイオプション
- クラウドホスティング: https://sim.ai
- ローカルセルフホスト:
- リポジトリをクローン (
)git clone https://github.com/simstudioai/sim.git - Docker Compose を本番用ファイルで起動:
docker compose -f docker-compose.prod.yml up -d - GPU/CPU モデルの場合は Ollama コンポーズファイル
を使用し、コンテナ内でモデルをプル(例:docker-compose.ollama.yml
)ollama pull llama3.1:8b - Sim が Docker 上で実行され、Ollama がホスト上で動作する場合は
を設定(Linux の場合はOLLAMA_URL=http://host.docker.internal:11434
を追加)extra_hosts: ["host.docker.internal:host-gateway"] - vLLM は環境変数
およびオプションでVLLM_BASE_URL
を使用し、ホスト上で動作する場合は再度VLLM_API_KEY
を指すように設定host.docker.internal
- リポジトリをクローン (
開発ツール
- VS Code Remote Containers または手動 Bun セットアップ
- 埋め込み用には PostgreSQL 12+ と pgvector 拡張が必要
主要環境変数(必須):
DATABASE_URL, BETTER_AUTH_SECRET, BETTER_AUTH_URL, NEXT_PUBLIC_APP_URL, ENCRYPTION_KEY。オプション:
OLLAMA_URL, VLLM_BASE_URL, COPILOT_API_KEY.
トラブルシューティングメモ
モデルの可視性問題、データベース接続エラー(pgvector が有効か確認)、ポート競合などをカバー。カスタムポートは環境変数で設定可能。
テックスタック – Next.js + Bun ランタイム, PostgreSQL + Drizzle ORM, Better Auth, Shadcn/Tailwind UI, Zustand ステート管理, ReactFlow エディタ, Fumadocs, Turborepo モノレポ, Socket.io, Trigger.dev ジョブ, E2B リモートコード実行。
視覚的ワークフローデザイナーと柔軟なローカルまたはクラウドデプロイを組み合わせることで、Sim は開発者がユーザー提供のドキュメントに緊密に結合された AI エージェントを迅速にプロトタイピングし実行できるようにします。
本文
数分でAIエージェントワークフローを構築・デプロイ
ワークフローを簡単に作成
キャンバス上でエージェント、ツール、ブロックを視覚的に接続し、即座に実行します。
Copilotでさらに強化
Copilot を使ってノード生成・エラー修正・自然言語からのフロー改善が可能です。
ベクトルデータベース統合
ドキュメントをベクトルストアへアップロードし、特定コンテンツに基づく質問応答を実現します。
クイックスタート
| デプロイ方法 | 手順 |
|---|---|
| クラウドホステッド | |
| セルフホステッド | NPM パッケージ – http://localhost:3000 |
備考: Docker がインストールされ、起動している必要があります。
セルフホステッドオプション
| フラグ | 説明 |
|---|---|
| Sim を実行するポート(デフォルト 3000) |
| 最新 Docker イメージの取得をスキップ |
セルフホステッド: Docker Compose
# リポジトリをクローン git clone https://github.com/simstudioai/sim.git cd sim # Sim を起動 docker compose -f docker-compose.prod.yml up -d
アプリにアクセス: http://localhost:3000/
Ollama でローカルモデル使用
外部 API が不要なローカル AI モデルを実行:
# GPU 対応(gemma3:4b を自動ダウンロード) docker compose -f docker-compose.ollama.yml --profile setup up -d # CPU だけの環境: docker compose -f docker-compose.ollama.yml --profile cpu --profile setup up -d
モデルがダウンロードされるまで待ち、http://localhost:3000 にアクセス。
さらにモデルを追加:
docker compose -f docker-compose.ollama.yml exec ollama ollama pull llama3.1:8b
外部 Ollama インスタンス使用
ホスト上で Docker 以外に Ollama が稼働している場合、
OLLAMA_URL を host.docker.internal に設定します。
# Docker Desktop (macOS/Windows) OLLAMA_URL=http://host.docker.internal:11434 docker compose -f docker-compose.prod.yml up -d # Linux(extra_hosts かホスト IP を使用) docker compose -f docker-compose.prod.yml up -d # その後 OLLAMA_URL をホストの IP に設定
理由: Docker 内では
はコンテナ自身を指すため、localhostがホストへ解決します。host.docker.internal
Linux ユーザー向け
- ホストマシンの実際の IP アドレス(例:
)を使用http://192.168.1.100:11434 - あるいは compose ファイル内の
サービスにsimstudio
を追加extra_hosts: ["host.docker.internal:host-gateway"]
vLLM の利用
Sim は OpenAI 互換 API を備えた vLLM もサポートします。
# 環境変数を設定 VLLM_BASE_URL=http://your-vllm-server:8000 VLLM_API_KEY=your_optional_api_key # vLLM が認証を要求する場合のみ
Docker で実行する際は、vLLM がホスト上にあるなら
host.docker.internal を使用(Ollama と同様)。
セルフホステッド: Dev コンテナ
- Remote – Containers 拡張機能を使って VS Code を開く。
- プロジェクトを開き、プロンプトが表示されたら Reopen in Container をクリック。
- ターミナルで
を実行(またはbun run dev:full
エイリアス)。sim-start
これによりメインアプリとリアルタイムソケットサーバーの両方が起動します。
セルフホステッド: 手動セットアップ
必要条件
- Bun ランタイム
- PostgreSQL 12+(pgvector 拡張必須)
Sim は AI 機能(ナレッジベース、セマンティック検索等)のためにベクトル埋め込みを使用するため、pgvector が必要です。
クローン & 依存関係インストール
git clone https://github.com/simstudioai/sim.git cd sim bun install
PostgreSQL と pgvector の設定
オプション A: Docker(推奨)
docker run --name simstudio-db \ -e POSTGRES_PASSWORD=your_password \ -e POSTGRES_DB=simstudio \ -p 5432:5432 -d \ pgvector/pgvector:pg17
オプション B: 手動インストール
PostgreSQL 12+ と pgvector 拡張をインストール(pgvector インストールガイド を参照)。
環境変数設定
cd apps/sim cp .env.example .env # 必要な項目を編集
DATABASE_URL を更新:
DATABASE_URL="postgresql://postgres:your_password@localhost:5432/simstudio"
データベースセットアップ
# database パッケージの環境設定 cd packages/db cp .env.example .env
packages/db/.env も同様に DATABASE_URL を更新。
マイグレーション実行:
bunx drizzle-kit migrate --config=./drizzle.config.ts
開発サーバー起動
推奨(両方を同時に起動)
プロジェクトルートから:
# Next.js アプリとリアルタイムソケットサーバーの両方を起動 bun run dev:full
別ターミナルで実行する場合
-
Next.js アプリ(プロジェクトルート):
bun run dev -
リアルタイムソケットサーバー (
内):apps/simcd apps/sim bun run dev:sockets
Copilot API キー
Copilot は Sim が管理するサービスです。セルフホステッドで利用するには:
- https://sim.ai → 設定 → Copilot に移動しキーを生成。
をCOPILOT_API_KEY
に設定。apps/sim/.env
環境変数
| 変数 | 必須 | 説明 |
|---|---|---|
| はい | pgvector が有効な PostgreSQL 接続文字列 |
| はい | 認証シークレット(例: ) |
| はい | アプリ URL(例: ) |
| はい | 公開アプリ URL(上記と同一) |
| はい | 暗号化キー(例: ) |
| いいえ | Ollama サーバー URL(デフォルト: ) |
| いいえ | vLLM サーバー URL(セルフホステッドモデル用) |
| いいえ | sim.ai から取得した Copilot API キー |
トラブルシューティング
-
Ollama モデルがドロップダウンに表示されない (Docker)
ホストで Ollama を実行し、Sim が Docker 内で動作している場合は
をOLLAMA_URL
に設定。上記「外部 Ollama インスタンス使用」を参照。host.docker.internal -
データベース接続エラー
PostgreSQL に pgvector 拡張がインストールされているか確認。Docker 使用時は、マイグレーション前に DB がヘルシーになるまで待つ。 -
ポート競合
ポート 3000, 3002, 5432 が既に使用中の場合は代替設定:NEXT_PUBLIC_APP_URL=http://localhost:3100 POSTGRES_PORT=5433 docker compose up -d
技術スタック
- フレームワーク:Next.js(App Router)
- ランタイム:Bun
- データベース:PostgreSQL + Drizzle ORM
- 認証:Better Auth
- UI:Shadcn, Tailwind CSS
- 状態管理:Zustand
- フローエディタ:ReactFlow
- ドキュメント:Fumadocs
- モノレポ:Turborepo
- リアルタイム:Socket.io
- バックグラウンドジョブ:Trigger.dev
- リモートコード実行:E2B
コントリビューション
ご協力いただける方を歓迎します!詳細は Contributing Guide をご覧ください。
ライセンス
本プロジェクトは Apache License 2.0 の下でライセンスされています。
LICENSE ファイルを参照してください。
Sim チームより ❤️ 送信。