Show HN: Sim – Apache-2.0 n8n alternative

2025/12/12 2:20

Show HN: Sim – Apache-2.0 n8n alternative

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

Sim – Visual AI‑Agent Workflow Builder

Sim は、ユーザーがエージェント、ツール、および再利用可能なブロックを接続してAIエージェントのワークフローを視覚的に設計できる直感的なキャンバスを提供します。このプラットフォームはフローを即座に実行し、Copilot を統合してノードを自然言語コマンドで自動生成または修正できます。

ドキュメントはベクトルストア(

pgvector
拡張付き PostgreSQL データベース)へアップロードされ、エージェントの回答が提供されたコンテンツに基づいて行われます。

デプロイオプション

  • クラウドホスティング: https://sim.ai
  • ローカルセルフホスト:
    • リポジトリをクローン (
      git clone https://github.com/simstudioai/sim.git
      )
    • Docker Compose を本番用ファイルで起動:
      docker compose -f docker-compose.prod.yml up -d
    • GPU/CPU モデルの場合は Ollama コンポーズファイル
      docker-compose.ollama.yml
      を使用し、コンテナ内でモデルをプル(例:
      ollama pull llama3.1:8b
    • Sim が Docker 上で実行され、Ollama がホスト上で動作する場合は
      OLLAMA_URL=http://host.docker.internal:11434
      を設定(Linux の場合は
      extra_hosts: ["host.docker.internal:host-gateway"]
      を追加)
    • vLLM は環境変数
      VLLM_BASE_URL
      およびオプションで
      VLLM_API_KEY
      を使用し、ホスト上で動作する場合は再度
      host.docker.internal
      を指すように設定

開発ツール

  • VS Code Remote Containers または手動 Bun セットアップ
  • 埋め込み用には PostgreSQL 12+ と pgvector 拡張が必要

主要環境変数(必須):

DATABASE_URL
,
BETTER_AUTH_SECRET
,
BETTER_AUTH_URL
,
NEXT_PUBLIC_APP_URL
,
ENCRYPTION_KEY

オプション:
OLLAMA_URL
,
VLLM_BASE_URL
,
COPILOT_API_KEY
.

トラブルシューティングメモ
モデルの可視性問題、データベース接続エラー(pgvector が有効か確認)、ポート競合などをカバー。カスタムポートは環境変数で設定可能。

テックスタック – Next.js + Bun ランタイム, PostgreSQL + Drizzle ORM, Better Auth, Shadcn/Tailwind UI, Zustand ステート管理, ReactFlow エディタ, Fumadocs, Turborepo モノレポ, Socket.io, Trigger.dev ジョブ, E2B リモートコード実行。

視覚的ワークフローデザイナーと柔軟なローカルまたはクラウドデプロイを組み合わせることで、Sim は開発者がユーザー提供のドキュメントに緊密に結合された AI エージェントを迅速にプロトタイピングし実行できるようにします。

本文

数分でAIエージェントワークフローを構築・デプロイ


ワークフローを簡単に作成

キャンバス上でエージェント、ツール、ブロックを視覚的に接続し、即座に実行します。

Copilotでさらに強化

Copilot を使ってノード生成・エラー修正・自然言語からのフロー改善が可能です。

ベクトルデータベース統合

ドキュメントをベクトルストアへアップロードし、特定コンテンツに基づく質問応答を実現します。


クイックスタート

デプロイ方法手順
クラウドホステッド
sim.ai
セルフホステッドNPM パッケージ – http://localhost:3000

備考: Docker がインストールされ、起動している必要があります。

セルフホステッドオプション

フラグ説明
-p, --port <port>
Sim を実行するポート(デフォルト 3000)
--no-pull
最新 Docker イメージの取得をスキップ

セルフホステッド: Docker Compose

# リポジトリをクローン
git clone https://github.com/simstudioai/sim.git
cd sim

# Sim を起動
docker compose -f docker-compose.prod.yml up -d

アプリにアクセス: http://localhost:3000/

Ollama でローカルモデル使用

外部 API が不要なローカル AI モデルを実行:

# GPU 対応(gemma3:4b を自動ダウンロード)
docker compose -f docker-compose.ollama.yml --profile setup up -d

# CPU だけの環境:
docker compose -f docker-compose.ollama.yml --profile cpu --profile setup up -d

モデルがダウンロードされるまで待ち、http://localhost:3000 にアクセス。
さらにモデルを追加:

docker compose -f docker-compose.ollama.yml exec ollama ollama pull llama3.1:8b

外部 Ollama インスタンス使用

ホスト上で Docker 以外に Ollama が稼働している場合、

OLLAMA_URL
host.docker.internal
に設定します。

# Docker Desktop (macOS/Windows)
OLLAMA_URL=http://host.docker.internal:11434 docker compose -f docker-compose.prod.yml up -d

# Linux(extra_hosts かホスト IP を使用)
docker compose -f docker-compose.prod.yml up -d  # その後 OLLAMA_URL をホストの IP に設定

理由: Docker 内では

localhost
はコンテナ自身を指すため、
host.docker.internal
がホストへ解決します。

Linux ユーザー向け

  • ホストマシンの実際の IP アドレス(例:
    http://192.168.1.100:11434
    )を使用
  • あるいは compose ファイル内の
    simstudio
    サービスに
    extra_hosts: ["host.docker.internal:host-gateway"]
    を追加

vLLM の利用

Sim は OpenAI 互換 API を備えた vLLM もサポートします。

# 環境変数を設定
VLLM_BASE_URL=http://your-vllm-server:8000
VLLM_API_KEY=your_optional_api_key  # vLLM が認証を要求する場合のみ

Docker で実行する際は、vLLM がホスト上にあるなら

host.docker.internal
を使用(Ollama と同様)。


セルフホステッド: Dev コンテナ

  1. Remote – Containers 拡張機能を使って VS Code を開く。
  2. プロジェクトを開き、プロンプトが表示されたら Reopen in Container をクリック。
  3. ターミナルで
    bun run dev:full
    を実行(または
    sim-start
    エイリアス)。

これによりメインアプリとリアルタイムソケットサーバーの両方が起動します。


セルフホステッド: 手動セットアップ

必要条件

  • Bun ランタイム
  • PostgreSQL 12+(pgvector 拡張必須)

Sim は AI 機能(ナレッジベース、セマンティック検索等)のためにベクトル埋め込みを使用するため、pgvector が必要です。

クローン & 依存関係インストール

git clone https://github.com/simstudioai/sim.git
cd sim
bun install

PostgreSQL と pgvector の設定

オプション A: Docker(推奨)

docker run --name simstudio-db \
  -e POSTGRES_PASSWORD=your_password \
  -e POSTGRES_DB=simstudio \
  -p 5432:5432 -d \
  pgvector/pgvector:pg17

オプション B: 手動インストール

PostgreSQL 12+ と pgvector 拡張をインストール(pgvector インストールガイド を参照)。

環境変数設定

cd apps/sim
cp .env.example .env  # 必要な項目を編集

DATABASE_URL
を更新:

DATABASE_URL="postgresql://postgres:your_password@localhost:5432/simstudio"

データベースセットアップ

# database パッケージの環境設定
cd packages/db
cp .env.example .env

packages/db/.env
も同様に
DATABASE_URL
を更新。

マイグレーション実行:

bunx drizzle-kit migrate --config=./drizzle.config.ts

開発サーバー起動

推奨(両方を同時に起動)

プロジェクトルートから:

# Next.js アプリとリアルタイムソケットサーバーの両方を起動
bun run dev:full

別ターミナルで実行する場合

  • Next.js アプリ(プロジェクトルート):

    bun run dev
    
  • リアルタイムソケットサーバー (

    apps/sim
    内):

    cd apps/sim
    bun run dev:sockets
    

Copilot API キー

Copilot は Sim が管理するサービスです。セルフホステッドで利用するには:

  1. https://sim.ai設定Copilot に移動しキーを生成。
  2. COPILOT_API_KEY
    apps/sim/.env
    に設定。

環境変数

変数必須説明
DATABASE_URL
はいpgvector が有効な PostgreSQL 接続文字列
BETTER_AUTH_SECRET
はい認証シークレット(例:
openssl rand -hex 32
BETTER_AUTH_URL
はいアプリ URL(例:
http://localhost:3000
NEXT_PUBLIC_APP_URL
はい公開アプリ URL(上記と同一)
ENCRYPTION_KEY
はい暗号化キー(例:
openssl rand -hex 32
OLLAMA_URL
いいえOllama サーバー URL(デフォルト:
http://localhost:11434
VLLM_BASE_URL
いいえvLLM サーバー URL(セルフホステッドモデル用)
COPILOT_API_KEY
いいえsim.ai から取得した Copilot API キー

トラブルシューティング

  • Ollama モデルがドロップダウンに表示されない (Docker)
    ホストで Ollama を実行し、Sim が Docker 内で動作している場合は

    OLLAMA_URL
    host.docker.internal
    に設定。上記「外部 Ollama インスタンス使用」を参照。

  • データベース接続エラー
    PostgreSQL に pgvector 拡張がインストールされているか確認。Docker 使用時は、マイグレーション前に DB がヘルシーになるまで待つ。

  • ポート競合
    ポート 3000, 3002, 5432 が既に使用中の場合は代替設定:

    NEXT_PUBLIC_APP_URL=http://localhost:3100 POSTGRES_PORT=5433 docker compose up -d
    

技術スタック

  • フレームワーク:Next.js(App Router)
  • ランタイム:Bun
  • データベース:PostgreSQL + Drizzle ORM
  • 認証:Better Auth
  • UI:Shadcn, Tailwind CSS
  • 状態管理:Zustand
  • フローエディタ:ReactFlow
  • ドキュメント:Fumadocs
  • モノレポ:Turborepo
  • リアルタイム:Socket.io
  • バックグラウンドジョブ:Trigger.dev
  • リモートコード実行:E2B

コントリビューション

ご協力いただける方を歓迎します!詳細は Contributing Guide をご覧ください。


ライセンス

本プロジェクトは Apache License 2.0 の下でライセンスされています。

LICENSE
ファイルを参照してください。

Sim チームより ❤️ 送信。

同じ日のほかのニュース

一覧に戻る →

2025/12/12 3:04

GPT-5.2

## Japanese Translation: **OpenAIのGPT‑5.2リリース** OpenAIは、プロフェッショナルな知識作業を対象とした3つのバリアント(Instant、Thinking、Pro)を含む新しいモデルシリーズGPT‑5.2を公開しています。 **パフォーマンスハイライト** *スピード & コスト*: GPT‑5.2 Thinkingは、歴史的指標に基づくと、人間専門家のコストの1%未満で、出力速度が11倍以上速いです。 *精度*: GDPval(44職種)では、Thinkingが新しい最先端70.9 %を達成し、業界プロフェッショナルを70.9 %のタスクで上回ります。また、SWE‑Bench Proで55.6 %、SWE‑Bench Verifiedで80 %を達成し、幻覚(hallucinations)を約30 %削減します。 *長文コンテキスト & ビジョン*: モデルはOpenAI MRCRv2(≈100 %精度、256kトークン)で新たな最先端を設定し、チャート推論とソフトウェアインターフェース理解のエラー率を半減します。 *ツール使用*: GPT‑5.2 ThinkingはTau2‑bench Telecomで98.7 %を達成し、遅延感受性ワークフローにおいてGPT‑5.1を上回ります。 *科学ベンチマーク*: ProはGPQA Diamondで93.2 %、FrontierMath(Tier 1–3)で40.3 %成功率、ARC‑AGI‑1で>90 %を達成し、ThinkingはARC‑AGI‑2で54.2 %を記録します。 **ユーザーへの影響** 平均的なChatGPT Enterpriseユーザーは毎日40–60分の節約を報告しており、重度利用者は週に10時間以上削減しています。この効率向上により、特定タスクの人件費が99 %超で削減される可能性があります。 **インプリケーション** GPT‑5.2の広範な機能(スプレッドシート、プレゼンテーション、コード、画像認識、長文コンテキスト推論、ツール使用、複雑な多段階プロジェクト)は、金融・ソフトウェア工学・科学研究などのプロフェッショナルドメインでAI採用を加速させる位置づけです。

2025/12/12 5:46

Denial of service and source code exposure in React Server Components

## Japanese Translation: React は Server Components 機能における 2 つの重大なセキュリティ脆弱性(CVE‑2025‑55184(Denial of Service、CVSS 7.5)と CVE‑2025‑55183(Source Code Exposure、CVSS 5.3))に対するパッチをリリースしました。いずれの脆弱性も Remote Code Execution を可能にしないため、既存の React2Shell パッチは有効なままです。 バグは `react-server-dom-webpack`、`react-server-dom-parcel`、および `react-server-dom-turbopack` のそれぞれ 19.0.0/1、19.1.0‑1.2、および 19.2.0‑1 バージョンに影響します。修正リリースは 19.0.2、19.1.3、そして 19.2.2 です;これらのいずれかを直ちにインストールしてください。 対象となる React フレームワーク/バンドラーには Next.js、react‑router、waku、@parcel/rsc、@vite/rsc-plugin、および rwsdk が含まれます。アプリケーションが Server Components またはそれをサポートするバンドラー/プラグインを使用していない場合、影響はありません。 DoS 脆弱性は、特定の HTTP リクエストを逆直列化すると無限ループに陥り、ソースコード脆弱性は任意の Server Function の文字列表現(stringified body)を返し、ハードコーディングされた秘密情報が漏洩する恐れがあります。 React Native を monorepo で使用している場合、影響を受ける `react-server-dom-*` パッケージだけを更新すれば十分です;core の `react/react-dom` バージョンは変更不要です。 ホスティングプロバイダーは一時的な緩和策を適用していますが、サーバー停止や秘密情報の偶発的漏洩を防ぐために開発者は依存関係を直ちに更新する必要があります。 --- *上記の要約をそのまま保持したい場合は、元のまとめを繰り返してください。

2025/12/12 3:17

Rivian Unveils Custom Silicon, R2 Lidar Roadmap, and Universal Hands Free

## Japanese Translation: RivianはエンドツーエンドのAIスタックを拡張することで自動運転車市場でリーダーになるという野心を固めています。 - **ハードウェア&ソフトウェア**:同社は、5 nmマルチチッププロセッサ「RAP1」を発表しました。このプロセッサは1600 sparse INT8 TOPSを提供し、新しいGen 3 Autonomy Computerで秒間50億ピクセルの処理が可能です。また、自社開発のAIコンパイラとプラットフォームソフトウェアも構築しています。 - **認知モジュール**:ACM 3は2026年後半にR2で初登場し、最初はLiDARを装備せず、後にカメラとレーダーとともに追加されます。 - **ソフトウェア展開**:Universal Hands‑FreeはGen 2 R1T/R1S車両向けにリリースされ、米国・カナダの3.5 百万マイル以上の道路で明確に描画されたレーンラインをカバーし、現在のオーナーの支援走行領域を拡大します。 - **Autonomy+**:階層化された機能セットが2026年初頭に登場予定で、1回限り2,500ドルまたは月額49.99ドルで提供されます。 - **データ基盤**:RivianはUnified Intelligenceを中心とした組織再編を行っており、このデータフレームワークはテレメトリ、クラウドモデル、サービスシステム、および顧客機能を結びつけ、予知保全・診断・AIツールの実現を可能にします。 - **音声アシスタント**:次世代Rivian Assistantは2026年初頭にGen 1/2車両で登場し、R2ではより強力なインフォテインメントコンピュータを使用して完全オフラインで動作させることでレイテンシを低減します。 - **サービスワークフロー**:テレメトリと車両履歴を分析するAI駆動の専門家システムはすでにサービスワークフローに組み込まれており、技術者が問題箇所を迅速に特定できるようになっています。類似ツールはモバイルアプリにも計画されており、自助診断をサポートします。 これらの動きは、最先端のコンピューティングハードウェア、データ中心のプラットフォーム、拡張された支援走行機能、およびAI強化保守を車両ラインナップ全体に統合することで、Rivianの競争力を深めます。

Show HN: Sim – Apache-2.0 n8n alternative | そっか~ニュース