**RS‑SDK: Claude コードで RuneScape を駆動する**

2026/02/05 1:47

**RS‑SDK: Claude コードで RuneScape を駆動する**

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

RS‑SDK は、研究者が事前に設定されたデモサーバー上で RuneScape スタイルのボットを構築・テストできる、無料かつオープンソースの TypeScript スタータキットです。フル SDK、包括的なドキュメント、コードバインディング、エミュレーター、およびボット性能をベンチマークするためのリーダーボードが同梱されています。このコードベースは、よく文書化された LostCity エンジン/クライアントをフォークしたものです。

Getting started – リポジトリをクローンします (

git clone https://github.com/MaxBittker/rs-sdk.git
)、
bun install
を実行し、次に
bun scripts/create-bot.ts {username}
か Claude プロンプトでボットを作成します。チャットはデフォルトでは無効になっており、
bot.env
SHOW_CHAT=true
を設定して有効化してください。
デモサーバーには稼働保証がなく、手動プレイを想定したものではありません。ユーザー自身でインスタンスをホストすることができます。

Gameplay tweaks – 環境は高速 XP カーブ、無限ランエネルギー、および開発を容易にするために anti‑bot ランダムイベントを無効化しています。リーダーボードでは、最低アカウントプレイ時間あたりの総レベルでボットが評価されます。

Architecture – RS‑SDK は

botclient
というウェブベースのクライアントと通信し、2004scape LostCity サーバーエミュレーターへゲートウェイを介してユーザー名ごとのメッセージを転送します。

License & usage – 本プロジェクトは MIT ライセンスで提供され、教育・科学研究のみに使用することが想定されています。Jagex Ltd. から認可も提携も受けていませんので、公式 RuneScape サーバー上ではボットは動作しません。

この改訂版要約はすべての重要ポイントを網羅しつつ、簡潔で明瞭に保持しています。

本文

RS‑SDK

RuneScape風ボット向けのリサーチ志向スタートアップキットです。
TypeScript SDK、エージェントドキュメントとバインディング、そしてサーバーエミュレーターを含みます。
セットアップはそのまま動作 – 自動化したいことを指示するだけでOK!


概要

複雑な経済系MMOでボットを構築・運用できます。
以下のことが可能です:

  • ゲームプレイの自動化
  • アカウントを99までレベルアップ
  • 安全な「ボット専用」環境でエージェンシー開発手法(例:ラルフ・ループ)を試す

本プロジェクトは、目標指向プログラム合成(たとえば Ralph loops)の豊富なテスト環境を提供し、エージェント間の協調・競争研究を促進することを目的としています。

デモサーバー上のボットをリーダーボードで追跡し、最高総レベルが高くアカウントプレイ時間が短い順にランク付けします。

RS‑SDK は LostCity エンジン/クライアントをフォークしたものです。
コードは こちら にあります(履歴と理念を参照)。


まず始める

git clone https://github.com/MaxBittker/rs-sdk.git

デモサーバーに接続する

既存の名前は使われていないものを選んでください。

Claude コード経由:

bun install
claude "start a new bot with name: {username}"

手動の場合:

bun install
bun scripts/create-bot.ts {username}
bun bots/{username}/script.ts

チャットはデフォルトでオフ(詐欺やプロンプトインジェクション攻撃を防止)。

bot.env
ファイルに
SHOW_CHAT=true
を設定して有効化してください。

⚠️ デモサーバーは便宜上のものです。稼働時間・データ永続性は保証されません。本格的な作業には独自サーバーを使用し、デモサーバーで手動プレイは行わないでください


ゲーム内変更点

開発支援のためにサーバー側でいくつか調整しています:

  • 高速レベルアップ – XP カーブを加速
  • 無限ランエネルギー – スタミナ切れなし
  • ランダムイベント無し – ボット対策イベントを無効化

アーキテクチャ

rs-sdk ──> botclient (拡張ウェブクライアント) ──> LostCity 2004scape サーバーエミュレーター
          ↑                                    │
          │                                    ▼
   gateway server ↔ SDK インスタンス <── ユーザー名ごとのメッセージ
  • gateway
    botclient
    と SDK 間のメッセージを転送します。
  • SDK は
    botclient
    からゲーム状態を受け取り、低レベルアクション(例:
    walkTo(x, y)
    )を送信します。
  • SDK は直接ゲームサーバーと通信できず、
    botclient
    に依存します。
  • botclient
    が起動していない場合、SDK は自動で起動しようと試みます。

デモサーバーは gateway や botclient を手動で起動せずとも走りますが、これらを起動すると rs‑sdk のバグ修正や機能追加のデバッグに役立ちます。

ローカルサーバーの実行

cd engine && bun run start
cd webclient && bun run watch
cd gateway && bun run gateway

(ログインサーバーもありますが、必要ない場合があります)


免責事項

  • 本プロジェクトは無料・オープンソースでコミュニティ主導です。
  • 目的は教育と科学研究に限定されます。
  • LostCity Server は徹底的な調査とピアレビューを経てゼロから作成されました。すべて完全に透明でオープンソースです。
  • Jagex Ltd. によって承認・認可されたものではありません。
    本プロジェクトで開発したボットは公式ゲームサーバー上で動作しません。

ライセンス

MIT – 詳細は

LICENSE
ファイルをご覧ください。

同じ日のほかのニュース

一覧に戻る →

2026/02/05 0:08

「Voxtral Transcribe 2」(ボクセトラル・トランスクライブ 2)

## Japanese Translation: Voxtral は次世代の音声認識モデルを 2 つリリースしました:**Mini Transcribe V2**(バッチ)と **Realtime**(ライブ)。RealtimはApache 2.0 ライセンスで Hugging Face 上で入手可能で、サブ 200 ms のレイテンシーを設定でき、480 ms まで下げられます。480 ms の遅延で字幕用に 2.4 秒のディレイがあり、WER(単語誤り率)が 1–2% 内に収まります。両モデルとも **13 言語**(英語、中国語、ヒンディー語、スペイン語、アラビア語、フランス語、ポルトガル語、ロシア語、ドイツ語、日本語、韓国語、イタリア語、オランダ語)をサポートします。 Mini Transcribe V2 は FLEURS ベンチマークで約 **4 % WER** を達成し、ElevenLabs の Scribe v2 より音声処理速度が約 3 倍速く、API 経由で **$0.003/min** のコストです。Realtime は同等の精度を **4‑B パラメータ** のフットプリントで実現し、エッジデプロイが可能です。また、そのストリーミングアーキテクチャは音声が到着した時点で文字起こしを行い、他の API で一般的なチャンクベースの処理を回避します。 企業向け機能には、スピーカー分離(開始/終了タイムスタンプ付き)、単語レベルのタイムスタンプ、最大 100 語・フレーズまでのコンテキストバイアシング(英語最適化)、ノイズ耐性、および **3 時間** までの録音サポートがあります。Mistral Studio のオーディオプレイグラウンドでは、両モデルを最大 10 ファイル(各ファイル ≤1 GB)でテストでき、スピーカー分離、タイムスタンプ粒度、およびコンテキストバイアシングのオプションがあります。 ユースケースは **会議インテリジェンス、音声エージェント/仮想助手、コールセンター自動化、メディア/放送字幕、コンプライアンスポータル** など多岐にわたり、すべて GDPR/HIPAA 対応のオンプレミスまたはプライベートクラウドデプロイでサポートされます。Voxtral は、GPT‑4o mini Transcribe、Gemini 2.5 Flash、Assembly Universal、Deepgram Nova を上回る最高の価格対性能を誇る転写 API と主張しています。 同社は開発者にチームへの参加を呼びかけており、世界クラスの音声 AI の構築と継続的な製品拡大・将来機能リリースを示唆しています。

2026/02/01 21:43

**Claude Code** クォータが尽きたらローカルモデルに接続します。

## Japanese Translation: **概要:** より安価な Anthropic Claude プランを利用しているユーザーは、コーディング中に日次または週次のクォータ制限に直面することが多いです。この記事では、Claude Code を Anthropic の API ではなくローカルのオープンソースモデルに接続することでこれらの制約を回避する方法について説明しています。実際的な2つの手法を紹介します: 1. **LM Studio v0.4.1** を使用する方法 ― モデルは検索インターフェイス経由でインストール(推奨コンテキストサイズ > 25k トークン)、`lms server start --port 1234` でサーバーを起動し、環境変数 `export ANTHROPIC_BASE_URL=http://localhost:1234` と `export ANTHROPIC_AUTH_TOKEN=lmstudioc` を設定します。次に Claude Code を `claude --model openai/gpt‑oss‑20b` で起動し、Claude 内で `/model` コマンドを使ってモデルの確認または切替えを行います。 2. **Llama.CPP** を直接使用する方法 ― これにより Claude Code はローカルエンドポイントを指すことも可能です。 推奨されるモデルとしては、Z.AI の **GLM‑4.7‑Flash** と **Qwen3‑Coder‑Next** が挙げられています。また、小型で量子化されたバージョンを使用するとディスク容量と GPU メモリを節約できますが、その代償として品質や速度が若干低下する可能性があります。ローカル OSS モデルは遅く、コード生成の質が低下することもありますが、クォータ制限やコストが問題になる際に有効なバックアップ手段となります。最後に、読者にはこの設定を試し、さまざまなモデルをテストして経験を共有するよう奨励しています。

2026/02/05 3:34

インフラ向け Claude コード

## Japanese Translation: > Fluid は、AI エージェントが本番インフラストラクチャのサンドボックス化されたクローンを安全に探索し、その後、自動的に実際のサーバー用の Infrastructure‑as‑Code(IaC)―たとえば Ansible プレイブック ― を生成できる軽量ターミナルエージェントです。 > LLM 単体ではライブシステムの挙動を予測することが難しいため、サンドボックスは実際的なコンテキストを提供します。コマンドはホストと同一 OS、パッケージ、ツールを鏡映した隔離された VM またはクラスター上で実行されます。 > Fluid には安全性が組み込まれています:本番環境への直接 SSH は許可せず、一時的な証明書のみを使用し、すべてのサンドボックスコマンドは監査可能に完全ログ記録され、高リソースまたはインターネット依存の操作は人間の承認が必要です。 > インストールはワンライナー(`curl -fsSL https://fluid.sh/install.sh | bash`)で、ホスト環境を自動的に検出します。 > 提供された例では、AI エージェントがサンドボックス(ID `SBX-demo1234`、IP `192.168.122.50`)に Apache をインストールし、curl で確認した後、`httpd‑setup` プレイブックを生成します。このプレイブックは 4 件のタスク(apt キャッシュ更新、Apache インストール、カスタム `index.html` 作成、サービス起動/有効化)から構成され、任意の Ubuntu サーバーで実行して同じ設定を再現できます。 > コントロールされた監査可能なワークフローをチームに提供することで、Fluid はデプロイリスクを低減し、コンプライアンスを向上させ、AI 主導のインフラ変更を効率化します。