**Show HN:Lume 0.2 – 無人セットアップでmacOS仮想マシンを構築・実行**

2026/01/19 2:53

**Show HN:Lume 0.2 – 無人セットアップでmacOS仮想マシンを構築・実行**

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

Lume は、Apple‑Silicon 専用の MIT ライセンス付きオープンソース仮想マシンランタイムで、開発者が高速かつヘッドレス環境で macOS を実行できるようにします。Apple の Virtualization Framework 上に構築されており、単一バイナリ(

lume
)として配布され、オプションの HTTP API(
lume serve
)も提供します。Lume はネイティブ速度、パラバーチャル化された GPU Family 5 グラフィックス、効率的なスパースストレージ、x86 バイナリ用 Rosetta 2 サポート、および IPSW ファイルから作成される自動生成のゴールデンイメージを提供します。

レジストリ統合もサポートしており、GitHub Container Registry(GHCR)や Google Cloud Storage への VM イメージのプル・プッシュが可能です。開発者は特定バージョンの VM を起動して macOS リリース間でテストを行い、複数台の物理マシンを維持する必要がありません。また、ヘッドレス CI/CD テストをローカルで実行(

--no-display
)したり、VNC/OCR による自動セットアップアシスタントで無人設定を行うこともできます。

Lume は既知の良好な VM をクローンし、信頼できないワークロードを削除することでリスクの高い操作に対してサンドボックス化を提供します。Cua Computer SDK(AI エージェント用)では、VM とスクリーンショットと入力シミュレーションを介してやり取りし、Anthropic の Claude Code sandbox でも使用されています。

将来的には、CI/CD およびエージェントワークロード向けに管理型クラウド macOS サンドボックスのパイロットを計画しており、興味のある顧客向けにデモが利用可能です。

この改訂版サマリーは、すべての主要ポイントを反映し、裏付けのない推論を追加せず、読者にとって明確で簡潔な表現を保っています。

本文

Lume イントロダクション ― macOS 用 VM CLI とフレームワーク

Lume は AI エージェントの構築、CI/CD パイプラインの実行、macOS の自動化を行うための VM ランタイムです。Apple のネイティブ Virtualization Framework を利用し、Apple Silicon 上で macOS と Linux VM をほぼネイティブ速度で走らせます。


MIT ライセンス

Lume はオープンソースで MIT ライセンスが適用されています。便利に使った場合は GitHub でスターをいただけると幸いです!

クラウド macOS サンドボックス

CI/CD やエージェントワークロード向けにクラウド macOS サンドボックスを実行できるマネージドサービスの試験運用を開始しています。興味があればデモをご予約ください。

lume create test-vm --os macos --ipsw latest
lume run test-vm

単一バイナリに HTTP API が備わっており、VM を作成しヘッドレスで実行し、プログラムから制御できます。
CLI で直接 Lume を使うか、

lume serve
を起動して HTTP API を公開し、Computer SDK が macOS 操作用にこの API を利用します。

Lume は Apple の Virtualization Framework 上に薄いラッパーを構築したもので、Apple Silicon におけるハードウェアアクセラレーション仮想化を提供します。これにより次のメリットがあります:

  • ネイティブ速度 – CPU 命令はハードウェア仮想化経由で直接実行
  • パラバーチャル化グラフィックス – Apple の仮想化レイヤーを通じた基本的な GPU サポート(GPU Family 5 に限定)
  • 効率的ストレージ – スパースディスクファイルは実際に使用した分だけ容量を消費
  • Rosetta 2 対応 – ARM Linux VM 上で x86 Linux バイナリを実行可能
  • 自動ゴールデンイメージ – IPSW から完全構成済み macOS VM を手間なく生成
  • レジストリサポート – GHCR や GCS レジストリから VM イメージのプル・プッシュが可能

主なユースケース

  • macOS バージョン横断テスト – 特定バージョンの macOS VM を起動し、ソフトウェアをテストして終了。複数物理マシンを維持する必要なし。
  • macOS タスク自動化 – Lume と Unattended Setup を組み合わせて事前構成済み VM を作成。VNC と OCR を使い、Setup Assistant のクリック操作を完全自動化。
  • ローカル CI/CD 実行 – macOS ビルドをリモート CI へプッシュする前に隔離された VM 上でテスト。
    --no-display
    フラグでヘッドレス実行可。
  • 危険操作のサンドボックス化 – 信頼できないソフトウェアや破壊的スクリプトを試す場合、VM 内で実行後削除。既知良好 VM をクローンして即座にクリーン状態へ復元可能。
  • AI エージェント構築 – Lume は Cua Computer SDK の基盤となり、AI モデルがスクリーンショットと入力シミュレーションを通じて VM と対話できるようにします。

Lume は Anthropic にも採用されています。Apple の Virtualization Framework(Lume が構築されている同じ技術)が Claude Cowork を支えており、Anthropic の Claude Code 用サンドボックス環境です。Linux ルートファイルシステムをダウンロードし隔離された VM 上で起動させ、Claude が安全にコマンドを実行できるようにしています。

要件

Lume は Apple Silicon 必須です。Intel Mac やその他プラットフォームでは動作しません。


まずは試してみましょう?

Quickstart ガイドで Lume をインストールし、最初の VM を作成してください。

同じ日のほかのニュース

一覧に戻る →

2026/01/19 2:40

ガウス・スプラッティング ― A$AP ロッキー「ヘリコプター」ミュージックビデオ

## Japanese Translation: ## Summary: A$AP Rocky の新しい「Helicopter」ビデオは、ライブアクション撮影におけるブレークスルーを示しています。動的ガウシアン・スプラッティング(dynamic Gaussian splatting)という手法により、カメラ映像が即座にレンダリング可能な体積データへ変換されます。56 台の RGB‑D カメラからなる大規模アレイを使用してチームは 10 TB 超の原始映像と約 30 分間の事前レンダリング済みスプラッティングコンテンツを生成しました。Houdini(シーケンス作業)、OctaneRender(ライティング調整)、Blender(レイアウト・プロキシキャッシュ)を組み合わせることで、セット上で数秒以内にショットのプレビューが可能となり、重いポストプロダクション作業に入る前に迅速なクリエイティブ判断を行うことができました。 これは A$AP Rocky の 2023 年に「Shittin’ Me」で実施した NeRF ベースの放射場(radiance fields)実験を踏襲しています。現在のワークフローは、各テイク後すぐにライブ空間フィードバックとメッシュプレビューを提供することで、動的ガウシアン・スプラッティングの最も高度な実世界利用例の一つです。この手法は、体積キャプチャがリアルなモーションを保持しながら、監督に広範なポストプロダクションの柔軟性を提供できることを示しています。 広く採用されれば、この技術はミュージックビデオ、映画、広告などを変革し、セット上のリソース削減、ワークフロー高速化、アーティストやスタジオにとっての創造的可能性拡大につながるでしょう。

2026/01/19 3:01

Flux 2 Klein 純粋 C 推論

## Japanese Translation: ドキュメントは、テキストから画像および画像から画像へのタスクの両方をサポートする純粋なC実装であるFLUX.2‑klein‑4B画像生成モデルについて説明しています。外部依存関係はC標準ライブラリのみで、HuggingFace から小さな Python スクリプト (`pip install huggingface_hub`) を介して VAE、Transformer、Qwen3‑4B エンコーダ、トークナイザを含む約16 GBの事前学習済み重みをロードします。Apple の Silicon 上では Metal Performance Shaders、Linux/Intel macOS では BLAS(OpenBLAS)によるオプションの高速化が可能で、最大約30倍の速度向上と Apple マシン上で自動的に GPU を使用します。 ライブラリは単純な C API (`flux_load_dir`、`flux_generate`、`flux_img2img` など) を公開しており、ユーザーのプロジェクトへリンクできます。サンプルコードではプログラムから画像を生成または変換する方法が示されています。またコマンドライン利用も可能で、例として `./flux -d flux-klein-model -p "prompt" -o out.png`(テキスト→画像)や `-i input.png` と `-t strength` を付けて画像→画像を実行します。オプションには幅/高さ(64–1024 px、16ピクセル単位)、ステップ数(デフォルト 4)、シード、quiet/verbose フラグが含まれます。 プロンプトのエンコード後、Qwen3‑4B エンコーダは自動的に解放され(約8 GB が解放)拡散中のピークメモリを約16 GB に抑えます。複数のプロンプトが同じエンコーダを再利用でき、再ロードは不要です。サポートされる最大解像度は 1024×1024 ピクセル、最小は 64×64 で、VAE のダウンサンプリングにより 16 の倍数に制限されています。 MIT ライセンスの下で配布されるこのパッケージは、軽量かつ依存関係がないため組み込みシステム、高性能サーバー、クロスプラットフォームアプリケーションに適しています。オープンソースおよび商用プロジェクトの両方で広く採用されることを奨励します。

2026/01/18 17:18

ソーシャル・ファイルシステム