
2026/01/19 2:40
ガウス・スプラッティング ― A$AP ロッキー「ヘリコプター」ミュージックビデオ
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
Summary:
A$AP Rocky の新しい「Helicopter」ビデオは、ライブアクション撮影におけるブレークスルーを示しています。動的ガウシアン・スプラッティング(dynamic Gaussian splatting)という手法により、カメラ映像が即座にレンダリング可能な体積データへ変換されます。56 台の RGB‑D カメラからなる大規模アレイを使用してチームは 10 TB 超の原始映像と約 30 分間の事前レンダリング済みスプラッティングコンテンツを生成しました。Houdini(シーケンス作業)、OctaneRender(ライティング調整)、Blender(レイアウト・プロキシキャッシュ)を組み合わせることで、セット上で数秒以内にショットのプレビューが可能となり、重いポストプロダクション作業に入る前に迅速なクリエイティブ判断を行うことができました。
これは A$AP Rocky の 2023 年に「Shittin’ Me」で実施した NeRF ベースの放射場(radiance fields)実験を踏襲しています。現在のワークフローは、各テイク後すぐにライブ空間フィードバックとメッシュプレビューを提供することで、動的ガウシアン・スプラッティングの最も高度な実世界利用例の一つです。この手法は、体積キャプチャがリアルなモーションを保持しながら、監督に広範なポストプロダクションの柔軟性を提供できることを示しています。
広く採用されれば、この技術はミュージックビデオ、映画、広告などを変革し、セット上のリソース削減、ワークフロー高速化、アーティストやスタジオにとっての創造的可能性拡大につながるでしょう。
本文
信じられないかもしれませんが、A$AP Rockyは光輝場(radiance fields)の大ファンです。昨日、彼がミュージックビデオ Helicopter を公開した際、多くの視聴者は映像の混沌と動き、そして当時のMTVのエネルギーを注目しました。しかし、見落としやすい点――もし何を探しているか分からなければ―というと、このビデオに登場するほぼ全ての人間パフォーマンスがボリュメトリックに撮影され、ダイナミック・スプラットとしてレンダリングされていることです。
私はこの映像を撮影した Evercoast のチームと、Grin Machine の CG スーパーバイザー Chris Rutledge、WildCapture と Fitsū.ai の Wilfred Driscoll から Helicopter がどのように作られたか、そしてなぜ今回のプロジェクトが主要音楽リリースで初めて実用化されたダイナミック・ガウス・スプラッティングの最も野心的な事例の一つになったのかを語っていただきました。
Helicopter をボリュメトリックに撮影する決定は、技術自体が動機ではありません。チームによれば、監督の Dan Strait は 7 月に明確な創造的ゴールを持ってプロジェクトに取り組みました。それは「従来の撮影と VFX パイプラインでは実現不可能または高額すぎるような、ポストプロダクションで極端な自由度を与える形で人間パフォーマンスを捉える」ことでした。
Chris は数年前からボリュメトリック・パフォーマンスキャプチャを追跡しており、以前は不可能だったビジュアルを実現できる新しい手法に魅了されていました。2 年前に彼は Dan を含む自分のネットワーク内の監督たちに「いつか使える」ワークフローとしてアイデアを提案していたのです。今年夏、Dan が戻ってきて「ビデオ全体でボリュメトリックキャプチャを使用したい」と言ったとき、ガウス・スプラッティングの普及により、彼らはそれを実現できました。
美的表現は動的モーションに重きを置いています。ダンサーが衝突し、身体が空中で揺れ、混沌とした格闘シーン、そしてプロップと相互作用するパフォーマーが、後に全く別のものへと溶けていく様子です。見えるパンチやスラム、懸垂、落下はすべて物理的に演じられ、3D で捉えられています。
ビデオ内のほぼ全ての人間フィギュア――Rocky 自身を含む――が Evercoast のシステムを使ってボリュメトリックに撮影されました。すべてはリアルなパフォーマンスで、空間的に保存されています。
これは A$AP Rocky が音楽ビデオで光輝場を使用した最初のケースではありません。2023 年の「Shittin’ Me」の映像には複数の NeRF と Instant‑NGP の GUI も登場し、作品全体に散りばめられています。
Helicopter の主撮影は 8 月にロサンゼルスで行われました。Evercoast は 56 台の RGB‑D カメラをデッキワークステーション 2 台と同期させ、キャプチャボリューム内でウェアから吊り下げられたパフォーマーが逆立ちしながら懸垂、天井に設置されたバーで懸垂、プロップを振り回し、スタントを行う様子を撮影しました。
最終ビデオでシュールに見えるシーンは、実際には木製の板がヘリコプターのブレードとして、リアルなワイヤーリグや本物のプロップを使用した非常に物理的なセットアップに基づいています。ボリュメトリックデータのおかげで、それらの要素は後で削除・再構成・完全に別の文脈へと置き換えることができ、人間動作の真実性を失うことなく行えました。
撮影期間中、Evercoast は 10 TB を超える生データを記録し、最終的に約 30 分間のスプラッティング映像を PLY シーケンスとしてエクスポートしました。合計で約 1 テラバイトに相当します。このデータは Houdini に取り込まれ、CG Nomads の GSOP を使って操作とシーケンシングが行われ、OTOY の OctaneRender で最終レンダリングが実施されました。この組み合わせのおかげで、制作チームはスプラットを再照明することも可能でした。
ワークフローの強力な点の一つは、Evercoast が撮影段階で複数のボリュメトリックキャプチャをプレビューできる能力です。監督はセット上でライブ空間フィードバックを確認し、テイク直後にメッシュベースのプレビューを数秒で生成し、さらに Evercoast のウェブプレイヤーで完全レンダリングされたスプラットを確認してから、大量の PLY シーケンスを Houdini にダウンロードできます。実際には、クリエイティブな決定は迅速かつ安価に行え、チームが何を求めているか正確に把握するまで重い後処理にコミットしないワークフローです。このプロセスは、従来の撮影よりもシミュレーションに近いものになっています。
Chris はまた、Octane の Houdini 連携が成熟し、Octane の初期スプラットサポートが十分に進化していることを発見しました。チームによれば、スプラットの再照明やシャドウ導入、より立体的な「3D ビデオ」外観を実現できる点が最終的な美学を決定づけた大きな理由でした。
Blender はレイアウトとプリビジュアライゼーションに多用され、スプラットシーケンスを軽量プロキシキャッシュへ変換してシーン計画に活かしました。Wilfred は WildCapture の内部ツールが選択的に時間的一貫性を導入するために使われたと語っています。彼の言葉では、チームは原始的なポーズ推定スケルトンを作り出し、それをモーション転送や衝突設定に利用し、Houdini のシミュレーションツールセットが剛体・柔体・さらに物理的に基づく相互作用を扱えるようにしました。
ビデオへの一つの共通した反応は「混乱」です。視聴者は映像が AI 生成だと誤解します。Evercoast によれば、真実はその逆です。すべてのスタント・スイング・落下は物理的に演じられ、リアル空間で捉えられました。合成的に感じる理由は、ボリュメトリックキャプチャが与える自由度にあります。カメラ構図に縛られることなく、事後にカメラを再配置し、空間連続性を壊し、2D では不可能な方法でパフォーマンスを組み合わせることができます。
言い換えれば、光輝場技術は現実を置き換えるものではなく、すべてを保存するものであるのです。