VP2Goがついに実戦へ
去る9月16日の23:30から、東京MXTVにてDeepTV.artという番組の第20回目が放送されました…と、かなり前に下書きまでしておきながら放っておく、私の悪い癖です。これから、量よりも早さでしばらくやっていこうと思います。
さて、DeepTV.artとはこういう番組です。地上波での放送の他、YouTubeでも同時配信しています。
この第20回で、私の作っているバーチャルプロダクションtoGO、通称「VP2Go」がいよいよ本格的に使用されました。
これまでの同番組では、LEDを使ったインカメラVFXを使用していました。背景に巨大なLEDパネルがあるスタジオを使い、トラッカーをつけたカメラで収録する方法です。
なぜこのシステムを使ったのか
背景がカメラの動きに合わせて移動することで、あたかもその空間にいるように見せる方法なのですが、一つ大きな弱点があります。それは
背景と同期できるのは1台のカメラだけ
ということ。
テレビ番組の場合一つのシーンで複数台のカメラを同時に回すので、背景と同期しているカメラ以外のカメラは、同期しているカメラの動きに合わせている背景を映すことになります。つまり、パースが狂うということです。
実践!
今回の収録では、それらの弱点を打ち砕くべく、グリーンバックスタジオという古い環境でありながら、Unreal EngineとVIVEトラッカー5台を使い、5台のマルチカム収録に挑みました。
今回はいつものノートパソコンではなく、ハイパフォーマンスなワークステーションをdittokの伊藤格さんからお借りしシステムを走らせました。このようなことができるのも、VP2Goのメリット。
ワークステーションと私のVP用インターフェイスBOXとをThunderbolt3で繋ぎ、そこにカメラからの入力とリアルタイム合成した映像をモニタに出力するケーブルを繋ぎます。
トラッキング用の空間はVIVEとSteam VRを使って設定。センターは私が自作した治具を使ってHMDで決めます。
今回は収録がメインなので、後でレンダリングするためのトラッキングデータの記録もおこなわなければなりませんので、Unreal Engineのテイクレコーダーで全5台分のLiveLinkトラッキングデータを記録しておき、後でそのデータを使って再度CG内のカメラを移動させながらレンダリングします。
今回VP2Goを使ったパフォーマンスの場面は、YouTubeのチャンネルでも見られます。
これからの課題:
VIVEトラッカーをLiveLinkでトラッキングする際の細かい振動の除去、レンズキャリブレーションなどの高質化、
それらの改善の一環として、すでに海外では発売開始されているVIVE Marsの購入を考えています。メーカーに7月に確認したところ、
「アメリカ・カナダは8月中旬(これは予定通り)発売だけど、サポートもその国だけになるので、日本で発売されるのを待った方が良いですよ。
日本での発売は、今四半期末(9月末?)を予定している。」
とのこと。
ただし、ただいま11月初旬でまだのようです…