見出し画像

モバイルモーションキャプチャーmocopiでカスタムアバターを試してみた!

今朝mocopiが届きました。


本日(2023年1月20日)発売のモバイルモーションキャプチャーmocopiが今朝届きました!

3年ぐらい前から、フルトラ(フルトラッキング)をやりたい!!って言ってたんですよ。それでいろいろ試してはみてたんですが、自分のパソコンのスペックが足らずに上手く動かせず…。°( ´:ω:` )°。

mocopiはスマホで動くらしい!と聞いてポチっとしといたら、発売日当日に届いてウレシイ!!(要対象機種確認)


まずは箱を開けて、中に入っているQRコードをスマホで読み取って、スマホのmocopiアプリをダウンロードします。

セットアップします!

アプリの案内に従って、センサーのペアリングを行います。
最初にHEADから、次にWRISTのRをペアリングします!ここで、ワタシは間違えて左から順番にペアリングすると思い込んで、WRISTのLをペアリングしちゃいました!お気をつけて!(戻ってやり直しました。)

公式の説明動画を一度観てから準備すると間違いないです。

センサーの装着も、磁気の力で、強制的に正しい方向にハマるようになっていました!便利!

キャリブレーションも最初モタモタしてしまい、うまくいかない場合もありましたが、何度かやると慣れてきます。

最初はデフォルトのアバターを使って動かしてみたのですが、足のトラキングができてホント嬉しい!!!

キックしてみた!

カスタムアバターを使いたい!

次にカスタムアバターを使いたいので調べました。

ワタシの場合、iPhoneとmacだったので、iPhoneとmacをUSB ケーブルで繋いで、iPhone側のmocopiアプリの配下に、自分の使いたいアバターのvrmを入れるだけでした。

最近ワタシがよく使っている、VRoidで作った同相逆相ちゃんのvrmを入れて動かしてみました!

OBSを使って合成する

mocopiアプリは背景色が選べるので、背景をグリーンバックにします。

グリーンバックにした画面

macとiPhoneをUSBケーブルで繋いで、OBSを使って映像デバイスキャプチャでmocopiアプリの映像を取り込みます。
そして重ねたい画像や動画を同じようにソースに入れます。ワタシはTwitterでmocopiの事を書いた画面と重ねました。

これで録画開始を押せば、OBSでグリーン部分を抜いてツイートした画面と重ねて合成したものが録画できます。

OBSの画面

その録画した動画はこちらです。

他にもmocopiで自分の動作をモーションキャプチャーしてUnityに持っていけるらしい!

あとで試してみます!

追記:
mocopi Receiver Plugin for Unityを使って、mocopiで保存したモーションデータがUnityで動いたので載せておきます!(モーション協力 by 次男)


(おしまい)


いいなと思ったら応援しよう!