YouTubeでの配信環境
こんにちは✨ さくらです
このマガジンでは、さくの配信環境についてご紹介しています!
今回は、
YouTubeでVRoidアバターを使用して配信するときの環境について
ご紹介します!
YouTubeでライブ配信するときには
①音(声、楽器、音源等)をどのように配信するか
②アバターをどのようにトラッキングするか
③音、アバター、画像(動画)をどのように合成するか
という3点がポイントになります。
REALITYで配信する時は
アプリを開いて配信開始すればアバターが自分に合わせて動き(②)
マイクの音と合わせて配信してくれる(③)ので
①だけクリアしてしまえば問題ありませんでした。
しかし、REALITYを一切使わない場合は、
①②③を全て自分で用意しなければなりません。
①音(声、楽器、音源等)をどのように配信するか
わたしの場合、
歌唱する場合の音(声、楽器、音源等)の配信方法は
REALITYで配信するときとほとんど変わりません。
(実況配信をするときは
ヘッドセット(+変換アダプタ)単体で配信しています。)
REALITYはiPadで配信していますが、
それがもう一台のPC(Windows)に置き換わるだけです。
アバターをトラッキングする方法によっては
PC1台で済むかもしれませんが、
わたしの場合もともとMacを利用して配信していたこと、
また
・アバターを動かすPC(Windows)
・音を作る(エフェクトをかけたり、楽器の音色をかえる)PC(Mac)
の2つに分けることで
負荷を分散させたい、というところがあり
配信をするのとは別のPCから
オーディオインターフェースを経由して演奏を配信しています。
②アバターをどのようにトラッキングするか
次にアバターのトラッキング方法です。
アバターは、VRoid Studioで作成したアバターや
BOOTHで購入したアバターを使用しています。
トラッキングにはLuppet、LeapMotion、iFaicalMocapを使用しています。
(最近ハンドトラッキングが面倒で
LeapMotionはあまり使っていないです。。。)
LeapMotionは首からかけて使うので、ネックマウンタも購入しました。
LuppetとLeapMotionは、
使用するPCにある程度スペックが求めらるので
購入する際は注意が必要です。
Luppetは体験版があるので、
実際に自分のPCでアバターが動くのか試してから購入するのがおすすめ!
そして、iFaicalMocapで表情、顔の動きをトラッキングし、
Luppetと連携させることができます!
(FaceIDが利用できるiPhoneまたはiPadが必要になります。
他にも条件があるので、先に確認しておくことをオススメします。)
FaceIDを利用できる端末を持っていない場合は、
Webカメラを使用しましょう!
ただ、使ってみて少し困ったのは、
自分の体の前にマイクスタンドを設置して、
ダイナミックマイクで歌うため、
LeapMotion(手のトラッキング)がうまく反応しないことがあり、
ちょっと考え中です。。。(音楽配信ならではかも。。。)
>追記
毎回使用する前に、
Leap Motionの設定から「デバイスの再調整」を行うことで
うまくトラッキングできるようになりました!
③音、アバター、画像(動画)をどのように合成するか
OBSというソフトウェアを使用します。
このソフトでLuppetで動くアバター、背景やタイトル、音楽を合成し、
YouTubeで配信します。
さいごに
ざっくりとではありますが、
3Dアバターを使用してYouTube配信する方法をご紹介しました!
トラッキング方法や演奏配信の仕方はさまざまなので、
自分にあった配信環境で配信できるとよいですね✨
それではまた!