見出し画像

あるアバターができるまで


 Live2Dを使用して作成したモデルをFaceRigに読み込ませて動かし、OBS Studio経由でゲーム画面と重ねることでゲーム実況配信ができる環境を構築した。その経緯から完成まで。備忘録を兼ねて。

画像1


■アバターのデザインを描き始めるまでの経緯

 ゲーム実況は好きでずっと見ていて、いつか自分でもやってみたいと思っていた。やってみたいとは思いつつ、環境構築が絶対に面倒なのでモチベはそれほど高くない。また仮にやるにしても、アバターを作ることまでは考えていない。
 昨年(2020年)10月下旬、知り合いVtuberになりゲーム実況を始める。見ていてやっぱり楽しそうだし自分もゲーム実況やりたいなぁと思う。
 今年の1月3日にYoutubeにチャンネルを作成し、1月9日に初めてのゲーム実況をやってみる。下動画のサムネイルはとりあえずでtwitterアイコンをそのまま置いただけであり、内容としてはゲーム画面のみの実況動画となっている。

 そして1月中旬までにさらに数人の知り合いがLive2Dモデルを作成しており、そのうちの1人が作成の工程をnoteにまとめてくれた。

 これを読んで、作ってそれをどうするかというより作ることそのものが楽しそうだな、と感じた。そもそもずっとやりたかったくせに準備が面倒でやらなかったゲーム実況を重い腰をあげてやろうと思ったのも、コロナ禍の影響で同人イベントがなくなったことで定期的に本を作らなくなり時間とエネルギーを持て余したからである。具体的に工程を知ってみると、その余った時間とエネルギーのやり場としてLive2Dモデル作りは非常に魅力的に見えた。
 魅力的には見えたが、Live2Dを導入したり顔認証のためのFaceRigとwebカメラを導入したりがやはりとても面倒そうだったので、やる気はほとんどなかった。でもなんか…みんな楽しそうなんだよな…。それに自分だったらどんなデザインにするかを考えるだけでも楽しいよな…。と思い、軽い気持ちでラフだけ描いてみることにした。
 きっと危険ドラッグとかもこうやって中毒になるんだろう。

■日常がLive2Dに浸食されていく様子
 諸々の事情を鑑みてゲーム実況をするなら土曜日の朝しかないと決めていたのだが、今年の1月は仕事の都合で土曜出勤が続き、16日・23日・30日の土曜日は配信できないことがわかっていた。
 でもせっかく環境構築したのだからゲーム実況したい。
→配信の時間はとれないけど、他のことをする時間はそれなりにある。
→Live2Dモデル作る気はさらさらないけどデザインするのは楽しそう。
→12連勤で頭が狂う。
→「ちょっと描いてみよう」

 狂っているのでラフ描いたその日のうちにモデル作りを始めている。

 本当に休みとって帰ってきた。

 なんだか抜き出して並べると趣がある。完成するまでは1日中Live2Dのことを考えていた。

■配信までの道のり①:psdファイルの作成
 このへんは詳しく解説している動画やブログがたくさんあるので簡単に。あとは参考にしたところの紹介も。かかった時間はラフに1時間、清書+パーツ分けで合計6時間くらい。
 ラフの上から対称定規を使ってパーツ分けしながら清書。Live2Dで疑似的に3Dの動きをつける際はパーツごとに引っ張ったり回したりするので、完成したpsdファイルでは各パーツは線画+塗りを1枚のレイヤーに統合する必要がある。その最終的に統合するパーツごとにフォルダを作って清書していた。例えば下画像の「首肩」フォルダには首肩パーツの線画と塗りのレイヤーが入っており、読み込み用psdファイルを作る際にはこのフォルダを1枚のレイヤーに統合する。影は、体の動きに合わせて動かさない固定のものはパーツフォルダの中に入っている。外に出てる影レイヤーは個別に動きをつける可能性のあるもの。

画像2

 公式以外あまり見ずに勘でパーツ分けしていた。そのため、いざLive2Dに読み込んだ後でうまくいかないパーツがたくさん出てきて、何度も作り直すことになった。一番つらかった作業。


■配信までの道のり②:Live2Dによる動きつけ

 psdファイルをLive2Dに読み込んで動きをつける。かかった時間は合計10時間くらい…かもっと。なんならまだ終わってない。永遠に終わらない。
 パーツごとに特定の入力に対する特定の変形を割り当てることで、例えば「右を向く」という入力に応じて「まるで右を向いたような変形」をさせ、平面のイラストを疑似的に3Dらしく見えるようにするのがLive2Dの機能である。合ってるかな。
 右を向く場合の例。「右を向く」入力があった時に輪郭・目・眉・鼻・口・前髪・後ろの髪・頭のやつが変形するよ、と入力に対して変形するパーツの割り当てをおこなう。

画像3

 次に「右を向い」た時には割り当てた各パーツは、

画像4

この位置に動いて変形して回転するよ、と変形後の場所や形を指定する。マウスで一つ一つのパーツを動かす。地道に。自分の思い描く理想の「右を向く」顔になるまで。
 この作業を最低限「左右を向く」「上下を向く」「左右に首を傾ける」「口を開閉する」「目を開閉する」くらいまでおこなって、だいたいできあがり。全部自分の中にある理想の動きなので、永遠に完成しない。
 【自分メモ】角度Xを作る際に左右の目のデフォーマの変形が「動きの反転」でうまく反転しなかったのが一番大変だった。右を向く際右目は画面奥側にいき細く小さくなるため、「動きの反転」をしても左を向いた時画面の反対側の奥側にいき細く小さくなってしまう。これを解決するには、右を向く動きを作った後「動きの反転」をし、左右の目の各デフォーマをコピー、いっしょにコピーされた目のパーツを削除してデフォーマのみを残す。右目のデフォーマのコピーを左目のデフォーマの親にして、右目のデフォーマのコピーから右を向いた時のパラメータのみ削除、左目のデフォーマから左を向いた時のパラメータのみ削除。これを左右両方にやって、モデリング─デフォーマから「デフォーマを削除し、パラメータを子要素に反映」するとうまくいく。


■配信までの道のり③:FaceRigによる顔認証

 基本的にはLive2Dで所定のファイルを作成してそれをFaceRig側に読み込ませれば完成だが、デフォルトだとカメラ位置が離れていたりするので最低限の設定は必要となる。かかった時間は2時間くらい。
 ここで初めてLive2Dでは設定できるがFaceRigには反映されないパラメータとかを知ったので、ちょっと戻って動きつけやり直す部分も出てきた。あとはカメラ位置を調整して、呼吸のほかに左肩の猫の顔が常にうごうごするようにして、キー割り当てでひじから先を切り替えられるようにした。

 最初から最後まで、あらゆる場面でxsinryux_xさんの解説に助けられた。本当にありがとうございます。

■配信までの道のり④:OBS Studioの設定
 OBS Studioを使うことでキャプチャボード経由で入力したゲーム画面とFaceRigで動かしているアバターを重ねてライブ配信をすることができる。細かい設定が無限にある。


■PC周りの配線について

 1月3日にチャンネルを作成した時点では「Steamのゲームなら手持ちの機材で配信できるしだいたい満足」と思っていた。例えばSwitchのゲームを配信しようとすると、本体に配信機能がないためPCにゲーム画面を取り込むキャプチャボードが必要になり、それがわりと高い(2万前後する)ので、ちょっと試しにやってみるにはさすがに出費が大きかった。それからSwitchで配信するとしたらロックマンXをやりたいのだが、カプコンのゲームはゲーム機本体の機能(PS4のブロードキャスト機能等)以外での実況配信が禁止されていたので諦めていた。
 そんな矢先の1月6日、カプコン動画ガイドラインが更新される。

 ゲーム機本体の機能以外でも配信できるようになってしまった。1月7日にキャプチャボードを注文した。
 下図は現在のPC周辺の配線図である。普段PCは2画面で使っていて、torneの録画を見る時は入力切替で右の画面のみPS3にし、音の入力をオーディオセレクタで切り替えていた。その構造をなるべく崩さないようにSwitchからの入力を追加した。

配線図

 このうちゲーム実況をするために買い足したものが下図のうち赤で示したものである。赤くしたらなんとなく全体が認識しにくかったので図を2つに分けた。

配線図2

 Switchは普段居間に置いてあり、ゲーム実況をする時だけ本体をPC前のドックに差し込んでプレイしている。「Switch」の文字が赤くないのは、ドックのみ追加購入したという意味である。
 ゲーム実況する際、キャプチャボード経由でPCにもゲーム画面と音が入力されるのでそれを見ながらプレイしてもいいのだが、若干のラグが発生する。そのため実況する際はパススルーでディスプレイにSwitchの画面を映し、音のみ分離してヘッドフォンから聞いている。
 配線し終わるまでに失敗が3つあった(実際細かいのもあわせたらもっとあった)。
 ①ディスプレイ側にDisplayPortだけ空いている状態だったので、キャプチャボードからディスプレイへはHDMI⇔DisplayPort変換ケーブルで繋げばいいかと思ってケーブルを買ったが映らなかった。HDMI⇔DVIみたいなノリで繋ごうとしたのだが、DisplayPortはHDMIと伝送方法が全く違うらしく、基本的にはDisplayPort(出力)からHDMI(入力)への変換しかできない(?)らしい。これでは映らない。おとなしくDisplayPort⇔DisplayPortのケーブルを買いなおした。
 ②ドックは高いし、Switch本体からキャプチャボードへの入力はUSB typeC⇔HDMI変換ケーブルでいけるだろと思ってケーブルを買ったが映らなかった。どうやら一定の電力供給がないとHDMI Alternate ModeにならずHDMI出力されない(?)らしい。おとなしく純正ドックを買った。
 ③コンデンサマイク単体では音が小さすぎた。おとなしくマイクロフォンアンプを買った。

■結論
 一連の作業は面倒といえば面倒だけど、自分で描いたモデルが動くだけでけっこう感動できる(Live2Dのランダムポーズで動かした時はすごく感動した)。小さな達成感が常にあるので出来のいいRPGを遊んでいるような感覚で永遠にパラメータをいじれる楽しさがあった。
 確かに機材を揃えようと思うとそれなりに金はかかるが、モデルを作るだけならなんとLive2DのPro版が42日間無料で使用できる。

 もう少し踏み込んで顔認証までやることにしてもFaceRigは1480円で導入でき、webカメラはいいとこ3000円くらいのがあればスペックは余裕なので実質無料である。さらに、Steamはわりと頻繁にセールをやっているのでその期間に買えばたぶん50%offとかで買える(ただしFaceRigは後継ソフトが出ており、いつまで販売しているかわからない)。実質無料である。

 それこそSteamのゲーム配信ならキャプチャボードとかもいらないのでお手持ちのマイクとお手持ちのアンプで実況ができてしまう。お得。楽しい。みんなもやろう。備忘録ではなくなってしまった。

いいなと思ったら応援しよう!