![見出し画像](https://assets.st-note.com/production/uploads/images/54835855/rectangle_large_type_2_97685638424e4cc37d7c8469fe7aa8cd.png?width=1200)
【Live2D】口あいうえお(母音)チェックを自前でサクッとやる方法
はじめまして、倉津と申します。
Live2Dモデラーとしてはまだまだ修行中の身で、主にHTML/CSSコーダー兼デザイナー兼イラストレーターとして活動しています。
📢2025/02/05 追記
この記事は3年前のものであり、現状に合致しない点もあるかと思います。Live2D公式さんで最新版「あいうえお」についての動画がございますので、ぜひそちらも参考になさってみてください!
はじめに
Live2Dモデルを配信等で動かす場合、必須になるのが…そう、トラッキングソフトですね。長年、定番ソフトとして愛用されていた「Face Rig」の他、その後継となる「Animaze」、そして新しいながらも最近よく見かけるのが「Vtube Studio」ではないでしょうか。
リップシンク(口パク)を作る時、ただ開閉させるだけではなく、きちんと母音(あいうえお)を意識して作ることも多いと思います。
その時に悩ましいのが「どのパラメータに、どの母音を割り振るか」!
![画像9](https://assets.st-note.com/production/uploads/images/54841166/picture_pc_7921d6d51ee364e6f46d5472ebdb46dd.png?width=1200)
そもそもアプリごとに結構な違いがあります。
やっかいなのが「例え同じトラッキングソフトを使っても、口の開閉の癖には個人差があり、さらにカメラの性能差もある」という点です。
さらに「Vtube Studio」では「iOS系とWebカメラ/Androidで差が出る」という、頭を抱えたくなるような事象が発生します。
それでも「Face Rig」などは長年愛用されてきただけあり、母音のパラメータ割り振りについても情報が揃っていますが、新人の「Vtube Studio」などは前述した事象も相まって、まだまだ母音パラメータの情報が少ないです。
「ネットで情報を探し回るより、自前でチェックできないか?」
と思ったことがきっかけで生まれたチェック方法です。とはいえ、その方法はびっくりするほどシンプル。サクッと説明していきますね。
①下記の画像をレイヤー別に用意
・口開閉&口変形の錬結時のパラメータ表
・パラメータ用のポインター
![画像1](https://assets.st-note.com/production/uploads/images/54837926/picture_pc_4b40da176e69f27a2889303d5622edaa.png?width=1200)
▲これは「口 変形5点×口 開閉5点」で錬結してる場合
(5点はあくまで私の場合なので、普段ご自分が作る数でどうぞ!)
![画像2](https://assets.st-note.com/production/uploads/images/54837979/picture_pc_4d57ca60404d9f05b74963f401f9d28a.png)
▲ポインター画像
②全パラメータにポインター設定
![画像3](https://assets.st-note.com/production/uploads/images/54838204/picture_pc_8c074a6bad1956ef869db6f3a65a6f78.jpg?width=1200)
![画像4](https://assets.st-note.com/production/uploads/images/54838215/picture_pc_a3e6b55c8e96686daddcd9b9210af5cb.jpg?width=1200)
ひたすら、パラメータと同じところにポインター画像をセットします。
![E1eEfeoVgAIEQL_ - コピー](https://assets.st-note.com/production/uploads/images/54838354/picture_pc_525ac3a5c812129e882f602f618f524f.jpg?width=1200)
このサンプルでは「口 変形5点×口 開閉5点」パターンですが、もちろん、自分のモデルのパラメータ割り振りに合わせて作成してください。
出来上がり図 pic.twitter.com/agWFWOoFmy
— 倉津@Live2Dもやってます (@krt_pbw) May 16, 2021
③moc3ファイルに書き出し
終わったら通常のモデルと同じように、moc3ファイルを書き出します。
※下図は「Face Rig」向けに用意したファイル一式
![画像6](https://assets.st-note.com/production/uploads/images/54838787/picture_pc_10a9490e44af23164c0510f29c245e02.png)
④トラッキングソフトにモデル読み込み
いよいよ楽しい(?)チェック開始です。
こちらは、Windows+Webカメラの「Vtube Studio」でチェックをしている様子です。iOSだとまた結構、違うらしいです。
ちなみに「Vtube Studio」でチェック時は事前に精度調整しました。
(主に「Mouth Smile」と「Mouth Open」の2つ)
チェック開始! pic.twitter.com/0xegPbboW9
— 倉津@Live2Dもやってます (@krt_pbw) May 16, 2021
⑤母音の位置をメモする
「あ」「い」「う」「え」「お」の発音時、どこにパラメータがいくのか、位置をメモしましょう。動画で撮ってもよし、手描きしてもよし。
![画像7](https://assets.st-note.com/production/uploads/images/54839303/picture_pc_9d13f082c0a4a8d7ccc8feef8e471298.jpg?width=1200)
あまりにもひどい手描きのメモを晒しておきます。
あくまでも「倉津の場合」のパターンです。フォロワーさんにも試してもらいましたが、想定以上に結果が異なりました!
特に「Vtube Studio」の場合、「笑顔気味の『あ』」とか「真顔の『い』」などでもパラメータの飛ぶ位置が異なってくるので大変です。
日を変えて実施すると、昨日の自分自身とも微妙に結果が違う時も……
モーメント用に投稿。現状の最新版…これ、チェックするたびに微妙な差が出てくる気がするので、どこかで折り合いを付けるしかない pic.twitter.com/cqst2oERQv
— 倉津@Live2Dもやってます (@krt_pbw) May 16, 2021
⑥モデルに実装(ゴール!!)
私の場合は「Vtube StudioとFace Rigで共用できる母音パラ」を探るために今回のチェックを実施しました。共用となると大変だなぁ…
なんと言ってもOS差でも異なってくるのが大変。
モデル2体を同時に動かせるFaceRigでテストすると楽しい#Live2D pic.twitter.com/PgyTgTFkQO
— 倉津@Live2Dもやってます (@krt_pbw) May 16, 2021
結局は個人差&OS環境差&カメラ性能差などで変わってきてしまうので難しいところですが、セルフ受肉の人は「完全セルフ仕様」の母音を実装できるでしょうし、受注制作の場合は事前にクライアント側で母音チェックした結果をもらっておくとスムーズかもしれませんね。
さいごに
母音にこだわりすぎるとドツボに嵌まる感じなので、そこそこで脱出して次へ進む方がいいなというのを実感してます。特に「い」が難しい…!
![画像8](https://assets.st-note.com/production/uploads/images/54840326/picture_pc_dd36711e27f6cf7c0a014171cc387304.jpg?width=1200)
ただいま上記のSDキャラを素体にした、SDモデルをリリース中です!
旧版よりアップデートしたものになります。
新版では口の開閉も公式を参考にしていますのでご了承ください。
ブログで「Live2D」の奮闘ログなども綴ってます。
完全ビギナー時代のログは「初心者がハマってもがいてる様子」となっているので先達には「懐かしいな…うちにもそういう時代あったかも」と懐古していただけるかと思います。
いいなと思ったら応援しよう!
![倉津 日和](https://assets.st-note.com/production/uploads/images/65690832/profile_8ffc8b137d035c66f105da052c76136a.png?width=600&crop=1:1,smart)