![見出し画像](https://assets.st-note.com/production/uploads/images/159749708/rectangle_large_type_2_9597d43124dbe423ae6d5eb1bb4237d4.png?width=1200)
3つの手順で作る、リアルな音声会話アバター作成(プロジェクトマネージャーのAI研究)【Unreal Engine+ChatGPT+GCP】
こんにちは。株式会社マネジメントのAIプロジェクトチームです。
会話する仕事をAIが助けてくれる未来が近づきつつあり、音声で会話できるアバターの技術検証を実施しています。
近い将来にはプロジェクトマネージャーやプロジェクトデザイナーのアシスタントとしてサポートできる想定です。
なお、本件は2024年10月時点の情報であり、Unreal Engineやプラグインがアップデートされて、このとおりに作動しなくなる場合もありますことは、あらかじめご了承ください。
1. はじめに
1-1.完成イメージ
PCの画面上のフォトリアルなアバターと会話ができます。
1-2. 環境
Windows 11
Unreal Engine 5.3.2
2. 準備
2-1. Unreal Engine
2-1-1. Unreal Engine インストール
以下のリンク先を参考にして、Unreal Engine をインストールします。
https://www.unrealengine.com/ja/download
2-1-2. プラグインのインストール
Epicランチャーを開き、
Unreal Engine > マーケットプレイスから
![](https://assets.st-note.com/img/1728201676-dZ3Ky5AUtr7ulzsR1VSOcoan.png?width=1200)
以下のプラグインをダウンロードし、インストールします。
MetaHumanプラグイン
![](https://assets.st-note.com/img/1728203680-OsZUB94RELJxlWHMYXQ2fvyu.png?width=1200)
MetaHuman SDK
![](https://assets.st-note.com/img/1728205299-FdYUSyRpw5jKXue7v8tnZfQ9.png?width=1200)
Google Speech Kit
![](https://assets.st-note.com/img/1728721924-L9QdlUhmIMDtyEKRCeNJisXp.png?width=1200)
VaRest
![](https://assets.st-note.com/img/1728204077-SJAg69Wzd0wtilYaLErp5NMH.png?width=1200)
2-1-3. 新規プロジェクト作成
プロジェクトを開くか、新規作成する。
なお、プロジェクトの保存場所は、パスに日本語がないところ。
後の手順でパッケージ化するときにエラーになるため、「ドキュメント」などの日本語のパスがあるような場所への作成はNG。
C:\ドキュメント\UnrealEngineProject #NG
ちなみに、今回の検証では、以下のフォルダに保存してます。
C:\UnrealEngineProject
編集 > プラグイン
先ほどインストールしたプラグイン全部と
デフォルトのプラグイン「Json Blueprint Utilities」、「Audio Capture plugin」にチェックして、再起動します。
再起動してこういうメッセージが現れたら、「不足しているものを有効にする」をクリックして再起動します。
![](https://assets.st-note.com/img/1728204840-uYC3ApFHomeJ2wcit6IsLfnK.png?width=1200)
編集 > プロジェクト設定 > プラグイン > MetaHumanSDK
Personal Account をクリック
![](https://assets.st-note.com/img/1728211732-0UYhmMT47sNIPbx9a8lXpoSH.png?width=1200)
MetaHumanSDK のサイトが開き、利用者登録をして、APIキーを発行します。
![](https://assets.st-note.com/img/1728211997-6jz8lMBHn1yJthgoVOSkaeKc.png?width=1200)
そのAPIキーをさきほどのところにコピー&ペーストします。
![](https://assets.st-note.com/img/1728211813-FAeumTJS2y947ioxK5ZjrIlz.png?width=1200)
なお、MetahumanのAPIは
STANDARD PLAN 毎月15ドルで75分まで
75分超過する場合1分あたり0.3USD
ウィンドウ > Quixel Bridge
使用するメタヒューマンを選びます。
![](https://assets.st-note.com/img/1728304461-ERB91wxA8XTse2HKdVpIWcQ0.png?width=1200)
![](https://assets.st-note.com/img/1728304609-rnA40JLy5tTFKmDZB7w2slVQ.png?width=1200)
![](https://assets.st-note.com/img/1728306552-kOfwMoBYxEJQW7cCuL0b2z6e.png?width=1200)
コンテンツドロアーに Metahumans フォルダができています。
Metahumans > Taro > BP_Taroのブループリントを画面へドラッグします。
![](https://assets.st-note.com/img/1728306769-KOtzbUohW24HADZByge7YS8q.png?width=1200)
「プラグインがありません」「プロジェクト設定がありません」のような
アラートウィンドウが3つくらい出ます。
これらの「不足しているものを有効にする」をクリックします。
![](https://assets.st-note.com/img/1728307013-wGjD08JefERFpPd6CL4IKhcs.png?width=1200)
Metahuman Taro が画面に現れます。
![](https://assets.st-note.com/img/1728307173-khtX741BoAsnVp8LH3crPCgm.png?width=1200)
Taro の位置は、 0, 0, 0
PlayerStartの位置は以下とすると、プレイしたときTaroが画面の真正面にきます。
![](https://assets.st-note.com/img/1728307208-wW372FyDizVST9le1orO5bX0.png)
2-2. Google Speech to Text
パソコンに向かって話した言葉をテキストに変えるために、GoogleCloudのAPIを発行します。
Google Cloud で新規プロジェクトを作成
API とサービス > 認証情報 > 「+認証情報を作成」> APIキー
![](https://assets.st-note.com/img/1728696083-nRo1rubdWjJpBZAUqzGh3Q7F.png?width=1200)
![](https://assets.st-note.com/img/1728696247-5kpcw4XNxZbsmHuO9qitCKrW.png?width=1200)
APIキーはどこかに控えておきます (あとでも見れます)
※なおAPIは有料
https://cloud.google.com/speech-to-text/pricing?hl=ja
月間で60分以上の場合、1分あたりの料金はJPY 3.69996(USD 0.016)
(60分までは無料)
UEでは、パソコンに向かって話した言葉をテキストに変えるところを、先ほどインストールした Google Speech Kit を使います。
あとでブループリントを一括コピー&ペーストするので、ここでの説明は省略します。
詳細の使用方法はこちら
https://github.com/IlgarLunin/UE4GoogleSpeechKit-docs
2-3. Audio Capture の設定
○サウンドミックス作成
コンテントブラウザーの中で右クリック
オーディオ > ミックス >サウンドサブミックス
名前を MicMixにして、ダブルクリック
サブミックスレベルの Output Volume を -96.0 に
![](https://assets.st-note.com/img/1728731270-MJUPykeSK0xFdn2A431Qcvlj.png?width=1200)
○サウンドクラス作成
コンテントブラウザーの中で右クリック
オーディオ> クラス > サウンドクラス
できたサウンドクラスを開き、さきほど作成したサブミックスをセットします。
![](https://assets.st-note.com/img/1728731386-ZnDfrAMS5GE1ml4esxW8iHaR.png?width=1200)
メタヒューマンのブループリントを開き、
コンポーネント>「+追加」
![](https://assets.st-note.com/img/1728731519-ZSwtezcKah3PnW9mxRGIMJCu.png?width=1200)
「AudioCapture」を選択
![](https://assets.st-note.com/img/1728731665-anIXM1NYSHuUql0G5A8KxrgC.png)
右側の「アクティベーション」の「Auto Activate」のチェックを外します。
![](https://assets.st-note.com/img/1728731827-XGmbQOvKw7pzhtco1CAeEVZl.png?width=1200)
サウンドクラスに先ほど作成したサウンドクラスを設定します。
![](https://assets.st-note.com/img/1728734736-vc2SRZmkIxtJygD98rVdXo1Q.png?width=1200)
メタヒューマンの右側の「入力」を「Player0」とします。
![](https://assets.st-note.com/img/1728732028-HiF5Axm0dGzXTwDbvhpMUStr.png?width=1200)
2-4. OpenAI
OpenAIのウェブサイトでAPIキーを作成、どこかに控えます。
https://platform.openai.com/docs/overview
ちなみにAPIの料金(GPT3.5 turbo)
https://openai.com/api/pricing/
入力トークン:100万トークンあたり3ドル 出力トークン:100万トークンあたり6ドル
2-5. Lipsyncの設定(MetahumanSDK)
メタヒューマンのブループリントで、
コンポーネント > +追加
BP Talk Component を選びます。
![](https://assets.st-note.com/img/1728732716-aGmpArIuicB4D026lMXTxPL1.png)
3. 作成・実行
3-0. ブループリントの修正・設定
以下の画像のとおり、MetaHuman Taro のブループリントを開き、イベントグラフを開きます。
![](https://assets.st-note.com/img/1728700013-0RHkOcf9p1PoqxyAjsQh7Z2B.png?width=1200)
こちらの完成版のブループリント
を全部コピーして、先ほどのイベントブラフにペーストします。
![](https://assets.st-note.com/img/1728724502-x6JnUop3sQqLHwtyd8jv7iba.png?width=1200)
左上のここが「WARNING」になってる場合は
![](https://assets.st-note.com/img/1728724602-kWMy456q791dajYXBVpQIsiL.png?width=1200)
イベントグラフのデフォルトで存在するこれに
![](https://assets.st-note.com/img/1728724669-1rTL94gaOmU5XWJzoP2IYjnh.png)
差し替えます。
![](https://assets.st-note.com/img/1728724797-qwHypbQvZ6ftoE4PhDiRcsWe.png?width=1200)
一度、コンパイルします。
エラーがたくさん出てきます。
これらは変数のエラーです。
![](https://assets.st-note.com/img/1728728221-UltQcdmy60XG7v52SVp4HzMN.png?width=1200)
これら、エラーの出てきた3つの変数を設定します。
・Google API Key
・SampleName (音声ファイルのファイル名前、なんでもいい)
・OpenAI API Key
コンポーネント > 変数 のところで、
右クリック > 変数
![](https://assets.st-note.com/img/1728733259-Tn7jAeO6BylRidcGCp3ZFQSq.png?width=1200)
変数を作成します。
・Google API Key
・Sample Name
・OpenAI API Key
![](https://assets.st-note.com/img/1728733521-VzSRmUK7eg9AC4dpqFa58sXn.png?width=1200)
コンパイルします。
先ほどと同じエラーが出て、コンパイルは失敗しますが、
さきほど作成した変数のデフォルト値を入力できるようになりましたので、
各値を入力します。
![](https://assets.st-note.com/img/1728733684-T2nEFl7WVhoD1eJkQLb8AvN4.png?width=1200)
同様に他の変数もデフォルト値を入力します。
エラーが出てる変数のノードを先ほど作成した変数のノード(Get 変数名)と差し替えます。
エラーが出てる変数のノードは削除します。
![](https://assets.st-note.com/img/1728734058-nXqBLUIfF5E7290evc3YabjK.png)
コンパイル!
これでコンパイルが成功するはずです。
最後に言語・声設定
「Talk Text」 ノードをダブルクリックして、
詳細 > Msdk Setting > TTS > Voice ID にします。
![](https://assets.st-note.com/img/1728776086-DYRxrihNsFgqjXz3wPT1WvAI.png)
VoiceIDはこのリンク先の「音声名」というところにあります。https://cloud.google.com/text-to-speech/docs/voices?hl=ja
コンパイルして、実行すると、冒頭の動画のようにリップシンク付きのフォトリアルなアバターと会話ができます。
Rボタンを押しながら話してください。Rボタンを放すと、アバターが返答します。
では、ブループリントの内容を簡単に説明します。
大きく3つのパートに分かれます。
(1) Speech to Text
(2) ChatGPT
(3)Text to Speech with Lipsync
![](https://assets.st-note.com/img/1728724954-0NRcgXF81TZmoirh6MqOWeDu.png?width=1200)
3-1. Speech to Text
![](https://assets.st-note.com/img/1728725690-VYpwUFf7h5RAl12IjLaBDkgc.png?width=1200)
○内容:
Rキーを押すと録音を開始し、放すと録音を停止し、音声ファイルを作成・保存。その音声ファイルからGoogle APIによりテキスト化します。
○使用プラグイン
・Google Speech Kit
・Audio Capture plugin
○使用API
・Google Cloud API
3-2. ChatGPT
![](https://assets.st-note.com/img/1728735930-vSQykTUx1pXlPOGj0WDtnVzh.png?width=1200)
○内容
先ほどのSpeech to Textでテキスト化したデータをOpenAIのAPIに投げて、テキストで返事をもらいます。
こちらのサイトのブループリントをそのまま使用させてもらいました。ありがとうございました。
https://zenn.dev/dokoro/articles/f1f4c0a870f478
○使用プラグイン
・VaRest
・Json Blueprint Utilities
○使用API
・OpenAI
3-3. Text to Speech with Lipsync
![](https://assets.st-note.com/img/1728775672-Qbwyzkd3O7B65mKNMHI0nRLE.png?width=1200)
○内容
先ほどのChatGPTの返事のテキストからリップシンク付きでメタヒューマンが話します。。
○使用プラグイン
・Matahuman SDK
4.ウェブブラウザでの実行
Webブラウザで実行するには、Pixel Streaming を使用する方法があります。
こちらの記事をご参照ください。
5.その他
5-1. キャラクターの変更
・ブループリントをそのまま、コピペします。
・コンポーネントに、さきほどのアバターと同じ変数を追加し、デフォルト値の設定をします。
・アバターのコンポーネントに「AudioCapture」 を追加し、「詳細>サウンドクラス」にサウンドクラスを追加する。
![](https://assets.st-note.com/img/1728782558-7jF3OvnyzGwRb6UIMT0sP15V.png?width=1200)
・アバターのコンポーネントに「BP Talk Component」 を追加します。
![](https://assets.st-note.com/img/1728782639-rUlO8RHjLseDu6hZ9TwfKntM.png?width=1200)
これで、アバターが入れ替わってるはずです。
5-2. 動的に言語・声を指定する方法
Metahuman SDKでは、
以下のように「Talk Text」 ノードにVoice ID(言語・声)が組み込まれているので、実行中に言語や声を切り替えることができません。
![](https://assets.st-note.com/img/1728776086-DYRxrihNsFgqjXz3wPT1WvAI.png)
そこで、Metahumanの中身のブループリントに手を加えます。
※注意点
プラグインの中身のブループリントを変えるので、他でMetahumanのプラグイン使用プロジェクトに影響があるので気をつけること。なお、新しくプラグインをインストールしたら、この設定はなくなります。
String変数「Lang-VoiceID」を作成します。
「Talk Text」ノードをダブルクリックして、どんどん階層を下っていった先の
![](https://assets.st-note.com/img/1728783296-UtnRIg2X4OFxL0G6rYTeV7z8.png?width=1200)
ここの部分に
![](https://assets.st-note.com/img/1728783397-YWFLdvgq1T3jypuKZz4ErMPQ.png?width=1200)
以下のノードを追加します。
![](https://assets.st-note.com/img/1728783420-vVdOkTzFEZoXWnJ5q42QwjYb.png?width=1200)
以上です。
執筆者|質問&お問い合わせ先
記事の執筆者:おとわ&Tatsuya1970|対話型AI・開発プロジェクトメンバー
Tatsuya1970|自己紹介はこちら