十年経っても愛されるタートルトーク! "心が動く"対話の仕組みを紐解く(前編)
皆さん、東京ディズニーシーの人気アトラクション「タートル・トーク」はご存じですか?
「タートル・トーク」は、2013年に東京ディズニーシーにできたアトラクションで、来場者がスクリーンに映し出されたウミガメのクラッシュとお話ができます。なぜ今頃と思うかもしれませんが、なんと今タートル・トークがSNS上で話題なんです。
昨今はChatGPTを始めとした大規模言語モデルの登場により、キャラクタの対話自動生成に関する取り組みが急激に増えてきていますが、そのいずれも人の心を動かすような対話までは実現できていません。どうしたら人の心を動かす対話が実現できるのでしょうか。
そこで、十年経っても愛され続けるキャラクタの対話型アトラクションであるタートル・トークからそのヒントを探ってみようと思います。本記事ではまず前編でタートル・トークを支える技術について理解を深めます。後編ではタートル・トークを支える設計と共に、人の心を動かす対話には何が必要なのかを考えていこうと思います。
タートル・トークを支える技術
タートル・トークの仕組みについては、ディズニー公式が正確な情報を公開していないため、極力信頼できるソースに基づいて推測していきます。
1. 声について。
大前提として、タートル・トークに出演するウミガメのクラッシュは実在する役者さんが演じています。元クラッシュ役の声優さんによると、声優さんがクラッシュの声マネをしながら観客と話しているそうで、ボイスチェンジャーは使用されていないそうです。
2. 映像の表情や口の動き、目線について。
クラッシュの表情や口の動きは、リアルタイムCGを活用しており、口の動きはリップシンク技術で声と同期しています。また、表情は別途ボタンで制御されており、フェイシャルトラッキングは使用されていないとのこと。キャラクタが話し相手と目を見て話す仕組みは、声優さんが設置されたカメラ映像を別室でモニタリングし、その方向をキャラクタに正確に反映させている結果だと思われます。
3. 体の動きについて。
人とウミガメの体の構造の大きな違いから、人の動きを亀の動きに反映するのは困難です。そこで、アニメーターが作成したウミガメの動作をボタンで選ぶMotion Retrievalが採用されています。この手法は一貫して高品質な動きを実現するために広く利用されており、この体験では多様な動作から瞬時に適切な動作を選ぶためのタブレットアプリが存在するようです(図2)。
>>> 次回の記事ではタートル・トークの演出について考察します。