
ゆかりねっとコネクター字幕テクニック①
ゆかりねっとコネクターをつかって字幕を付けよう!という方が増えてきてうれしいです。そして、いろいろ使っていくと、色々気になるところもでてくるのも、ツールあるあるですね!
エミュレータが重いと感じるなら!
手持ちのタブレットやスマートフォンにUDトークをいれてつかってみましょう。端末を個別にわけることで、安定度合いをあげることができます。
特に実況配信やVtuver環境では、CPUの余裕度はあまりないかとおもうので、負荷を分散するのも1つの手です。
あまり古い端末はおすすめしませんが、分散はなかなか効果的です。もし、おうちにPCは複数あるけど端末はあまりない!という方は、エミュレーターをサブPCで動かす手もあります。(その場合は、NATの設定をうまく調整して、同じLAN上で認識できるようにしてください)
字幕がおそいと感じるなら!
そう、QRコードで招待接続すると、環境によって、おおよそ 300ms~1000ms程度の送れ(レイテンシー)が発生します。これが「ワンテンポ遅い感じがする」ってやつです。
ゆかりねっとコネクターは、UDトークと文字をやり取りするときに、文字を配信するUDトークサーバーを経由します。通常、この方式は「エミュレーターなどでも確実に接続できる」という点でメリットになります。しかし、なるべくVRモデルとの同期性を得たいとなると、埋められない遅れになります。
この場合は、ローカル接続をしてみてください。UDトーク端末(もしくはエミュレータ)と、PCを同じWiFi環境につないで、やってみてください。
(解説文章はこちら)
認識~表示までの遅れ(レイテンシー)が格段に向上します。ただし、通信環境が一時的に悪化したり、CPU負荷率が高い場合に、通信切断することがあるので、様子を見ながら使ってください。
UDトーク以外を使いたいと感じるなら!
いまのところ、音声認識システムとしてUDトークしか選択肢にいれてません。
MicrosoftやGoogleなど種類はありますが、現段階では「音声認識の誤認識率を上げる」という点で辞書などの仕組みを簡単に用意できそうにないから、という点もあるし、Googleを使うだけなら、ゆかりねっとでよいわけだし。
逆に「こういうの使って実現できないかなー」なんていうのがあれば、提案はお待ちしております。
なお、どうしてもサービスの利用にお金がかかるから、実装しても支援で賄えなければ有料運用って形になるかなぁ、とおもいます。
あ、ゆかりねっとのGoogle翻訳をつかいたい人向け(要は、英語字幕だけだしたいんだけど…のニーズの方向け)のプラグインは近日公開しようかな。
いいなと思ったら応援しよう!
