”みんなが見て分かる" 学会とは…
大学生にもなれば、1度ぐらいは学会に参加したり、関わることはあるでしょう。そんな学会ですが、発表は「音声」が中心に行われることも少なくありません。しかし、参加者は音声が受け取れるとは限りません。そんなところに「文字」を出してみたというお話。
1.開かれた学会にするために
学会というのは、学問を突き詰める人たちが、知を交わしあい、あるいは繋がりを作りながら新たな知を探求していくための専門的な場でしょう。
そこに参加する人たちは、もう何十年もその道を歩み、道なき道を切り開いてきた方もいれば、これから志す方もいます。
そして、そこには色んな境遇の方がいます。しかし、たとえ、耳が聞こえなくても、手話しか話せなくても、弱視でも、少し読み取りや文の理解が苦手であっても、最先端の知にアクセスし、一緒に歩んでいける環境があることは、とても大切なことです。
そんな場であるからこそ、その場で話された情報をみんなで共有するにはどうしたらいいか?を考える必要があるのです。
2.原稿だけしか話さない学会はない
プレゼン発表は時間が短い分、話す内容をだいぶ練ってきます。スクリーンに書いてあることが大半かもしれませんが、発表者がしっかり伝えたいことは、言葉の節々に現れます。
そして、その場の参加者と一緒におこなう「討論や意見交換」がとても大事で、その場でしか得られないとても貴重な「気づきの場」となっています。
その場合、原稿はありませんし、専門的な会話も出てきます。まぁ、学会発表するぐらいの先生はある程度慣れていて、聞き取りやすい方が多いです。しかし、それなりのスピードで話すため、文字入力で対応するには、それなりのスピードと知識も必要です。
そんな時に、音声認識は活躍します。
3.日本体育学会での活用事例
2017年9月、静岡にて日本体育学会の大会が開催されました。鈴木スポーツ庁長官の講演から始まり、アダプテットスポーツ部門のセッションにまで文字による情報保障がつきました。
日本体育学会は障害の有無に関わらず情報が行き渡るよう、今回UDトーク®と、まあちゃんによる字幕提供をしました。
機械と言えど完全に出せるわけではありませんので、静岡福祉大学の学生5人が誤字修正スタッフとして参加しています。
ちなみにこの学生は、1か月前に初めて音声認識修正を学びました。2時間程度の講習です。あとは当日まで自己練習をして、たまに教員の研究室でフォローアップをした程度です。
■1日目
1日目は、グランシップという大きなホールで行いました。大きなホールなので、音響さん、舞台スタッフもそろった環境です。
会場を見渡せるほうがいい、ということで、会場の一番後ろにある同時通訳室から編集をしました。
会場にはWiFiを設置してあり、端末はすべてその回線につながっています。また、投影位置と修正担当者の席までは離れているので、プロジェクターの場所に携帯端末を設置しています。(この端末も会場のWiFiをつかって字幕を受信します)
UDトーク®は、この学会で使うためにイベント向けのプランを契約して使っています。(法人契約のものと同じ性能をもっています)
なので、講演中に通常の国語辞典(音声認識用語でいう「コーパス」)にない学会特有の専門用語や比較的新しい言葉が認識しない場合には、
①この席にいる訂正者が、すぐに発話された通りに直す
②すぐに辞書登録することで、2回目以降は正しくでるようにする
という2つの作業を分担して進めているため、講演中にも表示変換精度が上がっていく体制をつくって運用しています。
今回は、発表者には英語を話す方もいましたので、UDトーク®の英語認識モードで表示するというのもやりました。
さすがに英語が聞き取れないと修正できませんでしたが、機械翻訳でも意味合いは取れるため、同時通訳が居ない環境下でリアルタイムにニュアンスを理解するには充分だったかと思います。
無線環境が整っていると、ロビーなどでも字幕中継することができます。これは会場に入れない人に向けても、簡単にライブビューイングできます。
ロビーで字幕を提供することにより、会場の中にはいるのが苦手な方や、「興味はあるけど、どんな内容かな?」と興味を持った方に対しても、文字で的確に内容を伝えることができます。
ロビーで見ている限りでは、字幕に興味をもって見に来てくれたあとに、そのままホールに入っていって聞いてくれた方も割といたように思います。
■2日目~
2日目からは、会場を変えて静岡大学で実施しました。こちらは、学会らしい研究発表と討論がメインの場です。
静岡は自然に恵まれた場所が多いので、ちょっと電波環境が悪かったのですがこちらはモバイルWiFi端末数台で乗り切りました。
1つの教室を借り切って行っているので、教室にある音響といっても普通のマイク用ミキサーに音声マイクと無線マイクを組み合わせて入力し、スピーカー出力するだけの簡素な構成です。
今回は、その出力をそのままUDトーク®で音声認識させて、会場内スクリーンに投影しました。
会場が若干狭かったのもあり、スクリーン投射距離を稼げなかったので、こういう場でやる場合は大型テレビを用いるか、リコー社などが出している「単焦点プロジェクタ」などを用いると場所も有効活用できるかと思います。
回線が細い分、モバイルインターネット端末を複数台用いて、回線分散することで、表示が遅れないように対策をしています。
また、回線が不安定な場合はQRコード接続にしたほうが接続が切れたりすることがなく、安定した運用となることも実証できました。
4.周りの反応
ツイッターの反応をみてみましょう。
反応がありましたね。
今回は「即時字幕システム」という名前で情報展開していましたが両日、投影画面は音声認識と機械翻訳を同時に出していましたので通訳として使っていた方もいらっしゃったのでしょう。
実際に、字幕を提供していた会場でも、「字幕が付いていてよかった」とコメントをもらっていました。
また、「この音声認識結果はもらえますか?」と言われる発表者の方もいました。
このシステムは運用者の設定次第でログを残すことができます。今回は、お客さん側ではログが残らず、運用元でのみログが残る設定になっています。
これにより、字幕を提供している「学会」の判断で、渡す・渡さないなどのコントロールができます。
障害によっては、文字をゆっくり読まないと理解が進まないケースもありますので、字幕を後から読み返すこともメリットがあります。
また、討論結果などを読みかえすことで、次の研究に生かすことや、事務局が議事録や学会誌を作るときにもログを活用できます。
5.みんなで手軽に活用しよう
学会によっては、情報保障に手話や要約筆記を呼ぶケースもあるでしょう。それで参加者が満足できる環境であれば、それでも問題はありません。
その反面、音声認識での字幕というのは障害の有無に関わらず活用できるユニバーサルデザイン/ダイバーシティといえる仕組みです。
なので、目的や特性に応じた適用、すなわち「合理的配慮」の思想にそった配置ができればとても良いのではないかと思います。
たとえば、個別に対人支援が必要な方には要約筆記、手話を主な言語として使うかたには手話通訳、みんなで活用する字幕として音声認識をつかった字幕…といったように。
ぜひ他の学会や、シンポジウムなどでもこんな感じで字幕をつけてみてください。
開発したり研究したりするのに時間と費用がとてもかかるので、頂いたお気持ちはその費用に補填させていただきます。