「字幕で味わう能の世界」ができるまで
もうすぐ増上寺の薪能が行われる時期ですね。昨年の記事では、字幕の話をちょっと書きました。
実は、いろんな人が繋がって、うまく機能することで字幕が実現できているのです。今回はそれをちょろっと紹介してみるとしましょう。
1.ユニバーサル対応とエンタテイメント
国際化が進んでいる中で、「その国固有の文化」をどう共有していくかというのは1つのテーマです。そして、国際化だけじゃなくて、たとえば音声情報の入手が難しいケース、能の世界に慣れていないケースなど、「情報を理解できる」かどうかは、その個人の状況に大きく左右されます。
なので、なにかいい手段があれば、もっと楽しめるのでは?と思うわけです。しかしそれは簡単に実現できる…というわけにはいきません。
特に、エンターテイメント性の高い伝統的な芸術であるほど、その前提としている文化、空気感、しきたり…いろんなものを含めて「その文化」なので、簡単に変えることができないことも多いです。
とはいえ、周囲の理解を得て、いろんな技術をうまく使えば、お互いの望む落としどころを見つけることができます。これは、観客だけにメリットがあるわけではなくて、より多くの人に、伝統文化をつたえ、価値観を共有し、伝承していくという「文化継承」の点でも、この方法を模索していくのはとても大切なことなのです。
2.始まりはひょんなことから。
ここに至るまでには、いろんな出会いがあります。
最初、要約筆記の字幕を無線で配信する仕組みをつくったころ、宝塚歌劇をはじめとする場面に字幕を付けようと活動していた宮下あけみさんとの出会いがあります。
彼女との出会いの中で、要約筆記字幕を無線でゲーム機(PSP®など)に飛ばすITBC2と呼ばれるシステムを作ることになります。(この無線化をきっかけに、要約筆記のシステムにはブラウザ配信機能がつくパラダイムシフトがおきました。結果、東日本大震災では遠隔字幕配信が行われるなど、いろいろ応用されるようになりました。当時のSCEIさんにも色々ご協力いただきました。)
彼女との出会いの中で、映画やDVDなどに字幕を付ける活動を始めたNPO法人メディア・アクセス・サポートセンターの川野さんと出会います。たしか、東京で行われた「三田フレンズ」のイベントで出会ったんだったかな。
そこから、字幕を多国語で送れるシステムの開発を一緒にするようになりました。そのシステムは・・・日の目をみてませんが、思えばここでかんがえたことがベースになっています。
その後、音声認識でコミュニケーションを取るシステムをつくったシャムロックレコードの青木さんに出会います。面白いこと考える人がいるもんだ、とおもいながら、中々話をすることができずに、ようやく出会った、って感じですね。今でこそ色んな話をし、一緒に開発もしているし、すごい柔軟に対応してくれる青木さんですが、最初は「ずいぶんストイックな人だなー、オーラあるなー」って印象だった(笑)
というメンバー(川野さん、青木さん、私の3人)がつながり、少しずつ物事が動き始めます。
3.自律的な開発部隊
この3人は、割と「役割」というか、カバーしている役割が明確だったりします。字幕の作成システムや、運用、教育など、事業・運用のほうは川野さんが、字幕を提示するシステムを青木さんが、字幕を送出するシステムを私が担当する、といった感じです。
それぞれの役割が明確なので、提案や検討がしやすいといったメリットがあります。情報は常にチャットでやりとりがあるので、仕様変更もすごくスムーズに進みます。
ある日、字幕作成システムの字幕を、音声認識の画面に飛ばす実装をして、川野さんに見てもらった時に、「こういうのは演劇とかで使えるね」という話から、「ポン出し字幕」という発想が膨らみ始めます。
映像作品であれば、タイムコードがきまっているので、ある程度事前に字幕化してしまえば、再生同期だけ気にすればいいですが、演劇など「時間に揺れのあるもの」に適用するのが難しい課題がありました。
これをポン出し字幕では「人間がセリフ毎に同期をとること」によって同期をとることができる、というわけです。
4.能への適用
シアターアクセシビリティネットワーク(TA-net)さんより、薪能への適用ができないか?という話がでます。このあたりを語るにはちょっと情報が足りないのですが、TA-netの石川絵理事務局長や河島幸世さんが、観世流シテ方能楽師の梅若万佐晴先生と増上寺の吉田龍雄上人のご理解を得ながら、字幕提供を行うプロジェクトを発足させます。
日々システムがどんどん作りこまれながら、実際に字幕を提供するに至ります。
今はどんなシステムになっているかというと…字幕データを、おこ助というソフトでつくり、そのデータをまあちゃん(or ことのは)で読み込み、UDリモートというリモコンで字幕を送る指示をして、おと見(or UDトーク)で字幕をみる、という感じのシステムです。
実践1年目は、こんな感じで音を聞きながら字幕を送りましたが…
途中からはこんなリモコン(初代UDリモート)をつくって、席で能をみながら進行させるシステムになりました。
まぁ、そんなわけで、こんな感じで能を楽しめるようになりました。
もっとも、屋外で行われる薪能をスマートなデバイスをつかって楽しめるっていうのはかなり画期的なことかとおもいます。
いまとなっては、VRゴーグルをつかったものや、EPSONのHMD(モベリオ)などを応用して見やすくし、音声認識をつかいながら「できるだけ多くの情報を字幕で得られる」など、たゆまぬ改善が続けられています。
5.今年も字幕があるよ
この薪能は、今年も9/29に行われます。
どんな感じでやっているかは、会場内でみることができます。こういう活動から、ユニバーサルデザインが広がっていくことを期待しているので、ぜひ関心のあるかたは覗いてみてください。
6.このシステムは誰でもつかえるんですよ
今回運用しているようなシステムは、誰でも使えるようなツールとして公開されています。
地元で演劇がある、幼稚園のお遊戯会で字幕を付けたい・・・などあれば、活用するのも良いかと思います!
もし、あなたが興味をもったら、TA-netやMASCの活動も応援していただけるとうれしいです。
開発したり研究したりするのに時間と費用がとてもかかるので、頂いたお気持ちはその費用に補填させていただきます。