見出し画像

手話小咄:聴者の手話学習者の私の目と映像メディア

今年もやってきました、まつーら先生主催のアドベントカレンダー「言語学な人々」2023です。「言語学な」話をどうしようと思いましたが、そういえば昨日の「日本手話は顔めっちゃうごくやつです」みたいな解説は言語学ベースでした(かなりかみ砕いてますが)。興味がある方は是非。

今年は、「言語学な」があっという間に埋まったので、別館(言語学なるひとびと)もあります。

去年もドラマの話を書いているから、ドラマばかり見ていると思われているかも知れませんが、去年のあれ以来、見たドラマと言えば、NetflixのOne Pieceくらいです。(1時間ちょっとのドラマを見ただけで1週間夜更かししてブログ記事を書き続けてしまうみたいな反応をするんじゃ、仕事になりません)もっと見てたと思うんだけど、「見るのが疲れるから見れなくなった」話から始めましょう。去年のアドベントカレンダーの続きです。

手話を習い始めて半年あまりが過ぎた頃、突如視界がうるさくなったのを覚えている。歩いていて、雑居ビルの看板が目にどんどん飛び込んでくる。頭が痛くなるほど「見える」ようになって、耳栓をしたら頭痛がおさまった。電車の窓の向こうの建物の解像度が上がって、処理しきれなくなったのだ。聴者は目が見えていない。視野が狭すぎる。手話の先生がそういった理由が多少見え方が変わったときに、ようやくわかった。それ以降、ほとんど見えていなかった手話の要素を、大分カテゴリカルに知覚できるようになった。今はもう頭痛はしない。意識的に「見ることをさぼる」こともできるようになった。
手話を学ぶと、知覚の改革がある。新しいモダリティの言語はおもしろい。みんなで手話を学ぼう。

https://note.com/rhetorico/n/nc211ad2b6f09

知覚の変容

時間解像度:手話話者になると(多分)目のフレームレートが上がります

第二言語としての手話学習者の生態についての研究がこの10年でかなり増えたようだが、あまり追えていない。今年は、聾学校の先生が日本手話使えない問題とかもあり、それについての基礎研究も必要だよなあと考えることが多かった。そもそも隣の建物に、2年で2400時間の日本手話環境に放り込まれる人たちがいるのに(座学もあるけど、日本手話だけで行われるイマージョンプログラムも多い)、研究してないのもったいないよなあと思っているところ。(国立障害者リハビリテーションセンター学院手話通訳学科の環境について知りたい人は以下の本を参照)

私は手話をはじめて以降、手話に限らず細かいところが「見える」ようになったなという実感がある。手話を学んでいたときには「聴者は本当に何も見ていない」とろう者の先生に言われ続けていたが、今になってしまえば「自分が何を見ていたか」についてはよくわからない。手話を学ぶ前の私は視覚情報処理をかなりサボっていたんだろう。だから、今はテレビドラマとか映画とか見ると、「すごく疲れる」。見るのをもうちょっとサボればいいんだけど、つい見てしまう。多分、脳があまり視覚情報処理にチューニングされてないのに、見えるようになってしまったものだから、齟齬を起こしているのだと思う。

学習者みんながそうというわけではないけれど、手話を母語とするろう者については、視覚情報処理がすぐれていることは2000年くらいまでの研究でも確かめられていたことだ。視覚情報処理能力を高めないと、手話をちゃんと見ることは結構難しい、ということも示唆される。

昔のテレビ番組のVTRを見ると、解像度が低くてびっくりする。今や4KでYouTube動画が流れてくる時代で、その解像度に慣れていると、デジタル放送が始まる前は、こんなもやっとした解像度でよくアイドルがかっこいいとか見分けがついていたな? と思ったりする。字幕について古い文献を見つけたとき、ルビを付けるのはよいが、字がつぶれると書いてあったりして時代を感じるほど。まあだからアイドル雑誌とかの需要があったのか…。映像じゃ顔はっきりわからんもんね。その画質みたいな問題と、「見える量が増えた」は似ていてちょっと違う話かもしれない。

映像を撮るときに、データサイズを決めるのは以下の3点

  1. 画像解像度(HDとか4Kとか、つまり1枚の静止画の中にどれだけの点が詰まっているか)

  2. 時間解像度(フレームレート、1秒あたり何枚の絵を入れているか、例えば映画なら24枚/秒とか)

  3. 圧縮度(jpeg圧縮がひどいともやもやっとみえるとかのあれ)

1についてもなにかありそうだけど、私の話は多分、2の時間解像度が、手話を見るのに適していなかったのが、手話を学ぶことによってかなり向上した、という感じだろう。もちろん、言語の認知においてトップダウン処理も重要だが、知覚できなきゃどうしようもない。注意を払っていなかっただけなのか、それとも根本的に処理のリソースがちがうのか…。つまり3圧縮度というか、その画像情報処理リソースが何か違う気がする。このアナロジーでいえば、という話だけど。

周辺視野と注意:服を投げられた

こないだ、ろう者の先生たちとアメリカに調査に出かけて、はじめてろう者と同室で過ごした。同室のろう者がシャワーを浴びているので、私はメールチェックをしていた。ドアをコンコンとノック音がするので顔を上げると、洗面所からそのろう者が「タオルとって!」と顔を出しているではないか。シャワーを終えて出てきた彼女に「相手がろう者のときはどうするんですか」と尋ねると、変な質問するねえ、と言いながら「何か投げる」んだといわれた。私が目を大きくして「そうなんだ!」とやると、「あたりまえ!」と笑われた。そういえばタオルを渡したときに服が落ちていたのに実は気づいていた。彼女は先に服を投げたらしい。「あ、相手は聴者だった」と気づいて音を出したのだろう。私は、視界の隅に服が飛んでいたことは気づいておらず、「まだまだだな」と思った次第。

この道中で何度か、「呼び止めたけど気づかないから最終手段である音や声で呼ばれる」を経験した。

そもそも、何かを知らせるのに服が飛んでくるかも知れないと思って構えてないのは、私が聞こえるからだ。聞こえる人は、何かしらの情報の変化を察知するのは耳。ろう者はそれを目でやっている。周辺視野も広い。これは「画像解像度」という概念ではなくたぶん「注意」と「構え」の話だと思う。

仕事場の空間の作り方も、今何がわかってるか察知しやすくするために調整したというのが、前川和美先生の記事。

知覚からメディアへ

手話撮影の方法

「フィールド言語学の方法」の本を読むと、最初の方に機材の紹介があるが、録音機材について、雑音を減らす方法について細かく書いてあり、機械がわりと好きなのでふむふむと読んで「一生懸命読んでしまったがここ関係なかった!」と思ったりする。

手話関係の研究機関に行くと、結構本格的なブルーバックやグリーンバックの小部屋、やたらでかい照明機器、つまずきそうな大きな三脚、など撮影機器が充実している。フィールドでどうするかについて、私は当初よくわかってなかったのだが、最近は「雑音」がなんなのかわかっている。背景は、できる限り情報を減らすこと。できれば無地のスクリーンが欲しい。

家庭用ビデオカメラでも十分に撮れるけど、手話を撮るときは、とにかく固定の絵を撮るのがまず重要で、

  • 部屋の照明を安定させる

  • オートフォーカス機能などが付いていたら、切ってマニュアルでピントをあわせておく

  • フレームレートは30fpsでいいが、インターレースは使わない

  • 後で静止画として取り出したい場合は60fpsで撮っておくとブレのない絵が取り出しやすい

  • 暗いとブレが出やすいので明るくする(シャッタースピードを上げると一枚ずつの絵が暗くなるし、照明の周波数で絵が安定しないのでそこら辺はいいあんばいにする)

  • 被写体になる人はできる限り視線がカメラに向かって語りかけるような角度にする。三脚は目線の高さ〜ちょっと上

みたいなところをちゃんとやらないといけない。今年は障害者週間の手話翻訳を撮影するところを担当したが、照明機器やビデオカメラの設定は私がやった。(→丸山正樹さんの特別講演

ちなみにこういうノウハウは、ろう者のほうがよく知っている。大学の先生たちがコロナ禍で「良いマイク買った」とかいってたのと多分同じことである。

映像で推敲する

最近では、デジタルビデオカメラも、PCでの映像編集も(スマホでも)普通の人の手の届くものになった。

日本手話と日本語のバイリンガル・バイカルチュラル教育を行っている明晴学園の子は、こんなにカメラ慣れしているから驚きだ。この年齢で、視線がカメラからぶれない。

明晴学園、NHK手話ニュースのキャスターも何人も在籍しているし、映画に出ている子はいたし、タレント養成校かなんかですか? とも思ったりするんだけど、ろう者と映像メディアは実は相性がいい。

言語保存の研究者に「手話には文字はないんですか」と聞かれて、「あるにはあるけど(もにょもにょ)」と何回かお茶を濁してきたが、手話の文字化については日本では全く定着していないのが現状だ。言語分析では、手話の音声記号表記ではなく「ラベル」表記(グロス並べて非手指要素を上に書く)が必要悪として存在している。

手話の場合、「手話のまま」思考しておいたほうが良い面がある。音声言語と違って線形で取り出せる部分が少ないから、というのが一つの答えだろう。同時に展開する非手指要素によって、統語構造も意味も変わるので、それをいちいち意識化して書くのが大変なのだ。

手話には書き言葉がないから、聴覚障害児教育に関して、音声言語の書記形態をとにかく早く習得させなければいけない論もある。書き言葉がないから「学習言語になり得ない」論も実はさかんだ。しかし、最近は「ビデオで推敲プロセスをすれば良い」といえるようになった。手話を撮って、自分で見て、修正して、また撮って、人に見せてコメントもらって……(コメントを付け合うところ、こないだのアメリカ視察でも見せてもらった)。この推敲のプロセスはちょっとめんどくさいようにも見えるけれども、機材的には手軽にできるようになってきているので、手話言語での抽象思考を深めるのにきっとこれからも貢献するだろう。

この「映像慣れしている日本手話の子」は、その学校でいつもカメラに向かって手話を撮っていることを示唆する。

映像を制作したサンドプラスさん、ろう者の今井ミカ監督がやっていて、日本科学未来館の手話付き映像も作っている。覚えておいて損はない会社。

オンラインコミュニケーションの変遷と課題

あるとき、隣の建物にある手話通訳学科の市田先生(ろう文化宣言の共著者で、手話言語学のレジェンド)に呼び出されたと思ったら、震災の時の話を聞かれた。震災というのは、2011年の東日本大震災のことだ。あのとき、ニコニコ生放送でニュースを日本手話に訳したものを流していた。若気の至りである。ろう者のキャスターも手話で映像を発信していた。それについて何か書いたものはないのか、と聞かれたのだが、あの頃は、まだ手話業界に足を踏み入れたばかりで、何から書いて良いかわからなかったので、たいしたものは書いていなかったですね、と答えた。あれから10年以上経ったので、ずいぶん状況は変わりましたねという話をしていた。

最近は「やさしい日本語」科研に参加しているが、当時は「わかりやすい日本語」というワークショップに参加して、共著論文も書いた。

震災当時は、生放送には字幕はつかず、ろう・難聴者は情報難民になっていた。Twitterは突如、情報インフラの側面を発揮したと同時に、デマを拡散してしまうというデジタル民主主義の光と影のようなものを見せ始めていた。(実は今も、字幕はあるが、手話はほとんどついていない)

市田先生は、コロナ禍での招待講演で、「むしろろう者はそういうデジタルツール活用の先駆者的な面がある」と発表していた。

木村晴美先生の「日本手話とろう文化」は2007年刊行だが、テレビ電話の試用についての記述が結構ある。FaceTimeの登場が2010年だから、それより前からテレビ電話を使ってみていたというのは結構驚きだ。Skypeとかもあったけど、私が初めて使ったのは多分2009年に渡米したときだ。

iPhone4でFaceTimeだったら手話で会話できるよってやってるCMが2010年。アメリカ在住の日本人ろう者らしい。このCMは日本手話。

記録しておかないと当たり前になっていってしまいそうだけど、この頃ろう者はみんなしてiPhoneに乗り換えたという話を聞いたりする。

2010年の段階でテレビ電話がスマホでできるようになったが、そこからテレビ電話というものは、それなりに実用化していたのに、ずいぶんかかって2021年に電話リレーサービスが公的なものになった。電話を手話や文字に通訳して取り次ぐサービスが双方向で利用できるようになった。緊急通報もできる——というか、それまで、緊急通報が近くの聞こえる人にお願いしないと使えなかった。聴覚障害のある大学生の中には、119番って何ですか? という人が結構いたらしい。電話リレーサービスのイメージを持っていない方は是非これを見て欲しい。

Zoom会議が当たり前になったコロナ禍以降、オンライン会議などに手話通訳者さんの自宅などから遠隔通訳をお願いすることはできるようになった。しかし、ちょっとした用事に、「いつでもどこでも使いたいときに呼び出して使う」ような利用ができるサービスはない。電話リレーサービスはあるけれど、目の前に人がいる場合、これは使ってはいけないことになっている。

手話通訳者不足もあるのだが、いわゆる公的派遣、「意思疎通支援事業」では、生活に必要な医療や、役所の手続き、教育、就職面談などの通訳については、利用者が無料で派遣を依頼できるようになっている。この意思疎通支援事業が地方自治体単位での対面通訳派遣を第一の選択肢にしているので、「いつでもどこからでも」が難しいという事情もある。技術が進歩しても、制度が変わらないと、なかなか便利に使えない。

この「意思疎通支援事業」の6割が医療通訳だと言われているが、割と「今日の今日」とかではお願いしにくい(自治体にもよるが、数日前とか1週間前とかに申し込む必要がある)。それに、新型コロナウイルス感染症のような感染力の強い病気で、かつ緊急性・重要性が高いとき、手話通訳を使いたいなら、オンライン支援が適切だろう。少なくとも現代では技術的には可能なのだ。しかしオンラインでの通訳を提供できる自治体は限られている。

もちろん、最近は、ろう・難聴者は、筆談や音声認識アプリも使いこなす人も少なくない。それぞれ割と有効な手段になってきているが、「本当にしんどいとき」に第一言語でやりとりできないこと、また理解しにくい・誤変換がある、などはやはりまだまだ解消すべきバリアだといえるだろう。

なんだかずいぶん遠くに来たけれども、映像というメディアを効果的に使える時代にあって、手話で学ぶことや、知ることは、今までよりできることが増えているので、来年もいろいろと可能性を探っていきたいと思う。

映像メディアといえば、今夜はNHKドラマ「デフ・ヴォイス 法廷の手話通訳士」後編。本物のろう者・難聴者が多数出演していて、本物の日本手話が見られます。見逃した方はNHKプラスで!

言語学な皆さん、手話の撮り方も伝授したので、もう準備はばっちりですね。来年はぜひ、日本手話を一緒に学びましょう。メリークリスマス!

いいなと思ったら応援しよう!