視覚と聴覚の距離感の違いについて
今まで見向きもしなかったオンラインミーティングツール。でもコロナ禍でZoom、Whereby、Google Meetを使うことになりました。その中でZoomとWherebyを音声のみで実際に使った時、なかなか面白いことを思いましたので、そのことについて考えてみようかと思います。
Zoomを使用して雑談をしようという呼びかけで参加したオンラインミーティングには演劇関係、音楽関係、芸術関係の人などが10人ほど参加しておりました。画面の表示をフルスクリーンに設定したので、話している人が目の前に現れるという状態になります。この時、聴いている人はモニターに表示されないので認識できないことになる。そのため、モニターの手前にいる私とモニターの向こうにいる話している人の1対1の関係になってしまい、他者という存在ができなくなってしまう。そのミーティングの中でも、
「飲み会の中で隣の人と話したり、隣りの集団から聞こえてくる話に入っていくということができないね」
みたいな発言もありまして、それはその通りだなぁと。誰か一人が話していることをみんな聴くという形にどうしてもなってしまい、私とあなたという関係になってしまう。すると、他の参加者の存在を意識できなくなってしまう。そこには見えると見えないという視覚の問題があるのではないかと思います。では、Zoomのギャラリービューを使うとどうなるかというと、今度は参加者が並列になっている状態を画面で見ることになるので、発言をしている存在が見えづらくなってしまう。アクティブモードにすれば両立する事ができるかというと、人数が多くなると表示されない人も出てくるので、それもまた難しい。Zoomを使って場を成立させるためには事前に参加者を認識している前提がいるのではないか。Zoomはあくまでも場を成立させるための補助的な使い方でしかできないのではないかとそんなことも思ってしまいます。
でも、Wherebyを音声だけで使った時はまた違ったんですね。この時も雑談をしましょうという集まりでした。参加者は3人でこれまたパフォーマンスを行っている方々。モニターを見ずにスマホのスピーカーから流れてくる声に対して応えていく。そして別の方の話に対しても応えていく。そんな感じのやりとりを行いました。視覚情報がないため、Aが話している時にもBがいて、逆にBが話している時にもAがいるということを距離も感じずに何不自由なくできてしまう。それは電話というもの、ラジオというものが既に当たり前に存在しているから遠く離れた声を聴くのを当たり前のものと認識しているからかもしれない。また、視覚は視たもの錯覚として疑うことができるけれど、聴覚は耳に聞いたものを疑うことができないからかもしれない。疑うためには聞こえた方向を見て音を発する存在がいないことを確認する必要があり、視覚と聴覚に差があることが前提だと思うので。
なので、聴覚のみでオンラインの場を作れば、距離の問題も上手くいくのではないか。例えば、こんな感じだとどうでしょう?
1.まずカメラをオンにしてお互いの顔を認識する。
2.カメラをオフにして音声だけでやりとりする。
3.終わる頃カメラをオンにしてお互いの顔を認識する。
音声だけでもやりとりするよりは親密になれるのではないかなぁと思うのです。