エイトリングパフォーマンス「BPM」について
はじめに
NxPC.Live vol.53 GRADUATION EXHIBITIONをご覧いただいた方、ありがとうございました。本番を終えて、改めて今回のパフォーマンスで目指したことなどについてまとめていきたいと思います。アーカイブだけでは今回の試みが伝わらないので、ぜひ合わせてお読みください。
とりあえずこちらアーカイブです。今回の試みについての説明映像も前半に少し加えています。
これまでの作品
現在、エイトリングパフォーマンスを「見る」体験の拡張をテーマに研究を進めています。その中で、過去3回披露したパフォーマンス(+学部時代の作品)では、映像を組み合わせることで、直接視覚にアプローチしようと試みてきました。以下アーカイブのリストです。この3つの作品における試みについてもまとめられたらと思います。
「BPM」について
今回の「BPM」では、視覚以外の五感へのアプローチとして、触覚に注目しました。手に汗握るというような表現がありますが、エイトリングのパフォーマンスを見ているとき、他のパフォーマンスよりもそうなりにくいように思います。そうそう失敗する(道具を落とす)ことはないし、難しいことをしても大技感があまりないですし。これはエイトリングパフォーマンスの良いところであり、考えようによっては悪いところでもあると思います。成功/失敗のハラハラ感なくパフォーマンスそれ自体に没頭できる一方で、パフォーマンスの「生感」がちょっと薄い。
このパフォーマンスの「生感」を補完するための実験として制作したのが、「HeartBeatMaker」というアプリケーションです。「生感」については後述します。
パフォーマンス中、耳につけたセンサからリアルタイムに心拍の情報がPCに送られます。その情報が、各鑑賞者の持つスマートフォンで立ち上げたアプリ「HeartBeatMaker」に送られ、まるでパフォーマーの拍動のようにバイブレーションが鳴り、触覚でパフォーマー自身の心拍を感じられるというものです。手に汗どころかパフォーマーの心臓を握ってもらおうという試みです。友人に変態かと聞かれました。否定できませんでした。アプリケーションのシステムについては、一番最後に付録として載せておきます。
パフォーマンスの「生感」ですが、私はパフォーマーの存在感とか緊張感、臨場感だと考えています。パフォーマンスを見ているときに、圧倒される感じとか、ピンと糸が張っているような緊張感を感じることがないでしょうか。自分の考える「生感」はそういう肌感覚みたいなものです。以前先生に「失敗したときに初めて難しいことをしていることが分かった」と言われました。もちろん難しいことをしていることをひけらかしたいわけではないけれども、目に見えて難易度が上がっていく(数が増える)ようなジャグリングパフォーマンスとは違い、成功/失敗によるハラハラ感、緊張感はエイトリングパフォーマンスでは起こりにくいというのは事実だと思います。さらにエイトリンガーは特に、涼しい顔をしてパフォーマンスしていませんか。自分自身意識してそうしています。パフォーマー自身のこの心がけも、パフォーマンスの「生感」をちょっと薄めているのではないかなと思います。それが悪いと思っているわけでは全くなく、あくまで付加価値として心拍可触化アプリ「HeartBeatMaker」を作りました。
パフォーマーの心拍の可触化と同時に、鑑賞者がスマートフォンを振ると、少しだけ映像演出に関与することができるようにしました。こちらはメインでなく、今後のことを考えて、鑑賞者側からの参加性を上げる手段として実験的に組み込んだものです。
ちなみに、アプリというかたちをとったのは、スマホには使いたい機能が既に備わっていること、アプリを実装した経験が多少あること、実際にステージなどでパフォーマンスを披露することを想定すると、スマホを持ってさえいれば不特定多数に体験してもらえることが理由です。あとはスマホの画面にパフォーマンス中目がいかないように、画面上でのボタン操作などは省き、ただの箱にしてしまいました。
背景の映像はTouchDesignerで制作しています。心拍と曲のBPMの不一致を強調するため、心拍と曲をビジュアライズするようなものにしました。
今回の成果・反省
最終的に一番苦労したのは、制作とは直接関係のないアプリケーションを配布するところでした。当日ギリギリに、学内限定とはなりますがアプリケーションを配布することができ、めちゃくちゃ喜んだと同時にそこじゃないんだよなあと。これまでも苦しんできたことですが、現状プロデューサー兼エンジニア兼パフォーマーであるため、一番経験の少ないエンジニアリングのところで時間も体力も尽き、パフォーマンスが疎かになってしまいがちです。それを考えると、今回はちゃんとパフォーマンスを作ることはできた方なのかなと思います。ギリギリまでかかりましたが、裏設定まで作り込めましたし。本番技間違えたりタイミング間違えたり練習不足なところは多々ありましたが。
一方で、実際にアプリケーションを使用した方の話を聞くと、ちゃんと心拍を送れていないようでした。人によってちゃんと振動が来ていたり、全く来なかったりと違ったので、音を使って通信した(付録参照)弊害なのかなと感じました。通信方法を見直す必要がありそうです。音もおかしかったですね。ちゃんとサイン波を流せば大丈夫なのか、はたまたスピーカーの問題なのか……
また、パフォーマンスだけで十分面白いというご意見が散見されました。パフォーマーとして嬉しい一方で、プロデューサーとしては不甲斐ないです。パフォーマンスそれ自体で面白いのは十二分に分かっていますが、演出とうまく組み合わせることで、さらに面白くしたいんです。付加価値となるような演出を目指していきます。
このまま心拍を活用する流れで最後まで行くのかはまだ決めかねているのですが、改善すべきところは山積みです。ひとまずちゃんと心拍を送ることができるようにしたいと思います。がんばります。何かご意見ありましたらお気軽にご連絡ください。
付録
耳につけたpulse sensorで心拍を測ります。これをArduinoでシリアル通信し、TouchDesignerに送信。ここで心拍の波が大きくなったタイミングをとり、20kHzのサイン波を0.1秒流します(うまく制御できず音源使用)。パフォーマンスをしている間中、鑑賞者のスマホ上の「HeartBeatMaker」では高速フーリエ変換が行われており、サイン波を確認したときにバイブレーションが鳴ります。ちなみにunityで作ってます。鑑賞者がスマホを振る(加速度が閾値を超える)と、OSC通信でTouchDesignerに信号が送られます。それを受け取ると、パフォーマンス中流れている背景の映像に数秒間ノイズが走ります。ちなみに本番直前にセンサのデータがうまく送れなくなりました。やめて欲しいですね。
参考にしたサイトなどはこちら