イノフェスで感じたライブ×テクノロジーの可能性 〜音楽に寄り添ったテクノロジーってなんだ〜
先日、J-WAVEのINNOVATION WORLD LIVE PLUSというライブイベントに行ってきた。
テクノロジーと音楽の融合をテーマにした数少ない大規模イベント。
六本木ヒルズで開催された昨年の本イベントも2日目のメインライブこそ台風で中止となったが、全体として完成度高く素晴らしいパフォーマンスや展示に心踊った。
今回はその台風で中止となった部分のリベンジ公演だ。
期待値高く当日の豊洲PITへ。
平日の18時という時間もあってか最初のころは人もまばらだったが、その時間に来てる人だけあって人数の割にとても熱量高め。
Awesome City Clubやカサリンチュ、andropにアジカンとご機嫌な面々のパフォーマンスであっという間の3時間。
その凝縮された空間にはこれからのライブ体験のアップデートの核となるエッセンスがたくさん詰まっていた。
今回はイノフェスを通じて見えたライブ×テクノロジーのトピックをまとめて紹介していきたいと思う。
■インタラクティブ
アーティストのパフォーマンスが始まる前に、会場の中の人たちが決められたURLにアクセスし、その状態でスマホを振った回数が10000を超えたらライブが始まるという早速の仕掛け。
最初から会場があったまった状態でライブが始まるのはアーティストにも優しい。笑
ここはWeb系エンジニアを始め幅広い人たちが工夫しだいで楽しい演出ができるところ。
UXデザイナーがライブ演出に関わる時代とか、考えるだけでワクワクするなぁ。
■リアルタイム
Awesome City Clubを始め、会場の音の特定の帯域にだけ反応して映像が変わるなど、リアルタイムの映像生成を駆使したパフォーマンスは随所で見られた。
なんとなくキックに反応していたり、クラップに反応していたりするだけでも一体感が出てテンション上がるよね。
昨年の本イベントのトップバッターAI Tommyみたいに、リアルタイムトラッキングで生々しい動きをデジタル上で表現するようなものも。
この領域はVJの拡張っていう考え方が大きくはありつつも、センサリング/トラッキングの活用など幅は広い。ツールでいうとTouchDesignerが最強だと思うので、TD使いが増えるように布教していきましょう。
■AR(拡張現実)
アーティストがステージ上のスマホのカメラで撮影した映像に、デジタル上での加工を加えたものがステージのスクリーンに映る、いわゆるARを駆使していたのはカサリンチュ。
今回のカサリンチュはパフォーマンス中に後ろに流す動画にも、2次元と3次元の融合を意識した演出を取り入れたものでクオリティ高く素敵でした。
この辺りはPerfumeが最先端の領域で、去年の紅白の演出とかもう現実とバーチャルの境が全くわからないレベルですごかったんだけど。
これ、もう少し小規模でも活用できる技術だと思ってて、そういう意味では今回の事例はすごく意味のあるものなのかも。
「アニメに合いそうなアーティスト」って結構いるけど、そう簡単にアニメとのコラボとかできないじゃん。笑
そういうときにイラストレーターさんと動画クリエーターさんに手伝ってもらってARを選択肢にするとか結構ありだと思う。
UnityとかUnreal Engineを日常的に触っているゲーム系のエンジニアさんなんかは得意なんじゃないかな。
■インターフェース
ALSという全身が動かなくなる障害を持った武藤将胤さんが、眼球の動きだけで操るDJ&VJパフォーマンスとandropとのコラボレーション。
これはちょっと特殊な事例かな?と思ったけど多分そんなことなくて、パフォーマンスを拡張する意味では大きな可能性を秘めていそう。
今回の演出でインターフェースの拡張には2つの目的があることに気づいた。
・ハンディキャップの補完
優れたクリエイティビティを持ちながら、ハンディキャップを持つが故に技術部分で表現ができない方々がそのハンディを補完する方向
・テクニカル部分の拡張
普段手でDJやVJパフォーマンスをしている人が、その動きをすべて眼で制御できるようになるなら、空いた手でもう1つ別のことができるようになる。
極端な話、弾き語りをしながらリアルタイムでオケをいじれるようになったりする。
手元が慌ただしいとファンとのコミュニケーションが薄くなる問題はあるのだが、ライブ以外にどこで使うんだってくらいには親和性は高い。
音楽との相性という意味でも、とても強く表現の可能性を感じた良いパフォーマンスだった。
ハードウェアエンジニアのみなさまぜひ。
■データ活用
最後は「ライブ」という文脈で考えるには無理矢理かもしれないけど、アジカンが使ってたから書く。
アジカンの演出は演奏に合わせて決まった映像を流す、安定感重視のものだった。
精密な六本木ヒルズと豊洲PITの3DCGデータなど地図を使った3Dの映像演出を見て、ふとこの記事を思い出したよ。
もしかするとGoogleMap APIとUnityを駆使して、表現に昇華した稀少な事例だったのかもしれない。
一からCG作ったのかな...さすがに...と思ってるけど、そうだったらごめんなさい。
こんな風に公開されるデータが増える中、どう表現に使うかは役割関係なく全クリエーターにとってとても面白いテーマだと思う。
ここに挙げた以外にもまだまだライブ×テクノロジーの可能性はあるだろう。
将来的にはAIやブロックチェーンがライブに使われる時代がくるかもしれない。
今回のイノフェスは、ライブ×テクノロジーで「今」実現できることにリアルに挑戦をした、実験的で挑戦的かつライブイベントとしても完成度の高い素敵な空間を作り上げることに成功していた。
今年も開催されるであろうイベント。
毎年各テーマがどこまでアップデートできるのか、どんな新らしいトピックが出てくるのかを定点観測する場としても期待される。
ただもう台風だけは勘弁して欲しいな。