2021.3.27「NAQUYO-平安京の幻視宇宙-」ライブセット制作秘話
こんにちは。Yuriです。
今回は2021年3月27日ロームシアター京都にて出演した「NAQUYO-平安京の幻視宇宙-」でのライブセットの内容や、制作過程について記していきます。
当日、DOMMUNEでライブストリーミングされていた様子もアップロードされています。こちらもぜひご覧ください!
トップのライブ写真は井上嘉和さん。かっこよく撮っていただいてありがとうございます!
ライブのコンセプト
京都で収録した梵鐘の響きと、最先端の電子音楽とデジタルアートを融合させ、「平安京のサウンドスケープ(音風景)」をテーマとしたライブパフォーマンスを実施します。
今回の公演では、去年2020年12月のMUTEK.JPでのイベントで初共演させていただいた、ヴィジュアルアーティストのManami Sakamotoさんと制作からパフォーマンスまで一緒に行いました。
Manamiさんのヴィジュアル作品は、とても繊細な線や、その中に佇む凛とした力強さがとても素晴らしいです。
前回ご一緒させていただいたライブにもうれしい反響があり、「今回もぜひ2人のコンビでライブしてもらえないか?」とMUTEK.JPの方から再度お声かけいただきました。こんなに早く再共演が実現してとてもうれしかったです!
ライブ出演にあたってまず私たちに与えられたのがこの「平安京のサウンドスケープ(音風景)」という壮大なテーマです。
ただ「平安京の音を想像する」というものではなく、近代の音響・映像技術と、京都の地ならではの文化研究を融合させるといった「現代にいる私たちが創造すること」という部分もとても大事なポイントだと思いました。
平安京から変わりゆく時間の中で様々なものが変化していきました。現代には昔にはないノイズがたくさん存在しています。でもその中を探ると、1300の時間の中に漂ってきたり、ひっそりと佇んでいるエレメント(自然の要素など)も多く存在しているのです。
ライブセットの制作
私たちのベースは大阪と東京と離れているため、基本的に制作はリモートでで行っていました。オンラインでの打ち合わせや、メールでのデータのやりとりを中心に制作を進めていきました。
意外にもこのリモートでの作業って密になりすぎず、私には合っていたと感じています。お互いのパートを「個々の解釈」、「個々の時間」で創っていく作品作りは自由度が高く、お互いのアイディアや創造性をより広げられたのではないかと思います。
自分の音に対してManamiさんが投げてきてくれる映像に「お、そうきたか!じゃあ自分はこうしてみよう!」とジャムセッションするような感覚もあり、悩みながらもとても楽しいものでした。
「誰かと制作する」という楽しさと可能性の広がりを改めて勉強させていただきました。
テーマの中にある「京都で収録した梵鐘の響き」は、共演の赤川さんや長屋さんたちが平安時代から存在している京都の各寺院を訪れ、収録してきてくださった「梵鐘」の音のファイルをいただきました。
(この梵鐘の音についても、ライブ翌日のNAQUYOワークショップにて長屋 和哉さんがお話されています。)
音楽の制作は、古典音楽の1つである「雅楽」と、私がベースにしている「西洋音楽」との融合なども考えながら、これをどう生かして作品に落とし込むか考えました。
そして、自分でも実際に平安京にまつわる京都の地へ足を運び、フールドレコーディングした音をライブセットに組み込んでいます。
(フィールドレコーディングについては過去の記事へ。)
ライブ環境
Manamiさんとは2回目の共演ということもあり、「もっと音と映像の同期をしてみたいですね!」という話になりました。そこで今回はMIDI信号を使って「音」と「映像」のシンクロを試みました。
2人のソフトウェアは、音楽の私YuriがDAWソフト「Bitwig Studio 」、映像のManamiさんはVJソフト「 Resolume Arena」 を使用しています。
(ステージで組まれていた2人のライブセット)
Yuri側(写真左)のRME BabyFace Pro(オーディオI/F)のMIDI OUTからManamiさん側(写真右)のMIDITECH MIDIFACE ( MIDI I/F ) のMIDI INへMIDI接続。このように音楽側から信号を送り、主に映像の切り替わり部分制御するような形です。
私は今回2つのMDIコントローラーを導入しました。
1つ目はNative InstrumentsのM32。MIDIキーボードです。
鍵盤に「梵鐘の音」をアサインしてリアルタイムでも音をだせるようにしていました。
2つ目は新しく導入した NovationのLaunch Control XL。
基本的にはBitwigのミキサーをコントロールするような使い方をしていました。各トラックのボリュームフェーダー、センドエフェクトの値、ボタン1つでトラックフォーカスできたりと効率の良いコントロールが可能になりました。
ManamiさんもNative InstrumentsのTRAKTOR KONTROL F1をつかって、リアルタイムに映像にエフェクトをかけたりコントロールを行っていました。
MIDI信号を送ることで切り替わりがばっちりと決まったのに加えて、リアルタイムでコントロールする部分に集中できてよかったです。
音楽の制作
制作やライブ時に使用した音源やエフェクトなどもいくつか紹介していきます。
・Audio Things - Texture
グラニューラルリバーブ
こちらは「梵鐘」のと「琵琶のサンプルフレーズ」に主に使用していました。
リバーブの残響感が、アブストラクトな雰囲気にぴったりです。
「BALANCE」のノブでGRAINSのほうへノブをふると、大胆なグラニュラー効果が得られます。ここをコントロールしながら、音を覆うベールの濃さを調整しました。
またMID/SIDEボタンを使えば、MID(真ん中)にはエフェクトがかからず、
side(RとL)のチャンネルだけかかるようにもできます。なので、音の芯の部分が残りもっと自然なグラニュラー効果が得られます。
今回は素材の音自体を生かしたり、会場でのリハーサルではもっと音の粒を立たせたほうがよいなという結論にもなりました。なので深くかかけすぎないように、ライブ中もMIXやBALANCEのノブをリアルタイムでコントロールしていました。
・Native instruments - Replika XT
マルチディレイ
このReplika XTはお気に入りの空間系プラグインの1つです。
ディレイのモードを「Dual」にすれば、左右で違うディレイタイムを設定できたり、とても自由な空間エフェクト効果を得ることができます。
右セクションでは、ディレイの成分に対してエフェクトをかけることができます。今回は 「Pitch Shifter」を「梵鐘」の音の残響音をループさせた素材に使っていました。ライブ中はこのエフェクトの量を調整して、どんどん音が高くなったり、原音に近くなったり音の変化をつけていました。
・DRUM MACHINE (Bitwig Studio付属)
BitwigのDRUM MACHINEはエディター画面も優れていてとても気に入っています。パットの音1つ1つにエフェクトを追加していったりもできて、制作時のビートは普段もこちらを使って組むことが多いです。
(↑実際使っていたもの)
こちらはライブ中も各寺院の音を各パッドにアサインして、Native instruments M32でコントロールしていました。
ちなみに、個人的に鍵盤演奏になれているのでDrum Machineを使用する際もPad型ではなく、キーボード型のコントローラーを使うことが多いです。どの音に何が入っているか覚えやすいんですよね。イメージも湧きやすいです。
制作裏話
「平安京のサウンドスケープ」という壮大なテーマ。これをどう表現するか正直、けっこう悩みました。最初のManamiさんとのミーティングでも「深いですよね・・・。」というところからスタート(笑)
実際にこのプロジェクト「NAQUYO」の原点にもなった中川真先生の著書『平安京音の宇宙』をお互い読んでみたり、MUTEK.JPの竹川さんや岩波さん、モーリスさんなど周りのみなさんの細かなサポートやアドバイスをいただきながら制作を進めていきました。
どうやって作ったか忘れてしまうところもあるくらい、今回はいろんな実験しました。それもあり完成した作品は、私たちなりの「平安京のサウンドスケープ」をしっかりと再現できました。
ステージは舞台監督の尾崎さんが細かい部分までいろんな手配をしてくださり、スタッフの皆さんの手際の良さにはとても助けられました。そしてPAを担当してくださった土肥さんには、音のアドバイスもたくさんいただきました。
ライブセットの制作は無事に終えていたものの、「次はこうしたい!ああしたい!」がたくさん出てくる貴重な「学び」のあった経験でもあります。
当日のDOMMUNEの配信はさすがの宇川さんのヴィジュアルで、会場とは違う楽しみ方を提案していただけたように感じました。(ぜひ冒頭にある当日のYoutube映像ご覧ください!)
次回はこの経験を生かして一層アップデートしたもの披露できるよう、研究と実験、そして制作をつづけていきます。
より優れた作品を楽しみにしていてください!
関わっていただいたすべての皆様、本当にありがとうございました!