自動作曲システムについて

東京芸術大学、音楽環境創造科、准教授の後藤英です。

今日も後藤研究室で開発されたMaxの例について紹介したいと思います。

今日、ご紹介するのは後藤研究室所属の学生の満潔、田中小太郎、顧昊倫、Leonid Zvolinskyが作った、「自動作曲システムについて」です。

OMaxはIRCAMのG. AssayagをはじめとするMusic Representations Team(http://repmus.ircam.fr/)が開発した即興演奏者に対してリアルタイムで即興で反応するソフトウェアです。
http://repmus.ircam.fr/omax/home
Bachライブラリーは、Max上で楽譜として表示するものです。
https://www.bachproject.net

今回、紹介するシステムは上記の二つを組み合わせて、quasi-AI(厳密な意味ではAIの部類に入らないこと)のように自動作曲できるようにしたものです。

このプロジェクトは本来のOMaxを変化させて作ったものです。まだ進行中で、今回は途中経過の報告となります。

以下は学生達が書いた解説です。

⏬⏬⏬

OPC(OMax Point Composition)システムについて

OPC(Omax Point Composition)は博士4年の満潔をはじめ、田中小太郎、顧昊倫、Leonid Zvolinsky によって開発されました。AI 技術による OMax 環境を基にして開発したシステムです。作曲の過程においては、ソフトウェアの機能に備わっているグラフに点を描く事などの方法により、OMaxによって作られた音楽の時間軸(リズム、フレーズ、時間の構成など)を、作曲家の意図によって変形させることが できます。

OMax は、リアルタイムで学習した音楽データに対してインタラクティブに即興演奏するシステムです。しかし、OMaxは本来、作曲を目的にしていないので、 生み出された音楽は構成感が存在しない問題があります。OPCシステムを用いる事により、この問題を解決することが可能となります。


MSS_0601_図1


OPC システムは、主に三つの部分より構成されます。元の OMax システムの部分と、新たに加えられた二つの部分
— OMaxで作られた素材をリアルタイムで楽譜に表示する部分と、作曲家の意図によりグラフに点を書くことで音楽の時間軸を調整する MaxPC(Max Point Composition)システムの部分です。MaxPC(Max Point Composition)は、満潔が2019 年-2020 年に作った、楽譜の時間軸におけるリズム、フレーズ、セクションなどのパラメータを変化させるパッチより由来しています。

さて、実際の作曲に関してですが、素材としてインプットされた部分が、曲の全体の構成を決定するため、生成された新しい部分とインプットされた部分とどのように関連づけるかを、事前に慎重に構想しなければなりません。作曲過程で、セクションを分けたり、各セクションの音の密度を変化させることによって、自動生成する部分をある程度、制御することができます。また、最終的に生成されるファイルはMIDIファイルで出力されます。これにより、後に音色や音響効果を自由に選択することも可能です。

以下の映像の冒頭のデモを参照してください。
https://www.youtube.com/watch?v=AoebiJ1w8Yw
自動生成の部分と原曲との「対話的」特徴が目立っています。したがって、二重奏みたいな結果となっているため、自動生成の部分と原曲を分けて考えることにします。このデモにおいては、普通のピアノ音とプリペアド・ピアノの 音色を両方用意してあります。その「二人の奏者」が対話しているようにすることによって、多様性のある効果を表現できます。音色の区分のみならず、ピッチに関しても、 Max で MIDI信号によって分別する、−−−−例えば特定の高音域の音が全てプリペアド・ピアノになり、原曲によく出る低音域の音がそのまま普通のピアノの音として残される−−−−、 最後に DAW に読み込むことによって音色の変化が得られます。このデモは簡単な例ですが、近い将来には完成されたシステムになる予定です。


Maxサマースクール2021は対面だけでなく、同時にオンラインでの受講も可能となりました。詳細については以下のウェブサイトに近日中の公開される予定です。

http://maxsummer2021.geidai.ac.jp


いいなと思ったら応援しよう!