【ChatGPT】Processingで音楽に合わせて映像を同期する
以前からちょっと気になっていたProcessingというプログラミング言語。自分には敷居が高いのかな?と手をつけてなかったやつですが、例によってChatGPTの力を借りて、音楽と同期する映像を作ってみました。これもコードがどうのこうのというよりも、AIを活用してチャレンジすることの敷居を下げるという話です。
ちなみにオリジナル曲です。
Processingとは
幾何学的な模様を作って動かしたり、ゲームを作ったりなどができるもので、音楽に同期した映像を作ったりもできるものです。カメラやマイク、リアルタイムの音に同期することもできるので、ライブなどのイベントにも使えそうで楽しそうです。
下記のサイトでコードも色々公開されていて、単純に面白そうだなあと。
まずは開発環境をインストールして、公開されているコードを見ながら色々試してみました。
ChatGPTとのやりとり
AIがなにかとんでもないものを作り出してくれるんじゃないかということではなく、AIに何をどう作りたいかを明確に伝える必要があるのですが、とりあえずお約束でアバウトな感じで投げてみます。
あたりまえなのですが、何がどうかっこいいかなんて人だってわかりません。よくある簡易的なオーディオビジュアライザーのようなコードを出してくれました。もう少し具体的に聞いてみます。
ちょっと怠け癖がついたというか、簡単な調べものも同じスレッドで調べてしまいます、、。
その後、だいぶ思っていた動きとどんどん違う方向にいってしまったり、エラーが続出したり、話がそれてしまったりしたので、もう一度最初から細かい指示に変更しました。
成果
なんとなく構造は理解して、継ぎ接ぎのようにコードを並べて、パラメータを設定したものが、記事の最初にあった動画のものです。やったことは超ざっくりですがこんな感じです。
・必要なライブラリを読み込み、機能の設定をする
・音楽ファイルを読み込み、再生をする
・円の設定(位置、反応する音域、色、太さ、動き方、スピードなど)
・線の設定(位置、反応する音域、色、太さ、動き方、スピードなど)
・ボタン、再生中のファイル表示
本来であれば、いろいろ設計してから作るものだと思うんですが、感覚的に触って楽しみながら学ぶにはいいのではないでしょうか。コードはぐちゃぐちゃですが、自分のアニメーション活動の映像素材として使えたらなということもあり、こんな感じにつかってみました。まあこれに関していえば、別に音に同期する必要はあまりないのですが、、w
いろんな使い方がある
音に同期する映像は、VJ用の機材などでも同期できるみたいですが、今回はprocessingで作ってみました。イベントなどで使えたらいいなあ、、。
アート作品などで活用しているアーティストもたくさんいて、そのような方の作品はすばらしいものばかりです。
p5.jsというJavascriptのライブラリやオンラインエディターなども用意されていて、Webサイトやオンラインゲームなどにも活用できるみたいです。それはそれでチャレンジしてみたいことがあるし、なんでもできる分、自分なりのprocessingの使い方をみつけて活用できたらと思っています。