久しぶりにMidjourneyを使ってみると、/describeという新機能があることに気がつきました。
画像をテキストに変換してくれる機能です。
先日のGPT-4の新機能もそうでしたが、画像をテキスト化する機能は様々な用途に使えそうです。それを視覚障がい者向けのアプリに応用するという発想は素晴らしいですね。
早速、私の作品で試してみました。
”Water Sculpture”
水を空中に放って、水の表面張力、重力によって、創り出される形を捉えた作品です。
さらにビーチでも撮影して、風にも造形を手伝ってもらって創り出されたのがこの写真です。
Midjourneyでテキスト化した結果とそれを元にしてできた画像。
具体的な作家名が含まれるのはちょっと問題ですね。
これは抽象的なイメージですが、AIが画像やテキストをどのように認識しているのか、興味深い傾向が多く見受けられます。クオリティについては、撮影された画像よりもインパクトがあり、きれいな画像を生成できるようになるのは時間の問題でしょう。もうすでにそうなっているかもしれません。
今はまだ画像を客観的にテキスト化しているようですが、将来的には風景画像を読みこんで俳句を作るとか、状況と人の表情を読み取って心情を語るとかできそうです。どこまで進化するのでしょうか。恐ろしい。
この作品は、特に哲学的なコンセプトがあったわけではありません。
何かそこに美があるような気がして、ただ、ひたすら水を放ち続けて、自然や風と戯れる、そして瞑想しているような感覚でした。
写真は説明せずに見る人の独自の解釈で楽しめばいいという考え方もありますが、誰が何を想って作品を作っているのかを言語化することは、今後さらに重要になると思います。
杉本博司氏の「海景」は、文字や画像で再現することは容易でも、そこに込められた想いをAIが読み取ることはできないでしょう。杉本氏の書籍を拝読した後、同じ「海景」が全く別の作品として見えたときの衝撃は忘れられません。
そんな作品を作り出せたらいいですね。
数秒で作れる画像を、人間が多大な労力と時間をかけて作る意味。
AIの進化を追うことは楽しい作業ですが、その限界を知るためにもAIの研究をすることはお勧めです。