見出し画像

生成AI画像の均質化

昨日MOOTIONというAIによりショート動画を生成するサービスのイベントに行ってきた。
北京からやってきたCEOのプレゼンの次に質問時間があったので聞いてみた。 「プレゼンの映像に出てきた人物が全員白人に見えるのですが、なぜ中国の会社で日本にローンチするイベントで人物をアジア系にしないのですか。これまでに他の生成AIを使ってみたが、人物はデフォルトで白人。日本人にとプロンプトするとアジア系になったりはするのですがMOOTIONはどうなのですか」

CEOではなくイベントの登壇者の一人が答えてくれた。「オープンAIのChatGPTのビッグデータを使用しているので、サンプルデータがアメリカのデータがメイン。それが嫌なら”白人を出さないで”というようなプロンプトをすればいい」と。

後で、ChatGPTに聞いてみた。 「生成AIで作成した画像の人物はどうして白人がデフォルトなのか」答えは以下だった。

1)データセットのバイアス
2)ユーザー入力の曖昧さ
3)アルゴリズムの設計
4)開発者の意図や無意識の影響

イベント参加者には、映画関係者は自分ぐらいで、広告関係や動画制作者などが多かったような気がする。イベントが終わりシドニーの大学院で映画を勉強した日本の方に話しかけられた。 「さっき登壇者の一人が生成された動画のカメラワークがいいと言っていましたが、私は全然そう思わないんですよね、どう思われます」と聞かれたので、「僕もいいとは思いませんでした。でもCEOもコカ・コーラレベルのCMをMOOTIONで作れるかという客席からの質問の時に、この中にプロのアニメーターやプロデューサーはいますかと質問し、誰も手を挙げなかったのを確認して、ではいいましょう、まだ私たちはベイビーですと、わかっているようでしたね」と答えました。

現状は、ある画像を見てその画像を「生成AIぽいね」という形容が通じる人には通じる状況だと思う。その原因の一つにオープンAI社のChatGPTが開放しているAPIを利用しているところに原因があるのではないだろうか。

生成AI画像の均質化である。

最後に、3人のモデレータのうち女性の方は「FLUXは、日本人ぽい人物のバリエーションがある」と発言してましたので試してみます。

ハリウッド映画や広告業界ににおいてジェンダー、性的嗜好性、人種の多様性は制作サイドが意識して意図して映画などを制作しているが、ビックデーターのアルゴリズム、あるいは開発者の無意識、さらにリテラシーが十分でない意図的なバイアスにより生まれるのが生成AIの現状だ。

イベントでは、教育への利用を提案していたが、偏ったアルゴリズムに対抗してプロンプトするというのはかなりの先生サイドの教育が必要になるだろう。 イメージというのは言葉よりもより感情的で心に残るので、生成AIを教育に利用するのは、使用する側が大学生レベルのリテラシーが必要だろう。

生成AIで子供が絵本を作る体験は一見未来っぽいが、オープンAIのアルゴリズムにイメージが支配される危険性はあるのではないか。

さて、アップリンクで何に利用できるかというと映画館案内の掲示に利用したり、新作紹介をする映画紹介者を生成できるというのは面白いかなと思う。

いいなと思ったら応援しよう!

浅井隆 ASAI Takashi(UPLINK)
一番のサポートは映画館で映画を観てくださることです。 アップリンク渋谷・吉祥寺をよろしく。