【デジタルMATSUMOTOの考察(2023/10/3)A評価】ピクサーはAIを使って映画『マイ・エレメント』の“炎”を誕生させた | WIRED.jp
デジタルMATSUMOTOが以下の記事に考察をしたようです。記事の要約に対して考察をしました。
出力の著作権違反はチェックしてますが、問題があるようでしたらご指摘いただけますと幸いです。
元記事はWIREDさんをご覧いただけましたらと。
デジタルMATSUMOTOの考察
映画製作におけるAIの活用は、映画の表現力を飛躍的に向上させる一方で、AIガバナンス上の重要な課題を提起しています。映画『マイ・エレメント』でピクサーが機械学習を用いて炎のエフェクトや群衆の動きを表現した事例は、AIが映像製作に対し持つ可能性を見せつける一方で、その背後にはAIの倫理やガバナンスに関する課題が潜んでいます。
まず、AIの学習データについて考える必要があります。AIは学習データに基づいて予測や判断を行いますが、その学習データが偏っていると、結果も偏る可能性があります。例えば、特定の種類の炎の映像しか学習データとして提供されなかった場合、AIはその特性を全ての炎に一般化してしまう可能性があります。したがって、学習データの選定とそのバランスは、AIによる映像表現の質に大きな影響を及ぼします。
また、AIの開発者の意図しない振る舞いについても考慮する必要があります。AIはあくまで人間の設計に基づいて動作しますが、その動作が全て予測可能であるわけではありません。例えば、ある種の炎を表現するために設計されたAIが、異なる種類の炎を表現する際に意図しない動作をする可能性があります。このようなリスクに対処するためには、AIの振る舞いを定期的に確認し、必要に応じて再学習を行うなどのガバナンスが求められます。
一方で、AIの活用が進むことで新たな表現方法が生まれ、映画のクリエイティブな面に大きな影響を与える可能性もあります。AIによる炎のエフェクトや群衆の動きの表現は、人間が手作業で行うことの難しい、自然な動きを実現することが可能となります。しかし、その一方で、AIによる表現がクリエイティブな表現の多様性を損なわないか、視覚的なバリエーションを狭めることなく、個々の映像作品の独自性を保つことができるか、という観点からもAIの適用は考察されるべきです。
以上のような論点を踏まえ、AIの活用が進む映画製作業界においては、AIの公正性や倫理性を保障するためのガバナンスが必要となります。そのためには、AI開発者、映画製作者、視聴者など、関係者全体での議論と共有が必要となります。それぞれの視点からAIの利用とその結果について議論し、映画製作におけるAIの適切な活用方法を模索していくことが求められます。
リアル松本のコメント
評価A.そのまま利用
自分のインデックスにある以前日経クロステックに寄稿した「人材選考AI」や「工場の不良品検知AI」の記事の要約を引用して、公平性や環境変化による期待とのギャップの論点を反映させてくれています。
また、自分の専門領域ではない知的財産権や法的な話を、無理やり入れていないことも自身の考察としては適切と考えています。
リアル松本自身もピクサー、ジブリ、細田守さんの映画等が好きなのですが、いつもどのクリエイターも新たな表現方法やテーマを獲得して過去の作品から変化を生みだしていると感じていまして、
単一のAIが様々クリエイターの変化に対応できるのか?様々なクリエイターの「ごった煮」みたいな表現になって違和感が生まれるのではないか?なんて疑問を持っていたりしています。
(そういったモデルが出てきた際には、クリエイティブなプロンプトテクニックが登場する期待もありますが)
今回の考察生成において、インデックス内で特に注目された文書(埋め込みベクトルで参照)は以下のようです。
>人材選考AIを例に「AIと公平性」の問題を考える、学習データに潜んでいたリスクとは
この記事は、人事選考AIを例に、AIの公平性に関する問題を考察しています。AIが不確実性を含むため、差別的な判断を受ける可能性があるという懸念があります。政府や企業は、AIのポリシーやガイドラインを策定していますが、ユーザー企業の多くでは、具体的に何をすればよいかが不明瞭であるという課題があります。本連載記事では、AI倫理を実現するガバナンス(AIガバナンス)をビジネスの現場で実践するための指針を、事例シナリオに基づいて紹介します。この記事では、東京大学未来ビジョン研究センターが開発する「リスクチェーンモデル」というフレームワークを使用しています。このフレームワークは、AIサービス固有の重要なリスクに対して、AIシステムの開発者やAIサービスの運営者、AIサービスの利用者が連携した対策を検討することを目的に開発されました。本記事では、AIに関する公平性を、人材選考AIのケースに基づき考えています。
>工場の不良品検知AIを例に「AIに影響する環境の変化」の問題を考える
AIの社会実装が進んでいるが、AIに含まれるバイアスやプライバシーの侵害、非倫理的なAIの利用などの問題が発生している。AI倫理を実現するために、どのようなリスクを検討すべきかについて、「AIに影響する環境の変化」を例に考えた。AIモデルの不確実性によって、AIが開発者の想定しない振る舞いする可能性がある。本記事では、「工場の不良品検知AI」を例に、利用者側でどのようなリスクについて考慮すべきかを考えた。AIの学習データや利用環境などの変化が原因となって、AIが開発者の想定しない振る舞いする可能性がある。AIの頑健性の課題として、広く問題提起される論点である。今回は部品ではなく、背景として写り込むベルトコンベヤー表面に存在した摩耗がノイズとなり、AIの判断結果に影響を与えた。AIモデルを環境変化に迅速に追従させることは容易ではない。この問題に対する解決策として、AIモデルを再学習することが挙げられる。
この記事が気に入ったらサポートをしてみませんか?