見出し画像

「生成AI利用のガイドライン」にモヤモヤしたクリエイター側のガードライン

憲法記念日ですね。GW中なのでこのところ忙しくて処理しきれていなかった振休や有給取得というタスクをこなしながら、趣味のチャットボット開発やらデジハリ大学院の同僚とクリエイティブAI研究会したりしていたのですが、この分野の話題でご活躍の柿沼弁護士から気になるツイートが視界に入ってきました。

日本ディープラーニング協会(JDLA)資料室

フィードバックが求められている

このブログは同日公開された記者会見における松尾先生の「フィードバックが求められている」、柿沼弁護士が「あくまで現段階にすぎない」というメッセージに基づき、問題がありそうな箇所について指摘させていただいております。いわばクリエイター側のガイドラインに対するガードラインです。


生成AのI利用ガイドライン 第1版, 2023年5月公開 【簡易解説付】の開発者からみた問題点

基本的なスタンスや内容については「まあ便利でいいんじゃないでしょうか」という感想ではあります。ただこれは生成AIの中でもChatGPTについてのみ、社内での使用を制御したい企業さんのガバナンスとしてIT部門が脳死でガイドライン条文を再利用するようなユースケースで「便利」なのであって、実際に規制側なり開発者側としてみると「そもそもChatGPTの利用規約やAPIの利用規約を読んで理解して合意できているのかどうか」というレベルの話になってしまいませんでしょうか。

もちろんOpenAI社のChatGPTというサービスの始め方にもいろんな問題はあると思います。サービス開始した当初は本当にGoogleログインの直後に何の利用規約の合意もなく、入力できてしまう状態でした(今でも、厳密には「読んで理解していない人が入力できてしまう」という問題は残っています)。

(4) 個人情報
 【ChatGPT】においては入力したデータが【OpenAI社】のモデルの学習に利用されることになっていますので、【ChatGPT】に個人情報(顧客氏名・住所等)を入力する場合、当該個人情報により特定される本人の同意を取得する必要があります。そのような同意取得は現実的ではありませんので、個人情報を入力しないでください。
 【ただし、利用する生成AIによっては、特定の条件を満たせば個人情報の入力が適法になる可能性もあります。詳細は【セキュリティ部門】にお問い合わせください。】

生成AのI利用ガイドライン 第1版, 2023年5月公開 【簡易解説付】より

「セキュリティ部門にお問い合わせください」という形でお問い合わせしても、回答できることとできないことがあるだろうし、むしろChatGPTに対してセキュリティリスクアセスメントサービスなどを実施するコストが払えるならこんな議論にもならないし、やったとしてもまたすぐにサービス更新されてしまうし…。そもそも「問題だ」と言っているのは他でもない日本企業側だとすると、何が問題なのかを明確にしたほうがいい気もします。

【解説】 個人情報を生成AIに入力する行為が適法か否かは、当該生成AI内でのデータの取扱や、当該サービス提供者が外国にある事業者なのかによっても結論が分かれ、非常に複雑です。たとえば、ChatGPTにおいてデータ管理機能の追加により、対話履歴をオフに設定することで、学習に使われないようユーザが管理できるようになっていますが、OpenAI社は外国の第三者であるため、個人情報保護法上、個人データの入力はできない可能性が高いです。そのため本ガイドラインでは一律個人情報の入力を禁止することにしています。一方で、OpenAI のAPIやオプトアウト利用、Azure OpenAIサービスを利用する場合には個人情報上の規制をクリアできる場合もあります。そのため【ただし、利用する生成AIによっては、特定の条件を満たせば個人情報の入力が適法になる可能性もあります。詳細は【セキュリティ部門】にお問い合わせください。】と記載しています。

生成AのI利用ガイドライン 第1版, 2023年5月公開 【簡易解説付】より

この解説は疑問が残ります。個人情報は「個人情報保護法で定義された項目」すなわち「氏名、生年月日、住所、顔写真などにより特定の個人を識別できる情報」という法で定義された項目が「適法か否か」の対象になります。もちろんその組織で定義された項目や、そのサービス利用者が「これは個人情報なのでは、と感じる項目」がありますが、「適法か否か」はこの場合は、その組織なりChatGPTユーザが遵守する国であり、この場合は日本の法律において議論する内容であることが解説のスコープとして定まっているのではないでしょうか。APIによる利用ではなく、ブラウザインタフェースによるChatGPTの利用の場合、クリップボードやキーボードによる入力で「個人情報」を入力している時点で個人情報の扱いに問題があります。

具体的な反例1:大学事務におけるChatGPT利用

このガイドラインの具体的な問題例を考えてみましょう。ここに日本の大学組織があったとします。大学の広報課につとめる事務局職員が、とある学生さんの表彰に使うための作文を以下のようなプロンプトで生成した場合…。

本学の写真部に所属する白井暁彦さんが著名な賞である伊兵衛写真賞を受賞しました。この人物をプレスリリースで紹介するための作文を生成してください。

サンプルプロンプトです

こんな風にChatGPTに問い合わせをすることは、一見グレーゾーンではありますが、個人情報保護法の観点では「氏名」を入力しており、違法行為ではないでしょうか。

コメントまで生成されてしまっていますが…

もちろん「これは広報の目的であり、大学の個人情報保護のポリシーにおいては目的外使用ではない」という主張もできるかもしれません。「著名な賞を受賞したのであれば、それは公知の事実であろうから」という視点もあるかもしれませんが、本人の同意を得ていないまま「ChatGPTに個人の名前を入力した」、そして「この大学の所属であることを入力した」という自覚はないままにカジュアルに違法行為を実施してしまったことになります。

もちろん、ChatGPTへの問いに個人名(もしくはその他の"個人情報"とされる情報)を入れなければ問題はない。なのでこれはガイドラインで解説されているような「複雑な問題」や「オプトアウト」や「ChatGPTの利用禁止」ではなく、単に所属組織の個人情報保護法に対する教育の不徹底でしかない問題のようにもみえます。

「個人情報を生成AIに入力する行為が適法か否かは、当該生成AI内でのデータの取扱や、当該サービス提供者が外国にある事業者なのかによっても結論が分かれ、非常に複雑です」という点ですが、

(5) 他社から秘密保持義務を課されて開示された秘密情報
 外部事業者が提供する生成AIに、他社との間で秘密保持契約(NDA)などを締結して取得した秘密情報を入力する行為は、生成AI提供者という「第三者」に秘密情報を「開示」することになるため、NDAに反する可能性があります。そのため、そのような秘密情報は入力しないでください。

【解説】
 ①生成AI提供者が入力データに監視目的での限定されたアクセスしかしない、あるいは一切アクセス・保存しない場合において、②組織が秘密情報の利用目的として定められている目的のために生成AIに秘密情報を入力(プロンプトエンジニアリングのために利用することも含む)して分析・生成する行為については、NDAに違反しないでしょう。一方、大規模言語モデル(LLM)の多くは入力データが学習に利用されますので、NDA違反を構成する可能性が高いと思われます。
そのため、本ガイドラインでは一律入力を禁止しています。

生成AのI利用ガイドライン 第1版, 2023年5月公開 【簡易解説付】より

これも「ChatGPT」というサービスに限定した場合には、その時点でのサービス利用規約によります。基本的に「提供された情報を利用する」という意味では、たとえばGoogle検索の検索履歴も、Mapsでの住所検索も、記録に残るといえます。「利用目的」次第ではないでしょうか。

なお、ChatGPT自身もサービス改善・改変していきます。

このような状況において「一律入力を禁止しています」という結論をつけることで、主従関係が混乱することになりませんでしょうか。
国内法>契約書>所属組織のルールやガイドラインという法的拘束力を想定すると、ガイドラインで「一律入力を禁止」するとなると「契約書に書かれた目的」が無視された形なります。仮に「ルールやガイドライン>契約書」という主従関係だったとしても、契約の目的(例えば、NDAに基づき実施される調査業務)によっては、「一律入力を禁止」するのではなく「別途契約書によって定める」とする必要があるのではないでしょうか。

具体的な反例2:GitHub Copilotによるプログラム開発

ChatGPTではありませんが、LLMを利用した便利で広範に使われそうなサービスとしては「GitHub Copilot」があります。本ガイドラインに従うと、業務委託で開発を委託している企業が、GitHub Copilotによる開発をすることはできない、ということになります。Copilotは仕様書やソースコードのすべてをLLMに渡しているわけではありませんが、コメントやカーソルの前後を常に送信して推論します。
組織的な一律のガバナンスではなく、契約の中で「合理的な開発としてLLMを使用したサービスを認める」もしくは「LLMを使用し外部サービスを使用する際は、その都度報告・安全性を確認のうえ利用する」といった契約にしなければ、このガイドラインを採用した企業は、業務委託先においてもLLMの使用を(その利用規約や設定、運用、担当者の理解や教育に関係なく)一律に禁じるということになります。
業務委託を受ける開発者は、GitHub Copilotを使用しないか、このようなガイドラインを採択している企業からの依頼を受けない(=契約できない)ということになります。「道具と契約とどっちが大事なのか?」という議論に聞こえるかもしれませんが、これは「LLM時代の格差」を大きく拡げることにつながるだけでなく、受託会社側からすれば、そこで働く人々の効率や単価、新しい技術に対する制御までが含まれる内容であり、その分の保証を込みにした価格設定にする必要が出てきませんでしょうか。最終的にはガイドライン自体の利用者が存在しないという状態にになりませんでしょうか。「このようなガイドラインを採用する企業とは取引ができない」という開発者が多くなり、結果的にはこのガイドラインには使われない、というユーザ不在のガイドラインになってしまいませんでしょうか。これが杞憂であってほしいと思いますが、過去に私が委託していた(過去形)協力会社さんに「GitHub Copilotを使いたい」というお願いを打診いただきましたが、「当初の契約書に含まれていないので機密保持の視点から合意しかねる」というやり取りがありましたことを書き添えておきます。

関連してこちらの項目も指摘させていただきます。

(6) 自組織の機密情報
 自【社】内の機密情報(ノウハウ等)を生成AIに入力する行為は何らかの法令に違反するということはありませんが、生成AIの処理内容や規約の内容によっては当該機密情報が法律上保護されなくなったり特許出願ができなくなったりしてしまうリスクがありますので、入力しないでください。

生成AのI利用ガイドライン 第1版, 2023年5月公開 【簡易解説付】より

特許出願は可能です。入力された内容が水平展開されて、新規性喪失する可能性があり、それは例外規定にて手続きを受けることは難しいであろう、という表現であれば理解できますが「特許出願は可能」と考えます。

具体的な反例3: マイクロソフトが取引先にできなくなる

GitHubだけでなく、MicrosoftもLLMを扱っています。OpenAIとの提携をしていますし、Bingにおいて同様の検索サービスを展開しています。Windows11にもBing検索が統合されています。Office製品にも実装されています。管理部門に内部の検索データを全て回収させるエンタープライズ版があるのかもしれませんが、多くの日本企業にとってこれは大きな痛手になり、OSやオフィススイート、Teamsのようなディスカッションプラットフォームにまで及ぶ禁止事項はあまり現実的とはいえないのではないでしょうか。

具体的な反例4: 取引先やOpenAIの条項によって動的に状況が変わる

上記の反例1-3の複合でありますが、まずOpenAIのChatGPTの挙動は個人Gmailと企業のGoogleWorkspaceアカウントで挙動が異なります。おそらくSMSによる認証や課金モデルが異なるためと推測します。つまりOpenAIは企業向けの契約プラン(例えば検索内容をフィードバック学習させないとか、企業向けのファインチューニングサービスとか、追加リポジトリとか)を用意することは可能と推測します。このように動的な利用規約を用意可能なサービスにおいて固いガイドラインを引くと「では個人のGmailアカウントを使って(業務であっても)個人の携帯電話や文房具として利用する事は可能ではないか」といった解釈も可能になってしまいます。業務用ツールと違ってLLMによる言語推論の難しさがここにあります。例えは個人のスマホでの利用は反例1のように「個人情報保護の視点で見て適切でない」とすべきであり、AIは関係がないのです。
同様の問題は取引先でもおきます。例えば取引先がLLMを使用しているかどうか?どのようなフィードバック学習を利用しているのか?ついて、常に調査を実施しなければなりません。契約締結の状況は各社のトレードシークレットなので、他社に開示できるかどうかはNDAの内容にもよりますが、越権行為にもなりますし、そもそも「取引先にLLMを利用させない権利」はないはずです。

大規模言語モデルも一括りにせずに、集合知フィードバック型ではなく、オープンでオンメモリでワンショットの推論のものであればそこまで難しい要素はないですし、そこが売りになる要素もあるかもしれないですね。Stable Diffusionによる画像生成はまさにそのモデルですが。

その他気になった要素

紛らわしい表現

② 商標権・意匠権侵害 画像生成AIを利用して生成した画像や、文章生成AIを利用して生成したキャッチコピーなどを商品ロゴや広告宣伝などに使う行為は、他者が権利を持っている登録商標権や登録意匠権を侵害する可能性がありますので、生成物が既存著作物に類似しないかの調査に加えて、登録商標・登録意匠の調査を行うようにしてください。

③ 虚偽の個人情報・名誉毀損等 【ChatGPT】などは、個人に関する虚偽の情報を生成する可能性があることが知られています。虚偽の個人情報を生成して利用・提供する行為は、個人情報保護法違反(法19条、20条違反)や、名誉毀損・信用毀損に該当する可能性がありますので、そのような行為は行わないでください。

【解説】生成AIからの生成物が既存の著作物と同一・類似している場合は、当該生成物を利用(複製や配信等)する行為が著作権侵害に該当する可能性があります。もっとも、どのような場合に著作権侵害に該当するかは明確な基準が存在しない状況です。そこで、本ガイドラインでは保守的に考え、著作権侵害に繋がる可能性のある行為(「特定の作者や作家の作品のみを学習させた特化型AIを利用する行為」「プロンプトに既存著作物、作家名、作品の名称を入力する行為」)を禁止し、生成物を配信・公開等する場合には、生成物が既存著作物に類似しないかの調査を行うよう義務づけています。

生成AのI利用ガイドライン 第1版, 2023年5月公開 【簡易解説付】より

他者の意匠や商標に類似した図形商標や図案化文字商標を侵害する行為は意匠法や商標法によって禁じられた行為であり、著作権侵害やLLMは関係なく適法ではない行為ではないでしょうか。

またChatGPTはテキスト生成サービスであり、そこから生成された画像(例えば、SVGやbpyによるスクリプト画像生成)はその変換を行った段階での作業、さらにそれを商標調査をせずに商品として他社の商標を侵害した行為に問題があるのであって、ChatGPTは直接関係ありません。
なお同様にStable Diffusionによる画像生成についても照らし合わせていきますが、「商標キーワード」を使った画像生成についてはその恣意が明確にありますが、「偶然に似てしまったケース」は、他の著作物と同じ判定になるのではないでしょうか。

混乱を生む解釈

(3)生成物について著作権が発生しない可能性がある
 仮に生成物に著作権が発生していないとすると、当該生成物は基本的に第三者に模倣され放題ということになりますので、自らの創作物として権利の保護を必要とする個人や組織にとっては大きな問題となります。
 この論点については、生成AIを利用しての創作活動に人間の「創作的寄与」があるか否かによって結論が分かれますので、生成物をそのまま利用することは極力避け、できるだけ加筆・修正するようにしてください。
【解説】
 ① 画像生成AIの場合
画像生成AIの場合であれば、自分の意図通りに高画質の画像を生成するために、①詳細かつ長いプロンプトを入力して画像を生成した場合、②プロンプト自体の長さや構成要素を複数回試行錯誤する場合、③同じプロンプトを何度も入力して複数の画像を生成し、その中から好みの画像をピックアップする場合、④自動生成された画像に人間がさらに加筆・修正をした場合などは「創作的寄与」があるとして、それらの行為を行った人間を著作者として著作権が発生することになるでしょう。
② 文章生成AIの場合
ChatGPTのような文章生成AIには様々な用途がありますが、文章生成AIのユーザが何らかの指示をして、何らかのリサーチ結果、アイデアや回答を得た場合、出力テキストにはユーザの創作意図と創作的寄与は通常はありませんので、文章生成AIによる出力テキストには著作権は発生しないということになるでしょう。
文章生成AIから、よりよい出力を引き出すために、質問(入力)の仕方のヒントやプロンプト文例がたくさん公開されていますが、ユーザが質問をするにあたってそれらの文例を駆使したとしても、出力テキストに対するユーザの創作意図と創作的寄与が認められることはないように思います。
したがって、ユーザが文章生成AI に指示をして、何らかのリサーチ結果、アイデアや回答を得た場合、それらの出力には著作権が発生しない、ということになりそうです。

生成AのI利用ガイドライン 第1版, 2023年5月公開 【簡易解説付】より

現在は各国の訴訟や判例が報道されている状況ですが、日本国内においては現在の著作権法では「プロンプトには創造的寄与」が認められる可能性は大いにあり、他国(例えば米国では「プロンプトは注文書とみなし、創造性はない」)とは異なる状況にあるといえます。このガイドラインのままであると、条文と解説でも相反する内容になっており、混乱をまねきます。

サービスによって異なる規定

(4) 生成物を商用利用できない可能性がある
 生成AIにより生成した生成物をビジネスで利用する場合、当該生成物を商用利用できるかが問題となります。
 この論点は、利用する生成AIの利用規約により結論が左右されますが、【ChatGPTの場合、生成物の利用に制限がないことが利用規約に明記されているので、この点は問題になりません。】
【解説】
本ガイドラインではChatGPTを主たる例に挙げて言及していますが、たとえば、画像生成AIであるMidjourneyの場合、無料会員が生成した画像の著作権はいったん無料会員にAI生成物の著作権が帰属した後、Midjourneyに当該著作権が移転し、その上で、Midjourneyは、当該AI生成物を創作した無料会員に対して、CC4.0NCの下、ライセンスをすることになっています。
 つまり、無料会員は当該AI生成物を商用利用することはできません

生成AのI利用ガイドライン 第1版, 2023年5月公開 【簡易解説付】より

MidJourney無料会員のCC4.0NCは、サービスによって異なる規定であり、コンテキスト主文からすると「ChatGPTの生成テキストは商用利用できる」が主張になるのではないでしょうか。むしろ「MidJourneyのように無料会員が生成した生成物はNC(営利目的で使用してはいけない)という解釈を普及させることが本ガイドラインの目的や主旨に合っていませんでしょうか。

もう少し突っ込んだことを書いておきますが、例えば「画像生成で贋作を作って売ったら作ったら何の法律に反するのか」について、明確にすべきかと考えます。これでは「個々のサービスの利用規約によっては問題がない」という犯罪ほう助にもなってしまいませんでしょうか。そこに「AI画像生成なる技術は何の関係もない」と明記しなければ、単なるバズに乗った話題性提供としかとらえられなくなりませんでしょうか。


フィードバックが求められている

繰り返しになりますが、このブログは同日公開された記者会見における松尾先生の「フィードバックが求められている」、柿沼弁護士が「あくまで現段階にすぎない」というメッセージに基づき、問題がありそうな箇所について指摘させていただいております。
https://www.youtube.com/watch?v=ULYBJQm7vXQ

ガイドライン改定案への提案


・「ChatGPTというブラウザサービスを日本に企業組織が使う場合の問題」にいったん話を絞って構築したほうが良い
・「GitHub Copilot」について明確にセキュリティや問題点をきちんと調査して調査しなければ、開発者や業務委託に直近の問題が出る。「一律に禁止」は
・「OpenAI社のLLM利用API」についてはそのあとに定義する必要がある。
・項目の多くは多様なポリシーや法的判断に横断する問題であり、サービスの利用規約等の法的遵守への適法判断になり弁護士が個々に規約審査すべき内容と考えます。
・当該ChatGPTのバージョンを明記する。「March23」といった明記でリリースノートがある。利用規約や個人ユーザから提供された情報の扱いについても明記がある。

・ガイドラインの有効期限を設定するべきではないだろうか。上記のバージョン指定や、今後の有効期限、更新頻度については慎重に明記する必要がある。未来永劫このガイドラインが人々の意識に浸透することで、生成AI自身に対する危険性やリスクだけが強烈に規制される一方で、その使い方についての経験がゼロという状態が初期から設定されることは危惧を感じる(詳細後記)。具体的には「このガイドラインは2023年5月から8月末日まで有効」といった非常に短い期間でライフタイムが設定されるべきではないか。

個人的感想:画像生成AIクリエイター視点で

商業制作における二次工程

こうしてみるとガイドラインの策定は「禁じる側」にはとても都合がいいけれど、使う側にとっては地雷だらけではないだろうか。
例えば他人の著作物を「許可を得て利用」する場合はどうなるのか。
日本のグラフィックス分野には、もちろん一次著作者としてドローイングやイラストレーションを生成し、一次納品としてゲームグラフィックスの素材や漫画として出版社に納める人々がたくさんいらっしゃいます。しかし、例えばアニメ産業のように、原作者ではなく原画者として、動画マンとして、もしくは3Dリギングアーティストとして、商業的なパイプラインにおける二次クリエイターとして画像生成に関わる人々もたくさんいらっしゃいます。彼らは品質と効率、原作リスペクトの制約の中で仕事をしており「AI画像生成を使ってよいか」という判断や検討については非常に重要なタイミングではないでしょうか。

生成AIを活用する同人にとって

また同人作家の視点、つまり個人二次創作としても「生成AIを活用する同人」の存在は日本の豊饒なACG分野の存在は大変重要な存在であると認識しています。同人作家はある程度の法律の下の自由において、自由に表現を許されるべきであり、またその頒布においては、商業目的であるのか、「広く知らしめるという意味での頒布」であるのかについてはしっかりと現象をとらえていきつつ、時期や段階を追うにつれ、目的を見定めていくような姿勢が大切ではないでしょうか。

人間が加えたルールが自然界の法則を歪めてしまう

人間が加えたルールが自然界の法則を歪めてしまう
もちろん治水は必要だけど
行き届くべき人々に水が届いていない

「健全なIP活用と生成AI」「コンシューマーではない一般個人」というカウンターになる企業なり社会活動が生まれてこないと、世界の支配者OpenAIの神官を弁護士が務めることになるし、それは法の統治ではなくクリエイティブAIの死ではないでしょうか。

もともとゴールを持たない人間の欲望によって肥大する生成AI。
そもそも「Stable Diffusion」が生成する画像は何なのでしょうか?
これは著作物なのか、そうでないのか。
もしくは著作物だったとして、それがどのような権利を持ち、他者の権利とどのような違いやコンフリクトがあるのか。
定義できないものを定義できない法律が人のありように対して何か定義ができているのだろうか、といった問題です。

柿沼さんやJDLAを批判するつもりはないのですが、
群知能は「衆愚の知」ともいえるので、
初期の段階から大きなダムで堰き止めるということは、一見合理的な治水には見えますが、実際には下流に「(氾濫を繰り返して)本来肥沃な大地が生まれるはずだった土地」を失うことになります。

また治水することが目的になったとしても、そこに水が流れてこないだけになり、別の流れ(ときに非常にアンダーグラウンドな)になってしまう。

日本は漫画やアニメ、ゲームといった水脈があったので、まずはガイドラインを固めるよりも、こういった自然史観で水脈や豊穣が生まれる様子を予測して、ロードマップや時限立法で対応すべきなのではないでしょうか。

米国では画像生成のプロンプトは「注文書と同じだから著作権はない」という路線で判例が出ている、これは「荒野として放置する」という判断とも見れます。

例えば中国にとってみれば、生成AIでもLLMのような言語は強く規制したい。
でも画像生成の方は具体的な体制批判や風刺に繋がらないならどんどんやらせた方が得ですよね

大量に解雇者が出るけれど、おそらく解雇された側はそのまま手描きを続けるか、描くのをやめるか、AIを使って効率を上げていくかの三択になります。

米国市場含む東アジアのアニメ漫画ゲーム(ACG)競争諸国側のクリエイターがACG分野で自由に他者のIPから新しいコンテンツを生成できる状態、そこに国内法や商習慣の壁があったとして、一方では規制で雁字搦め、一方では放置、さらに国策として有利な国があるとなると、日本がこんなふうにガイドラインを早めに引くことで、一見法整備や商習慣の整備は進むけれど、水脈のど真ん中に大きなダムを作って他国に引き流している状態になりませんかね…?日本人の遵法精神は特にまじめだから…。
スタートアップ企業などで法律の白黒ついてないところを探らせる期間とか作らないと、既存企業も血流が回らなくなりませんかね??

思うに、日本ではこのディープラーニング協会の対極に「クリエイティブAI+ラーニング協会」を立ち上げたほうがいい気がする。
たったひとつのディープラーニングの分野が何かを支配するのはおかしいし、クリエイティブに関わる側や、教育に関わる側の視点が全くない。

賛助会員のみなさんは、このガイドラインに賛同できているのでしょうか。
ディープラーニング協会は活動としては講習や認定、コンテストなどもやっており正しい団体であると感じています。
しかしそもそも画像生成AIはディープラーニングの技術は使っているが、立場が違う、データアナリストにはゴールはあっても、生成AIにはゴールがないのです。
社会との接点や善悪の基準はそれぞれ個人が責任、理解や自覚を持って運用されるものであって、ガイドライン自体は正しいかもしれないが、オープンな学びの中で醸成されるものです。
少なくともLLMと画像生成AIでは異なります。

柿沼先生も松尾先生も間違ったことはしていない、でもこの「なんか腑に落ちない」という気持ちは、おそらく私の心の中にあるクリエイターとしてのナニカだと思います。

少なくとも、商業媒体で画像生成AIを扱っている側としては非常に不安な気持ちになります。

記者会見の43分「個人に向けては出すつもりはない」
https://www.youtube.com/live/ULYBJQm7vXQ?feature=share&t=2580

そうはおっしゃいますけど、影響は大きいですよ。
スタートアップ企業を興そうとしている方々、サブコンとして大企業からお仕事をいただいている制作者やスタジオ…。
私の場合は商業作家として、これを設定されることで非常に苦しい気持ちになります。商業媒体での原稿と、読者の方々の感想に向けて、いろんなお気持ちを表明しなければならない状況もあるのです。

世間の方々で腑に落ちない方々がもっとたくさんいるんじゃないかな、その人たちがこの後「悪としてアンダーグラウンドで暗躍する」という路線になってしまうのが何かおかしい。

同じ「注文書」でも、同じ金額でも、いい仕事する人と仕事したいじゃないですか。
もう去年の夏ぐらいからずっとこうやって、仕事したり開発したりしていたら、もっと大きな社会の出来事がやってきて破壊される、を繰り返している感じがします。これは悪いことではない、さざ波すら立たない魚がいるかどうかわからないブルーオーシャンで釣り糸を垂らしていた生成AIやVRの日陰期を長年過ごしてきた側からすれば、いまはたくさんの釣り人がやってきて、勝手に自分たちの狩場だと主張している感覚があります。

同じようなことを感じている人がいた

関連のできごと

ちょっと前に「東北ずん子」さんが、LoRAを配布して問題になってしまいました。

LoRAで追加学習させる元のモデルが剽窃であった場合、その孫は剽窃なのか?という法的判断はどこで下されるのでしょうか。

ちょうどこのガイドラインが公開された翌日の事件です。

私自身は miccchell1なるアカウントが実在なのかどうなのか、といった一定の調査は行いました。(PIXIVはきちんと事実関係を調査すべきと考えます)が、やはり「生成AI云々ではなく」適法でなはい行為や、クリエイターの人格否定が行われた(仮にスクリーンショットが画像加工によって行われたとしても)という行為、そしてこの画像生成によるテロリズムやその騒動が及ぼす暗黙的な心理的影響については書き残しておくべきと思いました。

法整備やガイドラインは何のためにあるのか。
反社会的な勢力にとって都合がよい、つまり定められた法律やガイドラインを遵守する人にとって抑圧であり、あえて法律を守らない勢力にとって有利な無法地帯を増やすようなことにならないよう、しっかりと目を向けていきたいと思います。

憲法記念日なのであえて書きました。
皆様のご意見はこちらのツイートへのコメントなどでいただければ幸いです。


[2023/5/9] ちょっと進展があった。書いてよかった

いいなと思ったら応援しよう!