「生成AI利用のガイドライン」にモヤモヤしたクリエイター側のガードライン
憲法記念日ですね。GW中なのでこのところ忙しくて処理しきれていなかった振休や有給取得というタスクをこなしながら、趣味のチャットボット開発やらデジハリ大学院の同僚とクリエイティブAI研究会したりしていたのですが、この分野の話題でご活躍の柿沼弁護士から気になるツイートが視界に入ってきました。
日本ディープラーニング協会(JDLA)資料室
フィードバックが求められている
このブログは同日公開された記者会見における松尾先生の「フィードバックが求められている」、柿沼弁護士が「あくまで現段階にすぎない」というメッセージに基づき、問題がありそうな箇所について指摘させていただいております。いわばクリエイター側のガイドラインに対するガードラインです。
生成AのI利用ガイドライン 第1版, 2023年5月公開 【簡易解説付】の開発者からみた問題点
基本的なスタンスや内容については「まあ便利でいいんじゃないでしょうか」という感想ではあります。ただこれは生成AIの中でもChatGPTについてのみ、社内での使用を制御したい企業さんのガバナンスとしてIT部門が脳死でガイドライン条文を再利用するようなユースケースで「便利」なのであって、実際に規制側なり開発者側としてみると「そもそもChatGPTの利用規約やAPIの利用規約を読んで理解して合意できているのかどうか」というレベルの話になってしまいませんでしょうか。
もちろんOpenAI社のChatGPTというサービスの始め方にもいろんな問題はあると思います。サービス開始した当初は本当にGoogleログインの直後に何の利用規約の合意もなく、入力できてしまう状態でした(今でも、厳密には「読んで理解していない人が入力できてしまう」という問題は残っています)。
「セキュリティ部門にお問い合わせください」という形でお問い合わせしても、回答できることとできないことがあるだろうし、むしろChatGPTに対してセキュリティリスクアセスメントサービスなどを実施するコストが払えるならこんな議論にもならないし、やったとしてもまたすぐにサービス更新されてしまうし…。そもそも「問題だ」と言っているのは他でもない日本企業側だとすると、何が問題なのかを明確にしたほうがいい気もします。
この解説は疑問が残ります。個人情報は「個人情報保護法で定義された項目」すなわち「氏名、生年月日、住所、顔写真などにより特定の個人を識別できる情報」という法で定義された項目が「適法か否か」の対象になります。もちろんその組織で定義された項目や、そのサービス利用者が「これは個人情報なのでは、と感じる項目」がありますが、「適法か否か」はこの場合は、その組織なりChatGPTユーザが遵守する国であり、この場合は日本の法律において議論する内容であることが解説のスコープとして定まっているのではないでしょうか。APIによる利用ではなく、ブラウザインタフェースによるChatGPTの利用の場合、クリップボードやキーボードによる入力で「個人情報」を入力している時点で個人情報の扱いに問題があります。
具体的な反例1:大学事務におけるChatGPT利用
このガイドラインの具体的な問題例を考えてみましょう。ここに日本の大学組織があったとします。大学の広報課につとめる事務局職員が、とある学生さんの表彰に使うための作文を以下のようなプロンプトで生成した場合…。
こんな風にChatGPTに問い合わせをすることは、一見グレーゾーンではありますが、個人情報保護法の観点では「氏名」を入力しており、違法行為ではないでしょうか。
もちろん「これは広報の目的であり、大学の個人情報保護のポリシーにおいては目的外使用ではない」という主張もできるかもしれません。「著名な賞を受賞したのであれば、それは公知の事実であろうから」という視点もあるかもしれませんが、本人の同意を得ていないまま「ChatGPTに個人の名前を入力した」、そして「この大学の所属であることを入力した」という自覚はないままにカジュアルに違法行為を実施してしまったことになります。
もちろん、ChatGPTへの問いに個人名(もしくはその他の"個人情報"とされる情報)を入れなければ問題はない。なのでこれはガイドラインで解説されているような「複雑な問題」や「オプトアウト」や「ChatGPTの利用禁止」ではなく、単に所属組織の個人情報保護法に対する教育の不徹底でしかない問題のようにもみえます。
「個人情報を生成AIに入力する行為が適法か否かは、当該生成AI内でのデータの取扱や、当該サービス提供者が外国にある事業者なのかによっても結論が分かれ、非常に複雑です」という点ですが、
これも「ChatGPT」というサービスに限定した場合には、その時点でのサービス利用規約によります。基本的に「提供された情報を利用する」という意味では、たとえばGoogle検索の検索履歴も、Mapsでの住所検索も、記録に残るといえます。「利用目的」次第ではないでしょうか。
なお、ChatGPT自身もサービス改善・改変していきます。
このような状況において「一律入力を禁止しています」という結論をつけることで、主従関係が混乱することになりませんでしょうか。
国内法>契約書>所属組織のルールやガイドラインという法的拘束力を想定すると、ガイドラインで「一律入力を禁止」するとなると「契約書に書かれた目的」が無視された形なります。仮に「ルールやガイドライン>契約書」という主従関係だったとしても、契約の目的(例えば、NDAに基づき実施される調査業務)によっては、「一律入力を禁止」するのではなく「別途契約書によって定める」とする必要があるのではないでしょうか。
具体的な反例2:GitHub Copilotによるプログラム開発
ChatGPTではありませんが、LLMを利用した便利で広範に使われそうなサービスとしては「GitHub Copilot」があります。本ガイドラインに従うと、業務委託で開発を委託している企業が、GitHub Copilotによる開発をすることはできない、ということになります。Copilotは仕様書やソースコードのすべてをLLMに渡しているわけではありませんが、コメントやカーソルの前後を常に送信して推論します。
組織的な一律のガバナンスではなく、契約の中で「合理的な開発としてLLMを使用したサービスを認める」もしくは「LLMを使用し外部サービスを使用する際は、その都度報告・安全性を確認のうえ利用する」といった契約にしなければ、このガイドラインを採用した企業は、業務委託先においてもLLMの使用を(その利用規約や設定、運用、担当者の理解や教育に関係なく)一律に禁じるということになります。
業務委託を受ける開発者は、GitHub Copilotを使用しないか、このようなガイドラインを採択している企業からの依頼を受けない(=契約できない)ということになります。「道具と契約とどっちが大事なのか?」という議論に聞こえるかもしれませんが、これは「LLM時代の格差」を大きく拡げることにつながるだけでなく、受託会社側からすれば、そこで働く人々の効率や単価、新しい技術に対する制御までが含まれる内容であり、その分の保証を込みにした価格設定にする必要が出てきませんでしょうか。最終的にはガイドライン自体の利用者が存在しないという状態にになりませんでしょうか。「このようなガイドラインを採用する企業とは取引ができない」という開発者が多くなり、結果的にはこのガイドラインには使われない、というユーザ不在のガイドラインになってしまいませんでしょうか。これが杞憂であってほしいと思いますが、過去に私が委託していた(過去形)協力会社さんに「GitHub Copilotを使いたい」というお願いを打診いただきましたが、「当初の契約書に含まれていないので機密保持の視点から合意しかねる」というやり取りがありましたことを書き添えておきます。
関連してこちらの項目も指摘させていただきます。
特許出願は可能です。入力された内容が水平展開されて、新規性喪失する可能性があり、それは例外規定にて手続きを受けることは難しいであろう、という表現であれば理解できますが「特許出願は可能」と考えます。
具体的な反例3: マイクロソフトが取引先にできなくなる
GitHubだけでなく、MicrosoftもLLMを扱っています。OpenAIとの提携をしていますし、Bingにおいて同様の検索サービスを展開しています。Windows11にもBing検索が統合されています。Office製品にも実装されています。管理部門に内部の検索データを全て回収させるエンタープライズ版があるのかもしれませんが、多くの日本企業にとってこれは大きな痛手になり、OSやオフィススイート、Teamsのようなディスカッションプラットフォームにまで及ぶ禁止事項はあまり現実的とはいえないのではないでしょうか。
具体的な反例4: 取引先やOpenAIの条項によって動的に状況が変わる
上記の反例1-3の複合でありますが、まずOpenAIのChatGPTの挙動は個人Gmailと企業のGoogleWorkspaceアカウントで挙動が異なります。おそらくSMSによる認証や課金モデルが異なるためと推測します。つまりOpenAIは企業向けの契約プラン(例えば検索内容をフィードバック学習させないとか、企業向けのファインチューニングサービスとか、追加リポジトリとか)を用意することは可能と推測します。このように動的な利用規約を用意可能なサービスにおいて固いガイドラインを引くと「では個人のGmailアカウントを使って(業務であっても)個人の携帯電話や文房具として利用する事は可能ではないか」といった解釈も可能になってしまいます。業務用ツールと違ってLLMによる言語推論の難しさがここにあります。例えは個人のスマホでの利用は反例1のように「個人情報保護の視点で見て適切でない」とすべきであり、AIは関係がないのです。
同様の問題は取引先でもおきます。例えば取引先がLLMを使用しているかどうか?どのようなフィードバック学習を利用しているのか?ついて、常に調査を実施しなければなりません。契約締結の状況は各社のトレードシークレットなので、他社に開示できるかどうかはNDAの内容にもよりますが、越権行為にもなりますし、そもそも「取引先にLLMを利用させない権利」はないはずです。
大規模言語モデルも一括りにせずに、集合知フィードバック型ではなく、オープンでオンメモリでワンショットの推論のものであればそこまで難しい要素はないですし、そこが売りになる要素もあるかもしれないですね。Stable Diffusionによる画像生成はまさにそのモデルですが。
その他気になった要素
紛らわしい表現
他者の意匠や商標に類似した図形商標や図案化文字商標を侵害する行為は意匠法や商標法によって禁じられた行為であり、著作権侵害やLLMは関係なく適法ではない行為ではないでしょうか。
またChatGPTはテキスト生成サービスであり、そこから生成された画像(例えば、SVGやbpyによるスクリプト画像生成)はその変換を行った段階での作業、さらにそれを商標調査をせずに商品として他社の商標を侵害した行為に問題があるのであって、ChatGPTは直接関係ありません。
なお同様にStable Diffusionによる画像生成についても照らし合わせていきますが、「商標キーワード」を使った画像生成についてはその恣意が明確にありますが、「偶然に似てしまったケース」は、他の著作物と同じ判定になるのではないでしょうか。
混乱を生む解釈
現在は各国の訴訟や判例が報道されている状況ですが、日本国内においては現在の著作権法では「プロンプトには創造的寄与」が認められる可能性は大いにあり、他国(例えば米国では「プロンプトは注文書とみなし、創造性はない」)とは異なる状況にあるといえます。このガイドラインのままであると、条文と解説でも相反する内容になっており、混乱をまねきます。
サービスによって異なる規定
MidJourney無料会員のCC4.0NCは、サービスによって異なる規定であり、コンテキスト主文からすると「ChatGPTの生成テキストは商用利用できる」が主張になるのではないでしょうか。むしろ「MidJourneyのように無料会員が生成した生成物はNC(営利目的で使用してはいけない)という解釈を普及させることが本ガイドラインの目的や主旨に合っていませんでしょうか。
もう少し突っ込んだことを書いておきますが、例えば「画像生成で贋作を作って売ったら作ったら何の法律に反するのか」について、明確にすべきかと考えます。これでは「個々のサービスの利用規約によっては問題がない」という犯罪ほう助にもなってしまいませんでしょうか。そこに「AI画像生成なる技術は何の関係もない」と明記しなければ、単なるバズに乗った話題性提供としかとらえられなくなりませんでしょうか。
フィードバックが求められている
繰り返しになりますが、このブログは同日公開された記者会見における松尾先生の「フィードバックが求められている」、柿沼弁護士が「あくまで現段階にすぎない」というメッセージに基づき、問題がありそうな箇所について指摘させていただいております。
https://www.youtube.com/watch?v=ULYBJQm7vXQ
ガイドライン改定案への提案
・「ChatGPTというブラウザサービスを日本に企業組織が使う場合の問題」にいったん話を絞って構築したほうが良い
・「GitHub Copilot」について明確にセキュリティや問題点をきちんと調査して調査しなければ、開発者や業務委託に直近の問題が出る。「一律に禁止」は
・「OpenAI社のLLM利用API」についてはそのあとに定義する必要がある。
・項目の多くは多様なポリシーや法的判断に横断する問題であり、サービスの利用規約等の法的遵守への適法判断になり弁護士が個々に規約審査すべき内容と考えます。
・当該ChatGPTのバージョンを明記する。「March23」といった明記でリリースノートがある。利用規約や個人ユーザから提供された情報の扱いについても明記がある。
・ガイドラインの有効期限を設定するべきではないだろうか。上記のバージョン指定や、今後の有効期限、更新頻度については慎重に明記する必要がある。未来永劫このガイドラインが人々の意識に浸透することで、生成AI自身に対する危険性やリスクだけが強烈に規制される一方で、その使い方についての経験がゼロという状態が初期から設定されることは危惧を感じる(詳細後記)。具体的には「このガイドラインは2023年5月から8月末日まで有効」といった非常に短い期間でライフタイムが設定されるべきではないか。
個人的感想:画像生成AIクリエイター視点で
商業制作における二次工程
こうしてみるとガイドラインの策定は「禁じる側」にはとても都合がいいけれど、使う側にとっては地雷だらけではないだろうか。
例えば他人の著作物を「許可を得て利用」する場合はどうなるのか。
日本のグラフィックス分野には、もちろん一次著作者としてドローイングやイラストレーションを生成し、一次納品としてゲームグラフィックスの素材や漫画として出版社に納める人々がたくさんいらっしゃいます。しかし、例えばアニメ産業のように、原作者ではなく原画者として、動画マンとして、もしくは3Dリギングアーティストとして、商業的なパイプラインにおける二次クリエイターとして画像生成に関わる人々もたくさんいらっしゃいます。彼らは品質と効率、原作リスペクトの制約の中で仕事をしており「AI画像生成を使ってよいか」という判断や検討については非常に重要なタイミングではないでしょうか。
生成AIを活用する同人にとって
また同人作家の視点、つまり個人二次創作としても「生成AIを活用する同人」の存在は日本の豊饒なACG分野の存在は大変重要な存在であると認識しています。同人作家はある程度の法律の下の自由において、自由に表現を許されるべきであり、またその頒布においては、商業目的であるのか、「広く知らしめるという意味での頒布」であるのかについてはしっかりと現象をとらえていきつつ、時期や段階を追うにつれ、目的を見定めていくような姿勢が大切ではないでしょうか。
人間が加えたルールが自然界の法則を歪めてしまう
人間が加えたルールが自然界の法則を歪めてしまう
もちろん治水は必要だけど
行き届くべき人々に水が届いていない
「健全なIP活用と生成AI」「コンシューマーではない一般個人」というカウンターになる企業なり社会活動が生まれてこないと、世界の支配者OpenAIの神官を弁護士が務めることになるし、それは法の統治ではなくクリエイティブAIの死ではないでしょうか。
もともとゴールを持たない人間の欲望によって肥大する生成AI。
そもそも「Stable Diffusion」が生成する画像は何なのでしょうか?
これは著作物なのか、そうでないのか。
もしくは著作物だったとして、それがどのような権利を持ち、他者の権利とどのような違いやコンフリクトがあるのか。
定義できないものを定義できない法律が人のありように対して何か定義ができているのだろうか、といった問題です。
柿沼さんやJDLAを批判するつもりはないのですが、
群知能は「衆愚の知」ともいえるので、
初期の段階から大きなダムで堰き止めるということは、一見合理的な治水には見えますが、実際には下流に「(氾濫を繰り返して)本来肥沃な大地が生まれるはずだった土地」を失うことになります。
また治水することが目的になったとしても、そこに水が流れてこないだけになり、別の流れ(ときに非常にアンダーグラウンドな)になってしまう。
日本は漫画やアニメ、ゲームといった水脈があったので、まずはガイドラインを固めるよりも、こういった自然史観で水脈や豊穣が生まれる様子を予測して、ロードマップや時限立法で対応すべきなのではないでしょうか。
米国では画像生成のプロンプトは「注文書と同じだから著作権はない」という路線で判例が出ている、これは「荒野として放置する」という判断とも見れます。
例えば中国にとってみれば、生成AIでもLLMのような言語は強く規制したい。
でも画像生成の方は具体的な体制批判や風刺に繋がらないならどんどんやらせた方が得ですよね
大量に解雇者が出るけれど、おそらく解雇された側はそのまま手描きを続けるか、描くのをやめるか、AIを使って効率を上げていくかの三択になります。
米国市場含む東アジアのアニメ漫画ゲーム(ACG)競争諸国側のクリエイターがACG分野で自由に他者のIPから新しいコンテンツを生成できる状態、そこに国内法や商習慣の壁があったとして、一方では規制で雁字搦め、一方では放置、さらに国策として有利な国があるとなると、日本がこんなふうにガイドラインを早めに引くことで、一見法整備や商習慣の整備は進むけれど、水脈のど真ん中に大きなダムを作って他国に引き流している状態になりませんかね…?日本人の遵法精神は特にまじめだから…。
スタートアップ企業などで法律の白黒ついてないところを探らせる期間とか作らないと、既存企業も血流が回らなくなりませんかね??
思うに、日本ではこのディープラーニング協会の対極に「クリエイティブAI+ラーニング協会」を立ち上げたほうがいい気がする。
たったひとつのディープラーニングの分野が何かを支配するのはおかしいし、クリエイティブに関わる側や、教育に関わる側の視点が全くない。
賛助会員のみなさんは、このガイドラインに賛同できているのでしょうか。
ディープラーニング協会は活動としては講習や認定、コンテストなどもやっており正しい団体であると感じています。
しかしそもそも画像生成AIはディープラーニングの技術は使っているが、立場が違う、データアナリストにはゴールはあっても、生成AIにはゴールがないのです。
社会との接点や善悪の基準はそれぞれ個人が責任、理解や自覚を持って運用されるものであって、ガイドライン自体は正しいかもしれないが、オープンな学びの中で醸成されるものです。
少なくともLLMと画像生成AIでは異なります。
柿沼先生も松尾先生も間違ったことはしていない、でもこの「なんか腑に落ちない」という気持ちは、おそらく私の心の中にあるクリエイターとしてのナニカだと思います。
少なくとも、商業媒体で画像生成AIを扱っている側としては非常に不安な気持ちになります。
記者会見の43分「個人に向けては出すつもりはない」
https://www.youtube.com/live/ULYBJQm7vXQ?feature=share&t=2580
そうはおっしゃいますけど、影響は大きいですよ。
スタートアップ企業を興そうとしている方々、サブコンとして大企業からお仕事をいただいている制作者やスタジオ…。
私の場合は商業作家として、これを設定されることで非常に苦しい気持ちになります。商業媒体での原稿と、読者の方々の感想に向けて、いろんなお気持ちを表明しなければならない状況もあるのです。
世間の方々で腑に落ちない方々がもっとたくさんいるんじゃないかな、その人たちがこの後「悪としてアンダーグラウンドで暗躍する」という路線になってしまうのが何かおかしい。
同じ「注文書」でも、同じ金額でも、いい仕事する人と仕事したいじゃないですか。
もう去年の夏ぐらいからずっとこうやって、仕事したり開発したりしていたら、もっと大きな社会の出来事がやってきて破壊される、を繰り返している感じがします。これは悪いことではない、さざ波すら立たない魚がいるかどうかわからないブルーオーシャンで釣り糸を垂らしていた生成AIやVRの日陰期を長年過ごしてきた側からすれば、いまはたくさんの釣り人がやってきて、勝手に自分たちの狩場だと主張している感覚があります。
同じようなことを感じている人がいた
関連のできごと
ちょっと前に「東北ずん子」さんが、LoRAを配布して問題になってしまいました。
LoRAで追加学習させる元のモデルが剽窃であった場合、その孫は剽窃なのか?という法的判断はどこで下されるのでしょうか。
ちょうどこのガイドラインが公開された翌日の事件です。
私自身は miccchell1なるアカウントが実在なのかどうなのか、といった一定の調査は行いました。(PIXIVはきちんと事実関係を調査すべきと考えます)が、やはり「生成AI云々ではなく」適法でなはい行為や、クリエイターの人格否定が行われた(仮にスクリーンショットが画像加工によって行われたとしても)という行為、そしてこの画像生成によるテロリズムやその騒動が及ぼす暗黙的な心理的影響については書き残しておくべきと思いました。
法整備やガイドラインは何のためにあるのか。
反社会的な勢力にとって都合がよい、つまり定められた法律やガイドラインを遵守する人にとって抑圧であり、あえて法律を守らない勢力にとって有利な無法地帯を増やすようなことにならないよう、しっかりと目を向けていきたいと思います。
憲法記念日なのであえて書きました。
皆様のご意見はこちらのツイートへのコメントなどでいただければ幸いです。
[2023/5/9] ちょっと進展があった。書いてよかった