見出し画像

政治講座ⅴ1059「AIによる自動運転の事故の責任とChat GPTの論文の著作権と参考文献の著作権侵害」

 AIやChat GPTは人間のように人格を持ち、意思を持ち、創作活動ができるかと言うと、否である。
 その基本はアルゴリズムという作業や仕事をさせるプログラムである。そのプログラムを作ったのはプログラマーである。
 どのように理論構成にするかはプログラマーの手法のアルゴリズムの作成次第なのである。
 AIやChat GPTが人間のように勝手に理論構成するかというとアルゴリズムの手順プログラムがなければ論文が作成できないのである。
 学習技能があるAIはつまりは何を(どのような情報)に対して、情報として蓄えて、どのような情報を必要とする場面にその情報を提供するかと言うアルゴリズムというプログラムで指示されているのである。
 細かい指示がなければ、勝手な判断・結論はAIは出せない・出ないのである。
 自己学習・自己判断するAIの行動はアルゴリズムというプログラムによって作動するのである。プログラマーのアルゴリズムの出来、不出来が効果を持つ部分である。故に、その不法行為の責任の帰属はプログラマであると考える。  
 
AIは人間を超えた趣旨の論調を見受けるが、コンピューターはプログラムで動くという基本を理解していない者の妄言である。だから「AI」の裏には優秀なプログラマーとシステム設計者の存在を忘れてはならない。
今回は報道記事を紹介する。

     皇紀2683年(令和5年)5月1日
     さいたま市桜区
     政治研究者 田村 司

AIにより他人に損害を与えた場合の責任を弁護士がわかりやすく解説

 AIを活用した事業を展開する事業者が増えてきており、精度や正確度も向上しています。
とはいえ、AIが人や他の事業者に損害を与える可能性を完全に否定することはできません。

それでは、AIが人や他の事業者に損害を与えてしまった場合、責任の所在はどこにあるのでしょうか。また、その責任はどのような責任なのでしょうか。

今回は、AIにより損害が発生した場合の責任について、わかりやすく解説します。

1 AIの責任|法律上の責任は?


AI(Artificial Intelligence)」とは、「人工知能」のことを意味します。
事業においてAIを活用する場合、そのAIが原因となって人や他の事業者に損害を与えてしまう場面が想定されます。
AIはあくまで人工知能に過ぎないため、現在の法律では、AI自体に責任を負わせることはできません。

このような場合に、責任を負う可能性があるのは、以下の2者ということになります。

  1. AIの所有者

  2. AIの製造者

2 AIの所有者|不法行為責任


AIの所有者が責任を負う可能性があるのが「不法行為責任」です。

(なお、ここでいう「所有者」とは、AIが組み込まれたドローン、自動車、ロボットなどの所有者のことを想定しています。AI自体はアルゴリズムやパラメーター値であり、所有権の対象ではありません。)

  • 【民法709条】

    故意又は過失によって他人の権利又は法律上保護される利益を侵害した者は、これによって生じた損害を賠償する責任を負う。

民法709条は不法行為責任を定めた規定ですが、同責任が発生するためには、以下の要件を満たしていることが必要です。

  1. 侵害行為に故意または過失があること

  2. 損害が発生していること

  3. 侵害行為と損害との間に因果関係があること

(1)侵害行為に故意または過失があること

故意」は、わざとそのような行為に出たことを意味し、「過失」は、不注意によりそのような行為に出てしまったことを意味します。
このように、故意や過失は人間の主観に関わる要素であるため、AIについて観念することはできません。

AIの所有者に故意が認められる場合とは、どのような場合をいうのでしょうか。
たとえば、AIの所有者が人に危害を与える意図をもって、AIにそのような命令を下している場合にはAIの所有者に「故意」があったと認められる可能性が高いです。
とはいえ、実際において、このような事態になることはあまり想像できません。

この要件で特に問題となるのは、AIの所有者に「過失」が認められるかどうかです。
「過失」とは、注意をすれば結果を予測できたにもかかわらず、その注意を怠り、その結果を回避しなかったことを意味します。

事業でAIを活用する場合、通常は事業目的の範囲で活用されます。
ですが、可能性は限りなく低いものの、日々の学習により成長したAIが事業目的とは何ら関係のない突拍子のない行為に出てしまう可能性もあります。
このような場合に、そのような行為に出てしまうということをあらかじめAIの所有者が予測できていたならば、AIの所有者には「過失」があったと認められる可能性があるのです。

「過失」の有無は主観的要素でもあるため、判断が難しいケースも多々ありますが、いずれにしても、AI所有者に不法行為責任が生じるためには、「故意または過失」があると認められなければなりません。

(2)損害が発生していること

不法行為責任が発生するためには、相手方に「損害」が発生していることが必要です。
AIが突拍子のない行為に出た場合であっても、相手方において何ら損害が発生しなかった場合には、不法行為責任は発生しません。

(3)侵害行為と損害との間に因果関係があること

AIによる行為と相手方に発生した損害との間に因果関係があることが必要です。
相手方に発生した損害が、AIとは関係のない別の理由によるものである場合には、当然ながらAIの所有者は不法行為責任を負いません。

3 AIの製造者|製造物責任


AIによって人や他の事業者に損害が生じた場合、責任を負う可能性があるのはAIの所有者だけではありません。
AIを製造した事業者も製造者として「製造物責任」を負う可能性があります。

  • 【製造物責任法3条】

    製造業者等は、その製造、加工、輸入又は前条第三項第二号若しくは第三号の氏名等の表示をした製造物であって、その引き渡したものの欠陥により他人の生命、身体又は財産を侵害したときは、これによって生じた損害を賠償する責めに任ずる。
    ただし、その損害が当該製造物についてのみ生じたときは、この限りでない。


以上からもわかるように、製造物責任法では、製造物の欠陥により他人の損害を与えた場合に、製造業者等に責任を負わせると定められています。
製造物責任が発生するためには、以下の要件を満たしていることが必要です。

  1. 製造物に欠陥があること

  2. 他人に損害が発生したこと

  3. 製造物の欠陥と損害との間に因果関係があること

(1)製造物に欠陥があること

ここでいう「欠陥」とは、通常有すべき安全性を欠いている状態のことをいいます。

それでは、AIについて欠陥が認められるケースはどのような場合なのでしょうか。
基本的な考えは、AIによる想定外の行為などが原因となって損害が発生していれば、AIには欠陥が認められる可能性があるということです。
とはいえ、AIは製造者の手から離れた後も学習等を通じて成長していきますので、このようなケースにおいて否応なしに製造者に責任を負わせることが酷であるという側面もあり、非常に難しい判断を強いられるケースが少なくありません。

(2)他人に損害が発生したこと

この点は、不法行為責任の項目で触れた内容と同じです。
たとえ、AIが想定外の行為に出たとしても、他人に損害が発生していない場合は、事業者が製造物責任を負うことはありません。

(3)製造物の欠陥と損害との間に因果関係があること

AIによる行為と他人に発生した損害との間に因果関係があることが必要です。
他人に発生した損害が、AIとは関係のない別の理由によるものである場合には、当然ながら事業者は製造物責任を負いません。
この点も、不法行為責任の項目で触れた内容と同じです。

4 まとめ

AIを活用したサービスは、今後も増加していくものと予測されます。
AIの精度や正確度も徐々に向上しており、業務の効率化や人件費の削減などにも資するものです。

もっとも、AIにより他人に損害を与えてしまうと、場合によっては、多額の損害賠償責任を負う可能性もあり、サービスへの信用問題にも繋がります。
そのため、AIによる事故等でどのような責任が生じうるのかを十分に理解したうえで、可能なかぎりリスクヘッジしておくことも大切です。


弊所は、ビジネスモデルのブラッシュアップから法規制に関するリーガルチェック、利用規約等の作成等にも対応しております。
弊所サービスの詳細や見積もり等についてご不明点がありましたら、ぜひお気軽にお問い合わせください。
なお、記事の内容は投稿時の法令・制度に基づいており、投稿後に法改正等がなされている可能性があります。
記事をご参考にされる際は、必ずご自身の責任において最新情報をご確認下さい。
勝部 泰之 (Yasuyuki Katsube)
 
弁護士(東京弁護士会)。株式会社リーガル・テクノロジーズ代表取締役として資金調達を実施し、「スマート法律相談」サービスの開発を進めている。
海外メタバース案件、東大AIベンチャーのTDAI Labとの法令検索機能リリース(PRTIMES)等、暗号資産、AI等比較的新規性の高い法分野の案件を中心に手掛ける。開発者としては、React、Vue等を用いたサーバレスサービスを得意とする。

AI(人工知能)の行為による責任は誰が取るのか【AIと法律】【2023年2月加筆】

AIの行為による責任は、誰が取る?

AIの技術は、どんどん進歩していっています。AIが出した結果(行為)によって、人間が損害を被ってしまうことも想定されています。
例えば、AIが以下の行為をした場合には、どのようなことが問題になるのでしょうか?

  1. AIを搭載した自律型ロボットが、自らの判断で「目の前にいる人を排除しなければならない」と判断、実際に排除を行った結果、人が怪我をした場合

  2. AIが、自らの判断で他人を誹謗中傷するようなメッセージをオンライン上で公開し続け、他人の名誉を毀損した場合

  3. AIが、ネット上で公開されている他人の著作物を勝手に使用してしまった場合

現在の法律を前提として考えると、AIの「行為」についてAI自身に責任を問うことはできません。
何らかの責任を取る必要がある場合には、AIに関係する複数の関係者のうち誰がどのような要件の下で責任を負うのかを考える必要があります。
人間の法的責任を定める現在の法体系では、基本的に人間の意思がどこかに介在することを前提としています。「自己学習・自己判断するというAIの「行為」に果たして誰が責任を負うのか」というのは非常に難しい問題です。
以下では、想定できる関係者の責任について、解説していきます。

AIの所有者の責任

まず、AIの「行為」に責任を持つべき主体として、考えられるのがAIの所有者です。
法的には、被害者との関係で、AIの行為が所有者自身の不法行為(民法709条)に該当するとして、被害者に対し損害を賠償すべき責任を負う可能性があります。
民法709条に基づき不法行為責任が認められるためには、AIの所有者自身に故意または過失があったことの証明が必要となります。
AIの所有者自身に故意がある場合とは、例えば所有者自身がAIをけしかけたような場合(AIを搭載した自律型ロボットに、人を殴るよう命令したような場合)であり、このような場合にAIの所有者が責任をもたなければならないことは明らかです。
問題は、AIの所有者に故意が認められない場合です。
民法にいう「過失」とは「具体的な結果の発生を予見できたにもかかわらず、その結果の発生を回避するために必要な措置をとらなかったこと」をいうものとされています。
このとき、自己学習・自己判断するAIの行動や、それに伴う結果の発生を「予見できた」といえるような場合とは果たしてどういう場合かが問題となります。
この点につき、そもそも他人に危害を与え得る行動をすることが想定されたAIであれば、過失の認定はさほど問題にはならないでしょう。
極端な例ですが、例えば、格闘技の試合を念頭に置いて製造されたロボットを公道に置き去りにしたようなケースを想定すれば、このロボットが人を殴るという「結果」の発生について予見することは十分にできたといえるように思われます。
しかしながら、例えば、「人工的な知能」の域に達したAIが繰り返し行った自己学習・自己判断の結果としての行為については、もはや予見可能性はなかったとして、AIの所有者の過失が否定されることも十分にあり得るのです。
さらにいえば、過失の判断において「結果発生を予見できたか否か、予見される結果を回避するために必要な措置をとったか否か」は、不法行為を行ったとされる者が属する人的グループの平均的な人(例えば、交通事故であれば一般的なドライバー、医療過誤であれば一般的な医師)の能力を基準に判断されることになる。
そうすると、例えば、AIの所有者が、既製品としてのAIを購入したにすぎないような場合には、なお一層予見可能性が認められる可能性が低くなるように思われます。
このように考えていくと、特に高度に発達したAIの「行為」、それも、一般消費者が「既製品」として購入するようなAIの「行為」については、AIの所有者に民法709条に基づく一般の不法行為責任を負わせることが難しい場合が多くなるものと考えられます。

AI機器の製造者責任(製造物責任法に基づく責任を負う可能性)

AIが何らかの機器(例えば、ドローンやロボット)に搭載されている場合、AIの製造者が、一般的な不法行為責任のほかに、製造物責任法3条に基づく法的責任を負うことも考えられます。
製造物責任法3条に基づく責任が認められるためには、まず「製造物」の「欠陥」により「他人の生命、身体又は財産を侵害した」といえることが必要です。それでは「製造物」と「欠陥」という言葉について確認していきましょう。

製造物責任法3条における製造物とは

AIが何らかの機器に搭載されている場合、搭載されたAIを含めて、当該機器全体が「製造物」(製造または加工された動産)に該当します。

製造物責任法3条における欠陥とは

「欠陥」とは、製造物が「通常有すべき安全性」を欠いていることを言います。
この「欠陥」の判断に当たっては「当該製造物の特性、その通常予見される使用形態、その製造業者等が当該製造物を引き渡した時期その他の当該製造物に係る事情」を考慮するものとされています。
なお、製造者が製造物に不具合があることを知っていたか否か(または、知ることができたか否か)は、「欠陥」の判断に当たって考慮されません。製造者が知り得ないような不具合があったような場合でも、その不具合ゆえに製造物が「通常有すべき安全性」を欠いている場合には、「欠陥」があったものと認定されます。
具体的にいかなる場合に「欠陥」が認められるかについて、条文上は特段具体的な判断基準は提示されていないませんが、一般に欠陥には以下の3類型があるとされています。

  1. 製造物の設計そのものの欠陥(設計上の欠陥)

  2. 製造工程において設計と異なった製造物が製造されたことによる欠陥(製造上の欠陥)

  3. 適切な指示・警告が伴わないことによる欠陥(指示・警告上の欠陥)

それでは、自己学習・自己判断をするAIにおいて「通常有すべき安全性」とは何でしょうか。
AIが何か問題のある行為を行ったとして、AIが「通常有すべき安全性」を欠いていたことをどのように立証すればいいのでしょうか。
極端な例でいえば、シンギュラリテイを超えたAIの振る舞いを、人間が後になって「何が原因で欠陥が生じていたのか」「どうすれば被害の発生を防止できたのか」を検証し、裁判の場において立証することがそもそも難しいような事態も考えられます。
このとき「原因究明ができないこと」を理由に製造者への請求は一切認められないのか、万全にはできないとして、どこまでを立証すれば「欠陥」の立証として、十分と考えられるのでしょうか。
この点については、製造物の欠陥は個々の事例に応じて判断されるため、「AIを搭載した製造物の欠陥」について一律の回答を述べるのは非常に困難と言えます。
AIを搭載した製品を製品用途に従って普通に使っていたにもかかわらず、当該製品が異常な動作をし、結果として事故が発生したというような場合には、誤作動の原因や被害発生を防ぐために必要であった方策を特定・立証しなくとも、異常な動作による事故の発生それ自体から欠陥の存在が認められる可能性があります。
AIが組み込まれた製品の欠陥の存在の主張立証は、「当該製品を適正な使用方法で使用していたにもかかわらず、通常予想できない事故が発生したことの主張立証で足りる」のであり、「なぜその事故が発生したのか、何か原因でAIは不適切な振る舞いをしたのか」の特定や主張立証は不要ということになります。
このように考えれば、通常使用の類型においては、極めて高度なAIの「行為」であってもAIの「行為」により損害を被った者がAIの「欠陥」を主張立証することがある程度容易になるものと思われます。

AI事業者としての対策

製造したAI(厳密にいえば、AIを組み込んだ製品)が販売後どのような学習をし、その結果としてどのような振る舞いをみせるようになるか、製造者にもわからず、また、あらかじめ予見することもできない場合が考えられます
しかし、前述の通り、製造物の「欠陥」の有無の判断に当たっては、製造者の認識(または認識可能性)は問題とされません。
「販売後のAIの学習内容について予見できなかった以上、事後的な学習結果に起囚する不具合は、欠陥とはいえない」という立論は成り立たないこととなります(ただし、AIの学習内容が当初想定されていない異常なものであったような場合は別であると言えるでしょう)。
そのため、製造者としては、製品の用途・動作条件を安全性が担保できる範囲に限定する(ただし、この場合も用途・動作条件がユーザーに理解されるよう適切な警告をする必要があり、それができていなかった場合には指示・警告上の欠陥が問われ得る)。
AIの学習範囲や動作範囲にリミットを設けて、AIがどのような学習をしても想定外の動作をしないようにするといった対応をすることが考えられます。
このように、製造者側に結果発生の具体的な予見可能性がない中で製造物責任が容易に認められると、製造者に対し過酷な結果責任を課すことになる懸念があります。
また、AIの「行為」に対し製造者が結果責任に近い責任を負うとすると、AIの開発自体に対し萎縮的な効果(例えば、AI開発者が極端に保守的なリミットをAIの学習に課してしまうような事態の発生)が生じることも懸念されます。
このような萎縮効果を回避するため、法律上一定のセーフハーバーを設けたり、保険制度の導入によるリスク分散を試みるなどの対策も考えられるところです。


ChatGPTと著作権法との関係

このタイトル・見出し・記事はChatGPT Plus(GPT3.5 or 4)が生成した回答を元に作成しています。

1. はじめに

ChatGPTは、自然言語処理技術の中でも最も注目されており、文章生成などの分野で活用されています。しかし、ChatGPTを使用することで、著作権法に関わる問題が発生することがあります。本記事では、ChatGPTと著作権法の関係について解説します。

2. ChatGPTの文章生成と著作権法

ChatGPTを使用して文章を生成する場合、生成された文章の著作権は誰に帰属するのでしょうか。一般的に、文章の著作権は、その文章を創作した人に帰属します。ChatGPTを使用して文章を生成した場合でも、生成された文章が著作物として認められる場合は、その文章を生成したChatGPTの作者や運用元が著作権を持つことになります。

また、ChatGPTを使用して既存の文章を再利用する場合は、著作権法に基づいた適切な引用が必要となります。引用が不適切である場合は、著作権法に違反することになります。

3. 具体例:ニュース記事の生成

ChatGPTを使用したニュース記事の自動生成は、現在注目を集めている技術の1つです。しかし、生成されたニュース記事が著作物として認められる場合は、著作権法に基づいた適切な引用が必要となります。

具体的には、以下のような方法が考えられます。

  • 生成されたニュース記事の冒頭に、引用元の情報を明示する。

  • 引用元の情報を明示するために、出典情報を明示する。

  • 引用元の情報を明示するために、URLや記事のタイトルを明示する。

これらの方法を用いることで、著作権法に基づいた適切な引用が可能となります。

4. まとめ

本記事では、ChatGPTと著作権法の関係について解説しました。ChatGPTを使用して文章を生成する場合、その文章の著作権はChatGPTの作者や運用元に帰属することになります。また、ChatGPTを使用して既存の文章を再利用する場合には、著作権法に基づいた適切な引用が必要となります。特に、ニュース記事の自動生成など、著作権に関わる可能性のある分野では、適切な引用が必要不可欠です。ChatGPTを使用する場合は、著作権法に基づいた適切な利用が求められます。今後も、著作権法に関する情報を正しく理解し、適切な取扱いが必要となることに留意する必要があります。


ChatGPTの利用規約から見る知財リスクと生成データの著作権保護の可能性

  • 04/01/2023

ChatGPT、Dall-E、Midjourneyなどの生成型AIアプリケーションは、コンテンツ作成に重要な著作権の問題を引き起こします。ChatGPTの使用に関する契約条項を見てみると、コンテンツの所有権、類似した出力、機密保持、公表要件に対して言及しています。ChatGPTの使用に関しては、従業員による使用については機密保持の欠如が大きな問題であるため、企業は注意する必要があります。また、ChatGPTの出力物の公表には、AIの役割を明確に示す必要があります。また、AIによって生成されたコンテンツの著作権保護に関しては、オリジナリティと著作権の要件を満たす場合、米国著作権局は保護を認める方針です。ただし、AIによって生成された作品の著作者と所有権を特定するための法的および実際的な課題が存在します。AIシステム、データ入力、トレーニングの開発に複数の当事者が関与することによって、著作権の所有権は複雑になる可能性があります。著作権法におけるAIによって生成された作品の法的地位については明確な合意がないものの、注目される重要な分野です。

ーーーー

ChatGPTのような人工知能を搭載したアプリケーションの人気が最近高まっていることから、個人と企業にとって、商業利用、コンテンツの公開、侵害に対する潜在的な責任、コンテンツの執行に関する権利範囲など、コンテンツの作成に関する重要な著作権問題が提起されています。

長年にわたる開発と期待の後、一夜にして人工知能がヒット

近年、人工知能(AI)を搭載した数多くのアプリケーションが、ジェネレーティブAIの力を活用することを学ぶ世界中のコンテンツクリエイターたちから絶大な人気を得ています。ChatGPT、Dall-E、Midjourneyなど、AIを搭載したモデルが日々話題になり、多くの人がすでにその能力に依存し、驚いています。これらのアプリケーションは、ウェブサイトのコピー、マーケティングキャンペーン、ソーシャルメディアへの投稿、あらゆる種類のリスト、詩、そしてソフトウェアコードなど、多くの種類のコンテンツを簡単に素早く作成することに革命を起こしています。

AIツールの中でも人気の高いChatGPTは、サンフランシスコのOpenAI社が開発したチャットボットで、ディープラーニング技術に基づいて、任意のプロンプトに対して人間のようなテキストを生成することができます。この技術は、大量のテキストデータセットでAIモデルを学習させ、単語やフレーズのパターンや関係を予測します。

ChatGPTの無償言語モデル「GPT-3」は、2020年6月に公開されました。しかし、OpenAIはその4番目のイテレーションである「GPT-4」を発表したばかりです。 OpenAIのウェブサイトでは、GPT-4は「より創造的で協調的」であり、AIが 「作曲、脚本執筆、ユーザーの文体学習など、創造的・技術的なライティングタスクをユーザーと生成、編集、反復することまで可能」 と説明しています。ABAJournalは最近、「Latest version of ChatGPT aces bar exam with score nearing 90th percentile」と題する記事を掲載しました。ChatGPTはテキスト回答の生成に限定されていますが、GPT-4ではユーザーが入力として画像を提供できるようになり、提供された画像に基づいてコメントやコードまで生成できるようになりました。Dall-EやMidjourneyなどの他のOpenAIアプリケーションは、テキストから画像へのモデルを提供しています。

ChatGPTの利用規約を見てみよう

多くのアプリケーションと同様に、利用規約はユーザーに付与される権利の範囲を理解するための出発点です。ChatGPTの使用に関する契約上の規定は、以下のように扱われます:

  • コンテンツの所有権: 「コンテンツ」は、OpenAIのChatGPTの利用規約(Terms)で、サービスに入力されるもの、またはサービスによって生成される出力と定義されています。所有権に関して、規約は次のように述べています: 「当事者間で、適用される法律で認められる範囲において、お客様はすべての入力を所有し、お客様が本規約を遵守することを条件として、OpenAIは、出力に関するすべての権利、権原および利益をお客様に譲渡します。」 OpenAIは、サービスの提供および維持、適用法の遵守、OpenAIのポリシーの執行を目的として、コンテンツを使用する限定的な権利を保持します。と書かれています。

  • 類似の出力: 本規約では、出力が常に一人のユーザーに固有のものであるとは限らないことを警告しています:


「機械学習の性質上、出力はユーザー間で一意でない場合があり、本サービスはOpenAIまたは第三者に対して同一または類似の出力を生成する場合があります。例えば、あなたは “空の色は何色ですか?” といったモデルに入力を提供し、”空は青です” といった出力を受け取るかもしれません。また、他のユーザーも同様の質問をし、同じ回答を受け取ることがあります。他のユーザーによって要求され、他のユーザーのために生成された回答は、お客様のコンテンツとはみなされません。」と書かれています

  • 守秘義務について: ChatGPTに入力されたコンテンツは開示され、本条件の所有権規定に説明されているように、そのモデルを訓練するために使用されることがあり、入力コンテンツのある程度の量はChatGPTの他者への回答の一部になることがあります。このように、ChatGPTの利用は機密性を失う可能性があるので、企業は従業員による利用に慎重になるべきです。

  • パブリケーションの要件: OpenAIのPublication Policyは、アウトプットのさらなる公開に関する質問に直接回答しています: 出版を希望する企業は、「ChatGPTで作成されたコンテンツ(例:書籍、短編小説集)を、次の条件の下で出版することができます:(1) 出版されたコンテンツが企業に帰属すること、(2) コンテンツ作成におけるAIの役割が明確に開示されていること、 (3) コンテンツテーマがOpenAIのコンテンツポリシー または利用規約に違反しないこと (4)[OpenAI] の親切心から、他者を不快にするような出力を共有しないように配慮すること。


OpenAIはさらに、「AIの役割は、読者が見逃す可能性がなく、一般的な読者が十分に理解しやすい方法で明確に開示されなければならない」と説明しています。規約は、開示のサンプルを提供しています:


例えば、「まえがき」や「はじめに」(またはそれに類する場所)で、ドラフトや編集などの相対的な役割について詳しく説明しなければならない。APIで生成されたコンテンツが完全に人間によって生成されたもの、あるいは完全にAIによって生成されたものであると表現してはならないし、公開されるコンテンツに最終責任を負うのは人間でなければならない。


と書かれています

ChatGPTは、典型的な創造的プロセスを説明するためのサンプル言語も提供しています:


このテキストは、OpenAIの大規模言語生成モデルであるGPT-3を用いて生成されました。著者は、このテキストをOpenAIの大規模言語生成モデルであるGPT-3で一部生成しました。ドラフト言語を生成した時点で、著者は自分の好みに合わせて言語をレビュー、編集、修正し、この出版物のコンテンツに最終責任を持ちます。


侵害の可能性があるリスク

OpenAIは、(ユーザーが規約に違反しない限り)ChatGPTによって生成されたコンテンツを企業が使用することに異議を唱えることはないと思われますが、だからといって、そのようなコンテンツの使用が著作権関連の異議申し立てのリスクがないわけではありません

AIモデルが既存のコンテンツに依存してコンテンツを生成する範囲では、著作権侵害の潜在的な責任が依然として存在します。アーティストも企業も、AIモデルの学習に著作権で保護された画像を使用し、その結果、著作権を侵害すると主張し、連邦裁判所に提訴しています。

例えば、Midjourney、Stability AI、DeviantArtは、「少なくとも数千人」のクリエイターからなる集団訴訟において、著作権侵害、パブリシティ権侵害、不正競争行為で訴えられています。ゲッティイメージズも、安定性AIがゲッティのデータベースから1200万枚以上の画像を機械学習目的で使用したとされることに基づき、米国と英国で安定性AIに対して訴訟を起こしています。

関連記事:ジェネレーティブAIは著作権を侵害しないと作れないのか?

これらの事例において、被告は、このような方法での著作物の利用はフェアユースにあたると主張しています。これらの裁判はまだ初期段階ですが、機械学習を目的とした著作物の取り込みが侵害かフェアユースかは、最終的には米国最高裁の判断が必要かもしれません。したがって、ChatGPTを訓練するために第三者のコンテンツを使用/摂取したことに基づいて、OpenAIが訴えられる可能性がありますし、任意の状況での出力によっては、ChatGPTが生成した(そして後に特定のユーザが使用した)コンテンツがあまりにも類似していた場合に、特定のユーザが訴えられる可能性もあります。

Aiから出力されたコンテンツの保護

ChatGPTやその他の類似のAIツールを使って作成されたコンテンツを企業が実際に保護できるかどうか、またどの程度保護できるかについては、”Zarya of the Dawn “(「暁のザリヤ」)と題されたAI生成グラフィックノベルの著作権に関する最近の米国著作権局の決定が参考になります。

関連記事:AIを活用した漫画が限定的な著作権登録を受ける

「暁のザリヤ」は、人間が執筆したオリジナルテキストを、プロンプトベースの画像生成AIプログラム「Midjourney」が作成した個々の画像で構成したコミックブックです。生成された画像は、人間の作者によって選択、配置、一部編集されます。著作権局は、当初この作品の登録を認めましたが、AIで生成された画像が使用されていることを知り、著作権の範囲を原文と編集物としての最終製品のみに限定し、AIで生成された個々の画像の著作権保護を取り消しました。

著作権局では、創作物が著作物として認められるためには、人間の著作物であることが必要です。暁のザリヤ」のようにAIが使われている場合、著作権局は、人間、そして人間以外がどの程度貢献したかを細かく見ていくことになります。著者は、各画像は、所望の結果が得られるまで、人間がAIを中間画像の何百ものバリエーションで反復的に誘導する創造的プロセスの結果であると主張したが、著作権局は、AIマシンにテキストプロンプトを提供する人は、「生成画像を実際に形成せず、その背後にある「マスターマインド」でもない」と説明しました。言い換えれば、「プロンプトの情報は生成された画像に「影響を与える」かもしれないが、プロンプトのテキストは特定の結果を指示するものではない。」ということです。

著作権局の決定は、生成AIに対する人間のコントロールの問題を、写真家がカメラに対して持つ比較的なコントロールという観点からさらに説明しています。著作権局は、写真家とは異なり、AIモデルは、写真のフレーミング、照明、露出、深度など、生成される最終画像に対する人間のコントロールと同じレベルを欠いていると指摘する。「暁のザリヤ」の作者は、著作権局の決定で説明されているように、被写体や被写体の表現方法を指示することはできず、AIが作成するものを制御することはできません。

著作権局は、「これらの初期画像の1つに適用される追加のプロンプトは、その後の画像に影響を与えることができるが、Midjourneyが何を作成するかを前もって予測することは不可能であるため、そのプロセスはユーザーによって制御されない。」と述べています。さらに、著作権局は、著作者による画像の編集は、著作権保護に必要な創造性を満たすには、「あまりにも軽微で、気づかないほど」であると指摘しています。

著作権局は最近、ジェネレーティブAIの助けを借りて創作された芸術作品が著作権保護の対象となるかどうか、またその程度について追加の指針を示す政策声明を発表しました。「暁のザリヤ」に関する決定に対して、著作権局は、今後、「AIの貢献が『機械的複製』の結果であるか、または著作者の『(著作者が)目に見える形を与えた独自の精神的構想』の結果であるかを検討する」と明確にしました。より具体的には、「AI技術がそのアウトプットの表現要素を決定する場合、生成された素材は人間の著作物の産物ではない。」ということです。

このガイダンスは、「現在利用可能なジェネレーティブAI技術に関する著作権局の理解によれば、現在、ユーザーは必要な創造的コントロールを欠いている」と明確に指摘しています。GPT-4やその他のAIツールが、著作権局で登録可能とみなされるために、AIの出力に対する十分な創造的制御をユーザーに提供するかどうかは、まだ決定されていません。しかし、著作物の共同制作に関する従来の問題とは異なり、AIのアウトプットの場合、創造的プロセスの完全な文書記録が存在することになります。AIサービスプロバイダーはいつか、十分な人間の著作権を証明または反証するために、チャット記録の提出を求められるかもしれません。

おわりに

ChatGPTと同様のAIサービスは、その使い勝手の良さと、多くの場合、印象的なアウトプットから、今後も登場すると思われます。ジェネレーティブAIプラットフォームが拡大・進化するにつれ、これらのサービスを職場でどのように使用すべきか、また使用すべきでないかについて、企業が積極的に考えることが重要になります。

参考記事:Generative Artificial Intelligence and Copyright Current Issues – Publications | Morgan Lewis


参考文献・参考資料


topcourt (topcourt-law.com)

AI(人口知能)の行為による責任は誰が取るのか【AIと法律】 | IT法務・AI・暗号資産ブロックチェーンNFT・web3の法律に詳しい弁護士|中野秀俊 (it-bengosi.com)

【ロボット法】AI導入で事故が起きたら、誰の責任になる? | AROCHAN (arousal-tech.com)

ChatGPTと著作権法との関係 – 弁護士 芦原修一 (ashihara-law.jp)

ChatGPTの利用規約から見る知財リスクと生成データの著作権保護の可能性 - Open Legal Community

アルゴリズム - Wikipedia

ここから先は

0字
この記事のみ ¥ 100

この記事が気に入ったらチップで応援してみませんか?