動画配信サービス『ニコニコ動画』(運営会社ドワンゴ) VS 米国の『FC2』に特許侵害事件について
『AI無知倫理学会では、読者の皆様からいただいた様々な質問にお答えしております。興味のあるテーマがあれば、何なりとお気軽にお問い合わせください』とお知らせしたところ、早速、表題の件につきお問い合わせがありましたので、お答えいたします。
AI無知倫理学会ですので、この訴訟に関する様々なAI倫理や無知について解説することも勿論可能ですが、上のブログで『法学』もカバーしていると大見得を切っているので、今回は法学的観点から解説してみます。
ドワンゴ、FC2に逆転勝訴 動画コメント技術の特許訴訟―知財高裁
2023年05月26日18時13分
ある程度、法律が解っていると時事通信に書いてある程度の情報だけでも、法廷内でどのような攻防があったのかは、判決文を読まなくてもだいたい想像が付きます。しかしながら、法律に詳しくない人だと、新聞記事に書いてある『知財高裁とは何か?』の説明から必要かも知れません。
現在、日本の裁判所には、(1) 最高裁判所、(2) 高等裁判所、(3) 地方裁判所、(4) 家庭裁判所、(5) 簡易裁判所の五種類の裁判所があって、それぞれ役割が異なっています。
ここで『知財高裁ってなに?』と疑問を持たれた方は、以下のホームページをご覧ください。
知的財産高等裁判所設置法の目的
新聞記事だけでは、どのような裁判か理解できなくても、以下の『判決要旨』をご覧になると、様々なことが分かります。
『判決要旨』を読んでも『事件類型』が、何かが分からない方は、以下をご覧ください。
裁判所が扱う事件
日本の裁判所が扱う事件を大別すると、(1) 民事事件、(2) 行政事件、(3) 刑事事件、(4) 家事事件、(5) 少年事件、(6) 医療観察事件に分かれています。このように裁判所が扱う事件が分類されているのは、日本国内の裁判所では、例えば、サイヤ人が地球を攻めてきた時に、日本の法律ではサイヤ人の侵略行為を裁く法律がないからです。ある特定の事象に対して適切な法律が存在しない場合、その事象を適切に扱うことができないからです。例えば、宇宙からの侵略者に対する攻撃行為に対しては、日本の法律では具体的な法律がないため、それを裁くことは難しいでしょう。
これが宇宙からの侵略者ではなく、AI制御の自動車工場の自動車組み立てロボットが、作業員を死に至らしめた場合はどうでしょうか?
日本の司法制度でも死亡事故の責任を追及することが可能です。AI制御ロボットの場合は、日本の現行法では、事故の責任が誰にあるのかが論点となります。
民事責任と刑事責任の違いについて解説すると、法律が苦手な方には話しが理解しにくくなるので、ここではロボットが人を死に至らしめた刑事責任についてのみ言及します。
ちなみに、同じ死亡事故でも、殺人と過失致死では罪の重さが大きく異なりますので、まずはこのへんの基本的なところから、解説してみましょう。
殺人:故意に他人の命を奪う行為です。被害者の死を意図し、その結果を予見して行動を起こすことが必要です。これは日本の刑法第199条により罰せられる最も重い犯罪の一つです。
過失致死:他人の死を意図していないものの、自身の不注意や怠慢な行為によって他人の死を招いた場合に該当します。たとえば、安全運転を怠った結果、交通事故により他人が死亡した場合などがこれに当たります。これは刑法第211条により罰せられます。
工業用ロボットで殺人罪が問われることは考えにくいと思われる方もいらっしゃるかもしれませんが、これは例えば、工場のラインスタッフが、上司に対して日頃から殺意を抱いており、AIロボットを誤作動させて、上司を殺害したようなケースでは、殺人罪に問われる可能性があります。
一方で誰にも殺意が無くて、ロボットの誤作動で死亡事故が発生した場合は、誰かが過失致死罪に問われる可能性があります。この際、過失致死の責任が、(1) AIロボットを使用している企業にあるのか、(2) 死亡事故が起こるようなAIロボットを製造してしまった企業にあるのか、(3) 危険を検知できるセンサーの不良品を納品した会社にあるのか、(4) センサーの故障をチェックできなかったプログラム製造会社にあるのか、(5) チェック機能を付けるように的確な指示を出して否かった発注者にあるのかといったことは、裁判で様々な角度から検証して責任を追及する必要があります。
また、死亡した人物が自殺目的でロボットの危険区域の中に入ったという状況では、また、全く違った角度から検証する必要があります。
意識、故意、過失について
AIには意思や自我を持つことができるかどうかは、半世紀以上にわたって議論されていることで、現在でも明確な回答はありません。哲学的観点からは、AIの意思や自我以前の問題として、人間にも意志や自我があるかどうかは、古代ギリシャ哲学自体から現代にいたるまで、議論の分かれているところで、生命、死、自我、意識のような概念は、明確に定義できていません。明確な定義ができていないので、定義もできていないところで、AIの自我や意識を論じること自体が無意味であるという考え方も勿論存在しています。
以下の『故意』が成立するためには、法的責任能力のある自我や認識力をもった人間が、どのような意思に基づいた行為だったかが重要な論点であり、故意の有無で罪が異なる例です。現行法ではAIには法的責任能力も、自我も意識もないという状態になっていますが、AIが自我や責任能力を持っていることが共通認識となってくると、『AI自身の責任が問えるかどうか?』という法的な問題に突き当たります。
さらには、人間の場合は、死刑や懲役刑が犯罪行為の抑止力として機能しますが、AIにとってこのような刑罰が無意味であるという根本的な問題もあります。例えば、AIのプログラムや記憶を全部消去することが、人間の死刑に相当すると仮定した場合、AIに対して『プログラム消去の刑に処する』と判決を下して何の意味があるかということです。『スクラップの刑』が死刑に相当するとしても、プログラムやデータは新機種にコピーすれば良いだけの話しなので、スクラップの刑も何の意味もありません。
故意:行為者が自身の行為の結果を意図的に予見し、それを望んで行ったことを指します。つまり、他人を殺害することを意図し、その結果を予見した上で行動を起こした場合、故意による殺人の要件を満たす可能性があります
未必の故意:行為者が自身の行為の結果を予見し、それを達成することを望まないものの、結果が生じることを認識し受け入れた状態を指します。つまり、他人を殺害することは望まないが、自分の行動が他人の死を招く可能性があることを理解していても行動を止めなかった場合、未必の故意による殺人となります。
認識ある過失(知的過失):これは行為者が自身の行為が他人の死を引き起こす可能性を認識しながらも、その結果を避けるための必要な注意を払わない場合に該当します。行為者は結果を予見しているものの、その結果を避けるための適切な対応をとらない過失の一形態で、結果的に他人の死を招くと過失致死となります。
以上のように、行為者の意図や行為の結果を予見・認識した状況により、殺人行為はさまざまな犯行為者の意図や行為の結果を予見・認識した状況により、殺人行為はさまざまな犯罪に該当する可能性があります。
以上の説明に基づき、故意と過失の違い、また故意における『故意』と『未必の故意』、過失における『認識ある過失(知的過失)』と『無知の過失』の違いは、行為者が行為の結果をどの程度予見・認識し、そしてそれをどの程度意図・受け入れているかによって決まります。
AI無知倫理学では『無知の責任と、無知による行為の責任』といった法的概念も極めて重要な基礎知識です。文脈によって様々な使われ方をしますが、大まかには以下のような違いがあります。
無知の責任:個人が自分の無知について責任を負うという概念です。つまり、個人は自分が知らないこと、知らないために理解できないこと、または知らないために行動できないことについて責任を持つべきです。これは『知るべきだった』という観点から来ています。法的な視点からは、ある事象や法律について無知であることが適法な理由とはなりません。人々は自分が生活する社会のルールや法律を理解する責任があります。
無知による行為の責任:個人が自分の無知のために引き起こした結果について責任を負うという概念です。例えば、法律を知らなかったために法を犯した場合、その人はその行為の結果について責任を負います。この概念は行為者がその結果を意図しなかったとしても、その行為の結果について責任を負うという『過失』の原則と関連しています。
第三者意見募集制度について