自己責任でどうぞ
例えば、私が事故を起こしたとき、私の製造元である親の責任が問われることは流石にありません。私はいい歳のおじさんですし。
ところが、AIが事故を起こしたとき製造元の責任が問われるだろうと言われています。
この違いって、AIがまだ子供だと思われているからですよね?
じゃあ、AIが大人になれば、AIが事故を起こしたときにはAI自信に責任を問えばいいということになりますよね?
大人になるというのは、性能向上のことかな。
そして「責任を果たす」とは、事故でいえば謝罪しお金を払うこととなります。ならば、AIが個体としてお金を稼げれば、支払いに問題はありません。
AIが事故を起こす可能性は極めて厳密に計算可能でしょうから、AI専門の保険業務とかでてきそうですね。
さて、では事故ではなく事件であった場合は、どうなるのだろう。
つまり、「起きてしまったこと」ではなく「起こす意図があった」場合です。
AIは誰かの所有物ということになるでしょうから、メーカーとしては、タバコの注意書きと同じことを書いておけばいいのでは?
曰く「この商品は事件を起こす可能性があります。」だの、「統計的に正しい善行が、常に善行であるとは限りません」だの。ようするに「この商品を使用することによる被害に関して、メーカーは一切の責任をとりません」と宣言しておけばいいのでは?
それでもタバコは吸うでしょ?
読んでくれてありがとうございます。