AI(人工知能)の責任
※「ロボット税」ってご存知ですか? アシモフの小説の世界ではなく、欧州議会で真面目に議論されているそうだ。
▼〈AIと世界 見えてきた現実 1 ロボにも法的責任〉(2017年7月24日付日経)
〈人類の生命観をも揺さぶり始めたAIをどう社会に受け入れるべきか。制度や法律の面でも議論が始まっている。/「AIにも人類と同じような責任を負わせるべきだ」。2月16日、欧州議会でそうした決議案が成立した。ロボットや自動運転車に法的な「電子人間(electronic person)」の地位を与え、損害を起こした場合などの責任を明確にするという考え方だ。/欧州ではロボットの所有者に「ロボット税」を課したり、緊急時にはロボットの機能を停止させるスイッチを備えさせたりするなどの具体案も議論されている。/提唱者の一人がルクセンブルク出身のマディ・デルボー議員だ。採決前の討論会で、デルボー議員は「自律性を高めるAIとどう向き合うのか。科学者やエンジニアだけに任せられるテーマではない」と訴えた。〉
※この記事の前半の「電子人間」という倫理的な話と、後半の人間に課される「ロボット税」とは違う話だと思うが、どちらもとても面白く、そして深刻な問題だ。
※2017年3月27日付佐賀新聞に「AIとトロッコ」という記事が載っていた。NHK「ハーバード白熱教室」のマイケル・サンデル氏によって一気に有名になった「トロッコ問題」について要約してくれている。
〈倫理的課題の最たるもの、それはいわゆる「トロッコ問題」だ。倫理学の思考実験で「ある人を助けるために他の人を犠牲にするのは許されるのか」がテーマ。/設定はこうだ。制御不能になったトロッコが暴走し、そのまま進めば前方の線路で作業している5人をひいてしまう。だが、手前に路線を分ける分岐器があり、たまたまそこに居合わせたあなたは進路を変更できる。しかし、変更した先にも1人の作業員がいる。あなたならどうする? という道徳的ジレンマを描いた命題だ。/運転中にも当然、こうした事態は起こり得る。例えば、対向車が中央線を越えてきた。このままでは正面衝突する。左にハンドルを切れば避けられるが、歩道には複数の歩行者がいる。自律走行をつかさどる人工知能(AI)は、運転手を助けるためにハンドルを切るのか、あるいは歩行者の命を守るために直進を選択するのか-。/自己犠牲的な精神に人間性を見いだすのなら、人は直進し衝突する道を選ぶだろう。だが、AIはどうか。運転者の安全を最優先にプログラムされていれば、ハンドルを切るかもしれない。そして歩行者をはねて死なせた場合、法的責任は誰がとるのか。損害賠償で一定解決したとしても、倫理的責任はどうなるのか。先のトロッコ問題に正解がないように、答えは簡単には見つけられそうにない。〉
※しかし、たとえば保険会社は「答え」を見つけなければならない。トロッコ問題からすぐ思いつくのは、AI自動車による事故が起きた時の「死亡保険金の算定方法」だ。尤(もっと)も、この佐賀新聞の記事が示した例はとても穏当だ。
右と左とにそれぞれ人間がいるとして、AIは一瞬で「どちらを助けるか」を判断し、ハンドルを切る。つまり、左右のどちらかが事故で死ぬ。
右に老人、左に子どもがいる場合、選ぶ基準は? 右にスーツ姿の会社役員、左にヘルメットをかぶった工事作業員の場合は? 子連れの女性と中年カップルの場合は? ホームレスの子どもと有名私立小学校の制服を着た子どもの場合は?・・・咄嗟(とっさ)の瞬間、AIはどちらかを選ばなければならない。その判断基準は、発生する死亡保険の金額と関係するだろう。
当分の間、AIの責任は人間の責任だろう。最先端の「AI」は、最も古典的な「倫理」を、まったく新しい形で人間に突きつけている。