![見出し画像](https://assets.st-note.com/production/uploads/images/165524353/rectangle_large_type_2_62e10e80b2fad326feee594ba02e5033.png?width=1200)
人類に残された最後の役割=責任について
例えば、企業が起こした重大事故の責任を取って責任者が辞職したりする。
しかし事故の被害者は、これによって特に回復しない。
個人としてはなんの足しにもならないと言ってもいいのだけど、
とにかくなんだか責任者は辞職する。
「責任を取る」というのは不思議な概念で、
結局何をしたら責任を取ったことになるのか、実はよくわからない。
ただ責任者は罰せられるべきという社会の合意があるだけだ。
良くないことが起きたとき、誰かが罰せられなければならないとみんなが思っている。
では罰とは何かというと、これも実ははっきりしない。
辞書を読んでも、集団の中の決まり事に違反した者をこらしめる、苦痛を伴うこと。
という程度の説明しかされない。
要するに痛みを感じさせることだ。
誰かが痛みを感じることで、集団の気が収まる。
それが責任を取ること。と、言えそうな気がする。
どうなんだろう。
IT技術の発達によって、今後あらゆる作業は自動化されていく。
人間の役割はどんどん小さくなっていくが、
最後に残されるのがこの「責任を取ること」だとも言われる。
人間は痛みを感じることができるから。
機械にはそれができないから。
この議論は、車の自動運転導入の際によくされていた。
自動運転の車が事故を起こしたとき、その責任は誰に問えるのか。という。
自動運転それ自体はかなり精度が上がっていて、
いずれ人間が運転するより事故の確率は下がるだろう。
スピード違反も飲酒運転もしないしね。
すべての車が自動運転になることで、
事故が激減する未来を想像するのは難しくない。
でも、事故はゼロにはならないはずだ。
何らかの理由で、おそらく人間が起こすヒューマンエラーよりはかなり低い確率で、
それでもエラーは発生し、事故は起きる。
それにより、気の毒な乗客は怪我をしたり、悪くすると命を落とす。
これどうするの?という問題は未だ解決していない。
事故を起こした車両に積まれていたAIを破壊したら、
責任を取ったことになるか?それで被害者たちは納得できるか?
できない。
機械は痛みを感じることができないから。
誰かが痛みを感じる必要がある。
この場合は、その自動運転システムを開発した人か、
そのサービスを運営して収益を得ている企業のトップか、
なにかそういう責任者らしき人に痛みを感じさせないといけない。
社会の合意として。
むしろそのために責任者は存在し、何かが起きるたびに罰せられていく。
人間は、究極そのためだけの存在になっていくのではないか。
と言ってしまうと寂しい話なんだけど。
まあ、機械に責任を取らせる方法を誰かが発明するかもしれない。
新しい倫理の発明が待たれる。
ただ、そのすべてが上手く行ったとて、
理不尽な目にあった被害者の傷が癒えるわけじゃない。
然るべき責任者が然るべき罰を受けても、被害をなかったことにはできない。
どんなに謝罪や保証をしても、納得できないものはできないだろう。
完璧な原状回復ができない以上は、
結局、責任を取ることなど原理的にできないのではないかとも思う。
究極的な意味で、責任を「取る」ことはできない。
でも、なんというか、責任を「負う」ことはできる気がする。
重大なプロジェクトに関与する人は、
そのプロセスの中で責任を負い、誠意を持って人事を尽くす。
その結果ができるだけ良いものになるように、
できる限りのことを、精一杯やる。
それが人間の大事な役割で、責任を「負う」ということではないか。
もちろん、残念ながらその結果が振るわないことだってあるだろうけど、
その際の責任を「取る」ことは厳密にはできない。
例によって何らかの罰を与えるという社会合意が駆動するのみだ。
ただ責任を負って何かをしようとしたことは、なんらか認められるべきだと思う。
進歩する人類の営みとして。
責任はプロセスの中に、「負う」事のできるものとして存在する。
それは人間が前向きに担うことができる役割のひとつで、
これからも変わらない人の価値と言えるのではないか。
と、思うのだけど
どう思います?