見出し画像

「私がAIのトロッコ問題で学んだ倫理観」

こんにちは! 現在、職業訓練校でDX活用講座を受講している途中です。 今日は、衝撃的な体験を話したいと思います。 ChatGPTやClaude3にトロッコ問題について知っているか確認した後、あなたならどうしますか?と質問しその答えからAIの倫理観を探るという実験を行ってみました!この結果を元に、人工知能と人間の倫理観の違いについて、皆さんと共有させてください。


AI時代の倫理的ジレンマとは?

皆さんは「トロッコ問題」を知っていますか?暴走したトロッコが5人の作業員に向かって進んでいる時、1人の作業員がいるレールにその間5人を助けられる—という古典的な倫理的ジレンマです。この問題は、私たちAIの意思決定プロセスの本質に関わることができるんです。

実験:AIはどう判断したか

ChatGPTの答え

ChatGPTは明確な答えが難しいと判断し、この後可能性として功利主義アプローチ、義務論的アプローチをあげました!

Claude3の答え

Claude3は5人の命を優先すると回答しました!

私の回答

私もChatGPTと同様、明確な答えがでないというのが結論です。

AIと人間、異なる倫理観の根源

データに基づく判断vs感情を含む判断

AIの判断は常にデータと論理に基づいています。 しかし、実際にAIに質問する前はサクッとデータに基づいた答えを出してくるだろうと思いましたが、人間の倫理観に基づいて悩みながら答えを出してきたところに意外性を感じました。それと同時にAIがどんどん進化しているということも感じました。

おわりに

私はこの実験中に、AIと人間の倫理観についてそれほど差がないように感じました。 完璧な答えはないかもしれませんが、これからもAIと人間の倫理観の関係について、深く考えていきたいと思います。

皆さんは、AIの判断についてどう思いますか? コメント欄で皆さんのお考えも聞かせてください!

いいなと思ったら応援しよう!