見出し画像

AIと倫理学:パラドックスから学ぶ新たな視点

 生成AIの普及に伴い、プログラミング、コンピュータサイエンス、データサイエンス、プロンプトエンジニアリング、数学、統計学などの分野が急速に注目を集めています。しかし、その一方で、AIの倫理的側面について考える重要性も増しています。なぜなら、AIに関連した法令や、規制に違反してしまった場合、巨額の罰金やサービスの中止命令といった結果を招くからです。

 特に日本では、『数学と哲学では食えない』という古い思い込みがまだ根強く残っていますが、AIの普及とともに、その考え方は既に時代遅れであるという認識が広がりつつあります。AI倫理の分野において、日本はかなり出遅れていますが、海外では情報通信関連に限らず様々な企業や、ヘッドハンティング会社などが、AI倫理専門家の採用に躍起になっています。

EU一般データ保護規則(GDPR:General Data Protection Regulation)とは、欧州連合(EU)の個人情報保護法で、データ主体の権利やデータ管理者の義務を定めています。AIに関連するGDPRの適用では、AIシステムが個人情報を適切に管理し、データ主体の権利を尊重するための対策が求められます。

2021年4月21日に公表されたEUのAI規則案では、リスクベースアプローチを四段階に分けていますが、『許容できないAIリスク』は禁止措置とし、最大で3,000万ユーロ(約40億円)もしくは、全世界売上高の6%の高い金額の制裁金を科すことで調整中です。

容認できないAIリスクには、『明確な人権侵害:(1) 意識や行動の操作+害、(2) 公的機関の社会的スコア悪用、(3) 法執行機関の生体識別 など』が、類型(5条1項)として取り上げられており、禁止措置になる可能性が極めて高い状態です。

AI倫理のパラドックスとジレンマ入門

 本稿ではコンピュータやAIの専門家が、哲学や倫理問題に取り組みやすいアプローチとして、パラドックスやジレンマ問題の理解に取り込むことを推奨します。これらは、コンピュータサイエンスの基礎でもあり、パズルや思考実験的に割と簡単に取り組むことができるので、哲学や倫理の入門として最適な問題と言えます。

 AI倫理におけるパラドックスとジレンマ問題の理解から始め、ラッセルのパラドックス、徳のパラドックス、善悪のパラドックス、悲劇的選択のパラドックスなどの具体的例や、技術的進歩に関するパラドックス問題とAI倫理パラドックス問題へのアプローチも併読すると、AIと倫理の関連性をより深く理解できるでしょう。


いいなと思ったら応援しよう!

この記事が参加している募集