![見出し画像](https://assets.st-note.com/production/uploads/images/50600210/rectangle_large_type_2_b989448d9da0a69ecebac210800ccb5d.jpg?width=1200)
EUが人工知能を規制する法案を発表
EUの政策執行機関である「欧州委員会」(European Commission:以下EC)は「人工知能(Artificial Intelligence:以下AI)が人間の安全や基本的権利を脅かす可能性がある」として使用に制限を課す新法案(European approach for Artificial Intelligence)を議会に提出しました。ECの新法案は「AIは様々な社会問題を解決する可能性があると同時に、人間の安全や基本的権利を脅かす可能性がある」という共通認識を得るためのものです。
具体的には「信用度の評価」「社会保障給付の可否」「裁判の判決」などです。
この新法案は、AIが用いられる各分野で想定されるリスクを4種のカテゴリに分類し、それぞれのカテゴリごとに異なる制限を適用しています。
①「受け入れがたいリスク」
②「高リスク」
③「限定的リスク」
④「最小限リスク」
①「受け入れがたいリスク」のカテゴリは、全国民を監視するシステムや、ランキング化して管理するシステム等であり、「EU市民に対する明確な脅威となりうるもの」として全面禁止となります。AIによる選民思考の助長や、AIの規範が(良い評価を得るために)人の規範となってしまう恐れなどが考えられます。
②「高リスク」のカテゴリは、「EU市民の生命と健康を危険にさらす可能性のあるもの」です。例えば自動輸送インフラストラクチャでの事故や、教育試験の採点、雇用・労働者管理など市民の生活を左右する恐れのある分野です。
③「限定的リスク」のカテゴリは、「情報に基づく意思決定を支援するシステム」で、最小限の情報透明性に関するものです。意思決定などを判断した理由の透明性に関するものです。AIが何故そう判断したかという経緯の説明が必要になってきます。
④「最小限のリスク」はビデオゲームやスパムメールフィルターなど、アプリケーションに用いられるAIで、このカテゴリは制限の対象とならないそうです。
この法律に違反した企業には「世界全体の年間収益の最大6%の罰金を科す」となっています。
AIの問題点の一つとして「人間に関する無関心」という問題と「倫理的・道徳的意思決定」の問題は近年注目されており、実際にコンピューターサイエンスの論文が倫理の問題に直面することは増えているようです。
軍は致命的なダメージを与えうる攻撃の決定は人間が下すことになるとしていますが、いずれはロボット自らが攻撃意思決定を行使することも否定できないとしています。軍事や医療の分野においてもより多くの議論が望まれると思います。
まとめ
AI怖い
参考文献
Proposal for a Regulation on a European approach for Artificial Intelligence
(サイトからのダウンロードとなります)