見出し画像

AI利用における人権や民主主義の保護〜国際条約の誕生〜


はじめに

 AI(人工知能)は近年の技術的発展により開発利用が拡大しており、生成AIの登場などで日常生活レベルまで利用が波及している。その一方でAIにはデメリットや危険性もはらんでおり、国際機関や各国でAIに関するルールが検討されている。2024年5月、欧州評議会(CoE、Council of Europe)は「AIと人権、民主主義と法の支配に関する欧州評議会枠組条約(Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law、以下「枠組条約」)」を採択した。この枠組条約はAI利用における人権や民主主義との関係に焦点が当たっている点で意義がある。

枠組条約の概要

 欧州評議会により採択された枠組条約は、世界で初めてAIの開発利用における人権や民主主義、法の支配の保護と促進を目的とした法的拘束力のある国際条約である。欧州評議会によると、「急速な技術進歩から生じる可能性のある法的な障壁を埋める」ことも目的としているという。
 枠組条約は2024年5月17日、欧州評議会にて採択され、同年9月5日にはアンドラ、ジョージア、アイスランド、ノルウェー、モルドバ、サンマリノ、イギリス、イスラエル、米国、EU(欧州連合)により署名された。
 条約の制定に関わった欧州評議会は、人権や民主主義、法の支配などの保護や推進を目的とした国際機関である。1949年に設立され、加盟国はEU27カ国とイギリスやトルコなど46カ国。オブザーバーとして日本やアメリカ、カナダなどが参加している。枠組条約策定では日本も参加したが、9月の署名は見送った。

枠組条約の内容

 枠組条約では国際人権法に基づく「人権の保護(Protection of human rights)」と「民主的なプロセスの完全性と法の支配の尊重(Integrity of democratic processes and respect for the rule of law)」という2つの締約国の義務が明記されている(第2章 第4条・第5条)。
 また枠組条約第3章では締約国が実施する共通原則として「人間の尊厳と個人の自律性」「平等と非差別」「プライバシーと個人データ保護の尊重」「透明性と監視」「説明責任」「信頼性」「安全なイノベーション」の7つが掲げられている。
 第2章で明記される2つの義務のうち、「民主的なプロセスの完全性と法の支配の尊重」は枠組条約内でも使用されている言葉だが、抽象的な言葉でありイメージしにくい。ここでポイントとなるのはAI技術が民主的な価値や制度、プロセスを促進かつ強化する可能性を持っていることだ。より具体的に説明すると、AI利用は民主的な議論や市民による対話への参加がこれまでよりも容易になったり、選挙へAIが導入される可能性もある。
 しかしAI利用が人権や民主主義を脅かすリスクもある。例えば悪意あるユーザーが他者の誤情報を流したり、誹謗中傷を行うことで人々の間に分断が生じる。枠組条約では、緊張がよりエスカレートすることや政府の重要な決定に対して国民の信頼が損なわれる可能性があるとされている。そのためまずはAI利用における民主主義と法の支配へのリスクを検討する必要があると指摘している。

枠組条約の意義とは?

 人権は技術の有無に関わらず、人間が生活していくうえで基盤となる固有の権利である。AIという新たな技術が発展しても、人権や民主主義、法の支配といった基本的な価値観を守りながら利用を促進していく必要がある。そのためCoEによる枠組条約は今後のAIの技術開発と人権や民主主義などの保護を両立する指針であると考えられる。

参考文献

この記事が気に入ったらサポートをしてみませんか?