AIの透明性を高めるためにできること~AIシステムの結果や決定に対して質問したり、それに異議を唱えること
原則3「透明性」:透明性及び説明可能性(Transparency and explainability)
(OECD AI原則の)3つ目の原則は「透明性及び説明可能性」です。(うち、「反論できるようにする」ということの意味を解説します)
反論することができるようにする
これはAIシステムの結果や決定に対して質問したり、それに異議を唱えることが可能であるという意味です。
ここで科学哲学を踏まえて考えてみましょう。科学哲学では、科学的な理論や仮説は絶えず試験と反論の対象となるべきであり、それによって真理への理解が深まるという考え方が一般的です。これはカール・ポパーの提唱した「反証可能性」の原則にも通じるもので、科学的な主張はそれが間違っていることを示す可能性がある具体的な証拠に対して開かれていなければならないというものです。
この原則をAIに適用すると、AIシステムの決定や行動はユーザーやその他のステークホルダーによって試験、質問、そして反論の対象となるべきであり、そのプロセスを通じてAIの信頼性や効果性が向上すると言えます。反論可能性を持つことで、AIシステムの結果や決定が適切かどうか、公正かどうか、倫理的な基準を満たしているかどうかを評価するための重要な枠組みを提供します。このプロセスは透明性を保証し、より公正で責任あるAIの使用を推進します。
「反論できるようにする」ことは、AIシステムが出力する結果に対して、人間が疑問を持ち、その正当性を批判できるようにすることで、AIシステムの透明性を確保し、責任ある情報開示を行うことができます。また、AIシステムが出力する結果に対して、人間が疑問を持つことで、AIシステムの改善や精度向上につながる可能性もあります。