見出し画像

AIに介入する方法、例えば医師法17条・弁護士法72条に違反しないために

必要に応じて人的介入ができる-ようにすべき
「社会発展」の原則における「人間の能力の増強」で述べたように、AIは人間の意思決定を補完するためのツールであるべきで、重要な決定がAIによって自動的に行われ、人間がそのプロセスから除外されるべきではありません。たとえば、AIが雇用やローンの承認といった人間の生活に大きな影響を及ぼす決定を自動的に行う場合、人間が最終的な意思決定の余地を持つべきです。

人的介入の仕方としてはHITL(Human in the loop)およびHOTL(Human on the loop)というアプローチがあります。
まず、HITLについて考えてみましょう。これは、AIシステムが作業を実行する際に、人間が常に監視や介入を行うという手法です。たとえば、医師による画像診断の場合を考えてみましょう。AIは高度な画像処理アルゴリズムを利用して、患者の画像を解析しますが、最終的な診断は医師が行います。AIが診断を行った後でも、医師はAIの結果を確認し、必要に応じて修正や追加の診断を行います。このように、医師がAIの意思決定を監視し、必要に応じて補完することで、人的介入が可能になります。
この思想は日本の医療におけるAI活用の際にも論点になりました。AIがレントゲン診断をすることが医師法17条(医師でなければ、医業をなしてはならない。)に抵触するのではないかという議論がありました。ここでは、医師をAIのループに介入させる、つまり「診断、治療等を行う主体は医師であることと 医師はその最終的な判断の責任を負う」という条件を付けることでAIが医師の補助をすることが認められました。

一方、HOTLは、AIシステムが自律的に作業を行うが、人間がシステムの運用を監視し、必要な場合に介入するという手法です。たとえば、ロケットの自動操縦を考えてみましょう。AIシステムがロケットの飛行を制御し、予め設定された軌道に従って進む場合でも、人間はシステムの動作を監視し、異常な状況が発生した場合に介入することができます。例えば、センサーデータに異常が検出された場合や、予測された軌道から逸脱した場合には、人間が自動操縦を停止し、安全を確保するための対応を行います。いざという時に人間が対象物を操作できる状態に置いておくことをHOTLと言います。
先ほどの、医師の問題でいえば、HOTLでは認められなかったのではないかと思います。HITLとHOTLは使い分けが重要です。


いいなと思ったら応援しよう!