AI利用において発生しうる責任の扱い方
こんにちは、よじまるです。
経産省から出された「AI・データの利用に関する契約ガイドライン」がとても有用だということで、解説記事を書いています。
解説記事は以下のマガジンにまとめています。
今回の記事では第3章より、
・AI利用において発生しうる責任の扱い方
について解説いたします。
目次
1. 責任に関する整理
- 債務不履行の有無
- 帰責性・因果関係の有無
2. 各段階において発生しうる責任とその扱い
- 学習済みモデルの生成
- 学習済みモデルの利用
--------------
1. 責任に関する整理
AIの開発及び利用の中で問題となる責任については、主に二つに集約されます。その二つとは
・債務不履行の有無
・帰責性・因果関係の有無
です。
1.1 債務不履行の有無
債務不履行とは、
契約で合意した内容に関する履行があったかどうか
です。つまり
「やる(やらない)と約束したことをきちんと守っているか」
ということですね。契約において債務が明確になっている場合にはそれを参照することで事足ります。
契約上何も取り決めていない場合には、当事者同士がどの程度の水準のサービスを相手方に提供することを約束していたかという、
黙示の合意の内容
によって決まるとされています。暗黙の了解としてこれくらいやりますよ、と合意している場合にはそこまでやらなければならない、ということです。
1.2 帰責性・因果関係の有無
帰責性・因果関係の有無とは、
生じた結果にが当事者の責任によるものかどうか
という問題です。しかしこれがとても難しい問題でもあります。
なぜなら、故意・過失な等の帰責性や因果関係は不明であることも多々あるからです。この時は、問題が生じたからといってAI作成者の責任とすることが難しいです。
そのためここで推奨されているのは、
どのような開発を行いどのようなサービスを提供するのかについて、お互いに十分話し合った上で、必要に応じて責任分配の点を契約に明記しておくこと
です。発生する責任として予想されるリスクは洗い出して、きちんと話しておくことが良いということですね。
--------------
2 各段階において発生しうる責任とその扱い
先ほど説明した責任についてどのように扱うかが重要となってきます。
AIの開発及び利用に関して発生する責任についての方針は基本的に、
金額や利用条件などと共に契約にて調整・合意する
ということが推奨されています。発生する責任については、開発の段階と利用の段階に分かれます。
2.1 学習済みモデルの生成
学習済みモデルを生成するにあたって起こりうるリスクはいくつかありますが、この段階で発生するリスクは債務不履行、つまり
やります(やりません)といったことを守れない
リスクです。具体的には以下のリスクがあります。
- 開発頓挫のリスク
- 学習済みモデルの品質や性能の問題
- インテグレーション
2.1.1 開発頓挫のリスク
AIの開発は、ソフトウェア開発に比べて開発頓挫のリスクが高いです。それはAIの開発で何を行うかが契約前には確定しにくいことや、AI開発がデータに大きく影響されるという特徴によるものです。
※AI開発の特徴については以下の記事でまとめておりますので適宜参照してください。
ここでそのリスクへの対策としては、以下のように契約を探索的段階的にすることが推奨されています。契約を予め段階的に切り分けることで、大きな契約が途中で頓挫してしまうリスクを回避しようという考えです。
2.1.2 学習済みモデルの品質や性能の問題
AIの特徴においても説明しましたが、AI開発はその品質がデータに大きく影響されることもあり、発注した大企業(ユーザ)と受注したAI企業(ベンダ)との間で品質や性能について問題となることも珍しくありません。
そこで推奨されているのは、
品質の基準と報酬を明確にすること
です。成果物をどのように評価するのか、どのような基準で報酬等を支払うのかについて契約において明確に定めておくことによって、契約後の問題を回避することが望ましいとされています。
2.1.3 インテグレーション
また、開発後によくあるのが自社アプリケーションへの導入(インテグレーション)などです。
このつなぎ込みのところで問題になることもあります。例えば計算時間の問題や、データのやりとりの問題などですね。
この点についても意識をした契約をすることが推奨されています。
2.2 学習済みモデルの利用
学習済みモデルの利用について起こる問題は、
- 学習済みモデルの動作等に関する誤り
- 期待にそぐわない結果によりユーザや第三者に損害を与える
などがあります。この場合の基本的な考え方は、
損害に寄与したものが、その寄与の度合いに応じて責任を持つ
というものです。わかりやすいですね。悪いことが起きたら、それを起こした側が責任を持つということです。しかし、ここでも問題となるのが
責任の所在に関する把握が困難
であることが多い、ということです。AIの開発はAI企業が行いますが、その品質を大きく左右するデータは大企業から提供されます。
それでは、品質が悪くて問題が起きた時、その責任はどちらにあるのでしょう?難しい問題です。
これについてガイドラインでは、因果関係等についての事後的な検証が技術上困難であることなどを踏まえ、
契約で取り決めることが望ましい
としています。
・たくさんの価格を払うからということでAI企業が責任を持つ仕組みにする
・責任は全部持つからディスカウントをしてほしい
などの話し合いをして、価格などと合わせて契約によって取り決めることを推奨しています。
--------------
まとめ
今回の記事では、AI利用において発生しうる責任の扱い方について解説をしました。
契約を行う前の段階で、どのような問題が起こりうるかについてはできる限り明らかにした上で、金額その他と合わせて契約において定めることが推奨されています。
リスクが見えないものについては、契約を段階的に区切ることでできる限りリスクを小さくすることが望ましいです。
次回の記事では、「AI契約において法律違反とならないために大企業が気をつけておくべき法律」について解説します。
--------------
株式会社ACESでは、上記のガイドラインの内容を踏まえ、AIの技術導入及び技術導入のためのコンサルティングを行っております。
・AIを導入したいけど自社のデータでどのようなことが可能かわからない
・AIを導入して実現したいことがあるがリスクを最小限に抑えた形での導入の方法がわからない
・AIの実装開発を行って欲しいがあるがリスクを最小限に抑えた形での導入の方法がわからない
などの課題を抱えていらっしゃる場合は、お気軽にお問い合わせください。
株式会社ACES HP : http://acesinc.co.jp
お問い合わせ先 : info@acesinc.co.jp
この記事が気に入ったらサポートをしてみませんか?