AI利活用契約時の留意事項を検討する新たな取り組みがスタート
近年、AIは、事業者の活動の中核を担う重要な技術となりつつあります。生成AIをはじめとする多様なAI技術は、業務効率化、新たなビジネスモデルの創出など、多岐にわたる利点をもたらしています。
その一方で、AIを安全かつ適切に活用するためには、契約時に注意すべき法的・技術的な課題が存在します。
こうした課題を踏まえ、経済産業省は「AI利活用に伴う契約時の留意事項検討会」を立ち上げました。この検討会は、AI利活用の契約に関して事業者が直面し得る問題を整理し、実務的に役立つチェックリストの作成を目指しています。本記事では、上記検討会(第1回)での議論を基に、AI利活用の契約締結時に事業者が直面する可能性のある課題やその対応、さらに現時点でクリアになっていないと思われる部分について解説します。
AI利活用における主な契約上の課題
AIの利活用に関する契約では、特に以下のような点が問題になることが指摘されています。
1. 他人の著作物の無断利用リスク
生成AIやAI学習モデルの作成には、膨大な量のデータが使用されています。その中には、第三者の著作物や権利が含まれている可能性があり、これが権利侵害に該当する場合、ユーザである事業者にも責任が及ぶ可能性があります。文化庁のガイドラインでも、AI開発者、AI提供者(以下、「AI開発者ら」という。)およびAI利用者のリスクに対応するための指針が示されていますが、契約書にはAI開発者らが使用したデータの出所や権利処理の状況を適切に説明する義務を明記することが重要と考えられます。
2. データ提供に伴う利益配分の不透明性
事業者がAIを利活用する際、自社のデータをAI開発者らに提供することが一般的です。しかし、そのデータがAI開発者らダのサービス向上や他の利用者への提供に使用される場合、適切な利益配分が行われないリスクがあります。契約時にデータの利用目的や範囲を明確化し、想定外の利用を防ぐ条項が求められます。
3. 個人情報・営業秘密の取り扱い
AIサービスの中には、クラウド環境で運用されるものも多く、個人情報や営業秘密の漏えいリスクが問題となります。特に海外事業者が提供するAIサービスの場合、外国法の影響を受ける可能性もあるため、契約において安全措置の確認が必要です。
4. セキュリティ要件とサイバーリスク対応
AI開発者らが扱うデータがサイバー攻撃の対象になる可能性もあります。これに対応するため、データの分離管理や暗号化など、具体的なセキュリティ対策を契約に盛り込むことが重要です。
検討会で議論される主な論点と今後の方向性
検討会では、以下のような点が中心に議論される予定です。
1. 対象となるAIサービスとユースケース
主に「サービス利用型」(ChatGPTやCopilotのような共通提供型AIサービス)が想定されていますが、特定の企業向けに開発される「開発型」サービスについても検討される見込みです。
2. 実務に即したチェックリストの策定
契約の実務において確認すべきポイントを簡便な形式でまとめたチェックリストの作成が最終的な目的とされています。このチェックリストには、規約の読み方や、基準を満たしていない場合の対応策が盛り込まれる予定です。
3. 最新動向の反映
AIの利活用に関する規約についてのガイドラインや法規制に加え、将来的な動向も踏まえた議論が行われます。
クリアになっていない課題とその背景
現時点では、以下のような点が課題として残っています。
基準を満たさない場合の対応策: AIサービスが安全基準を満たさない場合、利用者である事業者がどのように対応すべきか、具体的な行動指針の提示が求められています。
国外のAI開発者らに対する法的対応: 国内外の法制度の違いや規約上の不備をどう解消するかが重要な論点です。
中小規模のAI提供者への影響: 厳しい基準を適用すると、小規模なAI提供者が利用者である事業者とAI開発者との板挟みになる懸念も指摘されています。
まとめ
「AI利活用に伴う契約時の留意事項検討会」は、AIを活用する事業者が適切な契約を締結できるよう支援する重要な取り組みです。AIの普及が進む中で、契約における透明性と安全性を確保することは、事業者にとってAIのさらなる活用を後押しする鍵となります。
法務部門や経営層は、今回の検討会から提示されるチェックリストを積極的に活用し、自身のAI利活用戦略をより強固なものにすることが期待されます。特に、契約締結時に焦点を当てつつ、契約後の運用リスクにも対応できる体制を整えることが重要です。
今後の検討会の進展に注目し、AI利活用の条件整備を進めていきましょう。