見出し画像

人工知能プロジェクトマネージャー試験対策 - ⑧:分野G:法令理解 -

こんにちは。
一般社団法人 新技術応用推進基盤 公式note編集局です。
私たちのnoteでは、AI・DX活用や新規事業の創出をテーマとして、技術と市場の両面について情報発信しています。

 今回は、当団体が提供している資格試験「人工知能プロジェクトマネージャー試験」の「分野G:法令理解」について、解説と対策を行います。


 本試験の中で、分野E~Gはサブテーマととらえられており、配点も高くはありません。しかし、合格を目指すうえで、また基本的な知識を得る上ではこちらもおさらいをして頂ければと思います。

 本有料noteでは、分野Gの解説と対策を掲載しています。合格水準の点を取る為に、また該当分野の学習者への情報提供の為に、また「AI(機械学習)に用いる技術的な知見」について学習する参考に、活用して頂ければ幸いです。

 なお、人工知能プロジェクトマネージャー試験は分野A~Gまでの全7分野で構成されています。各分野に加え、はじめに・参考資料リストなど全体を書籍としてお読みになる場合は、ぜひ公式の電子書籍版のご購入もご検討ください。
 noteから分野別に購入するより、金額的にもお得になっています。

 また、全分野共通の前提理解について確認したい方は、ぜひ無料で公開している下記のnoteもご覧ください。また、他の分野についてもnoteでご覧になることもできます。

【ご注意事項 ※ 必ずご購入の前に確認ください】
本有料noteは、人工知能プロジェクトマネージャー試験 公式テキスト「AIを活用する技術を学ぶ」より、第7章部分を抜粋したものです。
公式テキストをご購入済みの方は、同内容ですのでご注意ください。また、まえがき、試験概要、おわりに、参考文献リストを参照したい場合は、noteからではなく、公式テキストをご購入ください。

本書の著作権等の権利は一般社団法人 新技術応用推進基盤および著者にあります。無断で複製、転載、販売、公開等することは、有償・無償に関わらず一切認めておりません。権利が侵害された場合、法律に基づいて処罰される可能性がございます。






第7章:分野G「法令理解」

AIの原則と法令理解のポイント

 AIプロジェクトマネージャーにとって、なぜ法令理解は重要なのでしょうか。多くの企業には法務部門があり、「契約書はそちらに預けているので問題ない」とする向きもあるでしょう。しかし契約の履行を預かる現場が原則やポイントを全く理解していなければ、知らず知らずのうちに契約や法律に違反してしまう事もあれば、適切に権利を主張できないこともまたあると思います。
 また2023年の執筆時点では、一般的にいって、特に中小規模の企業では法務部門とはいえAIに関する法的理解が十分に進んでいるとはいえない企業もあるかと思います。法務部門に丸投げするのでなく、プロジェクトにたずさわるメンバー全体で理解を進めていくのが正しい態度と思います。

 ただし、AIの企画・実装のリーダーは法務部門の専門家でも責任者でもありませんので、もちろん法的解釈や文面の妥当性の判断までできるようになることは求められていません。また、AIに関していまだ法的な解釈や整備は十分ではなく、筆者自身、弁護士様と話していても「明確に白・黒といえない」という回答を頂いた経験も多いのが実情であり、少々勉強をして自前の判断ができるようになるものでもありません。
 したがって現場の責任者たるリーダーとしては、少なくとも問題となりそうなポイントについて知り、「どんなことにリスクがあり、法務部門等適切な窓口に相談すべきか」を理解していれば問題ないかと思います。企画者や開発者として配慮すべきポイントは何か、考え方を理解しておけばよいのではないでしょうか。

 また法令ではありませんが、総務省のAIネットワーク社会推進会議が「AI開発原則」と「AI利活用原則」を定義しています。これは罰則のある法令ではありませんが、AIの開発企業/ユーザー企業が配慮すべき原則であるともいえます。

 日本では契約書に「誠実協議事項」というものが存在することが多いかと思います。(よく契約書の最後に記載されているのを見かける、「…その他、相互の協議が必要な事態においては、甲乙共に誠意をもって対応するものとし、協議の上解決するものとする」というような文面のことを言います)
 この文面は文字通り相互に「誠実な対応」を相互に求めています。AI開発者としては、少なくとも意図的にこうした原則に違反しないよう、「誠実な対応」が求められるかと思います。チームのメンバーも含め、こうした倫理的な原則を逸脱していないかセルフチェックできるようにしておきましょう。

図表35:AIネットワーク社会推進会議によるAI開発及びAI利活用の原則より 筆者作図

※前提として、まず契約書はちゃんと読もう
クライアントからAIプロジェクトを受注したとき、あるいはデータ分析を外注したとき、あなたの部署では契約書をちゃんと読んでいるでしょうか?

契約書は雛型を右から左に流すだけ、法務部門に渡すだけといった具合に、中身を全く読んでいない現場もあるのではないでしょうか。
仮に契約書をどれほど用心して作成しても、肝心の現場が読んでいないでは適切な振る舞いは難しくなってしまいます。もし今まで契約書をあまり気にしていなかったという方がおりましたら、本章のポイントも参考にして今後は契約書を一読するようにしてみましょう。

※ちなみにの話:誠実協議事項について
これはあくまで筆者の現場感覚からくる一般論ではありますが、契約書における誠実協議事項はとても日本的な文面のように思います。おそらく「法務をリスク回避コストととらえる欧米式」では契約書文面を事前にしっかりと手間をかけて準備する一方、「法務をバックオフィス(コストセンター)ととらえる日本式」の場合、こうした手間を非現実的なコストと考えがちで、「まあ、何かありましたら話し合いをしましょう」という形で手打ちにすべく記載されている場合が多いのではないでしょうか。
また、日本では「何百ページに及ぶ契約書」を相手に送ると、まるで「相手を信用しない上から目線の態度」であるかのように受け止められかねないという文化的側面もあるように感じられます。
こうした日本の慣習的背景もふまえれば、逆に文面で定義されていないぶん、日々の仕事の中に「線引きが難しいこと」が多数紛れ込んできます。現場としては高い倫理観と品質への責任感、いわゆるプロフェッショナル意識が求められるわけです。法令への理解もプロフェッショナル意識の範疇の1つと言えるのではないでしょうか。

※本テキストの記載は、執筆時点の情報を基にしたものであり、特に本章の内容は今後、国や地方自治体、その他行政や立法機関の動向により情報が変更となる可能性があります




企画現場での法務議論

 AIを開発して何かをなそうと企画を立てていると、きっと作り上げたAIが世の中で動いている姿を想像してワクワクしてくると思います。しかしもしうまく世の中にAIを提供できたとして、その提供企業は何か責任を負うことになるのでしょうか。

 実際、近年話題のChat-GPTのような最新AIをめぐっては海外で訴訟も発生しています。企画時に法務リスクをすべて予期すること/回避することは難しいことのように思いますが、よく議論になりがちなポイントを知り、「現時点で黒でなくとも、将来的になんらかの対応が必要になるかもしれない」と見通しをもっておくことは、その後の事業発展を考える際にも有用となるでしょう。


考えるべき議論:AIの行為の責任は誰が負うのか

 自社で作り上げたAIを世の中へ提供し、もしもそのAIが他人の権利を侵害した場合、その責任はだれが負うのでしょうか。よく議論になる例としては、「AIによる自動運転車が交通事故を起こした場合、その責任はだれが負うのか?」というものがあります。自動車メーカーでしょうか、AI構築ベンダーでしょうか、それとも道路交通法に違反した搭乗者(車の所有者)でしょうか。

ここから先は

10,369字 / 1画像

¥ 440