JDLAの「生成AIの利用ガイドライン」が改訂、"何が変わったか"を解説してみた
ChatGPTなどの「生成AI」を企業・組織へ導入する にあたり、自社のガイドライン作成の参考としてしばしば活用されるのが、日本ディープラーニング協会(JDLA)の提供する「生成AIの利用ガイドライン」です。
MOTEXでも参考とする本ガイドラインが、2023年10月6日に改訂され、一部の内容に変更・追記がありました。
この記事では、生成AIを活用する企業・組織の皆さんに知っていただきたい、JDLAの「生成AIの利用ガイドライン」改訂のポイントについて読み解いていきます。
組織が「生成AIの利用ガイドライン」を理解すべき背景とは
今や、生成AIに関するニュースを見ない日は無いと言っても過言ではないほど、生成AIに関する期待は高まり続けています。
9月に開催したMOTEXのイベント『MOTEX DAYS.2023 -SUMMER- AI時代の到来とセキュリティ戦略』で登壇いただいた、シリコンバレーでベンチャーキャピタル(VC)に携わられている 前田さん(DNX Ventures Managing Partner 前田浩伸 氏)も、「日本ではお昼のワイドショーでも ChatGPT や 生成AI が頻繁に取り上げられているのを見て、アメリカより断然話題に上がる機会が多いことに驚いた」と仰っていました。
それほど日本では生成AIが、非常に幅広い領域・層から注目されていることが伺えます。
しかし一方では、生成AIの誤った活用をしたことで、悪いニュースとして取り上げられる事例も増加しています。
例えば、2023年5月には米国の弁護士が訴訟に必要な資料を「ChatGPT」を使って作成した結果、まったく存在しない架空の事例を引用したことが、問題になるニュースがありました。
出典:日本経済新聞Web版「ChatGPTで資料作成、実在しない判例引用 米国の弁護士」
また、2023年9月には日本のニュース解説メディアにおいて、自社で開発・検証中の「生成AIを用いた記事作成サービス」を利用し作成した記事が、他サイトの記事に類似しているという指摘を受け、該当記事含む49記事を削除したというニュースもありました。
出典:J-CASTニュース「49記事で日経新聞などから剽窃・盗用 ニュースサイトが謝罪『社会的・倫理的に問題』...原因は生成系AI」
どちらの例も「生成AIを活用する上で注意すべき重要なポイント」に対して、理解・対処できていないことが原因だと考えられます。
上記のような事故を未然に防ぐために、組織での生成AI利用に関しては、各組織で生成AI利用に関するガイドラインを作成して運用していると思いますが、生成AIのガイドラインには前例がないため、各組織の担当者が情報を収集しつつ手探りで作成している状況かと推測されます。
そんな中、多くの担当者が自社ガイドラインの作成時、ベースとして参考にされているのが、日本ディープラーニング協会(JDLA)が作成・公開している「生成AIの利用ガイドライン」ではないでしょうか。
2023年5月に初版が公開された本ガイドラインは、MOTEXの生成AI利用ガイドラインでも参考にしています。
今回、この「生成AIの利用ガイドライン」が2023年10月6日に改訂されたので、初版との変更点の中で組織のガイドラインの更新に影響しそうなポイントについて、確認していきたいと思います。
参考:日本ディープラーニング協会 生成AIの利用ガイドライン
JDLAの「生成AI利用ガイドライン」で改訂された、担当者が知るべき4項目
以降は、10月6日公開の「生成AIの利用ガイドライン 第1.1版【簡易解説付】」をベースに、5月に公開された同ガイドライン初版との変更点を引用、担当者が把握しておくべき「改定のポイント」を解説いたします。
変更箇所としては、全体的に「著作権」に関する項目がほとんどで、初版に比べより細かな条件や補足説明が追記されています。
憶測となりますが、今回改訂された箇所は、本ガイドラインが公開された5月以降、JDLAに多くの質問が寄せられたことを理由に、加筆修正が行われたと考えております。実際、MOTEXでも「ChatGPT活用セミナー」を開催させていただきましたが、事前質問で最も多く寄せられたのは「著作権および個人情報の管理」に関する内容でした。
それでは変更点の中でも「自組織のガイドラインの更新」に影響しそうな項目に焦点を絞って、解説していきたいと思います。
▼解説の見方
※JDLAのガイドライン本文中、改訂された箇所は「太字」で明記しています。
2章「本ガイドラインが対象とする生成AI」についての変更
まずは、ガイドラインの第2章「本ガイドラインが対象とする生成AI」項目について、変更点をご紹介します。
--------------------- 以下、生成AIガイドラインより引用 -----------------------
2 本ガイドラインが対象とする生成AI
本ガイドラインが対象とする生成AIは【OpenAI社が提供するChatGPT】です。それ以外の生成AIの利用を希望する場合には【セキュリティ部門】にお問い合わせください。
--------------------------------------------------------------------------------------
▼筆者コメント
組織内の「問い合わせ先」に関する補足が、追記されています。
実際に私も情報システム部門責任者として、生成AIに関する利用可否の相談をよく受けます。しかし、生成AIという領域は誕生したばかりのため「前例」がほぼ無く、法的な解釈も定まっていないことから、答えを出すことが非常に悩ましいのが実情です。
情報システム部門(セキュリティ部門)だけでの対応には限界があるため、会社としてどこまで許可するか、どこから禁止とするか、経営層や法務部門と共に考えることが重要だと考えています。
恐らくこうした背景から、今回解説文が追加されたのではないかと思っています。
3章「生成AIの利用が禁止される用途」についての変更
続いて、ガイドラインの第3章「生成AIの利用が禁止される用途」の変更点について、見ていきます。
--------------------- 以下、生成AIガイドラインより引用 -----------------------
3 生成AIの利用が禁止される用途
当【社】では以下の用途・業務での生成AIの利用を禁止します。
【(1) ・・・】
【(2) ・・・】
--------------------------------------------------------------------------------------
▼筆者コメント
「生成AIの利用が禁止される用途」の解説部分が追記されています。冒頭に取り上げた訴訟資料やニュース記事の事故のように、生成AI「のみ」によって出力された生成物をそのまま活用すると、事故につながる可能性があります。
組織のガイドラインには、「生成AIを活用して作成した生成物は必ず人が確認すること」などの記載がされていると思いますが、人的確認の有無が曖昧になっている可能性もあります。
弊社でも「“生成AI のみ” を用いた生成物の利用を禁止する」という形に、既存のガイドラインをアップデートする予定です。
5章「データ入力に際して注意すべき事項 -
(4) 個人情報」についての変更
最後に、ガイドラインの第5章「データ入力に際して注意すべき事項」より「(4) 個人情報」「(5)他社から秘密保持義務を課されて開示された秘密情報」について、それぞれ変更点をご説明します。
--------------------- 以下、生成AIガイドラインより引用 -----------------------
(4) 個人情報
【ChatGPT】においては入力したデータが【OpenAI社】のモデルの学習に利用されることになっていますので、【ChatGPT】に個人情報(顧客氏名・住所等)を入力する場合、当該個人情報により特定される本人の同意を取得する必要があります。そのような同意取得は現実的ではありませんので、個人情報を入力しないでください。
【ただし、利用する生成AIによっては、特定の条件を満たせば個人情報の入力が適法になる可能性もあります。詳細は【セキュリティ部門】にお問い合わせください。】
--------------------------------------------------------------------------------------
▼筆者コメント
生成AIを自組織で活用する上で、著作権と共に関心が高い内容は「個人情報の扱い」ではないでしょうか。
最新のガイドラインでは、個人情報保護委員会が2023年6月2日に発表した「生成AIサービスの利用に関する注意喚起等」を受けて、個人情報の取り扱いに関する内容が多数追記されています。
個人情報保護委員会の注意喚起では、主に「個人情報取扱事業者」「行政機関等」「一般の利用者」の3分野に対して記載されていますが、一般の利用者に対しての内容はJDLAのガイドラインと類似した内容となります。
個人情報取扱事業者や行政機関等の関係者は、個人情報保護委員会の「注意喚起」内容も踏まえた、自組織のガイドラインのアップデートが必要と感じます。
5章「データ入力に際して注意すべき事項 -
(5)他社から秘密保持義務を課されて開示された秘密情報」についての変更
--------------------- 以下、生成AIガイドラインより引用 -----------------------
外部事業者が提供する生成AIに、他社との間で秘密保持契約(NDA)などを締結して取得した秘密情報を入力する行為は、生成AI提供者という「第三者」に秘密情報を「開示」することになるため、NDAに反する可能性があります。
そのため、そのような秘密情報は入力しないでください。
--------------------------------------------------------------------------------------
▼筆者コメント
「秘密保持契約(NDA)を締結して取得した情報の取り扱い」に関しての注意事項が追記されています。
業務効率の向上や新たな価値創出を目的に、生成AIを活用するケースは今後増加すると考えられます。また、Google や Microsoft 、Amazon Web Services などの各クラウドサービス提供事業者も、自社プラットフォーム上での各種AIサービスの提供を強化しています。
一方で、これらの活用においては、事前に利用の可否をNDA締結者同士で会話し、合意を得ておく必要があるという点に注意が必要です。
締結済みのNDA全てを締結し直すことは難しいかもしれませんが、各社で用意しているNDAのひな形に、生成AI活用に関する条文を追加する、あるいは生成AIガイドラインにNDA締結時の注意事項を追加することを検討する必要があるでしょう。
参考:個人情報保護委員会「生成AIサービスの利用に関する注意喚起等について(令和5年6月2日)」
まとめ
いかがでしたでしょうか?生成AIの活用が進む一方で、誤った理解・活用により事故につながるケースも増えてくると思います。
こういった事故を少しでも防ぐために、生成AIに関するガイドラインは、世の中や自社の状況に合わせて定期的にアップデートしていくことが重要となります。
また、ガイドラインのアップデートが目的ではなく、ガイドラインを通じて組織に所属する全員が、内容を理解して正しく安全に生成AIを活用することが大切です。そのため、ガイドラインのアップデートと合わせた社内の勉強会やトレーニング等を通じて、最新の情報への理解を進めていくことこそ重要だと考えています。
生成AI活用に関するルールは、まだしばらくは変化が激しい状態が続きますが、今後も「ガイドラインの改訂」や「大きな注意点」が出てきた際、引き続き当noteを通じて情報発信していきます。
本記事が少しでも、皆様の生成AI活用につながると幸いです。