
生成AIに関するルール定着の秘訣
法人のDX支援を主な仕事としており、生成AIの導入に関してもDX部門の担当マネージャーを支援した経験があります。
セキュリティやコンプライアンスに厳しい環境だったため、ChatGPTなどの生成AIを導入する際には、利用者ガイドラインをきちんと定めて周知した上で展開しました。
日本ディープラーニング協会(JDLA)が公開しているガイドラインは非常によくできており、これをベースにしました。
https://www.jdla.org/document/#ai-guideline
(参考:JDLAホームページ)
ただし、内容はよかったのですが、皆がストレスなく使えるように、資料をPowerPointにまとめ直して組織内に展開しました。
この資料は見栄えが良く、内容もすぐに理解できるよう工夫されています。しかし、本来の目的、つまり「利用者がガイドラインに従って生成AIを利用する」という点から見ると十分ではありません。一度読んだだけでは内容が頭に入らず、ガイドラインを遵守した行動につながらないことが問題です。
そこで、私が提案したのが「確認テストを作る」という方法です。以前勤めていた会社では、一般ユーザーの情報セキュリティ意識を高めるために、月1回簡単な確認テストを実施していました。
このテストは全10問で非常に簡単な内容で、誰でも8点程度は取れるものです。ただし、9点以上を取らないと合格にならず、再受験が必要でした。この仕組みを提供するベンダーと契約し、全従業員が月1回テストを受ける仕組みを整備していました。
一方で、コストがかかるため、可能であればコストを抑えたいという要望も当然あります。そのため、私が提案したのはChatGPTを活用してテストを作成する方法です。
ガイドラインの内容を読み込ませ、「全10問、3択式の理解度確認テストを3回分作成してください」と指示すれば、ChatGPTはその通りに作成します。さらに正解と解説文も生成してくれます。もちろん、ChatGPTが作成した内容が正しいか確認する必要はありますが、この方法ならコストがかからず、担当部門の負担も大幅に軽減できます。

この方法は、別の法人でもセキュリティチェック用のテストとしても活用し、運用した経験があります。IT部門の責任者として深く関与していた組織で、官僚的でルールが複雑な状況に対応するために導入しました。その組織では、ルールが法律のように分かりづらく、現実的に従業員のほとんどが内容を読んでいないという問題がありました。
社内ルールを理解し、守るためには、何をすべきか、何をしてはいけないのかが明確であるべきですが、細かい部分は別の規約に記載されていたり、法律の条文を参照するような記述があったりしました。このような状況では、ルールとして実効性を持たせることが困難です。
そこで、確認テストを作成して月1回実施する仕組みを提案し、成果を上げることができました。
このような取り組みについて、「それはそうだよね。ChatGPTを使えばそういうことができるから当然そうすべきだよね」と感じる方もいるかもしれません。しかし、組織に長くいる人ほど官僚的なルールに違和感を抱きにくくなり、そのまま過ごしてしまいがちです。
心の中に小さな違和感があっても、組織の同調圧力に負けて声を上げないことがよくあります。さらに、長年同じ組織にいると、その違和感すら消失します。
この記事を読んでいる皆さんも、自ら置かれている環境や業務のあり方を見直してみてはいかがでしょうか。違和感を大切にし、より良い方法を模索することが重要だと思います。