172(19/12).[続々]なぜ、生成AIの答えを自分で勝手に使うのがダメか。生成AI✕セールスコンサルティング[中小企業向け]【随時更新版】セールステクニック(+心理学/脳科学)の参考書[更新-023]
[今回記事の]結論
責任問題となるから。
前回は、
生成AIに質問をして導き出した回答を、
なぜ、自分で勝手に使ってはならないかを書きましたが、もう一つの視点から。
上記の通り、責任問題にも発展するからです。
以下のようなことですね。
生成AIの回答を上司・上長に確認せずに使用することで生じる責任問題について説明致します。
◯マネジメント責任の観点
部下の業務遂行に関する最終的な、責任は上司・上長にあります
生成AIの不適切な回答が顧客に提供された場合、その監督責任を問われます
コンプライアンス違反や契約トラブルが発生した際、組織としての管理体制の不備を指摘される可能性があります
◯説明責任の所在
顧客との商談で問題が発生した場合、経営層や取締役会への説明責任が生じます
生成AIの使用が「部下が勝手に行った」という言い訳は通用せず、むしろマネジメント不足として厳しく問われる可能性があります
特に上場企業の場合、株主への説明責任も発生する可能性があります
◯重大インシデント発生時の責任
誤った情報提供により損害賠償請求などの法的問題が発生した場合、上司・上長の管理責任が追及されます
会社の信用失墜につながるような重大事案の場合、上司・上長の降格や解雇事由となる可能性もあります
内部統制やリスク管理の観点から、監査での指摘事項となる可能性があります
◯キャリアへの影響
部下の不適切な生成AI使用により問題が発生した場合、上司・上長自身の評価やキャリアに重大な影響を及ぼす可能性があります
昇進・昇格の機会を失うリスクがあります
同様のインシデントが複数回発生した場合、マネジメント能力自体が疑問視される可能性があります
◯組織全体への波及
一部門での不適切な生成AI使用が発覚した場合、他部門への影響も懸念されます
全社的な業務プロセスの見直しや、より厳格な承認フローの導入を余儀なくされる可能性があります
結果として、組織全体の業務効率低下を招く可能性があります
このように、生成AIの無断使用は単なるコンプライアンス違反にとどまらず、上司・上長の立場や責任に重大な影響を及ぼす可能性があります。そのため、適切な承認プロセスの確立と運用が不可欠となります。
この観点からも、生成AIの使用に関しては、必ず組織としての明確なガイドラインを設定し、それに基づいた承認フローを構築することが重要です。
中々、脅すような?表現になってしまうかもしれませんが、
現実に起こり得る可能性は、決して低いとは言えません。
もしかしたら、ここまで踏み込んで説明をしている会社は、
多くはないかもしれませんが、しっかりと周知しておくことが重要です。
前々回にもお伝えしていますが、上司/上長に確認を取ることは、
「いかなる事項」でも、『必須であることが常識』であると考えます。
(もちろん、すでにルーティーンになっている/慣れているようなことは、
一回一回、事前に承認を得るなど、要らないでしょうが。)
注意しておきましょう。
ではまた、次回。