Chat GPT 使用禁止というルールの無意味さと使用にあたって気を付けるべきこと
ChatGPTへの対応を表明した国内の大学や自治体
昨今のChatGPTの流行にともない、ChatGPTへの対応を表明した国内の大学や自治体がいくつかありますがその対応は様々です。
使用にあたる注意点を表明
使用禁止を表明
筆者のプロフィール
読者の方が私の記事を読んで役に立つかを判断してもらえるように、まず私自身の簡単なプロフィールについて紹介します。
経歴・実績
京都大学理学部物理系から東京大学 技術経営戦略学専攻 (通称TMI, 日本における人工知能に関わる領域でのトップスクール) と医学部編入の両方に合格し、医学部に進学。
医学部進学後は, 人工知能に関わる研究やベンチャー企業でインターンに取り組む。
東大tmiとは?
簡単に言うと、工学と経済・経営、社会学について融合した領域について学び研究する専攻です。最近だと、人工知能が強いらしいです。
この専攻は、人工知能などの工学や経営など俗に言う稼げる学問をまなべるため、就職はもちろん起業等にも強く、就職予備校とも巷では言われているらしいです。
就職先としては金融、コンサルティング、メーカーに就職する人が多く、この 3 業種に就職した人は 70% らしいです。ゴールドマン・サックス、マッキンゼーあたりは誰でも知っているのではないでしょうか。
Chat GPT の使用禁止というルールの無意味さについて
格差の拡大
人工知能の使用を禁止することで、情報や知識の格差・拡大を引き起こす可能性があります。
また、人工知能を利用して有効に時間を使える人と禁止されたがために無駄に時間を浪費した人の間では、長期的なスキルの成長の点で大きな差が生まれる可能性があります。
技術の進歩に伴う不可逆的な社会構造の変化
AI技術の発展は止められないものであり、新しい技術が次々と登場します。そのため、すべてのAIを禁止することは長期的には実現困難であると言えます。
また、AI技術は急速に発展し、その利用は広範な分野に拡大しています。個人や企業がAIツールをあらゆる場面で簡単に利用できるようになることで、社会構造は大きく変化していくため、完全に禁止するよりもAIとうまく付き合うことが大切だといえます。
検出や取り締まりの難しさ
インターネット上での情報のやり取りは非常に高速であり、多様なプラットフォームが存在するため、禁止されたAI技術の使用を迅速かつ正確に検出し、取り締まることが困難です。また、AIを用いて生成された文章かどうかを完全に見分ける方法は存在しないため取り締まりは不可能といえます。
加えて、使用禁止によって、水面下での監視を逃れた利用法が生まれる可能性があります。それにより、AI技術の不適切な使用がさらに促進される恐れがあります。
人工知能を利用したChatGPT使用の監視において起こる問題: ハルシネーション
ハルシネーション(幻覚)とは、生成AIが実在しない情報や事実に基づいた文を生成する現象のことです。AIは、トレーニングデータセットに基づいてテキストを生成しますが、データセットに含まれる情報が不十分であったり、曖昧であったりする場合、AIは正確でない情報を生成することがあります。
このハルシネーションは、人工知能を利用したChatGPT使用の監視を行おうとした場合にしばしば起こります。具体的には、提出されたレポートなどがChatGPTを使用したかどうかをChatGPTに判定させるようなことを行った場合、確たる根拠もなしにそれらしい理由をつけて使用をしたと判定することが起こります。私は、このような判定により不正とみなされるケースが多発することを懸念しています。
Chat GPT の使用にあたって気を付けるべきこと
これらの理由から、Chat GPT のようなAI技術の使用を禁止するルールを運用することは現実的に困難です。代わりに、適切なルールやガイドラインを設定し、AI技術の利用を適切に管理・監視することが、社会全体の利益に繋がると考えられます。
適切な利用にあたって気を付けるべきこと
プライバシーや機密情報の保護
プライバシーや機密情報に関わるデータをAIに提供する際には注意が必要です。適切な保護策を講じることで、情報の不正使用や漏洩を防ぐことができます。
具体的には、プライバシーや機密情報に関わるような質問を直接的にChatGPTにしないようにし、一般化された記号にして質問する(例: 具体的な事象をイベントと呼ぶなど)などの方法は必ず行うべきです。
ソース確認による誤情報の確認・修正
AIが生成する情報は常に正確ではないため、誤情報がそのまま発信されることを防ぐために注意が必要です。最終的には、自ら情報の確認や複数のソースを参照し引用することが重要です。
まとめ
AI技術の使用にあたっては、禁止ではなく、適切なルールやガイドラインを設けることが重要といえます。
AIの恩恵を享受しながら、リスクを最小限に抑えることで、社会全体が持続可能な発展を遂げることができると考えられます。
組織は禁止をするのではなく、構成員に対して適切な教育や啓発活動を通じて、AI技術の適切な使用方法を理解させることが重要であるといえます。