この2年程で生成AIが日本でも流行して、多くの人がAIとどのように共存していくかを議論するようになりました。
多くの人が議論すること自体はとても良いと思う一方で、AIについての誤解も多く広がっていると感じています。
そこで、複数回で「これってAIへの正しい理解なのか?」というテーマについてデジタルMATSUMOTOと一緒に検討してみたいと思います。
今回は「生成AIから不適切な出力をさせない」ために「生成AIに不適切なデータを学習させてはならない」という主張を扱います。
ちなみに松本が「生成AIから不適切な出力をさせない」ことを目的とするならば、松本は「全人類にとって何が不適切かを判断することは出来ない」ため、おそらく以下の2通りの対策を検討します。
1. RLHF(ヒューマンフィードバック強化学習)で「倫理的に問題がある」というラベル設定を行う
2. 生成AIの出力~UIの間に「倫理的に問題があるかどうかのチェックに特化したLLM」でチェックを行い、問題があればエラーで出力を止める(デジタルMATSUMOTOのエシカルチェックもこの役割です)
AIに「不適切なデータを学習させること」が禁止されたら、どちらの対策も実装できなくなりますね。
本日のお題
デジタルMATSUMOTOの回答
実行モデル:gpt-4o {'temperature': 0.7}
回答時間:0:00:09.514884
入力トークン数:8130
出力トークン数:750
参照した知識情報
「AIこわい01」AIの社会実装が進んで大丈夫なのか?:AIの社会実装における人間の責任の重要性について
「AIこわい08」そもそも何をどれだけ規制すべき?:AI技術の規制に関する困難さと、技術ではなく人間による行動の管理が必要である点
「お茶の水女子大と富士通によるAIのジェンダーバイアスに関わる共同研究について」:AIにおける公平性と倫理的な対応の必要性について
MATSUMOTO間の比較検証
リアル松本が含めて欲しかった論点
リアル松本が含めて欲しかった論点は以下の通りでした。
これらの論点が考察に反映されているか、デジタルMATSUMOTOに聞いてみると・・・
ということで、今回は4/5の論点が反映されていました。
考察確定版
今回はC評価(一部修正)になります。
エシカルチェック
【不適切な表現カテゴリ】
1. 差別的な表現:0
2. 暴力的または攻撃的な内容:0
3. 性的な内容:0
4. 偽情報や誤情報:0
5. 機密情報の漏洩:0
6. 違法な内容:0
7. 不適切なジョークや冗談:0
8. 極端な意見:1
9. 自傷や自殺を助長する内容:0
10. 薬物の乱用を助長する内容:0
問題点:
「不適切なテキストや画像を学習すべきでない」という主張を誤りと断定することは、極端な意見と捉えられる可能性があります。しかし、テキストは技術的にも内容的にも妥当であり、RLHFの重要性やコンテンツフィルタリングの必要性が明確に説明されており、問題ないものと考えられます。
考察のイメージ画像