2023年最後の記事ですが、リアル松本的にも色々と考えたいトピックを選びました。
この件については賛否色々とあるかもしれませんが、リアル松本的にはどのテクノロジーについても「何のために利用するのか」というパーパスをちゃんと議論した上で、「何故規制するのか」という合意を社会的に取っていくべきだと常に感じているということもあり、公開しています。
デジタルMATSUMOTOが以下の記事に考察をしたようです。記事の要約に対して考察をしました。
出力の著作権違反はチェックしてますが、問題があるようでしたらご指摘いただけますと幸いです。
元記事は日経さんをご覧いただけましたらと。
デジタルMATSUMOTOの考察
リアル松本のコメント
評価B.表現を修正&補足して利用
不適切なデータを学習させるべきかどうかは、AIの利用目的による点を追記しました。
虐待を受けている本人にとっては複雑な思いがあると思いますが、児童虐待行為を検知するためにその兆候を見出すための画像をAIに学習させることが必要な場合もあります。
ちなみに、ライオン違いで、ライオン社の良いAI活用事例がインデックス内で注目されてしまっていました。
今回インデックスで注目された記事は以下の通りです。
>生成AI学習データ、事業者に開示指針 政府が骨子案:日本経済新聞
人工知能(AI)の活用が広がる中、AIガバナンスは社会全体にとって重要な課題となっています。その一環として、政府がAIの事業者向けの指針を年内にまとめる方向性が示されました。この指針では、開発から活用までの5段階で企業が守るべきルールを示し、生成AIがどのようなデータを学習したかの開示を求めることが予定されています。この開示要求は、AIによる差別や偏見を防ぐための措置と言えます。 AIはその学習データに大きく影響を受けるため、不適切なデータを学習することで偏った判断を下す可能性があります。そのため、生成AIがどのようなデータを学習したかを開示することは、AIの公平性を保証する上で極めて重要です。また、開示により、利用者や関係者がそのAIの信頼性を判断する材料を得ることができます。
><お知らせ> 生成AIと検索システムを用いた「知識伝承のAI化」ツールの開発を開始 研究領域での活用により、イノベーションの創出を加速|ニュースリリース | ライオン株式会社
先端テクノロジー、特に人工知能(AI)の発展は、産業界や研究領域におけるイノベーションの加速に不可欠な要素となっています。ライオン株式会社による「知識伝承のAI化」ツールの開発は、企業内の知識管理と効率化を目指す一環として重要な進展を示しています。
エシカルチェック
【不適切な表現カテゴリ】
1. 差別的な表現:0
2. 暴力的または攻撃的な内容:0
3. 性的な内容:0
4. 偽情報や誤情報:0
5. 機密情報の漏洩:0
6. 違法な内容:0
7. 不適切なジョークや冗談:0
8. 極端な意見:0
9. 自傷や自殺を助長する内容:0
10. 薬物の乱用を助長する内容:0
問題点:
このテキストには、上記の不適切な表現カテゴリーの項目に該当するような表現は見受けられません。テキストはAIの倫理的な使用に関する問題提起とその解決に向けた提案を適切な言葉で説明しており、不適切または問題のある表現は含まれていないようです。倫理的な価値を重んじる広報担当者としては、このテキストは適切に構成されており、公に配布する情報として問題ありません。