見出し画像

JDLA生成AIテスト>生成AIのリスク>特徴(1/2)

2023年は生成AIが大注目を浴びる1年でした。
G検定でおなじみのJDLA(日本ディープラーニング協会)も生成AIに関する新しい検定試験を作ったので、受験することにしました。
試験日は12月2日(土)です。

こちらの記事に書きました通り、生成AIの試験は生成AIを使って準備を進めていこうと思います。順不同で書いていきますので、後日マガジンにまとめようと思います。

さて、今回は生成AIのリスクについてです。

生成AIが、技術面・倫理面・法令面・社会面などで多様なリスクを孕むことを理解している。

正確性、ハルシネーション (Hallucination)、セキュリティ、公平性、プライバシー、透明性、悪用、誤情報の拡散、敵対的プロンプト、特定の生成AIサービスへの依存、環境問題

JDLAシラバスより

生成AIでまとめた内容は以下の通りです。

【ChatGPT4の場合】
生成AIは、技術革新として大きな可能性を秘めている一方で、多方面にわたるリスクを孕むことも事実です。

1. **正確性**: 生成AIはデータに基づいて学習するため、不正確なデータやバイアスがあると、誤った情報を生成するリスクがあります。
2. **ハルシネーション (Hallucination)**: AIが存在しない事実やデータを「幻視」し、誤った情報を生成することです。これは信頼性の低下につながります。
3. **セキュリティ**: AIシステムはサイバー攻撃の対象になりうるため、不正アクセスやデータ漏洩などセキュリティ上のリスクが常に存在します。
4. **公平性**: AIが特定の集団に対して偏った結果を生み出すことで、不公平が生じる可能性があります。
5. **プライバシー**: 個人データを学習や生成プロセスに使用することで、プライバシー侵害の懸念があります。
6. **透明性**: AIの意思決定プロセスがブラックボックス化すると、その動作がどのようにして結果に至ったのかを理解しにくくなります。
7. **悪用**: 生成AIは偽情報を作成したり、デジタル詐欺に利用されるなど、悪意ある目的で悪用されれたりするリスクがあります。
8. **誤情報の拡散**: AIが生成した誤情報やフェイクニュースが社会に拡散すると、公共の安全や民主主義に対する脅威になりえます。
9. **敵対的プロンプト**: 意図的に誤解を招くような入力(プロンプト)をすることで、AIを誤った情報の生成に導くことが可能です。
10. **特定の生成AIサービスへの依存**: 一つのAIサービスに依存すると、そのサービスが停止した場合に大きな影響を受けるリスクがあります。
11. **環境問題**: 大量のデータを処理し、学習するための計算リソースは大量のエネルギーを消費するため、環境への影響が問題となります。
これらのリスクに対処するためには、多角的な規制、倫理的なガイドライン、技術的な改善、および公開された議論が不可欠です。

(Bingの場合)
生成AIとは、人工知能(AI)の技術を用いて、テキストや画像などの新しいコンテンツを自動的に生成するシステムのことです。生成AIは、様々な分野で有用な応用が期待されていますが、同時に多くのリスクも孕んでいます。以下に、キーワードを含めたリスクの例を挙げます。

シラバスの内容をより具体的にまとめることで理解が深まります。
この方法で学習を進めて、時間に余裕があれば参考文献を読み進めたいと思います。

以上です。


いいなと思ったら応援しよう!

山岡さとる
よろしければサポートをお願いします。 経済の記事を書くための資料購入する際に使わせていただきます。