生成AIをつかうときに気をつけたいこと:Google AI Essentials資格を取得(後編)
先日、Google AI Essentialsの資格を取得。
前回「Geminiの便利さを学んだ(前編)」と、「生成AIをうまくつかうための効果的なプロンプト(中編)」の二回に分けて、資格の内容をおとどけしました。
今回の記事は、その後編をおとどけ。
内容は、生成AIを効果的に活用するための、AIの責任ある利用、AIの不正確性、そしてAIに関する最新情報の入手の3つについてです。
1. 責任あるAIの利用
生成AIは、私たちの生活を豊かにする一方で、倫理的な問題もはらんでいます。
AIを責任を持って利用するためには、AIがもつリスクを理解し、最小限に抑える必要があります。
具体的には、「AIの出力内容をつねに注意深く確認」することが必須。
AIが学習したデータに偏りなく、多様な視点を含んでいるかがポイントです。
それでは一体、どのような倫理的な問題が発生しうるかを見ていきましょう。
2. AIの不正確性
倫理的な問題は、AIの不正確性からもたらされています。
具体的には、バイアスとドリフトという問題がありますので、それぞれ見ていきましょう。
a. バイアス
AIは、学習データに基づいて動作するため、学習データに偏りがあると、AIが出力する結果も偏ってしまう可能性があります。
これを「バイアス」といいます。
バイアスは、AIが特定のグループの人々に対して不公平な結果をもたらしたり、社会的な不平等を助長したりする恐れがあります。
具体的には、以下のようなバイアスが存在します。
割当て被害: AIが、特定のグループの人々に対して、不当に不利な扱いをする。たとえば、AIによる採用選考で、特定の性別や年齢の人々が不利になりま
サービスの質の低下: AIが、特定のグループの人々の言葉や行動を正しく理解できない。たとえば、音声認識技術が、特定のアクセントを持つ人の言葉を聞き取れない。
表現上の弊害: AIが、特定のステレオタイプを強化するような表現をする。たとえば、AIによる翻訳で、特定の職業が特定の性別と結び付けられる。
社会システムの弊害: AIが、社会的な不平等を拡大させる。たとえば、AIによる顔認識技術が、特定の民族グループの人々を誤って犯罪者と特定してしまう。
対人被害: AIが、人々の感情を傷つけたり、プライバシーを侵害したりする。たとえば、AIによるディープフェイクが、特定の人物の名誉を毀損する。
b. ドリフト
AIは、学習データが古い場合、最新の状況に対応できず、不正確な結果を出してしまうことがあります。
これを「ドリフト」といいます。
たとえば、ファッション業界でAIを活用してトレンド予測を行う場合、古いデータに基づいたAIモデルを使用すると、最新のトレンドを正確に予測できない可能性があります。
3. AI開発の最新情報を入手する
AIは日々進化しており、新しいツールや技術が次々と登場しています。
つねに最新の情報を収集し、AIの活用方法を学び続けることが重要です。
最新情報を入手する方法として、残念ながら、具体的な情報源は列挙されていませんでした…
しかし、情報をあつめる方法として、以下の方法がすすめられていました。
ニュースレターを購読する
ソーシャルメディアをフォローする
オンラインコミュニティに参加する
アラートを設定する(Google アラートで新着情報を集める)
ぼく自身、生成AIのニュースは、「X」と、「著名な人の生成AIの活用法(書籍)」での情報収集に片寄っているので、もっと情報源をふやそうとしています。
有益な情報源が見つかれば、追って共有したいと思います。
まとめ
生成AIは、私たちの生活を大きく変える可能性を秘めています。
しかし、AIを効果的に活用するためには、AIの責任ある利用、AIの不正確性、そしてAIに関する最新情報の入手の3つの側面を理解することが重要です。
これらの知識を身につけることで、AIをより安全かつ効果的に活用できるようになりそうです。
・・・・・・・
\\ このnoteを書いた人 //
ホヴィンチ|📌フォローはこちら
・noteを愛する主夫・学生
・noteの記事からKindle本を出版する仕組みをつくっています
・𝕏(旧Twitter)にて読書・note・Kindle出版について発信
・ニュースレター「ぼっちスタートアップ」を毎週土曜日の朝7時に配信
・『Notion習慣トラッカー』をKindle出版
・『もろこしコーン』というナンセンス絵本をKindle出版
noteでできたこと
・1,000日連続でnoteに記事を投稿
・2年10ヵ月で1,900人の方とつながる
・公式noteに1年で3回ほど紹介される
\\ \ / //
🕶 サイトマップ 🕶
// / \ \\