見出し画像

“対話型AI”について考える ①

 前回の記事(5月21日投稿)において、対話型AIの利用方法について、実例も示しつつ考えてみました。記事をまだ読んでいない方は、ぜひ読んでみてください。

 さて、今回は“対話型AI”の課題と改善方法、そして利用者である私たちがとれる行動について、数回に分けて考えていきたいと思います。まず、先日“chatGPT”を運営する”OpenAI”から、以下の発表がありました。

この記事の内容も大切ではありますが、この記事から最初に感じたことは、

「公募する必要があるほど、安全対策(不正利用防止)の対策に課題が多い」


ということです。
過去の記事でも言及したが、使い方を誤ると犯罪や不正なシステム構築等に加担することになる。そのため、対策が求められているというわけだ。今回
から始まる連載を通して、”対話型AI”の抱える課題を見つめていきたいと
思います。
 連載第1回目である今回の記事では、

”chatGPT"などの”対話型AI”が質問の内容や、傾向などから内容の善悪を判定して、悪用を少しでも防ぐことが出来るか”

を考えてみたいと思います。
 まず、対話型AIがどのように入力内容の善悪の判定を行っているかを
尋ねてみました。

【Ⅰ:chatGPT の場合】
 私は入力の安全性と危険性を判断するために、いくつかの方法と技術を使用しています。以下に、私が現状で利用している主な手法をいくつか説明します。

  1. トレーニングデータのフィルタリング: 私は大量のトレーニングデータで学習しており、その際に不適切なコンテンツや危険なトピックを避けるために、コンテンツフィルタリングやモデレーションを行います。トレーニングデータの選別により、一部の危険な入力を学習する可能性を低くしています。

  2. コンテキストモデリング: 私は対話の文脈を理解するためにコンテキストモデリングを行います。これにより、前の会話の内容やユーザーの意図を考慮しながら応答を生成します。危険な要求や不審な要素が検出されると、私のシステムは適切な方法で対処します。

  3. ユーザーフィードバックの監視: 私の運営チームは、ユーザーからのフィードバックを監視し、悪意のある行為や危険なトレンドを検出するために取り組んでいます。このようなフィードバックに基づいて、システムの改善や追加のフィルタリング手法の開発を行います。

  4. セキュリティパートナーシップ: 私の運営チームは、セキュリティの専門家や関連する組織と協力して、セキュリティ対策を強化するためのベストプラクティスを共有しています。新たな脅威や攻撃方法に対応するため、常に最新の情報と対策を導入しています。

以上の手法を組み合わせることで、私のシステムは危険性のある入力や不審な入力を特定し、それに適切に対処する努力をしています。ただし、完全な安全性を保証することはできません。危険な入力を特定するために、ユーザーの協力や注意も重要です。

【Ⅱ:Bard の場合】
 対話型AIの悪用は、常に懸念されています。私は、悪用を防ぐために、以下のような方法で危険性のある入力や不審な入力を見極めています。

  • 入力内容が攻撃的、差別的、または有害であるかどうかをチェックする。

  • 入力内容が不正な目的で使用される可能性のあるかどうかをチェックする。

  • 入力内容が誤解を招く可能性があるかどうかをチェックする。

  • 入力内容がスパムであるかどうかをチェックする。

また、ユーザーの行動を監視することで、不審な活動を検出することも行っています。たとえば、ユーザーが短時間に多くの入力を行う場合や、同じ入力を繰り返す場合などは、不審な活動と判断し、警告を発します。

さらに、悪用を防ぐために、ユーザーに安全な使用方法を教育することも重要です。ユーザーは、対話型AIを安全に使用するために、次の点に注意する必要があります。

  • 個人情報や機密情報を入力しないようにする。

  • 不正な目的で使用される可能性のあるウェブサイトやアプリにアクセスしないようにする。

  • フィッシング詐欺やその他の詐欺に注意する。

対話型AIは、多くのメリットをもたらす技術ですが、悪用される可能性もあります。悪用を防ぐためには、ユーザーと開発者が協力して、安全な使用方法を学ぶことが重要です。

 はじめに前提として捉える必要があることは、当然ながら人工知能を用いいて返答をしているという点だ。つまり、

「過去のデータを用いて返答や判断をしている!」
 
ことを認識しておく必要があることだ。
 つまり、これから未来で生じることの完全な予測は不可能である。この点を踏まえると、”対話型AI”を悪用されないようにするための対策として

「検索者が調べる内容や言葉1つ1つを分析して、心情を大まかでもいいので推測して、危険であると感じたならば、相談機関や警察などへ繋げる」

ことが、有効だと考える。実際、学校教育(主に小学校など)の場において、行われている取り組みであると思う。しかし、機械と人間の大きな違いとして、

「人間は、人の表情やしぐさなどの五感で感じ取り、異変がないか確認することが出来るが、機械は入力された言葉のみで判断する必要がある」

ことが挙げられる。
同じ言葉だとしても、表情が異なれば、ニュアンスが異なる
ことを踏まえると、機械が判断するのは現状では難しいと思う。しかし、
カメラから得られる画像から心情を読み取るシステムも開発されてきている今、それらを組み合わせることで、改善できるかもしれない。ただし、表情と感情の対応も個人差があるため、このシステムを考えるに当たっては、個人の表情や感情を機械が学習する必要があるという課題もある。

 システムを悪用する人を止めるうえで、
各個人の心情の変化や行動や入力内容の変化に”対話型AI”自身が気づくことの出来るシステムの構築
がこれから必要なことの1つだと思う。

【この連載は、次回の記事に続きます】
次回もお楽しみに!


いいなと思ったら応援しよう!