どんなに優れた技術も使い方次第で善にも悪にもなりうる
こんにちは。すうちです。
今年も気づけば残す所、あと3ヶ月でびっくりです。年々時間の流れの加速感を感じます。
私の近況は、仕事の山をまだ越えられてない微妙な状況でプライベートも色々あって、なんだか落ち着かない日々です。
そんな中、今回は最近ニュースになった話題と個人的に思うことがあったので書いてみます。
--
※タイトル画像:ia19200102さん
AI技術の活用で個人的に思ったこと
ネガティブな側面(デマや詐欺)
今もAIの話題はつきなく、生成AIや大規模言語モデルをはじめ、日々いろんな研究成果やサービスが発表されています。
しかし、最近はこれらのAI技術を悪用したニュースも目にするような気がします。
少し前にこちらのニュースが話題になってたと思います。
テキストで打ち込めば、簡単に画像を生成できる時代になり、水害の偽画像は「Stable Diffusion」で作ったといわれています。
他にもディープフェイクを使って事前に学習した人の画像や音声から、別人の動画を学習した人に変換する技術を悪用した例もありました。
Skypeなどで他人が友人になりすまし、資金が必要と依頼された人がお金を振込んでしまった詐欺の話です。
個人的に、昨今のAIの技術進化に驚きや感動を抱いてましたが、このようなニュースを見るとなんだかやるせない気持ちになってしまいます。
ポジティブな側面(偽データの判定)
今はネットの情報や画像にフェイクがあることがわかっている人でも、実際に災害で緊迫した状況では正常な判断ができなくなる場合もあるように思えます(当事者だったら、ちゃんと判断できるかは自分も自信はない)。
特に予備知識がない年配の人達(身近な両親など)は、なんの疑いもなく信じてしまう気がします。
そこで、こういうフェイク画像を見破る技術もあるのか、少しだけ調べてみました。
AI or Not
Opticが開発したAI画像か否かを高い精度で判別するサービスです(JPEGやPNG画像をアップロードすると数秒で判定結果がわかる)。
フェイク音声を判別する技術
人体の声道に着目して、AIで生成した場合と声道による特徴の違いから高い精度で真偽判別する技術です。元ネタは論文で研究成果として発表されたものなので、実際に普及するのはまだ先かもしれません。
AI Classifier
AIが生成したテキスト(フェイクニュースや論文等)を判別する目的でChat GPTのOpenAIが開発。しかし、まだ研究段階で判定精度が低く一旦非公開になったようです。
その他、そのものずばりSkype等のフェイク動画を血流の流れやAIを駆使してリアルタイムで真偽判定する技術もインテルのプレスリリースにありました。
結局はイタチごっこ
これらのフェイク判定技術が一般に普及すれば、ある程度の抑止効果にはなると思います。ただ、今のAIの出力に対して効果はあってもフェイクを作る技術も進化するとすり抜けるものも出てくるはずで、人類のウィルスとワクチンの戦いのような結局はイタチごっこになる気がします。
また、エンジニアの立場で考えると、例えば、デマやフェイク対策として今までは不要だったセキュリティや脆弱性の追加対応も必要になると予想しています(追加の開発コストとして考える必要が出てくる…)
理想的には、AIの技術を悪用する人がいない(できない仕組みがある)社会であれば一番良いですが、現実問題としてそれは中々難しいですよね。
その意味では、これからは一人一人が目にしたもの、耳にしたものをそのまま信じるのではなく、情報にはフェイクがある前提でどう向き合うかが課題と思いました。
最後に
AI技術とは直接関係ない余談です。
先日、通勤で利用してる駅の改札である年配の方が名刺(のようなもの)を落とされました。
私の前を歩いてた若い女性がそれに気づき途中まで追いかけましたが、落とした本人は改札を出てしまい、その若い女性は別方向だったのか近くに居た男性に声をかけ、その年配の方に届けてほしいと依頼してました。
声をかけられた男性は、嫌な顔することもなく笑顔で依頼を引き受けて、改札から出たその方を追いかけ名刺を届けてました(落とされた方も感謝されてた様子)。
私は、通りすがりに見てただけで何もしてませんが、見事な連携プレイに久々に人の温かさや思いやりの光景を見た気がして、最近気分が暗くなるニュースも多かったので、その時ちょっと感動してしまいました。
冒頭の話に戻ると先端技術のAIも使う人次第で悪用できてしまう訳で、世の中が先に触れた善意ある人であふれてたら本来フェイクを見破る技術開発なんてなくても良いのに、とふと思いました。
最後まで読んで頂き、ありがとうございました。