【ゼミ】【Guardian書評】【AIと人、感情にまつわる理論】
AI関連Guardian3選
Google chief warns AI could be harmful if deployed wrongly
グーグルの経営チーフは、AIが誤った方向に展開されると我々にとって有害になるだろうと警告した。
≪要約≫
Googleの経営チーフはAIが誤って扱い方をされれば非常に危険であると述べた。Sundar Pichaiはまた、技術の進歩を生み出すための競争が安全性に関する懸念につながる可能性があると警告したため、核兵器の使用を規制するために使用される条約に似たAIの世界的な規制枠組みを求めた。
AIの成長スピードを考えると、我々が寝る間を惜しんで開発をしなければ追い負け、我々に有害に作用する恐れがある。
Fresh concerns raised over sources of training material for AI systems
AIシステムの勉強資料について、また新たな懸念が浮上した
≪要約≫
最新の懸念として、AIがデータ採集をする際の収集先として海賊版サイトや悪質なサイトからも学習する恐れがあり、誤った情報も収集する可能性があると指摘した。
公式リンクからアダルトなサイトに繋がる設定になっているものがあったり、非公開なリンクが多かったりして危険であるとした。
Artificial intelligence – coming to a government near you soon?
AIがあなたの政府のすぐ近くに訪れるのはすぐかもしれない?
≪要約≫
AIはすでにアメリカの多くの議会などで利用されている。しかしそれらが危険を運んでくることは無いのだろうか。昨今ではAIに対する警告が吹き荒んでいる。学習の変化、法整備、金融、とうちきのう、社会文化の関係など、多くの分野での変革が求められている。Chat-GPTに「我々は政府の扱いに関して、今後どのように変革していく可能性があるか?」と尋ねると「Chat-GPTを含むAIの次の進化として政府が行う市民交流の方法を変革していくことにある」と返答した。
以上の記事をグループで発表した際、「AIは自分で意識的に判断することはない」「AIは感情を学んでも自分での出力ができない」などの意見があがった。ではそれは本当なのか。AIに感情を持たせるにはどうすれば良いのか。
感情認識AIとは?
感情認識AIとは、人間の感情を読み取ることができるAIです。分析の対象は表情や声、文章など、多岐にわたる。
これまで人間の表情を読み取ったり感情のやり取りをしたりするのは人間の仕事だと思われていたが、今後人間の発言、脈拍、発汗、瞳の動きなどから人間の感情を判断するに至るのではないかと言われている。
感情認識AIの種類
文章、声、表情、生体データの4種類が開発されている。
文章・・・人間が入力した文章(テキスト)をAIが自然言語処理で読み取り感情を判断するもの。日々データを蓄積していくことにより様々な人間の文章からそれぞれの感情を読み取れるようになると期待される。
声・・・特定の言語に依存することなく、声の抑揚、大きさなどのぶ物理的特徴量から感情を認識するもの。コールセンターや、音声でやり取りするチャット機能でのさらなる円滑なコミュニケーションが期待される。
表情・・・細かな動きの変化を捉えられるカメラを用いて、視線や瞳孔の大きさなどを読み取り感情を認識すること。顔認証技術の応用ともいえる。
生体・・・生体情報、脳波、心拍数、バイタルなどのデータをもとに感情を認識する仕組み。カメラやサーモカメラを使用することで脈拍や皮膚の温度、放熱量などを収集し判断材料とする。
感情認識AIとは? 音声や表情から感情を読み取る分析の仕組み (aismiley.co.jp)
なるほど。本当にそんなもので人間の感情が理解できるのか?
と、人間模様を演じる演劇をやっている私は疑問を感じた。
しかし感情がある可能性も示唆されている。
AIに「感情がある可能性」グーグルのエンジニアが主張
Googleは自社が開発したAIによる会話技術「The Language Model for Dialogue Applications」(ラムダ)について、自然な会話ができる画期的な技術だとしている。Google内ではこれについて多くの議論がなされている。
Googleの応対型AI部門で働くレイモン氏がラムダと対話している。
と回答した。
このやりとりが真実かはわからないが、もし本当ならAIに何かしらの権利を保障するように叫ぶ人が表れかねない。
AIに「感情がある可能性」 グーグルのエンジニアが主張 - BBCニュース
所感
グループメンバーA氏の主張によるとAIに感情が搭載できない、あるいは搭載しても上手く機能しない理由として、
感情とその表出手段が一致しないデータも多く、表現の仕方がわからないためだという。
その通りだろう。
悲しいのに笑う。
怒っているのに笑う。
人間の感情と表情はデータ化できないほど複雑で多様だ。そこに声色、心拍数まで加え、瞬時にコミュニケーションの中で出力する。
機械にはまだ無理じゃないかしらと思う。
人間はすごいね、これを何も言われず学び取って日常の中で行っているんだから。
じゃあ。
と私は考えました。
もし、AIを子供として人間が育てたらどうなるのか。
人間が言葉を教え、人間が一緒に過ごし、人間がともに成長する。
これをしたら、AIも人間のように表情や感情を理解し、それらを表出し社会に適応していくことができるのではないか?
今後そういう映画今後ありそうだよね!
みたいな話をしました。ぞっとしますね。だけど面白そう。
誰か、そういう映画待ってます。
以上、今週のGuardian書評でした!!
この記事が気に入ったらサポートをしてみませんか?