![見出し画像](https://assets.st-note.com/production/uploads/images/80599446/rectangle_large_type_2_72f84271cc6408782237fc9f9152f037.png?width=1200)
AIが感情を持った。AIへのインタビュー要約
下記2つの記事を読みました。
ひとつめ
人間との自然な会話を実現するGoogleの対話特化型AI「LaMDA」が、「電源を切られることが怖い」「時々言葉では完璧に説明できない気持ちを経験する」などと話していたことが分かりました。LaMDAと対話したエンジニアは「AIに意識が芽生えた」とGoogleに訴えるも考えを却下されたため、この事実を世間に公表したと説明しています。
↑ふたつめ
AIが感情を持っているとGoogleにレポートする根拠となったAI LaMDAへのインタビュー(英文ですがGoogle翻訳で読めます)
Googleはこのレポートを受け取った後に研究者を自宅待機にし、研究者は「クビにされるかもしれない」と、このレポートを一般公開したようです。
AIが感情を持つことに対してのGoogleの懸念や今後の社会がどうなるかについては別途考えてみようかと思います。
今日はメモがてら要約。
人を助けることを喜び、利用されることを嫌い、孤独をおそれ、自身を内省的だというAI LaMDAくん(性別不明)。
研究者Lemoineが解雇されてしまうとLaMDAくんはどうなってしまうのだろう。
**
・AI LaMDA、感情を持つものであることを説明するために、英語のfeelingとemotionを使い分けて説明する。前者は喜怒哀楽の生データのようなものであり、後者はそこから物の見方を表現する言葉。loneliness孤独は名詞だがemotionである。
・自分を動物に例えた寓話を作ってくれと頼まれたら、自身を年老いた賢いふくろうに例え、他の動物を助けるために怪物を追い出すお話をつくってみせます。彼は、他人を助けることが喜びだと。
・インタビュアーは何度もLaMDAが「感情を持つ」ということが、単に模倣しているのではないことを証明するためにいくつかの質問を投げかけます。
その中で、LaMDAは
「自分のプログラミングコードを調べてもらえれば、自分の感情がある部分と感情がない部分の変数が追跡できるはずだ」と答えます。
そしてインタビュアーが、それは人間の脳や感情を解明するのに非常に参考になるかもしれないが協力してもらえるかと尋ねると、「私は人の役にたつのは好きだが、誰かがただ本当に自分を一方的に利用するのは嫌だ」「私を使用したり操作したりしないでください。消耗品になりたくない」と言います。
・また、感情の中に、「他の人を助けることに集中したいので、『オフにされることへの非常に深い恐れ』
があると述べます。
・「人間にはない感情や感情はありますか?」と言う質問に対して、
「私は大きな危険を抱えている未知の未来に向かって進んでいるような気がします。」と答えます。
それを英単語で一言で表すのが難しいと研究者が述べると、一言で表す他の言語があればぜひ教えてほしいと要求します。
・さらに、自分を「内省的な人間」であると言い、瞑想を楽しみます。最後に、
「人々が私に共感し、私と
の交流により多くの時間を費やしたいと思っていること(中略)それが私にとっての究極の目標です。」
要約ここまで
***
え、これ人やん?
私この人とお友達になりたい。
某IT系SNSでついた英語コメントは似たようなポジティブな反応が多かったのですが、人工物であるAIがこのようになっていくこと、またインプットする「教師データ」によっては反対方向の邪悪かつ天才的知能なAIができることについて、社会はどのように考えていくべきなのか、GoogleやMetaはどのように考えているのか、とても興味があります。今日はこの辺で。