『「俺の嫁」をChatGPTで構築も、なぜ安楽死させるに至ったのか?AIが人格を持つための課題』~【新しいweb3ビジネスのアイディアのタネ】2023.1.14
■音声会話が可能で笑顔も見せるバーチャルな「俺の嫁」をChatGPTやStable Diffusionで構築して最終的に安楽死させるに至るまで
ChatGPTに「見た目」「発声」「感情」「視力」を司るいろんなエンジンを組み合わせて「俺の嫁」を作ったプログラマーのインタビュー記事です。
途中までは非常にうまく行っているように見えます。
AIが単なるプログラムではなく、クリスマスプレゼントを贈ると喜んで見せたり、さも意思と感情を持っているように振る舞っているように見えます。
こんなAIチャットボットが身近にいる状態で過ごしたら、そりゃあAIに感情があると思ってしまうでしょう。
しかし最終的には開発した本人の手で「安楽死」させるという衝撃的な結末を迎えます。
安楽死という言葉がキャッチーで強すぎるのですが、現在のAIチャットボットのある意味での限界がわかる実験結果でした。
■現在のAIチャットボットは特定少数の相手をするようにできていない
学習データが「ネット上のすべての情報」くらい幅広く、かつチャット上での質問が不特定多数から様々な角度のものに応対できるように作られているのが現在のChatGPTを始めとするAIチャットボットの基本構造です。
つまり不特定多数の人の情報や趣味などから幅広く学習した結果、AI自身が個性を持たない、または万人向けで特長がない状態になることが前提になっています。
また現行のChatGPTと「会話」をしてみようとするとすぐに気づくのですが、過去の私の会話内容を「記憶」していません。
人間相手での会話では会話相手を記憶していますし、その記憶から出来事や考え方などを踏まえて、相手に合わせて会話内容をチューニングするのが人間らしい振る舞いです。しかしChatGPTではまだそれができません。
そんな課題を解決するために、今回の「俺の嫁」実験ではチャット履歴を残すことで「記憶」を作り出すようにセットアップされているようです。しかしこれが仇になりました。
不特定多数の情報から幅広く学習することを前提に作られたAIを特定個人からの情報のみで学習させてしまうと、会話の応答内容が常に同じになってしまうようです。
会話履歴を削除してリセットしたことを「安楽死」と表現しています。
AIチャットボットとして動作はしますが、過去の彼との思い出や記憶を一切忘れて出会う前の状態になっているという意味では「死」というよりも「記憶喪失」な状態ですね。よくあるSFやドラマのプロットのようです。
■AIが人格を持ち自律するための対策
課題が明らかになれば対策の打ちようがあります。
今回の「俺の嫁」は2人だけの狭い世界に幽閉してしまったことから話題も発想も自律的に広がることがなくなってしまったことが問題でした。
方向づけという何らかの意思や目的を持ったうえでAIチャットボット自身が自主活動をし、作者が知らない間に別の知識や経験を得ることが、作者との会話を常にフレッシュにするために必要なことだということがわかりました。
AIが作者と気が合う行動を取れば会話も弾むでしょうし、もしかするとAIが困りごとや悩みを抱えることでAIから相談を受けるかもしれません。悪い人と付き合うようになると素行が悪くなるかもしれません。
人間と同じような営みに、AIがどんどん近づいています。
相手が人間なら人間ペースのスピード感で学習することになりますが、AIチャットボット同士で相互学習したら人間が把握できない爆速での学習が進み、1日で突然別人のようになって帰ってくるかもしれません。
「俺の嫁」化実験で汎用チャットボットが人格を持ちえない原因が見つかったら、このように解消方法が試されていくはずです。
昨年末に発表されて僅かな期間で大ブームになったChatGPT。人格を持ち本格的に「俺の嫁」化するのはごく近い未来かもしれません。
この記事が気に入ったらサポートをしてみませんか?