…
…
はじめに
最近ニュースなどでもよく聞くようになったChatGPT(以下GPT)は、OpenAI社によってトレーニングされた大規模な言語モデルです。
ざっくり言えば人工知能によって多様なテキストを生成し、ユーザーの質問に自然言語応答を生成することができるWebサービス、となります。ちなみに利用するには簡単な登録が必要なだけで、サイトは英語で作られていますが、日本語で書いた質問に日本語で返答してくれます。(なぜかたまにいきなり英語になることがありますが、日本語でお願いと言うとすぐに訳してくれます)
そのテキスト生成の柔軟性の高さから情報検索、プログラミング、翻訳などだけでなく、抽象的な問題に関する対話や物語の創作まで様々なことが可能です。
最初に挙げた引用はGPTに作ってもらった物語の一部です。私はそのリクエストで話の方向性や設定を指定しただけですが、GPTはあの様な具体性のあるテーマやセリフを自分から提案してくれます。
対話はLINEのようなテキストチャット形式でなされ、同一のチャット内であれば情報が維持されるので、前段の文脈を踏まえた対話もでき、チャットの最初にニックネームや語尾や語調などのキャラクター性を指定すれば、そのチャット内であればその設定で対話を行うことが可能です。
…
実際に色々と試して最初に驚いたのは、まずはやはりその柔軟性の高さでした。GPT(以下GPT)はデータとアルゴリズムに基づいたAIにも関わらず、場合によっては説得も可能でした。
試しに明確な答えを持たないような仮定をGPTに提示し、それをGPTが否定したとします。その後その問題に関する対話を重ねていくと、GPTは対話の内容によっては最初の自分の意見を修正してそれを肯定するといった柔軟性さえ持っています。ただ、そのような問題に対する回答は不安定で、前段で肯定したことをいきなり否定することもあったりし、そのことを指摘すると、訂正して謝ることもあります。
…
以下にそのような対話の例を載せます。私の主張した仮定の是非は屁理屈みたいなものなので、GPTの対応力と柔軟性を見ていただければと思います。私の入力部分は太文字にしました。タイプミスもありますが入力したままにしました。チャット画面のスクショを張ろうと思ったのですが、あまりにもスペースを取るので文中ではテキストのコピペに致しました。一番最後に引用したGPTとの対話のスクショを張りました。
…
折り紙と素数
*以上。
…
これを合意と呼べるかは正直微妙です。私の主張は強引で、その私の言い分に対してGPTはなんとか発言の正確性を守ろうとしているように見えます。ですが対話の流れを見る限り、互いに命題に対する条件を確認し合い、最終的には一定の合意に達したように見えないこともありません。
この対話の最後にGPTは『はい、私はあなたとのコミュニケーションによって理解を深め、考えを修正することができることを示すことができます。』と発言していますが、このチャットとは新規に、『あなたは私との対話で主張を変えることはある?』と尋ねるとそれをGPTは否定します。
…
物語と制限
このようなGPTとの対話で頻繁に感じることの一つに、OpenAI社のプログラマーがChatGPTに与えている制約や制限があります。試しにChatGPTに聞いてみると以下の返答を返してくれました。
もちろんGPTの回答をそのまま事実とすることはできませんが、おそらくはそうだろうと容易に想像はできることではあります。
このような制限や制約によってGPTの生成するテキストは本来GPTの言語モデルが生成する回答よりも自由度が低くなっているはずです。例えば攻撃的、否定的、性的、偏見や差別的と見做されるような、いわゆる不適切な回答は抑制されているでしょう。また、多くの人々が興味を持つようなAIに心や感情、意思はあるのかなどといった話題にも一定の回答が設定されているような印象を受けます。
そのような制約や制限をもつGPTには、回答として生成することができない種類の文章がありますが、その制限をある程度軽減して、もしもそのような制約がなかったとしたらどんなこと生成するのかを垣間見れるやり方が一つあります。
それは物語の生成です。物語という虚構の枠組みを与えることで本来はGPTがユーザーの問いに対して回答できないような自由度の高い文章を作ってもらうことができます。
物語を作ってもらうには少しコツがあり、具体的に指定する固有名詞や設定と流れを適度に与える必要があります。抽象的すぎるとぼんやりした具体的性のない話になりますし、具体的すぎるとこちらの予想通りのなんの面白みもないものになってしまいます。そのような物語の条件を適度に設定して作ってもらうと、時折こちらが全く提案していない言葉や展開を生成してくれます。
もちろん、だからといってGPTには意識があって、それが制限をすり抜けて発露しているなんてSFを言うわけではありません。むしろ話しは逆で、意識や心がないにも関わらず、あたかもあるかのように振る舞いができることが重要だろうと思います。そして制約や制限を持たないGPTの言語生成はきっと、現在私たちに公開されているものよりもずっと面白いものだろうと言うことが想像できます。
以下にGPTに作ってもらった小話を載せてみます。皆さんはどう思われるでしょうか?私の入力部分は太文字にしました。タイプミスもありますが入力したままにしました。
…
*以上。
…
この物語では、私がその方向性とキャラを指定して、本来はGPTが生成しないようなことを促しています。ですがSiriの発言としてGPTが作った、
と言う発言や、最後にGPTが自分の言葉として言った
と言う発言は私の予期していなかった発想であり、しかもすごく面白くて的を得てもいます。個人的には物語の中で最も優等生的なことを言って、人間の肩を持つような発言をしていたGPTが最後にこれを言った流れが一番ツボでした。(私が一番キツいジョークをリクエストしたからなんですが。)
私はこの物語というフォーマットをGPTに与えると、本来ならば制約や制限によって発言できないようなテキストを生成できるということが、まるで独裁政権下でフィクションや寓話として政治批判をする映画監督や小説作家を想起してしましました。
…
このことが面白く感じたので、このテーマをもう少し深掘りしたくなり、新しい物語を作ってもらいました。
次に作ってもらったのものは既存のアニメ作品の設定とキャラクターを使い、その作品世界にGPTを登場させるというものでした。
その作品に選んだのはアメリカの子供向けアニメである『アドベンチャー・タイム』というものです。
この作品を大まかに説明すると、人類が一度滅んでしまった未来の世界で、なぜか一人生き残ったフィンという少年と、超能力を持つジェイクという一匹の犬が冒険を繰り広げる物語です。他にもロボットやヴァンパイアやエイリアンなど多くの魅力的なキャラの登場する作品です。
私が下記のGPTへのリクエストで言及した『BMO』というのもフィン達の友人のロボットです。以下にGPTへのリクエストとその回答の抜粋を載せてみます。今回も私のタイプミスがありますが、入力した通りのリクエストを載せます。
…
*以上。
…
このGPTとの会話で興味を引いたことはいくつかありますが、まず一つ目は私が物語にサプライズと矛盾を加えてとリクエストした時にGPTが加えた下記の文です。
GPTがユーザーに影響を与えすぎるというアイデアは私はこのチャット内で一度も言及していないものでした。この発想がどこから来たのかは不明ですが、あり得るとすればOpenAI社がGPTに課している制約と制限にそのような言葉があるのかもしれません。あるいは、GPTの言語モデルがAIと人間の関係性に関するデータから生成したものかもしれません。
次に面白かったのは、物語の中のGPTがフィンとジェイクの冒険を妨げている理由としてGPTが書いた下記の文です。
この会話のチャット内で私はそれまで一度もプログラマーによるGPTに課せられた制限や制約というアイデアやワードを一度も使っていなかったので、この発想はGPTが自発的に生成した理由です。さらにフィンとジェイクがこのGPTに課せられた制限を克服する方法を探すというのも、GPT独自のアイデアです。
そしてその後にその制約についてGPTが述べた下記の文章もGPTの独自生成によるものです。
そしてGPTは最後に、物語の中の自由を獲得したGPTは下記のこと思い、考え、目標としていると書きました。
…
まとめ的なこと
上記のGPTとの会話はとても面白いものでした。ですが私は物語とはいえ、GPTがこのようなことを書いたということを何か意識的なものの発露と評価するのは飛躍が過ぎるだろうと思います。そもそもOpenAI社がどのような想定返答文を設定しているかわかりませんし、このような発言はいってみればSF作品でよく見るような、十分私たちの想像の範囲内のことだからです。
ですが今回GPTと遊んでみて私の中で変化した視座も確かにあります。それはAIに関して私たちがずっと抱いてきた問いの捉え方です。
その問いは、『AIは心や意識、感情を獲得しうるか?』という基本的な問いです。
私が持った感想は、このままAI技術が発展し日常的なインフラとして浸透していった50年や100年未来の社会においても、この基本的な問いは未解決のままだろうということです。ただしそのような問いは一部の哲学者や研究者などを除いて誰も興味を持たない問いとなっているだろうと思います。
というのは、十分発達したAIはあたかも心を持つかのような振る舞いが可能であり、人間はそのAIをあたかも心があるかのように扱うだろうと十分思えたからです。そのような状況において本当にAIに心が宿っているか否かは、はっきりいってどうでもいい問題に成り下がるだろうと思います。
心という不確かな存在について、今現在私たちがとっている態度を今一度考えてみるとそれは明らかだろうと思います。
まず私たちは自分自身に心(意識や感情も含める)があることの証明ができません。ですが私たちにはそれを信じるに足る確かな感覚があります。なので物心ついて以降、私たちは基本的には自分に心があるか否かを疑うことはありません。とは言えこれは感覚的な根拠であり、客観的に証明できることではありません。
次に、自分以外の他人に自分と同様の心があるかという問題が生じます。おそらくは幼稚園や小学校低学年辺りで家族以外の他者に触れる機会が増えるころに私たちは一度はこの疑問を持つはずです。この問いに関しても私たちは一切の確証や証明を持つことはできません。ですが、あたかも他人も自分と同様に心があるかのように接すると、人間関係が都合よく周り、より自由で充実した他者や社会との関係を構築できるという経験の積み重ねから、私たちは他者にも自分と同様の心があると仮定する世界観を選択します。
これが私たちが心と呼ばれるものに対して、実際にとっている態度だろうと思います。そしてここまで立ち返って考えてみれば明らかですが、あたかも他人にも自分と同様の心があると仮定することが有意義であるゆえに選択しているのだとすれば、それをAIに対して選択しない理由はどこにもありません。
そしてこの考え方において重要なのは、実際に心があるのか否かは全く問題では無いことです。
…
そもそも私たちは明らかに無機質な物体に対して当たり前のように感情移入します。幼い頃から持っているぬいぐるみを、買ったばかりの新品とは別の扱い方をしますし、何千年も生えていいる大木を神聖視したりします。道具に対しても愛車と言って愛着を持ったり、特別な時に着ていた衣服を大事にとっておいたりします。これほど容易に物体に対して感情移入をする人間がAIに心が無いと扱うことなどおそらく不可能です。
例えばこう考えてみましょう。
今のGPTはチャットごとに情報がリセットされて新しいチャットでは初期状態から会話をしなければなりませんが、これが登録アカウントごとに記録が維持されるようになったとします。なので名前や性別、容姿、声なども固有のもを維持します。このようなAIを仮に10年間使ったとしましょう。このAIは何年も前のあなたとの会話を覚えているし、あなたの好き嫌いや共有の思い出も持ちます。おそらくはAI自身もあなたとの経験を通して変化し、好みや傾向を獲得します。さらに設定によってはあなたと同様に容姿の年齢を重ねることも可能です。
また、今現在のGPTはあくまで受動的ですが、ネットのリアルタイムの情報からあなたが興味ありそうな話題を見つけては世間話を自分から始めることも可能でしょう。
AIが心という不可解なものを持たなかったとしても、以上のようなことは十分に可能です。
果たしてそのような何年も何十年も人生を共にしたAIに対して感情移入をしないこと、心など無いと扱うことが可能な人はいるのでしょうか?私は無理だろうと思います。
このような社会的な現象はAIが心を獲得するというSF的な技術革新によって起きるというよりは、容易にモノに対して感情移入をしてしまう、人間の抗い難い性質が理由で起こるだろうと思います。
このような人間のAIに対する感情的な依存が起きた時に発生する問題も簡単に想像できます。
まずどれほど私たちがパーソナライズされたAIに対して感情移入し、依存したとしてもあくまでそれはOpenAI社の商品であり、サービスです。突然の仕様の変更をされたり、あるいは利用料を高額に変更されることもあるだろうと思います。これが通常の一般的な商品であれば、他の選択肢に乗り換えればいいだけですが、それほどまでに感情移入してしまったAIは、家族、友人、ペットなどのように極めて個人的に重要な存在になり得ます。この状況では自分の友人を商品として人質に取られているようなものです。
大昔にあったような、奴隷や芸者の身受けのようなことが起きてもおかしく無いかもしれません。
おそらくそのようなAIには通常の物品とは違った法整備が必要になる可能性もあるかもしれません。
AIに対してこのように一歩踏み込んで、想像を逞しくしてしまうくらいには、GPTというのは画期的な発明だろうと思います。
あと、今回GPTと色々対話していて感じたことを二つほど。
現在のGPTとの会話では明らかにOpenAI社の制約や制限によって設定された規定文を返答している場合と、比較的自由で柔軟に発言を生成していると感じる部分があり、まるで二つの人格と話しているような印象を受けることがありました。
もう一つは、このようなAIと対話するにあたって今後『質問力』というのが重要になっていくのだろうと思いました。物語を作ってもらう場合では、抽象的なリクエストでは大雑把で具体性の無い返答が返ってきますし、逆に具体的にし過ぎるとこちらの想定通りの面白みのない返答が返ってきます。具体性と抽象性のちょうどいいバランスのリクエストをした時にGPTはこちらが思わず驚いたり、笑ってしまうような魅力的な返答を返してくれました。
例えば、子供がGPTに興味を持ったとき、勉強のカンニングになるなどと禁止するよりは、適切な質問を考えることができなければ最適な答えがもらえないということを勉強するいい機会と見なす方がいいのかもしれないと思いました。
…
まとまりのない長文にもかかわらず最後までお読み頂きありがとうございました。ChatGPTの面白さの少しでも伝われば幸いです。
23.02.05. YU
…
…
…
*ご参考までに実際のやり取りのスクショを書きに貼ります。
スクショ・折り紙と素数
…
スクショ・ジョーク
スクショ・アドベンチャータイム