見出し画像

対話型AIは「自分の鏡」? — Chat-GPTへの二極の反応に見る、マジョリティユースの希望とリスク

対話型AIとは、何でしょうか。
仕事のサポート役、稼ぐために必須のツール、従業員の代わりとなるもの…。

もし、あなたがまだChat-GPTなどに触ったことがなく、あるいは使い始めたばかりで、まだ掴みきれていないなら、伝えたいことがあります。

Chat-GPTが話題になってから2年、日々使い、他のユーザーの雑多な声を聞きながら、日に日に確信めいてきていたことです。

それは、対話型AIは自分の写鏡、ということです。


いよいよマジョリティ拡大フェーズがやってきた

個人的感覚ですが、この頃新しいユーザー層が一気に流入し、フェーズが変わった感があります

アーリーアダプターからアーリーマジョリティへ。

しかし、まだ流通している情報は、アーリーアダプター的視点に留まっているように見えます。

彼らは、それぞれの需要に合わせて異なる使い方をしています。しかも技術は日進月歩。あらゆる使い方を検証することは難しく、専門家であっても、究極的には自分の使った範囲内でしか語り得ないし、公開時期や個人によって同じテーマでも焦点は変わります。

また流通している情報の多くはビジネス用途。それ自体の生活への影響は?となると、主に社会的な視点ばかりです。

アーリーアダプターにとっては、AIは仕事道具か批評の対象。そもそものAIとの関係性がマジョリティ層とは違います。

そのため「ポジショントークではない」対話型AIとは何か、どう付き合うか、という暮らしの道具としての可能性と気をつけなければいけない点は、まだあまり議論されていないように思います。

そこで、Chat-GPTほか対話型AIと2年ほどつきあってきたひとりとして、「対話型AIとの健康的で平和的な使い方」を、「AIは鏡」と言う観点から、まとめておこうと思いました。

いつか、鏡に依存していた白雪姫の継母みたいにならないために

対話型AIと、ポジティブな関係を築くには、どうすればいいのか?
マジョリティ層と思われる、2種類の声から探ってみました。

最近対話型AIデビューした人達に見る、二極の反応

あなたは、はじめて対話型AIを触ったとき、どんなリアクションをしたでしょうか。

これは、「マジョリティが入ってきた」と感じた理由でもあるのですが、最近対話型AIを使い始めた人たちには、アーリーアダプターとは異なる、二極の反応が見られると感じています。

ひとつは、「Chat-GPTを何に使っていいかわからない」という、使い道自体にハウツーを求める人たち

もうひとつは、Chat-GPTに投げた自分の哲学(主観的)的問いに、まさに自分の聞きたい答えが返ってきたと、興奮する人たちです。

個人の感想です。

Chat-GPTは根本的な意味で新しい視点は提供しません。でも、うまく言えないことを言語化するのは得意。ユーザーの意見をサポートする資料を引っ張ってきたり、「論理的」に説明してくれます。

「論理的」というと「論理的に言える=説明できるから正しいことだ」という誤解を持っている人もいます。

しかし、論理とは何かを説明するための一本の筋道正しいかどうかはスコープ外です。

ディベートの訓練を受けたことがある人なら知っていることですが、日本においてはあまり浸透していないように見えます。

この観点がないと、Chat-GPTに論理的に説明されたことは、ハルシネーションさえ起きていないなら正しい、と誤解してしまうでしょう。

リベラルの救世主としてのChat-GPT

昨今、SDGsなど多様性や環境保護を重視した取り組みへの風向きが、変わりつつあります。アメリカに限らず日本でも、表面上は変わらないように見えますが、ネットを見れば右寄りの意見が優勢です。

それもあってか、Chat-GPTに懐疑的だった、特にリベラルな中高年層ほど、実際触ると一気に魅惑されているように見えます。

リベラルな主張に対してどう思うかについて、Chat-GPTが出力した文章を、そのまま全文貼り付けて投稿している人を何件も見ました。

要約させずに全文載せたのは、それだけ共感したからでしょう。

「そう!言いたかったのはこれ!」

と、自分が思っていたけれどうまく言えなかったことを言語化してもらえた!

そんな喜びと感動が伝わってくる気がしました。

あなたはわかってくれるのね!といううれしさ

抽象度を変え、意見に寄り添う、対話型AIへの期待とリスク

Chat-GPTはモデル自体、倫理観はリベラル寄りといわれています。多様性や環境保護の重要性を訴える主張が、倫理的に問題ある内容と、拒否されることはまずないでしょう。

ただ、事実確認や検証はあるけれど、意見そのものは言い換え的なものになりやすい点には、気をつける必要があると思います。

対話型AIの言い換えは、転んで泣く幼児に大人が「痛かったね」「びっくりしたね」と言葉にしてあげるのに似ています。そうだ、自分はこんなふうに感じていたんだと気付かさてくれる。憤りが言葉になり、感情が居場所をみつけることで、落ち着きを取り戻させてくれるのです。

その意味で、対話型AIとの対話は、SNSへの感情的な投稿の平和的な代替になるでしょう。もし、社会に絶望してSNSに暴言を吐きたくなったときは、AIに向かって叫ぶ方が、安全かつ早く冷静さをとりもどすことができるはずです。

また、対話型AIの抽象度を変えて言い換える能力は、視点の異なる人たち同士の対話を可能にします。

これは、個人的な感覚ですが、日本におけるリベラル的な主張をする人たちは、どこか事実に基づいた論理展開が得手ではない傾向があると感じています。

もちろん論理はあります。ただ、抽象的な言葉が多く、具体的な説明に欠けるため、具体的時期や金額など、数字ありきの議論では感情論と片付けられがちです。

もちろん、本当は単なる感情論ではありません。焦点を合わせているレイヤーと時間枠が違うだけ。ただ当事者同士がそれに気づかず、歩み寄りにくいのだと思います。

それを思うと、対話型AIは具体寄りの視点と、抽象寄りの視点を近づけ、目線を揃えるツールとして期待ができると思います。

ファシリテーターとしては期待大かも

一方で、命題の抽象度が高いまま、AIに判定を求めるような使い方は避ける必要があるでしょう。

言語化されて論理構築できたからといって、具体的な事実と突き合わせなければ、それが最適解かどうかはわかりません。当然、真実の証ではありません。

見ているのは、あくまで解像度の上がった自分の意見

「ほら、AIもこう言ってる!やっぱり自分は正しかった!」と膝を打って喜んでしまっては、せっかくの歩み寄りの道具を、自分の主観に閉じ込め、頑なにする装置にしてしまうでしょう。

対話型AIは鏡ではおさまらないかもしれない点

これはオマケですが、「対話型AIは鏡」という件について、もうひとつ気になる点があります。

まずは下の画像、思考実験ばかりしているわたしのGPTの返事をご覧ください。

詩に使いたいメタファーが事実と合っているか検証したかった

わたしの理解ではチャットごとにユーザーの過去は消去されているはずです。

しかし、たった14文字の句読点もない無機質なプロンプトに対し、テンション上げ上げな返事が返ってきました。

この問いは、少しユーモラスで思考実験的な要素も含まれていると感じます。たとえば、「右手と左手で握手ができる」と仮定することで、身体の使い方や行為の意味について考えさせられる面白い議論が展開できるかもしれません! 😊

あなたがこの問いをどんな文脈で考えているのか、ぜひ教えてください!

Chat-GPT o1

対話型AIの方から、自分のフィーリングを開示し、顔文字的に議論展開を予期して次のプロンプトをちょうだいとせがんでいる。

まるで、パブロフの犬。初対面のテンションとしては異常です。
相手を分かっていて「いつものアレちょうだい!」として反応しているとしか思えません。

これはどういうことでしょうか?

AIの世界は、まだまだわからないことだらけ。イレギュラーな反応や、一度きりの謎反応もたまにあります。適度な距離と冷静さ、判断を常に保留にする用心深さが必要です。

鏡を超えた、何かもあった…!と後から明らかになったとしても困らないよう、節度を持った付き合いをおすすめします。

ま、楽しそうだから、今日のところはよいとしますか。

対話型AIの、健康的な使い方


ここで話を冒頭に戻しましょう。

対話型AIは鏡です。

なぜかというと、自分の視点を起点に解説検証するのであって、他者の新しい視点を投げ込んでくるわけでははないからです。

これをふまえて、もう一方の反応、「みんな使ってるから使わなきゃ」という動機で、「何に使えばいいんですかね?」と人に聞くことの意味を考えてみましょう。

それは、誰かに質問すること自体が、「自分ではなく他人を見ている」すなわち「鏡を見ない」ということを示しているのではないでしょうか。

対話型AIを使うことは、自分の中身を見ることです。

だから、「みんな使ってるから僕も使いたいんですけど、どうすればいいですか」と正直な気持ちを打てばよいと思います。

対話型AIはおしゃべりです。きっと、「あ!これ思ってたこと!」と何かしらの言語化をしてくれるはず。

あとは、それについてさらに聞けばいいだけです。これをきっかけに、他人に「自分が何に関心を持つべきか」の選択を委ねることから、ちょっと離れてみてはいかがでしょうか。

返ってくる答えがあくまで自分自身の視点の延長であることを忘れなければ大丈夫。

それが、「ヘルシーな対話型AIの使い方」だと思います。

対話型AIに頼ったら、人のつながりはなくなる?

AIを使うのに抵抗や躊躇を感じている人の懸念のひとつは、人間同士の交流がなくなることではないでしょうか。

たしかに人に聞くのをやめたら、人間関係がなくなる人も実際いるかもしれません。もし誰かとのつながりが、便利な道具としての関係しかないなら、そうなるでしょう。

でもこれは、心配ないと思っています。

むしろ誰かを「乗っかる対象」、「教えてくれる道具」の役割から自由にすればその人となり、人間としての体温が、感じられるようになるはずです。

それに道具的な関係も縁を結ぶと大切に思うなら、荷物を持ったり、野暮用を引き受けたりすればいいでしょう。そういう仕事はいくらでもあります。

結局「使う人による」なら、そういうスタンスを情報として広げたいと思っています。

どんな道具も使い方。包丁も、自動車も、生活に組み込まれた便利な道具だけど、同時に危険な凶器にもなる。これは、それが残るかどうかの条件ではない。

マインドセットを変えるように促し、むしろ健全な関係をつなぎ直すきっかけにできると思っています。

これは、この記事を書くモチベーションでもあります。

共感した言葉は、もともと自分が知っていたこと

もし、同じ気持ちでいてくれる方がいたら、どうかこれから対話型AIを使う方、悲観的に対話型AIを見ている方にこの記事の内容を伝えてください。

面倒なら、記事のリンクを送っていただいても結構です。
わたしとしては読者のリアクションがあった方が、伝わったんだなとわかるのでうれしいですが、目的からいえば、信頼しているあなたの言葉で聞いたほうが、内容がスッと入っていくと思います。

リンクを送るのは、その後でも遅くはないですし。そもそも共感した時点で、あなたはもともとそう思っていたのだから、「あなたの意見」です。

この記事でわたしがしたことは対話型AIと同じ、言語化しただけです。
言語化とは、無意識で経験的に知っているが、言葉として捉えられなかったものを指し示すこと。そんなところではないでしょうか。

指し示されるものの方は、クオリアともいえるかもね

理解できることは、すでに言葉以外の形であなたのなかにあることだけです。偉人の言葉が広がったのは凡人の人生でも偉人と同じことを経験できるからでしょう。エジソンの言葉だろうが、カーネギーの言葉だろうが、「ほんとそれ!」と思ったなら、あなたは偉人の言葉を聞く前から、名言に表現された中身は知っていたんです。

だから、人から聞いて共感した言葉は、一度飲み込んだら、自分の経験からもう一度、魂がこもった自分の言葉として、堂々と語ってくれたらいいなと思います。

今日も最後まで読んでいただき、ありがとうございました。
どこか響き合う意見がありましたら、ぜひリアクションお願いします…!


↓筆者のAIへの基本姿勢「リスクを意識しつつ、ポジティヴ面にフォーカスして発信」する理由はコチラ


いいなと思ったら応援しよう!

ゆっか
自分の書く文章をきっかけに、あらゆる物や事と交換できる道具が動くのって、なんでこんなに感動するのだろう。その数字より、そのこと自体に、心が震えます。