見出し画像

自称プロンプターがちょっとマジで教える、ChatGPTをつかった"文脈の可視化"

Avant.キーワードは "文脈を可視化みえるかする"

 あるとき、Youtubeに「なんか変だな」と気になるのコメントがあった。長めに書いたわりには舌足らずなのか、主旨が破綻している。そんなもの相手にしなきゃいいんだが、あながち言っていることは間違いでもない。

 そこであれこれ悩んで考えて、たったひとつ「行動」という言葉の使い方があいまいだよと指摘した。

 案の定というか、良くないお返事がきた。「どこをどう読めば、そんな解釈ができるんだ」とね。勝手につまむなってことらしい。大丈夫だ、心配ない。読めばわかる。わたしだって「こいつなに言ってんの?」って感じだよ。

 そこで、要約にまとめようと思った。そのときChatGPTさんに手伝ってもらったんだ。ただ、AIは論理矛盾がある文章が苦手だよ。矛盾箇所には触れず要約から落とす傾向があるからだ。お願いしてみると、どことなく話をつまんだ文章ができた。なにより結論が落ちている……

 ある夏の暑い日、カメラ片手にイベントでお姉ぃさまへ「インストラクターさん、笑顔くだっさい」って叫んだ記憶がよみがえる。無視すんじゃねえよ…… なんだよこいつ、使えないじゃないか。

 だからかどうか、社会人一年生のときのように胸が苦しくなってきた。そうだあの仕事が遅いと叱られながら、ビジネス文書でやらされていた文脈の整理を、してみればいいんじゃね?

 もちろん、文脈の整理なんてものは簡単だよ。国語の授業って大抵そうだ。解釈を教わるのではなく、文学作品の「解釈の手順」を教わるのだからね。
 ① 文章を箇条書きにする
 ② 内容でグループにまとめる
 ③ 100字程度の短文をいくつかつくる
 ④ できた短文に矛盾がないか確かめる
 ⑤ それぞれの短文をつかい、元の文を簡潔にまとめる

 常日頃つねひごろ、文章を読みながら無意識にやってることをプロンプトにすればいい。間違ってもいい何度でも繰り返せる。そこが対話型の良さってものだよ。

 キーワードは"文脈を可視化みえるかする"。
 これがことのほか上手くいった。

 矛盾も含まれた良い要約になったからね。あなたの書いたものはこれ、わたしの指摘はこことの関係、ほらね、おかしいだろ、みたいなちょっとウザい返事をした。もちろん、相手からのお返事はもうなかったよ。

 あ、今、嫌なやつだなって思ったでしょ。大丈夫だ、心配ない。それはわたしも思っている。なにより、なぜたったひとつの言葉にしたのか、その意味を考えてもらえなかった、わたしだって寂しいよ。

 機械学習の進歩によって、文脈の整理と理解が論理的に「誰にでもできる」ことを痛感した出来事だった。

 ついでだから、もうすこし具体的な話をしよう。
 わたしがやってみた『呪文プロンプト』をほりさげてみたいんだ。
  


1. 電気羊の夢には文脈があるだろうか?

 文脈の可視化みえるかについて、もう少し具体的に見ていこう。

(a)ChatGPTさんにやってもらう

 実のところ、ChatGPTを使えば簡単にできる。例えばこんな感じ。

 先にいっておくと、どうやら「前提:」の根拠が薄いと言いたいらしい。先入観が先行して具体的な根拠が見当たらない。個人的見解の並びだから話もつながらないと、そこがchatGPTさんには気になるようだ。

User
AIが支配する未来について、文脈上、論旨が破綻した悪い例が欲しい。それを、ある手順に従って「文脈の可視化」をすることで矛盾を明らかにしたいんだ。手伝ってくれるかな

ChatGPT
もちろん、お手伝いいたします。AIが支配する未来に関する文脈上の論旨の破綻した悪い例を提供いたします。以下のような例が考えられます:

文脈:
AIが支配する未来では、人間は役に立たなくなるだろう。AIは人間よりも優れた知性を持ち、あらゆる問題を解決できるため、人間の存在意義は失われる。

手順に従って文脈を可視化してみましょう:

前提:
1.AIは人間よりも優れた知性を持っている。
2.AIはあらゆる問題を解決できる。
3.人間の存在意義はAIによって失われる。

この文脈を可視化すると、以下のような矛盾が明らかになります:

・前提1では、AIが人間よりも優れた知性を持っているとされています。しかし、この前提には具体的な根拠が示されていません。AIは高度な計算やデータ処理が得意ですが、人間の持つ創造性や感情、直感といった側面においては未だ限定的です。したがって、AIが人間を完全に上回る知性を持つとは言い切れません。
・前提2では、AIがあらゆる問題を解決できるとされています。しかし、実際にはAIも限定された情報やデータに基づいて作動し、制約されます。また、AIは道徳的な判断や倫理的な視点を持っていないため、一部の問題においては適切な解決策を提供できない可能性があります。したがって、AIが全ての問題を解決できるという主張は矛盾しています。
・前提3では、AIの台頭によって人間の存在意義が失われるとされています。しかし、人間は単に問題解決の手段ではなく、感情や情熱、個別の経験といった独自の側面を持っています。また、社会的なつながりや倫理的な判断なども重要な要素です。したがって、AIの台頭によって人間の存在意義が完全に失われるという結論は矛盾しています。

このように、AIが支配する未来に関する文脈上の論旨は、前提の根……

ChatGPT May 12 Version, 2023

 なんだ簡単じゃないか、こいつスゲーな……

 だけど、わたしは不満だった。やってることが違うんじゃね? と思ったからだよ。どこが? と言われても上手く言えないのだがね。

 そこで、先ほどあげた体験をおさらいすることにした。

(b)上手くいった会話

 なにかと大人の事情があるので、ここに元コメントを書くのは出来ないのだけどプロンプトだけならこんな感じだった。

 次の文章を箇条書きにしてくれる?
  [省略]
 それに番号をつけて、4つにグループ分けして欲しいな
 それぞれの番号ごとに、100字程度で要約できるかな?
 4つの要約された文をつかって、元の文章を要約してくれる?

ChatGPT May 12 Version, 2023

 結果、できた要約はこうなった。

人間は頻度の高い単語や文構造で文章を作る傾向があり、会話は反射的に行われる。言語モデルは意味クラスターを持ち、完全に意味を理解しているわけではない。AIの進化には課題があり、自律的な行動を選択するAIの開発は難しい。AIによる支配する世界は容易には実現せず、決められた行動をするAIは存在するが、多くの人が納得するものではない。

ChatGPT May 12 Version, 2023

 どうだろう? ちょっとイキった感じはあるけど、言ってることに間違いなさそうだよね。だけど、小さな事実誤認ごにんが積み重なって先入観がぜているかもだろ。なにより今年、AI研究で結果がでているのは「成果目標を与えると自律的な行動をとるロボット」だよ。書いていると気づかないものだけど、結論は矛盾する。この矛盾をはらんだ要約が、わたしは欲しかった。

 ChatGPTさんが、会話に流されウソをついたのか?
 いいえ、わたしが求めた。それで書かせたんです。

 この出来あがりまでの過程を見せたかったんだ。

 つまり"文脈の可視化みえるか"とは、
  1.元からある雰囲気を残した要約
  2.それに至るまでの経緯

 これを示す方法なのさ。

2. "可視化みえるか"には、基礎・基本・応用がある

 わたしは野球をやらないんだが、父親の代からのグリーン・ネーションズこくてつ/なんかい・ファンのひとりでもある。そこで敬愛する野村克也のむらかつや曰く「野球には基礎・基本・応用がある」とのことなので、ここでちょとプロンプトの基礎をおさらいしておこう。

(a)プロンプトの基礎

 ・基礎をおろそかにする者は、基本すら出来ていない

 そもそも、プロンプトとは何か?

 ChatGPTさんへの質問のことです。

 あれこれ一度に訪ねた、あまりに複雑な質問になると「呪文」と呼ばれることもある。ChatGPTサービス画面のスクショを貼り付けられないときは、次のような書きかたにしたらいいと決まっている(書式が推奨されている)みたいだ。

図1 書式:"Prompt Engineering Guids" 日本語版

 そして、お返事のことは、出力 (Output)という。

 プロンプトと出力のやり取りを繰り返し、会話を重ねてゆく。
 最近は、サービス画面のコピペができるようになったせいで少しだけ違ってきている。似たようなものだけど、なぜか出力のことは、「お返事」「答え」「ご信託」「カゴ(加護? 過誤?)」などと、適当に呼ばれはじめた。
 みんな、夢のような奇蹟きせきでも見せられているのだろうか。

図2 書式:ChatGPT May 12 Version, 2023

ここから先は

14,139字 / 10画像

¥ 250

この記事が気に入ったらサポートをしてみませんか?