見出し画像

教えてGPT先生!この底辺意見はどこが底辺なの?①

ああ、なんてひどいタイトル。
他者攻撃ではなく自虐です。先に言っときますね!!!
①とありますが、続かなかったらすみません。そして続いたとしても、多分なんかこう、すみません………。

ChatGPTの使い方、付き合い方を模索中です。

テキストを書いた後、それをGPT先生に「誤字脱字誤用、事実認識の誤り、社会通念上問題のある部分、的なものを細かく指摘してー」とお願いしています。
いわゆる校正ですね。

これね、すごく助かりますな!
ADHDぼく、昔からテストはケアレスミスばかり!という有様だった訳なのですよ。その部分をフォローしてくれるわけで、大変ありがたい話かなと思います。

特に「誤用」かな。知ってはいてもついついうっかり……やっちゃう……というのは、やっぱあるのです。
最近だと、何だったかな。あー、あれ。
「敷居が高い」。

本来の意味は「不義理や疎遠などから、その人の家に行きにくい」という、現代だとだいぶ狭いシチュエーション。
よその家、ほんと行かんからなぁ。アフターコロナで失われつつある慣用句っすよ!言葉はうつろうのです。
現代的には「なんか気まずくて、LINEで連絡しづらい……敷居チョー高いんですケド?」くらいは使用範囲として許されますかね?

まあ、それはいいとして
これが転じて「心理的なハードルが高い」、さらには「難易度が高い」と解釈しちゃうと誤用だよ、というお話。
ぼくもそれをうっかり書いちゃったわけですね。く、くやしい。

とはいえ、こうして正しい知識を定着できたり、間違った知識を修正できたりするならば、それはよいことなのです。
(重ね重ねですが、ハルシネーション……AIによる誤りの生成には注意をば)

でね、

こういう校正の使い方もとても便利なのですが、
こういうのもアリかな?と思ったのですよ。

ある意見を発する前に、
「そこに強いバイアスはないか?」
「そこに詭弁や誤謬はないか?」
そして、「その意見を主眼論破しておくれよ!」
というもの。
自分の意見を論理的に、客観的にチェックしてもらうわけです。

強いバイアスや詭弁・誤謬があると、意見としては不完全で表層的、そして共感性が低いものになってしまう恐れがあります。
また、自分の意見に「建設的な反論」をしてもらうことで、多面的な見方につながる気付きを得られる場合もあるでしょう。

という仮説。
そう思ったのですが、これは実際、ほんとにうまく機能するんでしょか?
という訳で、実際に試してみました。

結論から申し上げると
「できなくはないが、使い方が難しい」

あれっすね。誤字脱字みたいな「定義しやすい誤り」と違って、「ニュアンスや文脈をとらえる」ってのが得意分野じゃないからかな。
「なんか、上っ面を掬われちゃったな」という印象を受ける場面が若干ありました。

このあたりはプロンプトや掘り下げの問題かもしれんので、単純に「チッ使えねーな!」と切って捨てるようなものではないと思います。
ズレてる点が見受けられるながらも、的確に返してくれることもありますので、提示された情報を取捨選択していけばいいのかな。
Claudeあたりだと、まただいぶ違った結果になるかもですねー。

と、おもいました!
おしまい!!

というわけで、
以下、実際に試してみますね。
ここから先はだいぶ冗長になります。すごくごめんなさい。

さて
どんなテーマがいいかな。アレの是非は荒れそうだから避けたいな……せっかくだからGPT先生にお題出してもらうか。

あちゃー。

まあいいか、これやってみるか……。

まず、すごいざっくり、頭を使わずに意見出しをしてみました。
長くなっちゃったので、要約して貰ったのを以下に貼ります。

AIに対する不安は「未知や変化への恐れ」に由来するが、技術の進歩は「不可避」であると考えている。
過去の事例からも、問題が表面化するまで技術の流れは止められなかった。AIにおいても「やめる、止める」より、問題が見えてから「ルールを整備し、より良く活用する」ことが建設的だと思う。
悪い点があるからといって全否定するのは極端で、学校や自動車なども同様の例だ。
AI推進に反対する人にはこの意見は受け入れられにくいだろうか?

ぼくの書きなぐり意見(GPT先生による要約)

といったカンジに要約してくれました。先生ありがとうございます。なんか思ってるのと違う気もするけど、まあ一旦これでいいか。
(後でちゃんと読んだら、まあまあツッコミどころがある要約でした)

少しだけ解説すると、「過去の事例」というのはチェルノブイリの事故とか、化石エネルギーによる大気汚染なんかを挙げています。
それらに関して「問題が起きるまでは無問題」って、さすがにちょっとどうなの!?
と思ったワケなのですが、まあ細かいとこはいいや。これはあくまで例文なのです。

実際のところ、これはふだんうすぼんやり思ってるレベルのおはなしであり、掘り下げなどは全く行っておりません。
これを、先程挙げた

・認知バイアスはないか?
・詭弁と誤謬はないか?
・主眼論破による反論をしてください

の3つのフィルターにかけてみたいと思います。
えーと。まずは認知バイアスですね。
以下。

  1. 現状維持バイアス

  2. 楽観主義バイアス

  3. アンカリング

  4. 合意バイアス

を指摘されました。
ひとつずつ見ていきますが、ほんとだいぶ冗長で蛇足感すごいので、見なくてもいいっすよ!!

現状維持バイアス

「今までこうだったから、今後もそうだろう・そうあるべきだ」というもの。
「AI社会化は不可避」という意見は、「ネットやPCの時のように変化するのは当たり前だし、これからもそうに違いない」という考えがありそうです。
「変化するのが当然と考える現状維持バイアス」という、とんちみたいな話になってますね。

世論の変化や強い法規制、外圧などでこの流れが急速にしぼむ可能性も、ないわけではないという指摘。
まあ、これは分かるかな。

楽観主義バイアス

「まあ、なんとかなるよ!」というやつですね。ぼくはまさにこれ思考。
「とりあえずやってみて、やりながらルール制定を」という考えは、いささか楽観視し過ぎなのでは?とのご指摘です。

一方で、ネガティブで警戒的に考えてしまうバイアスも存在します。(意地悪世界症候群など)
心配性であるからこそ危険を回避できるわけだし、そこを乗り越えてチャレンジしてきたからこそ、人は雲丹や牡蠣を生でおいしくいただけるのです。牛レバ刺は駄目になっちゃったけどな!!

どっちにも良し悪しがあるので、バランスを取るのが大事なんじゃないかな。
実際、便利になるからとオールインするのもハイリスクすぎますし、かといって石橋を叩いて渡らないのも、また。
前向きで建設的な議論が求められます、なのです。

アンカリング

「最初に得た情報(アンカー)が基準となり、思考が引っ張られてしまう」というもの。行動経済学の用語ですかね。みんなだいすきダニエル・カーネマン先生。
「通常価格1万円のものが、タイムセールで1980円ですって!お安い!!」みたいなのが有名すかね。

「過去の事例からも、問題が表層化するまで流れは止められなかった」という部分が指摘されました。この部分は、ぼくは利用可能性ヒューリスティックを感じたかなー。「過去にこういうことがあった。こういうこともあった。だから、次もこうだろう」というやつっすね。
これも前述の現状維持バイアスの項で触れたとおり、今までがそうだから今後もそうとは限りませんね。

合意バイアス

これは「自分がそうだと思っていることは、みんなもそう思っている」「自分が知ってることはみんなも知ってる」と無意識に判断しちゃう……的なことかな。
上の要約だと「学校や自動車の例」とのことでした。これ意味わかりませんね。ここは要約の失敗です。
もともと記述していたのは、「ひとつ問題点があるならば、他のメリットを差し置いてでもストップするべきなのか?」という意見でした。

「自動車は事故を起こすから使うべきではない」
「学校にはいじめ問題があるから行くべきではない」
極端な例ですが、まあ、
「AIにはたしかに問題点もあるけど、それを理由に反対するのは建設的じゃないんじゃない?」
というのがぼくの意見だったのですが、その記述が省略されてしまったので、「これ合意バイアスじゃね?」と指摘されちゃいました。
なので、これは意見内に合意バイアスがあった、というのとは違うかな。とおもいました。

てなわけで

まず認知バイアスの指摘を行ってもらいました。納得できるもの、ちょっとズレちゃったものありましたが、気付きの補助にはなるんじゃないかな。

というカンジですが、
さすがに長くなりそうなので、一旦ここまで。
次回は「詭弁・誤謬」フィルターもかけてみようと思います。

ずっとこのペースはきついな。
いい切り口が欲しいです。アイディアを50点ほど挙げてください!!(AIによって思考能力を奪われた人のイラスト)



いいなと思ったら応援しよう!