ChatGPTの欠点から導き出した、統合AIの必須機能(5)意見の論理性を評価する

前々回と前回で、嘘を見付ける機能について解説しました。それぞれ、嘘を見付ける機能と、見付けた嘘から関連する嘘を見付ける機能です。機能の中身を検討している中で、論理的な思考がAIにも必要だと判明しました。

この論理的な思考は、人類の中の賢い人は、様々な場面で使ってます。組織または誰かが何か発表したとき、それを受け取るだけでなく、発表の中身を検査してます。その際の指標として、論理的な思考を使うわけです。発表した内容に論理的な矛盾が含まれてないのか、正しいデータを用いているのかなど、いくつかの観点から間違っている箇所を見付けようとします。

ChatGPT自体には、扱う内容を論理的に評価する機能はありません。学習した情報の中に、何かを評価している内容が含まれれば、それを取り入るだけです。ChatGPTを利用する人が、ある対象がどう評価されているのを尋ねたときに、機械学習した評価内容を出力するように応答するでしょう。このような形ですから、学習した情報の中に、間違った評価が含まれているとき、間違ったままの内容を回答してしまいます。

人類と同等の統合AIを目指すなら、人類の中の賢い人に追いつかなければなりません。つまり、学習する情報を事前に評価し、論理的に間違っていることを発見したなら、間違った内容だと区別して学習することが求められます。間違いと判断されなかった内容とは、別扱いする必要があります。この辺の話は、前回と同じです。

ここで少し話題を変えます。現在の世の中では、多くの対象に関して、様々な議論がされています。その内容を、人類の中の賢い人は、どう評価しているのでしょう。おそらく、あまりにも醜い内容だと感じていると思います。

なぜなら、ほとんどの議論内容が論理的では無いからです。議論の場合は、意見が対立する人の間で行われることが多いでしょう。意見が異なるからこそ、議論が必要だからです。すると、議論する内容で劣勢になっている側は、真面目に議論しません。議論が正しく進むと負けるだろうなと、知っているからです。そこで、良い議論を邪魔する行動に出ます。たとえば、議論相手の人格を攻撃して、信用できない人物との印象を作るとかです。別な方法としては、論点ずらしも良く使われます。また、もっとも大事な点を中心に置かず、相手の提案内容の小さな欠点を、執拗に攻撃して、提案内容に悪い印象を持たせたりします。他にも方法はありますが、共通しているのは、良い議論をさせない点です。良い議論を邪魔することで、自分たちの劣勢を挽回しようと試みます。これが、多くの議論で議論内容の質が定がする根本原因です。

こうした議論を、人類の中の賢い人は、どのように見ているのでしょうか。発言の中に論理的に間違っている箇所があれば、それを見付けられます。それ以上の懸念するのは、議論全体の流れでしょう。良い議論を邪魔する様な行為を見付けて、残念に低く評価してしまいます。当然ですが、議論対象に大きく関わっていない限り、そのような評価を公表することはありません。もし発言したら、議論を邪魔している人から攻撃を受けますから。

もし統合AIが、人類の中の賢い人と同じ能力を持ったらどうなるでしょうか。その統合AIを議論の場に投入し、全部の発言内容を評価するの使ってみたくなるでしょう。すると、議論を邪魔する行為がことごとく指摘され、まったく使えません。また、論理的に間違っている発言も同様に指摘されて、訂正を求められます。結果として、議論の質が格段に向上し、凄く良い議論内容に変化します。

このような指摘は、すでに終わっている議論に対しても行えます。終了した議論内容を読み込ませ、評価してもらうことが可能です。全体の流れが間違っているとか、矛盾する発言とか、指摘されるかもしれません。

どの程度まで指摘できるかは、統合AIの能力に依存します。必要に応じて、特定分野の専門知識も必要で、それも学習させる必要があるでしょう。また、都市計画のような複雑な課題だと、大事な内容に関しては指摘できない可能性が高いです。それでも、統合AIを議論に参加させるメリットは、かなり大きくなるはずです。

間違いを指摘された人も、相手が統合AIだと攻撃は難しくなります。人間であれば人格攻撃などの意地悪な手が使えますけど、賢い統合AIが相手では、ほとんど攻撃できないと思われます。統合AIの参加が当たり前の状況だと、議論を邪魔するのに一番有効な方法は、統合AIを参加させないことでしょう。しかし、もし参加させなくても、議論した内容を誰かが統合AIに入力すれば、試論内容の評価が得られます。また、議論が終了した時点で入力しても、その評価が同じ様に得られます。つまり、統合AIを酸化させないことは、極めて難しいわけです。

ここでは一般的な議論を対象としましたが、それ以外でも利用可能です。新聞や雑誌の記事を統合AIに入力すれば、論理的に間違っている箇所を指摘してくれます。統合AIが専門知識も学習していると、その分野の評価もできます。あらゆる記事や意見が、統合AIに評価されるという、恐ろしい社会が来るかもしれません。間違ったことが広まりにくい社会になりますが、誰も発言したがらない状況も生まれそうです。それが良いのか悪いのか、難しい問題です。少なくても、知ったかぶりで語る人はいなくなるでしょう。

ここで注目すべきなのは、人類の中の賢い人は、物凄く頭が良い点です。この賢いというのは、学校の勉強ができるのではなく、思考の内容が高度で鋭いことを意味します。そうした人々が分析した内容は鋭く、普通の人とはまったく違います。その賢さを統合AIが持ったなら、普通の人にとっては、別次元の賢さに見えるでしょう。なにしろ統合AIは、各分野の賢い人が集まった状態を達成できるからです。

今回は、意見の論理性を評価することから、対立する議論内容を評価することまで、幅広く予想してみました。統合AIが人類に追いつくと、このようなことが可能になるという例です。そのためには、論理的な思考をAIで実現しない限り無理です。この点が一番難しく、今のAIの技術状況だと、まだまだ遠い未来でしょう。

最後に、レッテル貼りの例を紹介します。一部で話題になっている陰謀論を取り上げましょう。

とくにツイッター(現X)の中でですが、本当かどうか不明な内容について、「〜は陰謀論だから」と否定するといったやり取りが、多く発生しています。「〜」の部分には、相手が取り上げた内容が入ります。このような否定方法は、反論ではなくて、明らかなレッテル貼りです。陰謀論だとレッテルを貼ることで、相手が示した内容を否定するのに使います。正しく反論するなら、相手が示した内容に関して、最低でも「〜部分が〜だから、陰謀論でしかない」となるはずです。つまり、陰謀論と判断した根拠を示さなけらばならないのです。もちろん、説得力のある根拠を。

この種のレッテル貼りを出されたとき、賢い統合AIなら、どのように評価するでしょうか。たとえば「陰謀論と判断した根拠が示されてないので、あなたの決めつけでしかない。根拠を示してください」と。加えて「それと、根拠なしで決めつける発言は、議論での発言として、ダメな行為です」とも言われるでしょう。もしレッテル貼りを何度も繰り返すなら、議論への参加資格を失うかもしれません。

一方で、この種のレッテル貼りを信じてしまう人もいます。根拠がない決めつけを信じる人は、騙されやすい人です。何事も深く考えない癖が付いてて、流されやすい人かもしれません。そういった人も、賢い統合AIの鋭い指摘を見れば、根拠を求めるように少しずつ変わっていくと思います。賢い統合AIは、利用する人の知的能力を成長させるのかもしれません。

今回は、人類の中の賢い人なら持っている、他人の意見の論理性を評価する能力について、まとめてみました。統合AIも、この機能を持っていないと、人類には追いつけません。

いいなと思ったら応援しよう!