ChatGPTの欠点から導き出した、統合AIの必須機能(4)嘘に関係した嘘を見付ける

前回は、911テロの動画を取り上げて、嘘を見付ける機能を解説しました。また、同じ内容の別情報も、嘘として扱うべきと述べました。

今回は、嘘情報が見付かった場合、さらに処理が必要な話を述べます。この、さらなる処理も、統合AIの必須機能として追加しなければなりません。題材としては、引き続き911テロを取り上げます。

前回の話は、911テロの動画はVFXで、ビルには旅客機が衝突していないことを指摘しました。これだけ大きな事件だと、この嘘を本当のことに見せる嘘情報が、どんどんと発生します。その1つが、旅客機を操縦していたテロ実行犯に、協力していた人々の逮捕です。旅客機が衝突してないのですから、テロ実行犯など存在しません。存在しない犯人に協力した人の逮捕なんて、アホらしい茶番劇です。(全世界のテレビが、その茶番できを放送してた理由については、今回触れません)おそらく、旅客機衝突の嘘の信憑性を高めるために、追加した嘘なのでしょう。

このように、嘘の追加発見機能も、統合AIが人類に追いつくためには必須です。では、実際にはどんな機能になるのでしょうか。その機能の中身は「論理的に間違っている内容を探す機能」です。
今回の話題だと、以下のような流れで考察してます。
・専門家の分析により、旅客機衝突動画はVFX
 (旅客機が突っ込んでないビル爆破動画もあり)
・旅客機はビルに衝突してなくて、ビルは内部から爆発されただけ
・旅客機を操縦してた犯人は存在しない
・存在しない犯人に協力したので逮捕とか、真っ赤な嘘が確定

この機能の基盤となるのは、論理的な思考です。現在のAI技術では、論理的な思考を実現していません。それどころか現状は、人間の脳がどうやって論理的な思考をしているのか、解明もされていません。今回の機能の実現において、論理的に思考できるAIの開発が、この機能実現する鍵となります。その意味で、当分は実現できない機能なのでしょう。

今回取り上げた必須機能は、短い考察になりましたが、実現するのが今までで一番難しい機能です。と同時に、統合AIが人類に追いつくためには、論理的思考を実現することが必須であることも判明しました。現状のAI開発のように、専用AI向けの機械学習を進歩させ続けも、人類の中の賢い人には追いつけません。論理的な思考をできるAIの実現が、どうしても非有様です。

余談ですが、世界中のマスメディアは嘘記事が多いです。今回の題材も、多くの嘘の一例となります。同時に、そんな嘘の多いマスメディア記事で学習すると、信用できる統合AIを実現できるのでしょうか。悪いのはマスメディアなので、統合AIも騙されている被害者となりますが。

だとしても、人類の中の賢い人は明らかな嘘を見抜いているわけですから、それに追いつくためにも、統合AIの嘘を見抜く機能や、嘘から判明する関連嘘情報も見抜く機能が必要です。

いいなと思ったら応援しよう!