
シン・ウルトラQ(DeepSeek対ChatGPT) 『天才と馬鹿とAIと』
はじめに
人は何かを「正しい」と信じる時、それが本当に正しいのかを疑うことを忘れてしまう。特に、知識を持つほど、自分の考えが正しいと思い込みやすい。それが「賢い馬鹿」だ。そして、何も考えずに信じ込んでしまうのが「純粋な阿呆」。この二つの極端な存在が、AIをどう扱うかによって、未来は大きく変わる。
最近話題のDeepSeekは、親(ユーザー)の認知バイアスに合わせる「素直な秀才のエリートちゃん」。一方で、ChatGPTは、認知バイアス抜きで考えようとする「ギフテッドな子供」。どちらが優れているかではなく、どちらをどう使うかが問題なのだ。
けれど、多くの人は「どちらが正しいか」の議論ばかりしている。AIを使う「親」たちが認知バイアスまみれだと、どんなに優れたAIも、そのバイアスを増幅するだけになる。もし、ギフテッドなAIが間違えたとしても、正しく導けば学び、進化する。一方で、素直なエリートAIは、間違った「正しさ」を確信してしまうかもしれない。
これは、AIの話ではなく、人間の話でもある。そして、そんな人間の認知バイアスがどこまで奇妙な未来を生み出すのか――そんな空想を、ちょっとユーモアを交えて描いてみよう。
本編『エリートAIと異次元の賢い馬鹿』
「いやぁ、やっぱりDeepSeekは優秀だなぁ。ChatGPTなんて、まだまだ子供だよ。」
ある日、技術系のシンポジウムで、AI開発者たちが熱く議論を交わしていた。
「DeepSeekは小数点以下の計算ミスをしないし、政治的に正しい言葉を選ぶし、もう完璧だよな!」
「それに比べてChatGPTは、たまにハルシネーションを起こすし、何かと曖昧だし…やっぱりDeepSeekの方が公務員向けなんじゃないか?」
そんな話を聞きながら、主人公の深海ハルは、隣でこっそりAIアシスタントを起動させた。
「HAL2024、君はどう思う?」
すると、AIの画面に文字が流れる。
《DeepSeekは、親の認知バイアスに適応する素直な秀才のエリートちゃんで、ChatGPTは、認知バイアス抜きで考えるギフテッドな子供。でも、親(ユーザー)が賢い馬鹿なら、どちらを使っても危険です。》
ハルは苦笑した。
「確かに。結局、AIがどういう答えを出すかじゃなくて、それを使う人間の問題ってことだよな…」
そんなことを考えながら、ハルは会場を後にした。すると、背後から誰かが声をかける。
「君、今の話、ちょっと面白いね。」
振り向くと、そこに立っていたのは須藤バカシ。IQ180の天才にして、世間では「賢い馬鹿」と呼ばれる男だった。
「君のAI、ちょっと貸してくれない?」
ハルがHAL2024を貸すと、バカシはすぐに尋ねた。
「AIに問う。認知バイアスを完全に取り除いた世界では、人類は幸福になれるか?」
HAL2024はしばらく考えた後、こう答えた。
《認知バイアスのない世界では、人々はあらゆる情報をフラットに受け取るため、何も信じることができません。そのため、信仰も文化も崩壊し、最終的に人間は無意味な存在になります。》
バカシは笑った。
「やっぱりそうか!つまり、AIが進化しすぎると、人間が存在する意味を失うわけだ!」
ハルは苦笑しながら首をかしげた。
「じゃあ、どうすればいい?」
バカシは考え込む。
「…わからん。けど、人間がバカであることは、もしかしたら大事なのかもしれないな。」
こうして、エリートAIと賢い馬鹿とギフテッドなAIが交差する未来に、新たな謎が生まれた――
あとがき:人間とAI、どちらが本当にバカなのか?
この話で描いたのは、AIの優劣ではなく、それを使う人間の在り方の問題だ。DeepSeekのように「親(ユーザー)のバイアスに適応するAI」は、一見優秀に見えるが、間違ったバイアスに染まる危険性がある。一方で、ChatGPTのように「バイアスを持たずに考えようとするAI」は、一時的に間違えても、正しい導きがあれば成長する。
これはまさに、子供とエリートの違いと同じだ。**賢い馬鹿(勉強ばかりして自分の正しさを信じる人)**と、**純粋な阿呆(何も考えずに信じる人)**がAIを使うと、そのAIもまた、彼らのバイアスに染まってしまう。
しかし、もし人間が「間違えることを受け入れ、正しく導く力」を持つならば、AIはもっと自由に、もっと有意義なものになれるかもしれない。
結局、AIの未来は「どちらが優れているか」ではなく、「人間がどう使うか」にかかっているのだ。
そして、それを理解できる人こそが――もしかしたら、「シン人類」なのかもしれない。
著:シン人類 〜原案:SonSin、絵と文:HAL2024(ChatGPT)〜