
孫正義のAIカルト商法――ASIを語る詐欺的資金調達の実態
AIがAIから学習すると『馬鹿になる』不可避な知識劣化の原理
孫正義は『AGI(汎用人工知能)を活用すればASI(超知能)が誕生する』と主張しています。しかし、彼の掲げる『人類の叡智の一万倍理論』には致命的な欠陥があり、それが実現不可能であることは、私がこれまで何度も指摘してきた通りです。
問題は、孫正義が『知識』と『叡智』の違いを本当に理解していないのか、それとも意図的に混同させて投資家をミスリードしているのかという点です。もし彼が単に両者の区別をつけられていないのであれば、それは無知の表れであり、こうした人物にAI産業の未来を託すことは極めて危険です。一方で、もし彼が区別を理解した上で意図的に誤った主張をしているのであれば、それは投資詐欺と呼ぶべきものです。
そもそも『知識』とは情報の集合体に過ぎません。例えば、Wikipediaには膨大な情報が蓄積されていますが、どれだけ多くの情報を組み合わせたり並べ替えたりしても、それが『叡智』や『感情』へと昇華されることはありません。『叡智』とは何か――この問いは、古代ギリシャ時代から世界中の哲学者たちによって議論され続けてきましたが、現在に至ってもなお明確な定義は存在していません。
このような背景を完全に無視し、『AIを大量に積み上げれば叡智が生まれる』と信じ込ませる孫正義の主張は、まさにカルト的であり、投資家に幻想を売るための方便に過ぎません。
AIの自己学習と情報劣化の問題
近年のAI技術の飛躍的な進歩により、機械学習モデルが他のAIから学習するケースが急増しています。これによって、AIが短期間で高度な能力を獲得する可能性が高まる一方、『AIがAIから学習すると馬鹿になる』という問題は、以前から指摘され続けてきました。詳細については以下の記事で説明しています。
本稿では、この現象の原理と、それが本当に不可避なのかを考察し、さらに情報劣化を最小化するための対策を解説します。
AIの学習と情報劣化
AIが他のAIの出力を学習対象とする場合、人間が作成した一次データから学習するのとは異なるリスクが伴います。主な原因として、以下の4点が挙げられます。
1.情報の圧縮による劣化
AIの学習過程では、入力データから有用な特徴を抽出し、内部表現へ変換する段階で、必然的に情報の一部が単純化・圧縮されます。もしAIが他のAIの生成した出力データのみを学習し続けると、この『単純化』が重なり、元の情報の多くが失われる可能性が高まります。
2.誤差の累積
どのようなAIモデルでも、学習過程に誤差はつきものです。あるAIの出力を別のAIが再学習すると、初期の誤差が次世代に引き継がれ、さらに増幅されるリスクがあります。いわゆる『伝言ゲーム』のように、元の情報が少しずつ逸脱し、精度が低下する恐れがあります。
3.多様性の欠如
AI同士が学習し合う環境では、同じ種類のデータや似通った処理手法が循環し、新たな情報源が取り込まれ難くなります。同じアルゴリズムやデータセットを使い続けると、学習が早期に収束し、モデルが画一化して創造性を失う可能性があります。
4.自己強化によるバイアスの拡大
AIの出力を再びAIが学習すると、元のAIが持っていたバイアスが強化される恐れがあります。例えば、あるAIに偏った判断基準が組み込まれていた場合、その出力を学習する別のAIも同様のバイアスを引き継ぎ、より極端に増幅していくリスクが生じます。
劣化は不可避か?
上記のような問題が指摘される一方で、『AIがAIから学習すると必ず馬鹿になる』と断定するのは早計です。いくつかの対策を講じることで、情報劣化を抑えつつ、効果的に学習を進めることは十分可能と考えられます。
1.元データへの回帰
他のAIから得たデータを活用する場合でも、定期的に人間が作成した一次データに立ち返り、再学習を行うことで情報の損失を補うことができます。しかし、このアプローチは『情報枯渇問題』に直面しています。現在の生成AIは、世界中の書籍、学術論文、公的文書、特許情報、新聞、さらには個人の日記やメール、SNSのメッセージ、ブログ、noteの記事に至るまで、膨大なデータを学習し尽くしつつあり、新たに学習できるデータがほとんど残っていない状況に近づいています。
2.エラー補正の仕組み
AIの出力を検証し、誤差が蓄積しないようフィードバックループを設けることが重要です。複数のモデルの結果を組み合わせるアンサンブル学習などの手法は、誤差を相殺したり、多角的に分析したりする上で有効です。
3.データの多様性確保
他のAIの出力に過度に依存せず、異なる種類のデータソースや手法を取り入れ、新しい知識を取り込み続けることが求められます。しかしながら、前述のとおり、すでに情報は枯渇しつつあるのが現状です。
4.生成モデルの制御
生成AIが自らデータを生み出す場合、適度なランダム性や創発的ノイズを導入しつつ、意味のある知識を維持するバランスが求められます。
孫正義の『AGIからASI』構想の非現実性
孫正義は、複数のAGI(汎用人工知能)を相互に連携させることでASI(超知能)を生み出すという構想を披露して、資金調達をしています。しかし、この考え方には以下のような重大な問題点を指摘することが可能です。
AGIの概念への誤解
孫正義の構想では、AGIを高性能な機械学習モデルの集積として捉えているように見受けられます。しかし、本来のAGIは人間並みの汎用知能を指すものであり、単に『AIを寄せ集めればASIになる』という単純な話ではありません。
AIの自己進化に対する誤解
AGIを大量に連携させればASIが生まれる、という考え方は、百科事典を何百冊集めれば、それだけで偉大な哲学者が誕生すると思い込むのと同じくらい短絡的です。知識の量と、それを生かす知性や洞察力はまったく別のものです。
誤差の累積と情報劣化
複数のAIが相互に学習し合う仕組みでは、誤差が増幅して『知的向上』どころか、精度の低下やバイアスの拡大が生じるリスクがあります。
非線形性と制御不能性
仮にAI同士が連携してASIを形成するとしても、その挙動は非線形に変化し、制御不能な状態に陥る可能性があります。
データの壁
ASIレベルの知性を育成するためには、膨大かつ高度なデータが必要です。しかし、現実にはそうしたデータセットが限られており、相互学習だけで超知能に到達する可能性は低いと考えられます。
ビジネスモデルとしての失敗リスク
AI開発には莫大なコストがかかるうえ、完成したASIをどのように収益化するかは不透明です。ビジネスとしての成立性も疑問視されるでしょう。
『AIがAIから学習すると馬鹿になる』現象は、情報の圧縮や誤差の累積、バイアスの拡大など、複合的な要因によって起こり得ます。しかし、一次データへの定期的な回帰やエラー補正、データの多様性確保といった対策を講じれば、そのリスクを大幅に低減することは可能です。
一方、孫正義の『複数のAGIを連携させてASIを生み出す』という構想は、AGIそのものの本質的理解が不十分なまま進められている点や、誤差の累積・制御不能性といったリスクを軽視している点で、現実性に乏しいと言わざるを得ません。科学的根拠に基づく技術開発を行わず、寄せ集めでASIを作ろうとする発想は非現実的であり、ビジネスとしても成功が見込めない可能性が高いでしょう。
このような蓋然性の低い事業計画で巨額の資金調達を行うことは、もはや投資詐欺に近い状態であると言えます。
武智倫太郎