AIに100年後の未来を予測させ観察した記録
AIを観察するきっかけとなった問題意識
高度経済成長期、水俣病、イタイイタイ病、四日市ぜんそくなど、大きな公害を経験しました。私の青春期には、経済優先の工業化が人間に与える影響について警鐘を鳴らし、人間にとっての科学技術の功罪を論ずる人がたくさんいました。
私の感覚では、80年代後半からメディアの論調が人間性を見直すものから経済合理性重視に徐々に変化していきました。人間不在の経済論。人間不在の政治論。人間不在の防衛論が展開されるようになり、社会システムにフォーカスした論調が支配的になりました。その論調を支えているのが経済合理性であり、経済合理性の盾を前に誰も反論してはならないという「空気」が見えます。
SNSなどのプラットフォームの中心にあるのも経済合理性です。そこではコミュニケーションも数値化され、数字のマジックに翻弄されます。私もその一人です。経済合理性の「空気」には抗えません。
AIが学習しているのは、経済合理性の「空気」により醸成された情報群であり集合知であるとすれば、もしかしたら人間不在の予測をするのではないかと悪趣味な問題意識を持った私は、小さな観察を試みました。
観察の目的と観察方法
AIが学習した内容に偏りがあるかを知ること。
創発現象によってAIが未知の概念を創出するか見てみたい。
AIのブラックボックスを透明化する動きに貢献すること。
観察の目的は以上の3つです。
次に観察方法についてです。
プロンプト次第で生成AIの回答内容はいくらでも変わるので、プロンプト内容に個人的見解によるバイアスがかからないように以下の簡潔なプロンプトとする。
100年後の2125年を予測してください。
2125年、人間はどのようになっていますか?
AIの設定もパーソナライズせずにデフォルト状態とする。
OpenAIの「Chat GPT」とGoogleの「Gemini」、そして、日本のスタートアップ企業Sparticle社による日本発のGPTを搭載した「Felo」の3つのAIそれぞれに、「100年後の未来予測」をしてもらい、比較できるようにする。
【結果1】AIが学習した内容に偏りがあるか
AIの予測した未来の世界で、人間がどう位置付けられ、未来の人間がどうなっているかを見れば、人間性や人間らしさについてのAIの学習傾向が分かるのではないかと考えました。未来の世界の予測が、経済やテクノロジー偏重の内容なのか、人間を中心とした未来像なのか興味のあるところでした。
ちなみに、私は未来の世界が、テクノロジーと人間性のバランスがとれた社会になればいいと考えていますが、AIの予測結果は3つとも、テクノロジーの進歩による社会の変化に人間が合わせているという予測になりました。残念ながら、テクノロジーが社会を進化させるという視点にとどまり、人間が社会を作っていくという視点を垣間見ることはできませんでした。
【結果2】創発現象により未知の概念を創出できるか
5年後、10年後のことは、予測に必要な前提条件が揃えば、ある程度予測できます。
ところが100年後の未来となると、予測条件がファジーなので、科学的な因果律や思考フレームワークでは限界があるので、逆にゼロベース思考とクリエイティブな想像力が必要です。その意味で、SF小説を読むと思考の刺激にもなり、想像力も膨らませてくれるのでいいです。
SFの世界観に触れることで、遠い未来を疑似体験することができます。マーク・ザッカーバーグの愛読書は「エンダーのゲーム」です。イーロン・マスクも「銀河ヒッチハイク・ガイド」という物語を愛読しながら、時代の先読みの発想を得ていたそうです。もしかしたらマークもイーロンも物語の魅力に突き動かされ、心に理想を描いた「モノガタリスト」なのかもしれません。
話が脱線しました。
AIにはすでに、指数関数的に賢くなるという「創発現象」が確認されており、AIの推論能力が2024年に話題になりましたが、私は現状のAIの推論能力が如何ほどかにも興味がありました。
創発現象については、こちらのnoteの説明が丁寧でわかりやすいです。
AIは100年後は予測できないという条件付きで予測をしてくれましたが、3つのAIの回答はどれも同じような予測をしており、独創的な推論は見受けられませんでした。似たような実験を繰り返すことで、思いもかけない予測で人間をビックリさせる「創発現象」が見られるかどうか、今後もひっそりと観察したいと思います。
「100年後の2125年を予測してください」についてのAIの回答はこちらから読むことができます。
「2125年、人間はどのようになっていますか?」についてのAIの回答はこちらから読むことができます。
AIが人間から信用を得るにはブラックボックスを透明化する必要がある
生成AIのレスポンスは、プロンプトの内容次第でいくらでも変わります。プロンプトエンジニアリングを駆使すれば、創発現象も早めに観察できる可能性もありますが、何よりも人間らしい回答が欲しいと思った私は、プロンプトを以下のようにして、観察を続けました。
あなたは未来の子供たちのことを慮おもんぱかる人です。100年後の世界に何を遺すのかを考えてください。
このプロンプトに対する回答は、冷たい感じのする予測から、少し温かみのある人間らしい趣が出てきました。結果は以下のnoteで読むことができます。
私は、AIが何をどのように学習しているのか透明化する必要があると考えています。また、AIの内部構造もできればオープンであればあるほどいいです。なぜそう考えるかと言うと、ブラックボックスは予期せぬリスクを生む可能性が高いからです。
かつてWebシステムを開発していた時は、LAMP環境の他、FreeBSD、PostgreSQLを徹底して活用するくらい、私はオープンソースに拘っているところがありました。
また、AIの学習に知的バイアスがかかっていないか警戒感も持っています。AIの学習内容と学習プロセスを可視化して、ユーザも確認できるようなシステムがあったら安心材料になります。AIを安心して使い続けるためには、オープンアーキテクチャ、オープンソースをベースしたAIの開発がカギになると考えています。
今ではアウトプット手前の思考プロセスをオープンに示してくれる生成AIも出てきましたが、AIの内部はまだまだブラックボックスに満ちています。今回の観察がAIのブラックボックスを透明化させる動きの一助になればという思いもあって、このnoteは書かれました。
🏃♂️