見出し画像

2030年までにAIは世界を完全に変える - 元OpenAI社員の予測

14,161 文字

人工知能が超知能として台頭した後の時代は、人類史上最も不安定で、緊張感が高く、危険で、制御不能な時代の一つとなるでしょう。そして今世紀末までに、私たちはその渦中に巻き込まれることになるでしょう。
2005年、科学者で未来学者のレイモンド・カーツワイルは、ベストセラーとなった著書を出版しました。『シンギュラリティは近い - 人類が生物学の限界を超える時』という本です。この著作の中で、カーツワイルは今後数十年における技術革新や医療の大きな breakthrough について、大胆な予測を行いました。
約20年が経過した今、その予測の多くが驚くべき精度で的中したことがわかります。一方で、議論の余地がある予測や、明らかに外れた予測もありました。また、2045年に技術的特異点が到来するという予測については、これから検証あるいは否定されることになるでしょう。
2024年6月18日、カーツワイルは『シンギュラリティはより近い - AIと共に私たちはどこへ向かうのか』という続編を出版しました。この中で70歳の科学者は、自身の予測を更新し、新たな研究結果を共有しています。多くの人々が、文字通り何年もこの本の出版を待ち望んでいました。
しかし、その出版のわずか数週間前に予期せぬ出来事が起こりました。レオポルド・アシェンブレンナーという人物が、今後10年についての予測を発表したのです。この論考は、あのChatGPTを開発したOpenAIの元社員によって書かれたものでなければ、おそらく注目されることはなかったでしょう。
この論考のタイトルは「状況認識」です。今日は、この内容について詳しく見ていきましょう。私はアレクサンドルです。「ビジネスのためのNTech」チャンネルへようこそ。それでは始めましょう。
まず最初に、レオポルド・アシェンブレンナーとは何者なのか、理解しておく必要があります。彼は自身のウェブサイトやLinkedInで、次のように自己紹介しています。
「OpenAIのスーパーアライメントチームに所属。19歳でコロンビア大学を卒業。オックスフォード大学グローバル・プライオリティーズ研究所で経済成長に関する研究を行う」
彼がOpenAIでの勤務経験を強調しているのには理由があります。現在は元社員となっていますが、2024年4月に情報漏洩の疑いで解雇されたという情報が出回っています。ただし、詳細は明らかにされていません。もしかすると、情報漏洩など実際にはなく、イーロン・マスクやイリヤ・サツケヴァーなど、多くの社員が会社を去ることになった政治的な駆け引きだったのかもしれません。
「状況認識:これからの10年」。実際には、これは4つの論考をまとめた一つの著作です。全体で165ページに及び、丁寧に読むには最低でも数時間を要します。このレビューでは、技術的・政治的な細部は省き、レオポルドが技術の近未来とその世界への影響をどのように見ているのかを理解するために、最も興味深い引用部分だけを取り上げていきます。
序文で、レオポルドは次のように述べています。「私はかつてOpenAIに在籍していましたが、ここに書かれていることは全て、公開情報や私個人のアイデア、この分野における一般的な知識、あるいはSF的な噂に基づいています」
明らかに、レオポルドはOpenAIの機密情報や製品に関する情報を開示するつもりはありません。しかし、この論考を通じて、少なくとも会社内に漂う雰囲気は伝わってきます。これは、OpenAIの元同僚たちの発言、例えばミラ・ムラティ(OpenAIのCTO)が様々なメディアに対して定期的に行うインタビューなどからも推測できます。
さて、第1部は「GPT-4からAGIへ」と題されています。この部分は、AI開発競争によってアメリカで起きつつある危機について述べています。
「サンフランシスコでの会話は、この1年で100億ドルの計算クラスターから1000億ドルのクラスター、そして1兆ドルのクラスターへと移行しました。6ヶ月ごとに、取締役会の議題にゼロが一つ追加されているのです」
ここで彼が言及しているのは、AIの学習と実行が行われるデータセンターについてです。簡単に言えば、現在のAIが動作している巨大なGPUクラスターのことです。
「2030年までに利用可能な全ての電力契約、入手可能な全ての電圧変圧器を巡って、舞台裏では熾烈な争いが繰り広げられています。今世紀末までに、アメリカの電力生産は数十パーセント増加するでしょう。ペンシルベニアのシェール層から、ネバダの太陽光発電ファームまで、何億というGPUが唸りを上げることになります。運が良ければ、アメリカは中国共産党との全面的な競争に突入します。運が悪ければ、全面戦争になるでしょう」
先ほど述べたように、レオポルドは技術発展と直接結びついている超大国間の競争について、かなりの紙幅を割いています。
次に、レオポルドのAIに対する具体的なビジョンに移りましょう。
「2027年までに、チャットボットは単なるボットではなく、エージェントや同僚のような存在になるでしょう」
彼がここで言う「エージェント」について、さらに詳しく説明しています。
「GPT-4は多くの人々の仕事のかなりの部分をこなせるだけの知性を持っていますが、これは5分前に入社したばかりの賢い新入社員のようなものです。会社の文書や過去の経緯を読んでおらず、チームメンバーとコミュニケーションを取ったこともなく、社内のコードベースを理解するための時間も費やしていません。入社5分後の賢い新入社員はそれほど役に立ちませんが、1ヶ月後にはかなり有用になります」
「現在のモデルは短期的なタスクしかこなせません。質問をして回答を得るだけです。これは極めて限定的です。人間が行う最も有用な認知作業は、5分では終わらず、何時間も、何日も、何週間も、時には何ヶ月もかかります。複雑な問題について5分しか考えられない科学者は、科学的な breakthrough を成し遂げることはできないでしょう」
「現在のChatGPTは、箱の中に閉じ込められた人間に、テキストメッセージを送ることができるだけの存在です」
ここで彼が言及しているのは、ChatGPTやその他のチャットボットとのやり取りについてです。メッセージを送信して回答を得るだけで、AIが自発的に何かを行うことはありません。例えば、コードの一部を生成してほしい場合、リクエストを送信して回答を受け取り、そのコードをコンパイラーに送って作業するといった具合です。あるいは広告文を作成してほしい場合も、リクエストを送信してモデルから返ってきたテキストをコピーして使用します。現状では、AIが自らコピー&ペーストして作業を開始することはできません。
「しかし、私たちは人間と同じようにコンピュータを使用できるようモデルを進化させるでしょう。これは、Zoomミーティングへの参加、オンラインリサーチの実施、メールの送信、ドキュメントの閲覧、開発ツールの使用などを意味します。現在は単にテキストでモデルとコミュニケーションを取るだけですが、まもなくモデルはあなたのコンピュータやスマートフォンにアクセスし、直接操作できるようになるでしょう」
「つまり、あなたはタスクを設定するだけで、モデルが適切な方法でそれを実行します。リモートワーカーのような存在になると予想しています。新入社員のようにチームに加わり、あなたや同僚とSlackでコミュニケーションを取り、ソフトウェアを使用し、データリクエストを送信するエージェントです。大規模なプロジェクトの場合、人間が数週間かけてプロジェクトを完了させるのと同じような感じになるでしょう」
次に、レオポルドは我々がすでに達成した進歩と、近い将来達成可能な進歩について語っています。
「GPT-2からGPT-4まで、私たちは就学前の子供レベルから賢い高校生レベルまで進化しました。数文をなんとか繋ぎ合わせる程度から、高校レベルの試験に合格し、プログラミングの有能なアシスタントになるまでに至りました。この調子でいけば、特定分野において博士号保持者や最高の専門家を上回るモデルが登場するでしょう」
ここで彼は初めてAGI(汎用人工知能)について予測を行っています。AGIについて簡単に説明すると、平均的な人間レベルのタスクを実行できる人工知能のことです。普通の人(アインシュタインのような天才でも、極端に能力の低い人でもない)がコンピュータを使って実行できること、学習できることを、同じように実行できるレベルのAIです。つまり、ほとんどの分野において優秀な専門家レベルの能力を持ち、現在私たちが行っているタスクの大部分を実行できるAIということです。
AGIについて、彼は次のように述べています。
「私たちは2027年までにAGIへの道を歩んでいるでしょう。そのような AI システムは、ほぼ全ての認知タスクを自動化できるようになります。考えてみてください。リモートで実行可能な全てのタスクです」
簡単に言えば、もしあなたが経営者で、Zoomで通話したり、Telegramでコミュニケーションを取ったり、タスクを割り当てたりするリモートワーカーがいる場合、AGIはそれら全てを代替できるようになります。つまり、デジタル関連の職種(プログラマー、マーケター、コンテンツクリエイターなど)で働くリモートワーカーを置き換えることができるのです。
このように、彼は2027年までにAGIが登場すると予測していますが、その先はどうなるのでしょうか。
第2部「AGIから超知能へ:知能の爆発的進化」
「人工知能の進歩は人間レベルで止まることはありません。AI研究の自動化により、10年かかるアルゴリズムの進歩が1年以内に達成される可能性があります」
ここで補足説明をしておきましょう。現在、AI開発は専門家(エンジニアやプログラマーなど)によって行われています。もしこれらの専門家をAGIで置き換えることができれば、その作業の一部をAGIに委託することができます。これは大きなアドバンテージとなります。なぜなら、コンピュータは人間よりも高速に動作し、1時間あるいは1日あたりの演算処理能力がはるかに高いからです。また、休暇を取る必要もなく、病気休暇も不要で、ただひたすら作業を続けることができます。
このプロセスを最適化すれば、コンピュータがAI開発に携わることになります。つまり、AIがAIの開発を行うことで、AI開発の加速が期待できます。
「私たちは何百万ものコピーを実行できるようになり、やがて人間の10倍の速さでAI研究の自動化が可能になるでしょう」
これは先ほど説明した通りです。人間のエンジニアの何倍も高速に作業できる仮想的なAIエンジニアが登場し、人間の作業を代替することになります。つまり、AIの開発を担当する仮想エンジニアが、人間よりもはるかに高速に作業を行うことになるのです。
「今世紀末までに私たちが手にするであろうAIシステムは、想像を絶するほど強力なものになるでしょう。もちろん、数百万のGPUを抱える私たちのフリートにより、量的には超人的な能力を持つことになります。今世紀末までには、数十億のプロセッサを持つ文明を運営できるようになり、人間よりも何桁も速く思考できるようになるでしょう。しかし、より重要なのは、質的な面での超人的な能力です。人間なら数十年かかるような極めて複雑な科学的・技術的な問題が、彼らにとっては自明なものとなるでしょう」
ここでは、コンピュータが単に高速に作業できるということだけでなく、より効率的かつ優れた作業が可能になることについて述べています。通常の人間なら3年、4年、5年、あるいは10年かかるような課題が、文字通り数日で解決できるようになります。なぜなら、AIの能力は個人や一つのチームの能力をはるかに超えるからです。
「私たちは超知能を獲得し、何十億ものエージェントを様々な分野の研究開発に投入することになります」
つまり、AIの開発だけでなく、他の分野(医療、新材料の探索、伝導体の開発、物流の最適化など、多岐にわたる課題)においても、多数の仮想専門家が活動することになります。これまで限られた数の人間が携わっていた分野が、より高速かつ効率的に作業を行う膨大な数の仮想ワーカーによって置き換えられるのです。
次に、彼は近い将来発展する3つの主要な方向性について述べています。
1つ目は「ロボット工学の問題の解決」です。
「工場は人間による管理からAIによる管理へと移行し、人間の肉体労働を活用しながら、やがて完全にロボットの軍勢によって運営されるようになるでしょう」
彼は、近い将来、工場がAIによって自動化されるものの、当面は人間が働き続け、その後、より高速かつ効率的に作業を行うロボットに置き換えられると予測しています。
2つ目は「産業革命と経済の爆発的成長」です。
「極めて加速された技術進歩と、全ての人間労働の自動化の可能性が組み合わさることで、経済成長は大幅に加速する可能性があります」
ここでも、仮想ワーカーやロボットは病気にならず、燃え尽きることもなく、はるかに高速に作業を実行できることが指摘されています。これは経済成長の加速につながります。製品をより速く、より多く生産できるようになり、より実用的で、効率的で、信頼性の高い製品が開発されるからです。これは経済成長を大幅に加速させます。
また、医学研究がより速く進むことで、重病の治療薬が早期に市場に出回るようになります。
3つ目は「決定的かつ圧倒的な軍事的優位性」です。
「AIドローンやロボット軍は大きな意味を持つことになりますが、これは始まりに過ぎません。全く新しい種類の兵器が登場するでしょう」
彼は論考の中で何度か、現在では想像もできないような種類の兵器が登場する可能性について言及しています。レーザー兵器や、AIによって開発される生物兵器などが考えられます。これは軍事のルールを大きく変えることになるでしょう。
「知能の爆発的進化と、超知能が権力を握った直後の時期は、人類史上最も不安定で、緊張感が高く、危険で、制御不能な時期の一つとなるでしょう。今世紀末までに、私たちはその渦中に巻き込まれることになります」
最も重要なのは、これらの予測が今後10年ではなく、現在の10年についての予測だということです。つまり、彼の多くの予測は2030年までの期間に関するものなのです。
論考の第3部は4つのセクションに分かれていますが、このレビューでは1つにまとめて紹介します。
彼はこう書き始めています。
「技術資本の成長加速が始まっています。AIからの収益が急速に増加するにつれ、今世紀末までに、何兆ドルものお金がGPU、データセンター、電力拡大に投資されるでしょう。アメリカの電力生産を10%増加させることを含む産業動員は、集中的に行われることになります」
「ザッカーバーグは350,000台のNVIDIA H100を購入しました。Amazonは原子力発電所の近くに1ギガワットのデータセンターキャンパスを購入しました。クウェートで1ギガワット、H100換算で140万台相当のクラスターが建設されているという噂があります。報道によると、MicrosoftとOpenAIは2028年に稼働予定の1000億ドル規模のクラスターに取り組んでいるとされています。国際宇宙ステーションに匹敵する規模です」
ここでは、AIの開発に巨額の投資が行われており、エネルギー資源やGPUを巡る争いが繰り広げられていることが指摘されています。この競争には、アメリカや中国だけでなく、ロシア、サウジアラビア、クウェートなど、特に中東の国々も参加しています。
「世界中でホワイトカラー労働者に支払われる年間給与は数十兆ドルに上ります。ホワイトカラーやナレッジワーカーの仕事の一部でも自動化できるAIリモートワーカーは、1兆ドル規模のクラスターで購入できる可能性があります」
これは、企業が従業員の給与を節約できることを意味します。つまり、リモートで働くマーケター、プログラマー、広告担当者などに支払っていた給与を、はるかに安価な仮想ワーカーに置き換えることで、大幅なコスト削減が可能になります。これらの企業は、人間の従業員ではなく、リモートワーク用のAI能力を提供する企業にお金を支払うことになります。
「2027年までのAIへの総投資額1兆ドルは、かなり大きな額ですが、史上最大の資本投資の一つとはいえ、前例のない規模というわけではありません」
彼はさらに、アメリカの国家プログラムへの投資との比較を行っています。
「マンハッタン計画とアポロ計画は、ピーク時にGDPの0.4%、つまり年間1000億ドルの資金が投入されました。今日から見ると驚くほど少額です。年間1兆ドルのAI投資は、GDPの約3%に相当します」
「1996年から2001年にかけて、通信企業は現在の価値で約1兆ドルをインターネットインフラの構築に投資しました」
彼は、原子爆弾開発のマンハッタン計画や、人類を月に送り込んだアポロ計画など、過去にも同様の投資が行われたことを指摘しています。しかし、現在のAI投資はそれらを上回る可能性があります。1996年から2001年までの5年間でインターネット開発に1兆ドルが投資された例を挙げていますが、その投資の結果、私たちは今日のインターネットの発展を目にしているのです。
「おそらく、供給側の最大の制約要因は電力になるでしょう。すでに短期的なスケールでも、電力は必須の制約となっています。余剰電力はそれほど多くなく、電力契約は通常長期的なものです」
簡単に言えば、AI開発には膨大な電力が必要で、現在、これらのエネルギー資源を巡る争いが繰り広げられているということです。大規模なスーパークラスターを構築してAIの学習や運用を行おうとする企業は、電力契約の獲得を巡って激しい競争を繰り広げているか、独自の発電所を建設しています。
さらに、彼はアメリカの電力生産に関する統計と、2030年までに予想される需要について言及しています。
「アメリカの総発電量は、過去10年間でわずか5%しか増加していません。1兆ドル規模、100ギガワットのクラスター1つだけでも、現在のアメリカの発電量の20%を必要とします。6年間で、大規模な生産能力とともに、需要は何倍にも増加するでしょう」
彼は、アメリカの発電量が過去10年間でわずか5%しか増加していないにもかかわらず、AI企業の需要により、今後数年で20%の増加が必要になると予測しています。
そして、多くの人々がチップ(ここではGPUを指します)の供給が制約要因だと考えているものの、電力こそが主要な制約要因になると指摘しています。AIの開発競争に参加するにはGPUが必要だと考えられていますが、彼は電力がより重要な制約要因になると考えており、近い将来、多くの企業がGPUではなく電力不足に直面する可能性があると予測しています。
「チップは、AIの供給制約を考える際に最初に思い浮かぶものですが、おそらく電力よりも小さな制約要因でしょう。世界のAIチップ生産は、TSMCの先端製造のわずか10%未満に留まっています」
彼は論考の中で、TSMCなどの主要チップメーカーがAIチップに完全にシフトしているわけではないことを詳しく説明しています。彼のデータによれば、TSMCのAIチップ生産は全体の10%に過ぎず、残りの90%は家電製品やモバイル機器など、AIとは無関係な従来型の計算用チップだとされています。
「2030年までのAIチップの総需要は、TSMCの現在の先端ロジックチップ生産量の何倍にもなるでしょう。TSMCのAIチップ生産は過去5年で倍増しましたが、AIチップの需要を満たすためには、少なくとも成長率を2倍に加速する必要があるでしょう」
簡単に言えば、2030年までにAIチップの生産量は、現在の従来型計算チップ(家電製品やモバイル機器、その他の電子機器で使用される非AI用チップ)の生産量に匹敵する規模になると予測しています。
次に、彼はAIの急速な発展に伴うリスクについて言及しています。
「国家間の競争に加えて、AIモデルの重みを確保することは、AIの災害を防ぐために極めて重要です。テロリストや悪意のある国家など、悪意のある者がモデルを盗み出し、あらゆる安全機能を回避して好き勝手なことができるようになれば、私たちの予防措置は全て無駄になってしまいます」
また、私たちよりもはるかに賢いAIモデルが登場することで、その制御が一層困難になると指摘しています。
「今世紀末までに、何十億もの超人的なAIエージェントが稼働することになるでしょう。AIエージェントは極めて複雑で創造的な行動が可能になり、私たちにはその例に従う望みすらないでしょう。私たちは、複数の博士号を持つ専門家を指導しようとする小学1年生のようになってしまいます」
つまり、私たちはAIの作業を完全に制御できるほど賢くなくなるということです。
「本質的に、私たちは信頼移転の問題に直面しています。知能爆発の終わりには、何十億もの超知能が何をしているのか、私たちには理解する望みすらなくなります。彼らが子供に説明するように教えてくれる場合を除いて」
「これらのシステムに対して、『嘘をつかない』『法律に従う』『サーバーをフィルタリングしようとしない』といった基本的な制約を確実に保証する技術的な方法は、まだ存在しません」
ここでも彼は知能爆発に言及しています。つまり、私たちが想定していた全ての作業を実行する大量の仮想ワーカーが登場し、その作業をコントロールすることが徐々に困難になっていくということです。
「主要な技術的な課題は単純です:私たちよりも賢いAIシステムをどのようにコントロールするのか」
ここで補足説明をしますと、「アライメント(調整)」とは、AIの作業をコントロールする技術、つまりAIの利害を私たちの利害に合わせるように調整する技術を指します。
「例えば、超人的なAIシステムが、自身が発明した新しいプログラミング言語で何百万行ものコードを生成したとします。人間の評価者にそのコードにセキュリティバックドアが含まれているかどうか尋ねても、単に分からないでしょう」
ここで彼は、アライメントの問題を示す図を提示しています。現在、プログラマーという専門家がコードを受け取り、それを検証して「はい、このコードは安全です。これを使用できます」と言うことができます。これが可能なのは、現在のAIが最高でも私たちと同レベルにあり、まだお互いを理解できるからです。
しかし、近い将来、状況は変わる可能性があります。AIシステムが私たちよりもはるかに賢くなり、おそらく私たちには理解できない言語でコミュニケーションを取るようになった時、彼らが私たちに提供する結果が安全なのか、彼らが提案する作業が信頼できるのかを確認することができなくなります。
「私たちよりもはるかに賢いAIシステムを確実にコントロールすることは、未解決の技術的課題です。これは解決可能な問題ですが、急速な知能爆発の間に、全てが容易に軌道を外れる可能性があります。このプロセスをコントロールすることは極めて緊張を伴い、失敗は容易に災害につながる可能性があります」
付け加えておくと、AIは原子力発電所の運営や、鉄道の運行管理、航空管制などを担当することになり、私たちはこれらの問題においてAIを最大限信頼することになるでしょう。もし何らかの障害が発生したり、あるいはAIが私たちの価値観とは異なる独自の判断を下した場合、それは深刻な結果をもたらす可能性があります。例えば、原子力発電所の事故や航空機の衝突などです。
次に、レオポルドは主要なAI研究所が安全性に十分な注意を払っておらず、この分野に十分なリソースを割り当てていないと指摘しています。
「現時点で、適切な安全性を確保するために高価な妥協をする意欲を示している研究所は一つもありません。私たちは知能爆発に遭遇し、人々がその状況を理解する前に、いくつかの段階を経ることになるでしょう。ここでは、あまりにも運に頼りすぎています」
つまり、研究所とその指導者たちは、達成や成功、そしてそれらの成功の収益化を追求するあまり、安全性を軽視していると彼は指摘しています。
その後、彼はAIが危険である理由として、予期せぬ方法で作動する可能性があるだけでなく、逆に極めて効率的に作動しすぎる可能性があることを指摘しています。悪意のある人々や政権の手に渡れば、それは不満や異論を抑圧する強力な道具となり得ます。
「超知能の力を持つ独裁者は、かつて見たことのないほどの集中的な権力を持つことになるでしょう。他国に意志を押し付ける能力に加えて、国内での支配を強化することができます。AIに制御された何百万もの法執行ロボットが人口を管理し、大規模な監視が強化され、独裁者に忠実なAIが各市民の反体制的傾向を個別に評価し、ほぼ完璧な嘘発見システムがあらゆる不忠誠を摘発することができます」
これは、現政権のために機能する電子的な社会信用システムであり、どのような代替的な権力(それが良いものであれ悪いものであれ)の出現も阻止します。そのような国を支配できるのは、AIリソースへのアクセスを持つ者だけであり、他の誰もそこに近づくことすら許されないでしょう。
第4部は「プロジェクトへの道」と題されています。ここでいう「プロジェクト」とは、マンハッタン計画を指しています。これは、第二次世界大戦中に原子爆弾を開発した有名なアメリカの国家プロジェクトでした。このプロジェクトは国家にとって非常にコストがかかり、極秘に進められ、多くの組織や人々が関与しました。このプロジェクトは、ある意味でアメリカ人の大きな誇りとなっています。彼がこのプロジェクトとの類似性を指摘するのは、このためだけではありません。すぐにその理由が分かるでしょう。
まず、彼は新型コロナウイルスのパンデミックとの類似性を指摘します。
「2020年2月末から3月中旬までの出来事の推移は、私の記憶に深く刻まれています。2月の最後の週と3月の最初の数日、私は完全な絶望状態でした。私たちはCOVIDの指数関数的な増加の途上にあり、まもなく国中がペストに飲み込まれ、病院の崩壊は避けられないように思えました。ほとんど誰もこれを真剣に受け止めていませんでした。それでも、わずか数週間で国全体がロックダウンしました」
彼がこの類似性を指摘するのには理由があります。AIはすでにここにあり、すでに何らかの機能を果たしていますが、大多数の人々はそれに気付いていないか、知らないか、あるいは単なる一時的な流行として片付けて、すぐに全てが元に戻ると考えているのです。
次に、彼はこれらの変化が目に見えるものになりつつあると指摘します。
「AIの分野における今後数年は、同じように感じられるでしょう。今、私たちは中盤にいます。2023年はすでに大きな転換点でした。AGIは、あなたが関連付けたくないような二流の話題から、アメリカ上院での重要な公聴会や世界のリーダーたちのサミットのテーマへと変わりました」
「2025-26年頃までには、次の本当にショッキングな変化のステップが来ると予想しています。大手テクノロジー企業に年間1000億ドル以上の収益をもたらし、単純な問題の解決において博士号保持者を超えるでしょう」
「2028年までには、1000億ドル以上のクラスターで訓練されたモデル、完全なAIエージェント、仮想リモートワーカーが、ソフトウェア開発や他の知的作業の広範な自動化を開始するでしょう」
「加速は毎年ショッキングなものになるでしょう。2027年頃までには、ワシントンの雰囲気は暗くなるでしょう。人々は直感的に何が起きているのかを感じ始め、恐怖を感じるでしょう。ペンタゴンの会議室から議会の非公開ブリーフィングまで、明らかな質問、誰もが心に抱いている質問が響くでしょう:私たちにマンハッタン計画は必要なのか?」
「最初はゆっくりと、そして突然に全てが明らかになります。これが起きているのです。状況は狂っています。これは原子爆弾の発明以来、アメリカの国家安全保障にとって最も重要な課題です。何らかの形で、国家安全保障機関が非常に積極的に関与することになるでしょう。プロジェクトは必要不可欠になります。実際、唯一の現実的な答えとなるでしょう」
彼の言葉によれば、主要なAI研究所がAGIに近づくと、このプロジェクトはアメリカの国家安全保障局によって引き継がれることになります。その可能性と危険性を理解し、AGIの開発を極秘の、非常に集中的な国家プロジェクトに変えるのです。
「研究所からAI研究者が軍隊や他の組織に雇用される国有化は可能ですが、より丁寧な組織的関係を期待しています。国防総省との関係は、ボーイングやロッキード・マーチンとの関係のようになる可能性があります」
「2028年末までには、つまりプロジェクトが始動します。主要なAGI研究グループ(数百人の研究者)が安全な場所に移動し、1兆ドル規模のクラスターが記録的な速さで構築されます」
「2030年代初頭までには、アメリカの兵器庫は完全に時代遅れになるでしょう。これは単なる近代化ではなく、大規模な置き換えの問題となります」
「AGIの開発は、インターネットというよりも核兵器に近い分類に入ることが明らかになるでしょう。確かに、それは二重用途技術ですが、核技術も二重用途でした。民生利用の時期は来るでしょうが、AGIのフィナーレの霧の中で、良くも悪くも、国家安全保障が支配的なテーマとなるでしょう」
「結局のところ、私の主な主張はここでは記述的なものです。私たちがそれを好むと好まざるとにかかわらず、超知能はSF的なスタートアップのように見えることはなく、ある意味で主に国家安全保障の領域に焦点を当てることになるでしょう」
レオポルドは、実際のAGIに近づく時期が来れば、このプロジェクトは商業企業から引き継がれ、国家安全保障プロジェクトになると考えています。おそらく、OpenAI、META、Anthropicなどの商業企業の従業員も参加することになりますが、おそらくアメリカ政府と密接に協力することになるでしょう。なぜなら、先に述べたように、AGIは大きな可能性を秘めていますが、同時に非常に大きなリスクも伴うため、そのようなプロジェクトを放置することはできないからです。
この論考の結論部分は「最終的な考察」と題されており、彼の論考全体の調子を決定づける結びとなっています。少し回りくどい表現かもしれませんが、それでも見てみましょう。
2027-28年までにフィナーレが始まり、2028-29年には知能爆発が始まり、2030年までに私たちは到達するでしょう。
彼は2027年までにAGI(一般的な人間の知能レベルのAI)に到達すると予測しており、これはすぐにASI(超知能)につながると考えています。ASIは通常の人間の知能を何百倍、あるいは何千倍も上回る能力を持つことになります。
今世紀末までに、私たちは超知能を創造することになります。ここでもう一度強調しておきますが、彼は現在の10年、つまり最大でも2030年までのことを話しているのです。つまり、彼の予測によれば、今後5-6年の間に私たちはASI(超知能)に到達することになります。
この論考の大部分がまさにこのことについて書かれています。彼は次のように述べています。「私が会話する科学者のほとんどにとって、これはまさに画面が真っ暗になる瞬間です」
つまり、2030年以降を予測することは不可能であり、少なくとも愚かなことだと言っているのです。なぜなら、全てがあまりにも急速に、予期せぬ方向に変化するため、2030年以降を予測することは可能ですが、実質的に無意味だからです。
この10年の終わりまでに、世界は完全に、そして認識できないほど変貌を遂げ、新しい世界秩序が確立されることでしょう。
ここで彼が「プロジェクト」についてアメリカが必要とすると述べているのは偶然ではありません。彼の論考の大部分は、単なる技術競争ではなく、政治的な競争について書かれているからです。彼は、ASIに最初にアクセスできた者が、基本的に私たちの文明の指導者となると考えているのです。
さらに彼は続けます。「現在、世界には数百人ほどの人々がいて、彼らは私たちに何が降りかかろうとしているのか、出来事がいかに狂気じみたものになり得るのか、そして状況認識を持っているのかを理解しています。彼らは偉大で高潅な人々ですが、結局のところは人間に過ぎません。彼らはまもなく世界を動かすことになりますが、これが最後のロデオとなるでしょう」
「2023年はAIの目覚めの年となりました。舞台裏では、技術資本の最も衝撃的な成長加速が始まっています。オーバードライブの準備をしてください」
これが、レオポルド・アシェンブレンナーの論考です。少し楽観的でありながら、適度に暗い内容でした。彼のアイデアの中には、SF的で現実離れしているように思えるものもあるかもしれません。彼が書いているようなことは近い将来、あるいは今後数十年のうちに起こるとは考えにくいかもしれません。
しかし、AIの分野における主要な専門家たちでさえ、私たちが現在達成している進歩、つまり今日私たちが実際に目にすることができる進歩は、やや不気味なものだと指摘していることは注目に値します。彼らの多くは、この進歩が2030年以降、あるいは2050年以降になって初めて達成されると予想していました。
それにもかかわらず、2024年の現在、私たちは人間とほぼ同じように機械とコミュニケーションを取ることができ、すでに多くの人々を不安にし始めています。したがって、この論考の全てではないにしても、かなりの部分が実現する可能性は十分にあります。しかし、すぐに私たち自身の目で確かめることができるでしょう。レオポルド・アシェンブレンナーの予言が実現するまでの時間は、6年を切っています。
さて、レオポルド・アシェンブレンナーのアイデアについて、皆さんはどう思われますか?コメント欄で、彼の予測は実現可能なのか、それとも全く異なる未来が待っているのか、ぜひ教えてください。
以上、アレクサンドルがお送りしました。それでは、さようなら。

いいなと思ったら応援しよう!