AIの進歩が急降下! 効果的加速主義にとっては悪いニュース、安全性にとっては朗報。これらすべてを紐解いてよう!
やあみんな、久しぶりだね。早速本題に入ろう。君たちの中には、僕のTwitterでの投稿やYouTubeの動画を見た人もいるかもしれないけど、AIの研究がちょっと逆風に直面しているんじゃないかって話をしていたんだ。今のアルゴリズムがどうであれ、モデルのスケールを大きくしていけば、もっと大きなモデルを作れるってことは分かっている。でも、モデルを作るには、たくさんのことが関わってくるんだ。特にディープラーニングモデルやTransformerアーキテクチャでは、期待するような効果が得られるのが遅くなるかもしれない。
ちょっと背景を説明すると、AI安全性の分野やAI研究の分野で、Twitterでこのグラフが出回っているんだ。君たちも知ってると思うけど、僕はシグモイド曲線について長い間話してきた。多くの人が言っているのは、初期段階では、シグモイド曲線と本当の指数関数的曲線の違いを見分けるのは難しいということだ。
そこで、僕のYouTubeチャンネルで投票を行ったんだ。君たちはかなり賢いから、大勢の知恵は当てはまるみたいだ。君たちはこういうことについてよく正しいんだよね。最初の質問は、現在のAIパラダイム(Transformerのスケールとマルチモーダリティ)がどこまで行くと思うか、というものだった。16%がASIまで、15%がAGIまで、50%が AGIにかなり近づくけど、他のいくつかのことも必要だと答えた。だから、意見はかなり分かれているんだ。
でも基本的には、みんなTransformerアーキテクチャとスケールとマルチモーダリティの組み合わせはすごく強力だけど、ゴールまでは届かないだろうということで意見が一致しつつある。もちろん、これで行けるって思っている人もいて、AGIやASIに賛成の人は、それ以上はあまり進まないと思っている人よりも少し多いんだ。
これは、TwitterやLinkedInで見られる意見のかなり良い代表例だと思う。LinkedInには僕も戻ってきたよ。次の質問は、現在のAIパラダイムがいつ尽きると思うか、つまり、収穫逓減と費用の増大によって、全てが遅くなるのはいつかということだ。22%が変曲点はもう過ぎたと答えた。
このグラフを見ると、変曲点がどこにあるのか、今その変曲点にいるのか、それともまだ前なのか、ちょっと過ぎたところなのか、まだ最初の方なのかということだ。22%、ほぼ4分の1の人が、もう変曲点を過ぎたと答えた。そして、15%が変曲点にいると答えた。33%が変曲点まであと2年以内だと答えた。
だから、ほとんどの人が、今がその辺りか、もう過ぎたと思っているんだ。比較的少数だけど、無視できない30%の人が、変曲点までまだ10年以上あると答えた。正直、この数字には少し驚いた。君たちの多くは完全な加速主義者だからね。僕がいつも言っているのは、企業間競争や地政学的競争のせいで、加速は当然のことだけど、収穫逓減と費用の増大によって、新しいAIの冬が来るかもしれないということだ。
それが2年後なのか、5年後なのか、10年後なのか。一番の疑問は、このプラトーがどこで起こるのかということだ。プラトーまであと5年なのか、10年なのか、20年なのか。そして、そのプラトーが人間の知性と同等なのか、それ以下なのか、それ以上なのか。
Twitterでもう一つの傾向として見られるのは、私たちが本当に発見しているのは多様な知性だということだ。つまり、人間の知性と私たちが構築している知性の種類には質的な違いがあるということだ。もちろん、多くの人がこれについて推測していて、AGIは異星人の知性になるだろうと言っている。
それは異星人だからではなく、私たちにはできないことをするからではない。ただ、私たちにとってはそれをするのが難しいというだけなんだ。私たちは物理的な世界をかなり簡単に移動できるけど、数学や言語などは、習得するのにもう少し時間がかかる。コンピューターはそういうものではもう圧倒的なんだ。
とにかく、これが僕の考えの背景だ。ツイートをたくさん見せるつもりはないけど、これは君たちがどこにいるかに基づいた実際のデータなんだ。だから、僕はそれを解説しようと思ったんだ。
世の中にはあらゆる種類の指数関数的な技術トレンドがある。あまり時間をかけて考える必要はないと思う。みんな分かっているからね。一番のコメントの一つは、「ムーアの法則に賭けないでください」というものだった。ムーアの法則は60年くらい続いているんだ。それはすごいことだよね。そして、それがすぐに終わるとは思えない。
また、利用可能なデータの量も指数関数的に増えている。僕がシスコシステムズで働いていた頃、インターネットとスイッチングハードウェアのイノベーションの主な原動力の一つは、データの量だった。基本的に、ルーティングとスイッチングテクノロジーの世代が上がるたびに、10倍速いスイッチを提供でき、人々はそのデータをほぼ即座に使うんだ。まだ、スイッチングとインターネットのルーティングテクノロジーに対する潜在的な需要や未充足の需要が何であるかという点で、飽和状態には達していない。データが多ければ多いほど、人々はもっとデータを送りたがるからだ。
つまり、8テラビットのダウンリンクやデータセンター接続を作れば、人々はそれをほぼ即座に使うだろうということだ。今日はデータ伝送が遅すぎてできないことがたくさんあるからね。でも、Cat5からCat6へ、100メガビットから1ギガビット、10ギガビットへと世代を重ねていくと、送りたいデータの量は、今の私たちの位置よりも桁違いに多いんだ。
だから、ムーアの法則とデータの急増、そしてAIモデルの成長がある。基本的なパラダイムは、モデルのサイズが6〜12ヶ月ごとに約10倍になるというものだった。でも、OpenAIから漏れた情報によると、GPT-5の訓練を始めたばかりで、特別なことは何もないらしい。10倍大きくなるのかな。ロバート・マイルズが素晴らしい動画で説明していたんだけど、10倍大きなものを本当に変えるのに十分なデータは地球上にないんじゃないかって。データが不足し始めていて、スケーリング則の観点から見ると、データが現時点で最大の制約になっている可能性がある。すべてのデータが同じように作られているわけではないからね。
では、残りの部分に移ろう。理論的限界と実用的限界がある。これは私が聴衆にできるだけ伝えようとしていることの一つだ。概念的に、ランダウアー限界があるということだけで、今日私たちが達成した計算効率よりも何桁も上だからといって、それを実際にやる能力が実用的にあるとは限らない。理論と実践、あるいは理論と実験の間には、しばしば非常に大きな隔たりがあるものだ。
スケーリング則とTransformerアーキテクチャーを使って、現在の巨大なモデルは約80層の深さがあるからといって、100層にしたらどうなるか、200層にしたらどうなるか、1000層のTransformerになったらどうなるかというだけでは、実際にそれをする能力が実用的にあるとは限らない。
これの別の例は、建築だ。建築家やエンジニアは、鉄鋼がどれほど強いかを何十年も前から知っていた。しかし、今日建設されているような高層ビルを建設するのを阻む他の問題がたくさんあった。バージュ・ハリファやニューヨーク市の超細長いビルは3,000フィートに迫る高さだ。
鋼鉄の強度が分かっているからといって、安全な高層ビルを建設する方法が分かっているわけではない。これも、そこにたどり着く方法を示す数学はあるけれど、まだそれを構築する方法は分からないという例だ。
だから、このスライドのポイントは、理論的限界と実用的限界の間には非常に大きな隔たりがあり得るということを、みんなに思い出してもらいたいということなんだ。
そして、もう一つのコンセプトは収穫逓減の法則だ。基本的に、ここにある定義は、追加の入力が時間とともに比例的に小さな出力の増加をもたらすというものだ。つまり、シグモイド曲線を得るのは基本的に、エネルギーやお金や材料をどんどん投入しても、それほど多くのリターンが得られなくなるということだ。
食べ物や運動に似ているね。体はシステムだから、最適な量の食べ物があるけど、それ以上食べると太るだけだ。また、最適な運動量もあって、健康であれば週に約300分運動するのが最適だ。そうすればピークフィットネスに到達できる。でも、それを600分に倍増させたら、疲労で死んでしまう。
収穫逓減の例は、達成可能なピークフィットネスだ。つまり、もっと食べて、もっと運動しても、1時間に60マイル走れるようにはならない。キャプテン・アメリカにはなれないんだ。そのためには、何らかの遺伝子工学が必要だろう。
他にも例がいくつかある。人口増加はシグモイド曲線に従う。遺伝学の研究では、遺伝学の研究のあらゆる進歩のコストは、実際にはすべての医薬品で時間とともに指数関数的に増加している。
最後にもう一つ、予期せぬ制約がある。基本的に、そこにあるとは知らなかった壁にぶつかるということだ。こういったことが全て相まって、AIの分野で大きな逆風を生み出している。信じてほしいんだけど、君たちと同じように、僕もできるだけ早くそこに着きたいと思っている。でも、この2年くらい、進歩は通常シグモイド曲線に従うと警告してきた。そして、現在のTransformer+スケール+マルチモダリティのパラダイムに代わる別のパラダイムはまだない。
現在のパラダイムの話をすると、今はこんな感じだ。「Attention is All You Need」という論文を覚えているかもしれない。この「Attention is All You Need」という論文が大ブレイクして、Transformerのスケーリングを可能にした。注意ウィンドウやロス関数、ネットワークの学習に使う実際の数学など、他にもたくさんのアルゴリズム的なブレークスルーがあった。
2012年に僕が人工知能に初めて関わった頃は、基本的に従来の知恵は、バックプロパゲーションはできるけど、ばかげたほど高価だから、今のところ実用的ではないというものだった。それから数年後、数学的なブレークスルーによって、これらのネットワークで学習の主な方法として使われているバックプロパゲーションが、実はもっと効率的で、より良いロス関数を持っていることが分かった。
そして、「Attention is All You Need」があり、「Scale is All You Need」があり、今ではマルチモーダリティが加わっている。基本的に、できるだけ多くのデータを取り込むためにTransformerアーキテクチャとスケールとマルチモーダリティを組み合わせている。でも、最終的には、私や他の人が言及しているように、データ不足になってくる。そして、このパラダイムを拡張し、最大限に活用しているところだ。
ただ、一つ言えるのは、スライドには載せていないけど、モデルがそれほど賢くならなくても、長期的には現在の技術の商業的な利用法や統合法を見つけ続けるだろうということだ。たとえモデルがそれほど賢くならなくても、かなり大きくて、ウィンドウも巨大だし、APIコントロールを与えたり、ロボットに組み込んだりできる。探索し続けられるようなことはたくさんある。
2015年から2018年頃まで自動化エンジニアをしていたとき気づいたことの一つは、私と同じくらい優秀な自動化エンジニアが十分いれば、経済のほとんどを自動化できたはずだということだ。それはPowerShellとPythonだけでできるんだ。でも問題は、すべての自動化エンジニアが私ほど優秀ではないということだ。単純な事実だ。必ずしも優秀かどうかの問題ではなく、十分な人数がいないんだ。
人々が期待しているのは、GPT-5などの人工知能が優れた自動化エンジニアであり、他のことも自動化し続けられるということだ。そうなれば、完全にスケールアップでき、豊かさが溢れ、その後永遠にユートピアに暮らせるようになる。それが私たちの希望だ。でも、私はここで伝えなければならない。メッセンジャーを撃たないでほしい。悪いニュースがあるんだ。そこに到達するには、おそらく私たちが望むよりも少し時間がかかるだろう。でも、これには明るい面もある。ビデオの最後には、それについて話すつもりだ。
データの制約については、利用可能なすべてのデータを使い尽くしてしまった。OpenAIなどの人々が言っていたのを覚えているけど、彼らはインターネットのほとんど全てをスクレイピングしたんだ。そして去年出た論文で、基本的に教科書だけで十分だということが分かったんだ。つまり、高度にキュレーションされた高品質のデータは、ただの大量の雑然としたノイズの多いデータよりも実際には良い結果をもたらすということだ。
ここでは、いくつかのことが共謀している。まず、利用可能なほとんどすべてのデータを使い尽くしてしまった。そして、質が量よりもはるかに重要だと気づいたとき、高品質のデータを入手するのはますます難しくなり、指数関数的にコストがかかるようになる。だからこそ、OpenAIがForbesなどからお金をもらう契約を結んでいるのを見るんだ。
彼らは、利用可能なデータを使い尽くしたところから、ニュースを購入しているんだ。他の人々は、科学論文を発表しているSpringerからデータを購入している。良質のデータの量が世界で最大の制約になっているんだ。毎日のように動画を追加しているYouTubeのすべての動画で、Googleが既にGeminiを学習させているんだろうけど、でも、それでもまだ足りないんだ。
予測可能なスケーリング則に基づいて、次のレベルに到達するためには、今日よりも何桁も多くのデータが必要になるだろう。ロバート・マイルズや他の人が指摘しているように、仮定上の次のものに到達するのに十分なデータを生成するだけでも、しばらく時間がかかるだろう。
アルゴリズムの更なるブレークスルーの可能性は別にして、つまり、より少ないデータでより多くのことができるようになる可能性だ。蒸留もあるし、同じデータでより多くの学習エポックを行うこともできるかもしれない。でも問題は、その点ではあまり大きな動きがないということだ。少なくとも、ニードルを大きく動かすほどのものではない。
エネルギーの制約も、ますます大きなトピックになってきている。コメントには、エネルギーは基本的に無限だと言う人もいるけど、そうだね。数百万マイル離れたところに巨大な水素融合炉があって、私たちがすぐにアクセスできる何テラワットものエネルギーを生み出しているんだ。それを利用するだけでいい。
ソーラーは技術的には核融合だし、中国ではソーラーがとても安くなって、ソーラーの価格が暴落している。ソーラーを少し追っていれば、2014年か2015年、あるいはその少し後だったと思うけど、アメリカはソーラーの価格が暴落することを恐れていた。安い中国製のソーラーが市場に氾濫して、国内のソーラー在庫の価格が暴落したんだ。
でも今は、中国でもソーラーがとても安くなって、価格が暴落しているんだ。だからソーラーはばかみたいに安くなっている。でも、それでも、予測可能なスケーリング則のために必要な桁数は、経済的に見合わない。
サム・オルトマンが実際に7兆ドルのエネルギーを調達しようとしているわけではないけれど、彼は核融合に投資しているし、他の多くの人も核融合に投資している。そして、現在のペースで進歩を続けるためには、そういうものが必要になるだろう。
指数関数的に上昇するコストと収穫逓減のことを言っているんだ。最初の学習には10キロワットかかり、次の学習には100メガワットかかり、今では学習はギガワットで測られるようになっている。そして、おそらくテラワットで測られるようになるだろう。
こうしてどんどん高くなっていく一方で、商業的に採算が取れるかどうかも分からない。だから、これには多くの連鎖効果がある。モデルを学習させることができても、そのモデルを運用しなければならない。
去年あたりのニュースで、ChatGPTと話すたびに、水が5ガロンくらい使われるとか、そんな話を聞いたことがあると思う。ああ、そういえば、水のインフラについても触れなきゃいけないね。エネルギーインフラも必要だし、データインフラも必要だし、水のインフラも必要だ。インターネットも含めて、あらゆるインフラを全面的に見直さなければならない。
十分なデータを動かすためにも、これらのことをすべてやらなければならない。だから、たくさんの逆風があって、ビデオの半分にも達していない。ハードウェアの制約もある。データセンターを建設するには時間がかかる。
サム・オルトマンが少し皮肉っぽく言っていたのは、データセンターでコンクリートが乾くのに時間がかかるということだ。ウェストバージニア州に5つの新しい巨大なデータセンターができるというニュースも聞いたことがあると思う。
ラムダレールがあるから、データセンターはインターネットのバックボーンを結ぶ幹線にできるだけ近い方がいい。また、十分なエネルギーと冷却用の十分な水へのアクセスも必要だ。
そして、そういった地域の人々から、電力会社がAI企業に対して、これ以上のデータセンターは建設できないと言っているという噂がある。電力を供給する余裕がなく、停電を引き起こすことになるからだ。
繰り返すけど、こういったものにはたくさんのインフラが関係してくる。第二次世界大戦の大規模な機械化と工業化以来、AIをゴールまで完全に持っていくために必要な動員はなかったと思う。
AIを完全に動かすために、私たち自身がどれだけの電力を使うかって、冗談で言ってるんじゃないよ。人間が使う電力の総量と、AIが使う電力の量を考えると、円グラフではほんの一部が私たちで、残りはAIのデータセンターになるだろう。
ビデオを終える前に、最近の私の活動についてちょっと最新情報を伝えたいと思う。人気の要望によって、Patreonを2つのティアに分けた。世界中の多くの人から、月10ドルは少し高いというメッセージをもらったんだ。
だから、オールアクセスの価格を月5ドルに下げた。そして、私と直接チャットしたい人のために、高いティアを作った。PatreonとDiscordには専用のチャットチャンネルがある。私と直接チャットしたい人は、そこを使ってほしい。
私は一日の大半をDiscordで過ごしているので、ファンの皆さんとやり取りしている。Substackでも執筆しているので、より深く掘り下げたコンテンツが欲しい人は、Substackをチェックしてほしい。
Substackのコンテンツはすべて無料だけど、ここやPatreonでチャンネルメンバーになるのではなく、Substackで私をサポートすることを選ぶ人もいる。Patreonが好きじゃない人もいるのは分かっている。私の仲間のクリエイターの中にも、Patreonが好きじゃないと言っている人がいる。私はPatreonが好きだけど、好きじゃなければ別にいい。Substackに登録してくれればいい。
TwitterとLinkedInにも戻ってきたよ。バーンアウトから回復する道を歩んで、より多くのソーシャルメディアプラットフォームに戻ってきた。TwitterではDAV_shaかDave_shappieで、LinkedInではDave shapだ。
そして、私の本ももうすぐ完成だ。最後の校正作業をして、ページに間違いがないかを確認しているところだ。そうしたら発売される。最後に、私には他に4つのチャンネルがある。ここYouTubeのホームページに行って、少し下にスクロールすると、他のチャンネルへのリンクがすべて載っている。知って喜ぶ人もいるけど、これで分かったと思う。
それでは、番組に戻ろう。指数関数的に上昇するコストについて。これらのことはすべて、データがもっと必要だとか、水やエネルギーがもっと必要だとか、理論的には言えるけど、数字を当てはめ始めている。
最初の学習には500万ドルかかったと思う。GPT-2のころだったかな。でもGPT-3は、わお、GPT-3の学習には1700万ドルかかったんだ。そしてGPT-4の学習にいくらかかったか、GPT-5の学習にいくらかかるか、誰にも分からない。でも、曲線を見ると、対数的に上がっている。
つまり、次の世代ごとに約10倍のドルがかかるということだ。規模の経済に到達するまでは、多分そうなるだろうね。データを10倍送信し、エネルギーを10倍生産し、水を10倍動かす方法を見つければ、規模を小さく保てるかもしれない。でも、それは簡単なプロジェクトではない。
インターネットのスループットを10倍にするのは簡単ではない。世界の良質なデータを10倍にするのは簡単ではない。水の容量を10倍にすれば、文字通り世界的な水危機を解決できるだろう。
繰り返すけど、これらのことは不可能だとは言っていない。これらはすべて良いアイデアだと言っているんだ。でも、それは非常に大変な注文だ。これらすべてをやり遂げるには。
結局、私たちがしなければならないのはコストベネフィット分析だ。これを恐れている人もいる。私はここでは強硬派ではなく、ただツイッターやその他の場所で見たことを報告しているだけだ。AIは今日でも手頃な価格ではないと言う人もいる。
商業的に成り立たないと。AIは採算が取れたことがなく、高すぎるんだと。私はそういった数字については良く分からない。多くの数字は非公開にされるだろうから。ChatGPTが赤字で運営されていたとしても、ChatGPTは今は赤字ではないかもしれない。
でも、確かにそういう噂はある。だから、私たち全員が使っているAIモデルが、VCの投資のおかげでなんとかしのいでいるだけだとしたら、想像してみてほしい。私たち全員がたくさんのAIモデルを使っているからね。もしそれらの投資が収益性を見出せなければ、枯渇してしまう。そうなれば、AIのコストはもっと高くなる。
長期的な視点から見れば、すべてのテック企業、私たち全員が、これが未来への道だと知っているから、意味があると言うかもしれない。だから、初期段階では補助金を出して、定着するまで安くしておく。そして、一度定着したら、価格を上げていく。
ソーラーも電気自動車も同じだ。世界中の政府がソーラーを望んでいたから、補助金を出した。商業的には成り立たなかったが、今は成り立つようになった。だから自分で売れるようになった。電気自動車も同じで、電気自動車への補助金のほとんどが打ち切られた。今では持続的な需要があるからだ。
AIでも同じようなことが起きているのかもしれない。ただ、それが政府ではなくGoogleやAmazon、Meta、Microsoftが補助しているとしたら、面白いよね。彼らは基本的に、「魅力的なものにして、依存してもらうために、安く提供するよ」と言っているようなものだ。
「価格が上がっても、もう依存しているから、続けなければならない」と。これは多くの人を怒らせるだろうけど、そうなると私は予測している。ケーブルテレビやインターネットの価格が上がったのを見たのは、そういう理由だ。
まあ、そちらは横ばいになっている。別の話だけど。ここで言いたいのは、AIサービスを利用する私たち個人は、消費者であれ企業であれ、コストベネフィット分析をしなければならないということだ。AIサービスの提供者も同じだ。
もし彼らがまだ内部で補助金を出しているなら、それは必ずしも商業的に成り立つとは限らないということだ。さて、話を締めくくるにあたって、他にもいくつか思い出してほしいことがある。
核融合は数十年前に達成されている。ただ、商業的な発電という形では達成されていない。核融合を実用的に実現することと、理論的に可能なことの現実には大きな隔たりがある。
「核融合は常に10年先にある」というジョークがある。今はもっと近づいているように見えるけど、核融合がもっと近いと思ったのは初めてじゃない。ただ、私が言いたいのは、お金の流れを追うことだ。
VCの世界や資本市場で、たくさんのFOMO(取り残される不安)が見られるとき、多くの人が核融合に買いを入れているということだ。そうなれば、それに近づいているのかもしれない。
でも、核融合が実現しても、それはパズルの1ピースに過ぎない。データセンターに電力を供給するのに役立つだろうし、より多くの水を得るのにも役立つだろう。より大きなインターネット、より多くのインターネット、より高速なインターネットを構築するのにも役立つだろう。
でも同時に、理論的に可能だからといって、それを実際にやるのが差し迫って実用的だとは限らないし、実用的だとしても、安価になるとは限らない。同様に、遺伝子医療も、20年以上前にゲノムの扉を開いた。
約束されていたのは、すべてが明らかになり、すべてが修正されるということだった。でも、どのくらいの頻度で医者に行って「ああ、あなたのゲノムはこうですね」と言われるだろうか。医療機関は今日、遺伝子情報をあまり使っていない。
遺伝子情報を使って健康管理の方向性を決めてくれる医療専門家のところに何度か行ったことがある。パーソナライズド医療というやつだ。でも、それはまだ一種のオルタナティブ医療だと考えられている。
伝統的な教育を受けた内分泌学者にそのことを話しても、「ああ、そうですか。遺伝子についてはあまり気にしていません。家族の病歴を教えてください」と言われるだろう。遺伝と家族の病歴はだいたい同じことだけど、家族の健康状態の方が、今日の遺伝子プロファイルよりもはるかに予測性が高いんだ。
繰り返すけど、遺伝子医療の可能性にもかかわらず、核融合の可能性にもかかわらず、意欲はあるけれど、必ずしも方法があるとは限らない。
そろそろ締めくくろう。もっと早く言うべきだったかもしれないけど、ここまで付き合ってくれた人には、いいものを見せてあげよう。AIの進歩が遅れているとしたら、それは安全性コミュニティにとって最高のニュースだ。
なぜなら、現在のパラダイムに適応する時間ができるからだ。10兆トークンウィンドウのGeminiを手に入れるだろうけど、それが今日よりもはるかに賢いとは限らない。マルチモーダルになるかもしれないし、完璧なディープフェイクができるようになるかもしれない。
でも、さらなる進歩をするのに指数関数的にコストがかかるとしたら、少なくとも当面は、私たちには現在の安全性とセキュリティのパラダイムに適応する時間ができる。つまり、基本的に問題先送りをしているということだ。
缶蹴りは思ったよりも先の方にあったんだ。これは実は、安全性の観点からは本当に良いことなんだ。雇用の観点からも良いことだ。「すべてにお金を払うにはどうすればいいの?」と言うなら、変化する雇用市場に適応する時間ができるだろう。
確かに、なくなる仕事もあるし、新しい仕事も生まれるだろう。経済全体としては拡大するだろう。無駄が少なくなるかもしれない。これらのものは文字通り1日に何百万ページも読めるから、すべてのログが記録され、すべての音声メールが聞かれ、すべてのメールに返信されるようになるかもしれない。
でも、進歩が遅れているということは、安全性への適応だけでなく、経済への適応の時間も与えてくれるだろう。そして、これは世界にとって本当に良いことかもしれない。すべてが一度に変わってしまうのは望ましくないからだ。
もちろん、仕事を辞めたいと言っている人がたくさんいるのは分かっている。私もその一人だ。YouTubeでお金を稼ぐ必要がなくても、食べていかなければならないからね。
でも、潜在的な豊かな未来では、今日とは違う生き方をするだろう。最後に、地政学的な影響について。もしシグモイド曲線が人間の知性あたりでピークを迎えたとしたら、本当にばかみたいに高くつくだろう。
たくさんのエネルギー、たくさんのデータセンター、たくさんの水のインフラが必要になる。違った世界になるだろうけど、一気に加速するようなことにはならないだろう。ハードテイクオフやファーストテイクオフと呼ばれるようなものだ。
チップの製造工場、もっとデータセンターが必要になるだろう。重みがあるからといって、それをどこかに配備できるわけではない。ここで強調したいのは、AIを使おうとする80億人がいるということだ。
それだけのモデルをホストするには、たくさんのデータセンターが必要だ。だから、ハイエンドの研究者、インフラ、電力、水、データのインフラが必要なんだ。その未来に到達するためには、ものすごい量のインフラが必要だ。
だから、それは両刃の剣なんだ。一方では、現在のパラダイムに適応する時間が少し増える。でも、それは私たちがその恩恵を受けるのが遅くなるということでもある。その代わり、後になってくるんだ。
冒頭の質問に対する回答は以上です。ご清聴ありがとうございました。コメント欄で感想を聞かせてください。悪いニュースの伝え手になって申し訳ありません。でも繰り返すけど、それは諸刃の剣なんだ。良いニュースでもあり、悪いニュースでもある。ニュースなんだ。
でも、どうなるかはわからない。間違っているかもしれない。でも、コンセンサスが形成されつつあるのは、私たちが向かっている方向だ。完全なAIの冬になるとは思わない。でも、確かに変化は少なくともしばらくは遅くなるだろう。じゃあね。
この記事が気に入ったらサポートをしてみませんか?