見出し画像

OpenAI社員が衝撃的な声明を残して退社!「誰もAGIに対して準備ができていない!」

12,206 文字

OpenAIからまた一人退社されて、皆さんに注目してほしい声明を出されたんですけど、正直言うて信じられへんくらい驚きました。
マイルズ・ブランデージさんという方なんですが、OpenAIで研究者兼マネージャーとして働いておられて、AGIレディネス(AGIへの準備)の分野を担当されてました。これはもちろんすごく大事な仕事で、OpenAIには表に出てこない重要な役職がたくさんあって、それらはAI開発の未来にとって必要不可欠なんです。
最近、彼はブログ記事を公開して、AGIの未来と次のキャリアについて語ってはるんですけど、劇的な内容というわけやないんですが、世界のAGIに対するタイムフレームについての洞察が得られる発言がいくつかあって、AIの対策があるとはいえ、かなり懸念される内容も含まれてます。
これまでの動画と違って、OpenAIのドラマチックな話というよりは、AGIレディネスに関して実際何が起こってるのかという洞察に迫る内容になってます。AGIレディネスについて話すとき、これはAGIがもたらす壮大な影響に世界が準備できているかということなんです。
多くの人が、このテクノロジーは医療から金融、ビジネスまで、考えられるあらゆる分野に影響を与えると予測してます。
ちょっと説明させていただきたいんですが、この方が退社される理由は業界の内部じゃなくて外部の問題なんです。機会費用が高くなりすぎて、自分のやりたい研究ができなくなってきたと仰ってます。
OpenAIで働いてると、アドバイスや情報を発信する際に、特定の視点からしか見られへんということがあるんです。OpenAIは早期にモデルをリリースしたり、他社が安全じゃないと考えるようなAIの実践をしたりして、大きな批判を受けてきました。
自分の立場と矛盾する会社にいながら、特定のAIに関する発言を効果的にするのは難しいんやと思います。
ここで彼は「確かにOpenAIで働くことは、私や業界の他の人の発言がどう受け止められるかに影響します。今日の政策議論には、業界から独立した声がもっと必要だと思います。私もその一人になるつもりです」と述べてます。
このブログ記事の主なポイント、というか私の目を開かせた発言の一つが、AIの開発サイクルにおける現状についてです。
「OpenAIや他のフロンティアラボは準備ができていないし、世界も準備ができていない」という質問に対する彼の答えは本当に驚くべきものでした。
多くの人が、そして私も以前から言ってきましたが、2040年か2049年に起こると予測されているシンガリティ、つまりAIが急激に発達して技術が前例のないスピードで進歩する、そんなユートピア的な未来に我々はすんなりと入っていけると考えがちです。
でも、私は本当にAIというものを理解してきました。それは、より多くの人々が参入し、企業がより多くのチップを買い占め、主要研究所間の競争が激化するにつれて、年々加速度を増し続けている状態なんです。
加速だけが最前線にあって、安全性は常に後回しにされてきました。資本主義社会の性質上、企業は安全性よりも最先端技術を優先せざるを得ない厳しい立場に置かれています。
その結果、OpenAIもフロンティアラボも将来のAIに対する準備ができていないし、もっと重要なのは、世界がAGIの影響に全く準備ができていないということです。
もちろん、彼は「これはOpenAIのリーダーシップの間では物議を醸す発言ではない」とも述べています。これは彼らが持っている技術と、世界がどのように技術の進歩に反応するかを正確に知っているからです。
また、「会社と世界が適切なタイミングで準備できるかどうかは別の問題ですが、残された課題は十分に大きいので、私は今後もAIポリシーに取り組み続けるつもりです」とも述べています。
この動画の主要テーマの一つとして、AIに対する世界の準備とは何を意味するのか、について掘り下げてみたいと思います。AIは多くの利点と欠点を持つ多面的な問題です。
彼は2023年初めに「AIガバナンスに関する人類の進歩を評価する」というブログ記事を書いています。その中で「AIガバナンスの成功は単に破滅を避けることではなく、より良く公平な世界を築くことであり、それは十分に実現可能だが、多くの努力が必要だ」と述べています。
これはかなり怖い内容を含んでいて、「成功すれば(これは確実ではありませんが)、以下の要素の一部またはすべてが必要になるでしょう」と続けています。
必要な要素としては、課題の共通理解、技術的ツール、規制インフラ、正当性、社会の回復力、そして異なる技術開発が挙げられています。
ここで彼は「スコアを付ける際、私は大まかにこの10年のどこかでAGI・超知能が実現すると想定していますが、その期間内のさまざまな可能性を平均化し、その分野における進歩の現在の軌道を組み込んでいます。
例えば、Aという評価は今日準備ができているということではなく、物事が大体このまま続けば、Aレベルに達するだろうという期待を示しています」と説明しています。
ここから彼は実際にAGIへの準備が何を意味するのかを細かく分解していきます。
まず第一に「共通理解」です。目標は、利害と動機を調整するために、プラスとマイナスの両面について共通理解を作ることです。
これが必要な理由として、「AIからの集団的な大きなプラスと大きなマイナスについての共通認識があれば、協力がより可能になる」と説明しています。
つまり、AIがどれほど良いものになり得るかを皆が理解する必要があるのと同時に、どれほど悪いものになり得るかも理解する必要があるということです。
AIはがんを治療し、すべての病気を治し、老化を克服し、世界の政治的不安定さや多くの戦争・争いを解決できる可能性があるというのは一つの面です。
しかし他方で、人類の絶滅を引き起こしたり、人々の分断を引き起こしたり、一部の人々を追いやるような経済的影響を及ぼす可能性もあります。
詐欺など、無数の問題があります。AIというカテゴリー全体の完全な能力を本当に理解する必要があるんです。
彼はこれをB評価としています。その理由として「一般市民はリスクが重大であることに同意し、規制と政策を支持しており、政策立案者も今ではAIについて多く語るようになっている。また、競争のダイナミクスを真剣に受け止める方向に動きつつある」と述べています。
次に「技術的ツール」です。私たちは、アライメント(方向性の一致)や解釈可能性、危険な能力と拡散の評価、学習の証明などの安全性と政策研究において急速な技術的進歩を遂げる必要があります。
これによって、適切なタイミングでリスクを適切に管理するためのツールを確保できます。
先ほど私が絶滅について話したとき、これは何かSFのような話ではありません。私たちは、私たちよりも10倍、20倍、100倍賢い自己学習型のエンティティがあった場合、それが私たちの理解を超えた何かをすることは簡単だということを理解する必要があります。
私はいつも、高速道路を建設して自然を破壊する例を挙げます。アリに対して、なぜ高速道路が必要で、アリの巣が破壊されなければならないのかを説明しようとしても、アリには高速道路が何なのか、経済とは何なのかを理解することはできませんし、私たちの目標や意図をアリやミツバチに伝えることすらできません。
ここでのポイントは、私たちをアリとして、超知能AIを人間としてその状況を想像してみることです。どうやってその目標を伝えるのでしょうか?それは私たちの理解を超えたことをするでしょう。
本当に重要なのは、もちろん解釈可能性研究とアライメントです。解釈可能性とは基本的に、モデル内で何が起こっているのかを実際に理解できることです。
「モデルが予測や決定を行う際の推論を、人間が容易に理解できる場合、そのモデルは解釈可能である」と説明されています。
この例では、一つは解釈可能で、もう一つはそうでないことが示されています。私たちはしばしば、ブラックボックスのモデルを開発します。つまり、出力は分かるものの、モデルの内部で何が起こっているのかが分からないのです。
これはもちろんかなり危険です。モデルがなぜそのような応答をするのか分からない場合、たとえそれが良い結果であっても、様々な問題につながる可能性があります。
モデルが知らない要因に基づいてランダムな決定を始めるところに展開して、それを配備したとしましょう。しかし、モデルの中を見て、その決定のための推論ステップが正しいことが確認できれば、モデルの内部で何が起こっているのかを本当に理解し、破滅的なリスクなしに望ましい出力を得ることができます。
もちろん、アライメントのための技術的ツールも大きな問題です。自分よりもずっと賢いシステムを自分の目標に合わせ、自分の最善の利益を持たせることは、かなり難しいことになるでしょう。
アライメントについては進展していますが、残念ながら、超知能システムのアライメントに焦点を当てたスーパーアライメントチーム、イライアス・サティ氏とヤン・レイク氏のチームがOpenAIによって解散させられたというニュースがありました。
正直、なぜその状況が解散に至ったのか、私には記憶が定かではありません。イライアス・サティ氏がOpenAIと問題があり、独自の人工超知能企業を立ち上げに行ったことは覚えています。
そしてヤニクは基本的に「必要なテスト、必要な評価を実行するための十分なコンピューティングパワーが得られていない。これはOpenAIにとって明らかに優先事項ではないので、私は去る」と述べました。
そして、スーパーアライメントチームの別のメンバーが解雇され、結果的にほぼ解散することになりました。
これはもちろん、AI安全性に注目している人々にとっては悪いニュースです。私たちが構築している非常に賢いシステムを理解する必要があると考えているのに、それを担当するチームを解散させ始めるということは、アライメントを求めているなら、これはあまり良くないということです。
私も覚えていますが、OpenAI-1の安全性研究を担当するチームには、安全性評価テストを実施するのにわずか9日間しか与えられませんでした。
私は間違いなく、これはOpenAIが不足している分野だと言えると思います。彼はこれにC評価を与え、「かなりの数の人々がこれに取り組んでいるが、もっと多くの人々が取り組むべきで、多くの投資が非効率に見える」と述べています。
不明確な変革理論を持つランダムなAI安全性スタートアップを立ち上げ、管理や資金調達のオーバーヘッドに対処する必要があり、これは現在、多くの資金を得ていない分野であることは確かです。
AIスタートアップの分野にいる場合、資金調達を受けている企業の大多数は、何百万人もの消費者が使用する製品を開発している企業です。
そして、これらの評価は昨年付けられたものであることを覚えておく必要があります。もちろん、「規制インフラ」もあります。これは、報告やライセンス要件、リスク評価の第三者監査などのメカニズムを通じて、ハイステークスな開発と展開に十分な安全性を奨励するものです。
これらはすべて、AI システムを生産する環境全体が、破滅的な生命の損失や破滅的な出来事につながらないものであることを確実にするための包括的なシステムです。
例えば、航空業界の規制機関を見てみると、その機関がどれほど厳格かが分かります。飛行機が検査に合格するためには、特定の部品の故障率が信じられないほど小さくなければなりません。
これが、飛行機での移動が統計的に最も安全な移動手段である理由です。人工知能でも同様の環境を構築する必要がありますが、これらの企業が直面している主な問題は、そうすることで、企業が十分に有用なレベルのシステムを開発する能力を妨げる可能性があるということです。
厳しい規制があるとき、モデルが絶対に何もしなくなってしまい、製品が基本的に使い物にならなくなることがよくあります。これは目的を完全に無にするものと言えますが、もちろん、最近の数ヶ月で政策立案者がこの問題に注目し始めているとも述べています。
AI法が実際に機能するかどうかは、まだ分かりません。もちろん、「社会の回復力」の問題もあります。これは、社会が準備ができており、人々がこの激動の時期を乗り切る能力を持っていることを確保する必要があるということです。
複数のカテゴリーが一度に変化する時期に入ることを覚えておく必要があります。本当に新しい時代に入ろうとしているのです。
もちろん、人間の証明などもありますが、なぜこれが必要なのかというと、「社会が少数の人間とAIの多くのコピーに支配される可能性があり、合意と現実の誤った印象を作り出すことで、エコーチェンバーに分裂し、危機時の意思決定が不可能になる可能性があります。
経済的な混乱や生成AIの政治的誤用により、正当な政府の転覆や内戦が起こる可能性があり、AIは全体主義を可能にする可能性があります」と述べています。
これはかなり危険です。なぜなら、これらのテクノロジーは多くの良いことを可能にすると同時に、多くの悪いことも可能にするからです。
興味深いことに、彼は社会にF評価を与えており、これは昨年のことですが、この分野にはあまり改善が見られません。
「すでにディープフェイク、TTS(テキスト読み上げ)による詐欺があり、これらは非常に悪質です。なぜなら、これらのAIツールの使い方を知っている人が少数いる場合、例えば誰かが人間らしい100のAIエージェントを送り出して、代わりに詐欺を働かせることができます。
彼らは誰かの声を複製し、その人の姿を複製することができます。これは本当に本当に懸念される事態です」と述べています。
もちろん、「AIによる職の置き換えの政治的問題が爆発しようとしており、政策立案者や、AIに関わる大多数の人々でさえ、その程度を理解していない」とも述べています。
これは私がチャンネルでかなり長い間話してきたことです。人々はポストAGI経済について考えていません。技術が一定のレベルに達したとき、社会はどのように機能するのでしょうか。
これには多くの問題があります。もちろん、サム・オルトマンのワールドIDのような、誰もが登録され、人間IDを持つようなシステムを提供することもできます。
これは基本的に、インターネット上でワールドIDを持っている限り、人間として認証されることを確実にしようとするものです。
しかし、これもディストピア的に見えますし、私がリリースしたその動画でも、ほとんどのコメントが「サム・オルトマンが私のデータを持っていなくても構わない、未来のディストピア的なシステムに目をスキャンして登録されるなんてありえない」と言っていたのを覚えています。
つまり、一度に発生しているさまざまな問題があるのです。ここで彼は「付け言えば、AGIは二元的な考え方を意味する過負荷な言葉だと思います」と述べています。
基本的に、AGIは一日で目覚めて、突然スーパーインテリジェンスやAGIを手に入れるようなものではないと言っています。それは、ますます複雑なシステムを可能にする段階的な変化であり、それは現在のシステムの状況に遅れを取らないようにする必要があることを意味します。
もちろん、彼のチームが最近取り組んでいるのは、AIのレベルの枠組みを具体化することだと述べています。これはAIのレベルで、これはウイルス性になったものです。
レベル1のチャットボット、レベル2の推論機、レベル3のエージェント(これは徐々に近づいています)、レベル4のイノベーター、レベル5の組織があることが分かります。
これはもちろん、物事がどのように進展していくかということです。一日で突然それを手に入れることはありませんが、その分野を前進させるブレークスルーはあるでしょう。
ここで彼が言っている重要なことの一つは、「AIとAGIが人類全体に利益をもたらすことは自動的ではなく、政府、非営利組織、市民社会、産業界の意思決定者による意図的な選択が必要であり、これは堅固な公的決定によって情報を得る必要がある」ということです。
これは私が実際によく話してきたことです。誰もがAGIを手に入れて世界が良くなると考えています。私たちの現在の社会を見てください。同じ町にホームレスと億万長者が潜在的に住んでいます。
何百万長者がいる一方で、これらの都市にはホームレスがいるのです。技術が存在するからといって、それが平等に配分されるとは限りません。
はい、誰もが現在よりも良い立場にある理想郷について考えるのは楽しいことですが、残念ながら、現実は必ずしもそのようにはなりません。
ここで彼は「これはリスク軽減だけでなく、電気や現代医療と同様に、利益の公平な配分を確保するためにも当てはまる」と述べています。
これは事実です。政府の政策は、鉄道や電気などが均等に配分されることを確保する必要があります。そうしないと、今のように、一方が超先進的な社会で、もう一方が貧困の中で生活している、というディストピアに住むことになります。
この状況がどれほど悪化する可能性があるかを実際に理解させてくれるのは、彼がここで言っていることです。素晴らしい例を挙げています。
「AI能力は非常に急速に向上している」と彼は言います。基本的に、彼らはより緊急に行動する必要があります。これは私が同意する点の一つです。政策立案者は特定の分野で十分な速さで行動していません。
彼は「これは、業界から来るとよくハイプとして却下されるため、独立している方が最も興奮する分野の一つです」と言います。
これは事実です。OpenAIで働いていて、「AIは今後2年以内にここにあり、XYZができるようになる」と言うと、人々は「ああ、あなたはOpenAIで働いているんでしょう?それはマーケティングの手口だ。もっと数十億ドルが必要なだけで、もっと投資家が必要なだけだ」と言います。
しかし、このような発言をする必要のない通常の研究機関からの独立した研究者からそれを聞くのは、まったく異なります。
ここで彼が言っているのは、「ほとんどの政策立案者は、状況を緊急だと認識しない限り行動しないと思います。そして、これまでのところ、それが実際のケースであるか、将来そうなる可能性があります」。
最初は本当にこれを理解できませんでしたが、実際にコロナを見てみると、パンデミックの準備について多くの警告がありました。
私たちは複数回警告を受けました。ビル・ゲイツによるTEDトークさえあり、「世界がパンデミックに陥った場合、私たちには必要なインフラが全くありません。
飛行機がここに行き、あそこに行き、空港にはスクリーニングもなく、パンデミックが起これば完全にお手上げです」と述べていました。
そして5年後、パンデミックが起こり、世界を完全に停止させました。
AIが同じようなことをできる状況に陥った場合(AIにはさまざまなリスクがあります)、私たちは、警告は長い間壁に書かれていたということを理解する必要があります。
彼が言っている重要なことの一つは、「AI能力の定量的評価とその外挿、特定の政策の影響の分析を組み合わせることが、その緊急性を真実に、そして説得力をもって実証する上で重要になる」ということです。
基本的に、これがどこに向かっているのかを本当に明確にし、特定の政策の影響を理解して、これらの人々に「XYをしなければ、Yが確実に起こるので、できるだけ早く結果を緩和できるような政策が必要だ」と伝える必要があると言っています。
これの問題は、彼が「必要なすべての政策アイデアを持っているとは思わない。浮かんでいるアイデアの多くは悪いか、あるいは確信を持って判断するには漠然としすぎている」と言っていることです。
例えば、AIのためのCERNや、中国に対してできるだけ早く競争するというレース、つまり、中国がテクノロジーで何かをするかもしれないので、できるだけ早く先に進む必要があるという考えなど、これらのアイデアはかなり漠然としていると彼は言っています。
彼が言うアイデアの一つは、これらの分野のいくつかで早く始める必要があるということで、早く始める必要がある分野の一つは、もちろん米国AI安全性研究所であり、議会はそれに十分な資金を提供すべきで、政府はAI政策について明確に考える能力をより持つべきだということです。
また、産業局についても同様です。彼が言っている最も驚くべきことの一つは、AI の進歩の評価と予測が非常に興味深いということです。
なぜなら、「これは下にある他のトピックについて明確に考えるための主要な基盤の一つ」だからです。AIの能力を成功裏に予測できれば、他の分野もより成功する可能性があります。なぜなら、何を緩和する必要があるのか、あるいは何に備える必要があるのかを本当に理解することになるからです。
基本的に、彼は「業界でAGIを達成する方が容易だという強い感覚を持っていますが、ラボに存在する能力と公に利用可能な能力の間に大きな隔たりがないため、正確には分かりません」と述べています。
これはかなり驚くべきことです。私はこうは考えていませんでしたが、彼はOpenAIで働いていた人物からの発言として、現在のラボは私たちが考えているほど先を行っていない可能性があると言っています。
これについてより多くの情報を得られれば面白いと思いますが、おそらくこれは、私たちがこれらの企業が持っていて現在訓練しているものからおそらく1年程度しか遅れていないということを意味するのではないかと推測します。
もちろん、ここで彼は「フロンティアAI安全システムの改善は、今後数年以内に数十社が破滅的なリスクをもたらす可能性のあるシステムを持つことになるため、かなり緊急を要すると思います」と述べています。
基本的に、全く新しい機関を設立するための時間があまりないことを考えると、既存の法的権限の下での行動機会や、EUのAI法のような既に承認された法律の実施の形成に興味があると言っています。
本当に信じられないことですが、数十の企業がクレイジーな能力にアクセスするまでに数年しかないということです。
私が思うに、みなさんの多くが注目すべきことの一つは、これが直接影響を与えると思うからですが、もちろんAIの経済的影響です。
これは来たる年、数十年ではなく数年のうちに起こる可能性が高いと思います。もちろん、AIは十分な経済成長を可能にし、高い生活水準での早期退職が簡単に達成できるようになる可能性がありますが、これはもちろん、その恩恵の公平な分配を確保するための適切な政策があることを前提としています。
しかし、彼は「その段階に到達する前に、タスクの自動化がより簡単になる期間があるでしょう。我々はまさにクロードでそれを目の当たりにしました」と述べています。
「短期的には、必死に働きたいと思っている人々の機会がAIによって混乱させられることを懸念しています」と彼は言います。これは多くの人が気付いていないことの一つです。
働く機会の多くがAI技術によって奪われることになります。例えば、グラフィックデザインのような仕事、ライティング、さらには副業としてのウーバーのような仕事、余分な現金を得るためにタクシー運転をしたい人々など、考えてみてください。
将来的には、これらの副収入を得るための小さな機会の多くが、AIの急速な普及によって完全になくなってしまうでしょう。
もはやライターを雇う必要はありません。声優も必要ありません。送迎してくれる人も必要ありません。カスタマーサービスもほとんど必要ありません。そして、多くの企業の多くの下位の役職が完全になくなるか、AIにアウトソースされることになります。
これは非常に悪いことです。なぜなら、それらの分野で必死に仕事を必要としている人々が、やることがほとんどなくなるか、他の産業で仕事を見つける必要が出てくるからです。
驚くべきことに、彼は「人々は早期に退職できる可能性がある」と述べ、「生活のために働く義務を取り除くことは、AIとAGIを構築する最も強力な論拠の一つである」と言っています。
そして、「長期的には一部の人々が働き続けるだろうが、以前よりもインセンティブが弱くなるかもしれない」と述べています。もちろん、これが事実かどうかは、文化的要因や政策的要因など、さまざまな要因に依存します。
これはもちろん、私たちが準備する必要のあることであり、基本的に彼はここで「ポストワーク世界への単純な移行は文明の停滞をリスクにさらす。『WALL-E』を見てください」と言っています。
もしWALL-Eを知らない方がいれば、基本的に説明させていただきます。WALL-Eという映画があります。この映画には、このような小さなロボットがいます。
このロボットは基本的に、人々を地球に戻すことができるように、地球上での最初の生命の兆候を見つけようとする小さなヘルパーです。
しかし、それが全体の前提ではありません。私が言いたいのは、この映画では、テクノロジーが非常に進歩しているため、人々は文字通り、巨大な怠け者になってしまい、進んだテクノロジーが単にすべてを行うため、何もしなくなっているということです。
みんなが太りすぎになる未来について考えるのは完全に笑い話に聞こえるかもしれませんが、今から100年後を想像してみましょう。
AIとASIが絶対にすべてを行うことができ、人型ロボットがすべてを行うことができる場合、ほとんどの人々はどちらにせよ働きたくないので、人々が単に自分たちの労働の成果を楽しんでいる文明の停滞に達する点に到達するのでしょうか?
このブログ記事を読むまで本当に考えたことのなかった、壊れた質問としては興味深い考えです。
もちろん、ここはギャップが現れ始める部分で、これは実際にかなり懸念されることです。彼は「デフォルトでは、無料と有料のAI能力の間のギャップが広がっていく可能性が高い」と言っています。
これは本当だと思います。新しいコンピュート・パラダイムのためです。彼は「レート制限以外は全く同等だった短い期間がありました。つまり、40が最高の利用可能な有料モデルであり、また無料でも使用できた時期です。
しかし、その時代は過ぎ去り、企業がより多くの支払いをする意思のある人々のためにテストタイムコンピュートを活用しようとするにつれ、すぐに遠い記憶となるでしょう」と述べています。
「格差がまったくあってはならないと言っているわけではありませんが、適切なレベルは何か、そして認知的な持つ者と持たざる者の世界に私たちが知らず知らずのうちに足を踏み入れているのではないかということについて、思慮深くあるべきです」と彼は言います。
これはかなり懸念されることです。なぜなら、基本的に彼は「将来、このパラダイム全体がテストタイムコンピュートに基づいている場合、より知的なモデルにより多くのお金を支払える人に基づくことになる」と言っているからです。
より多くのお金を持っていてより知的なモデルにアクセスできる場合、本質的により多くのことを成し遂げることができます。
そのため、電気のように基本的な理解のレベルがあるテクノロジーではなく、より多くのお金を投入すれば本質的にモデルからより多くの知性を引き出せるという状況で、そのパラダイムのスケールが真実であれば、データセンター上に存在する認知的な神々にアクセスできる億万長者や大金持ちと、そのコンピュートに支払う余裕のない人々との間で、認知的な持たざる者の側にいる場合はかなり厳しい時期になるということを意味します。
これは、私たちが残念ながら知らず知らずのうちに向かっている可能性のあることです。
全体として、彼は基本的に「人類がどのようにしてAIとAGIが人類全体に利益をもたらすことを確実にするかについての大きな絵について議論する必要があり、現在提供されている選択肢はあまり説得力がありません。多くは実際に評価するには漠然としすぎています」と述べています。
このブログ記事を読んで、皆さんはどう思われますか?AGIの未来に人々は準備ができていると思われますか?
私個人としては、人々はAIの未来に準備ができていないと思います。私は実際に、AIに備える必要があるという事実について話していたプライベートコミュニティを立ち上げました。
なぜなら、誰も本当に影響に対して準備ができていないと思うからです。そして、それは私のグループで取り組んでいることで、文字通り移行から最大限の利益を得る方法に焦点を当てています。
そのグループが試みていることのTL;DRは、基本的に「AGIが爆発的に成長し、これらの企業が狂ったような評価で前進しているとき、少なくとも正しい資産を持っていることを確認する必要があります。
そしてもちろん、将来のために富を蓄えることを確認する必要があります。なぜなら、ポストワーク世界に移行する際に、それは本当に奇妙な希少な時期になると思うからです。
人々が世界に経済的価値をもたらす方法が正確には明確ではなくなるでしょう」ということです。
要するに、あなたが10倍の速さで24時間、10倍の知性を持って10倍の仕事をこなせるデータセンター上のAIロボットを持っている場合、どうやって競争することができるでしょうか?
これは私が将来について考えていることです。
とはいえ、コメント欄で皆さんの考えや理論を聞かせてください。皆さんがどう考えているのか、ぜひ見てみたいと思います。
でも、いつものように素晴らしい一日を。

いいなと思ったら応援しよう!