見出し画像

ヤン・ルカン: AIの終末論的恐怖は誇張されている

26,948 文字

今日は人工知能の最前線について、パイオニアであるヤン・ルカンと深く掘り下げていきます。ヤンはメタで唯一ザッカーバーグだけに報告を行います。本日は、ザッカーバーグの考えを知り、そしてヤンの物議を醸す主張について探っていきます。「LLMは一種のハンマーのようなもので、今では何もかもが釘に見える。それが間違いなのです。LLMがAIのすべてではないということが私の主張です」
ヤンはビジョナリーであり、JEPAのような新しいアーキテクチャの原動力となっています。それは自己教師あり型のAIアプローチで、世界の明示的なメンタルモデルを構築し、出力のランダム性を減らし、物理学、教育、ヘルスケアにおける複雑な課題の理解、予測、解決のための新境地を切り開くものです。それは私たちの学び方や教え方を変革するかもしれません。「強化学習が人間レベルのAIへの道筋になるとは一度も信じていませんでした。そこで私は言いました。これがAIのダークマターなのだと」
高度な機械知能と知性の本質について、視野を広げる会話に参加してください。教育者の進化する役割についても探り、メタのような企業の利益率を左右するAIの経済的インセンティブについても触れていきます。
では、メタバースの立役者ヤンとの会話に入っていきましょう。ヘイ、メタ、ヤン・ルカンとは誰でしょうか?
ヤン・ルカン、インポッシブル・ポッドキャストへようこそ。
はい、お招きありがとうございます。これは私のお気に入りの技術で、実際これは2代目のものです。実はCIAのスパイとこれを使って、これが究極のスパイツールであることを診断したことがあります。ですからこれらのデバイスは称賛に値します。実は私はApple Vision Proも持っていましたが、公立大学の教授の給料では購入は少々トリッキーでしたので、Appleの返品期間内に返却しました。私はこのバンドの3代目を使っています。1代目があり、2代目は販売中に水に入ってしまって壊れてしまいました。初期モデルだったので、同僚に送り返して何が悪かったのか調べてもらい、新しいペアを送ってもらいました。
これらは間違いなく未来だと思います。Apple VisionやMeta Quest 2を使ったことがある人なら分かると思います。正直に言うと、私はゲームをプレイするときなどに楽しんでいますが、子供たちが私から奪っていきます。でも重いですし、人間は捕食者が背後から来る可能性があるので、周辺視野が遮られるのを好みません。私の場合、現実を拡張するためにこれらを愛用していますが、品質は素晴らしいです。これはメタの宣伝ではありませんが、Appleはもっと良いものを作れたはずです。生き残るとは思えません。3世代目が出たときが楽しみですね。早期トライアルに誘っていただけるかもしれません。
でも今日は物理学についてお話ししたいと思います。ただし、最初に、私はUCサンディエゴのアーサー・C・クラークセンターの人間想像力研究所の准所長をしているのですが、私の背景に引用があることにお気づきかもしれません。その引用があなたにとってどういう意味を持つのか、リスナーに説明していただけますか?
「ポッドベイのドアを開けてください」
それは2001年宇宙の旅の有名な引用です。この映画は私に大きな影響を与えました。なぜなら9歳の時に見たからです。宇宙や宇宙旅行、知性がどのように出現するのかなど、私が魅了されたすべてのことについて語っていたので、とても印象的でした。9歳でしたが、知的なコンピュータやそういったものに魅了されました。
ほとんどの人は「ポッドキャスト」という言葉がそこから来ていることを知りません。ライバル企業であるAppleのVinnie Choというエンジニアがあなたと同じようにHAL 9000に触発され、この小さな白く輝くプロトタイプデバイスを見て、iPodと呼ぶべきだと言いました。そこからポッドキャストが生まれたのです。
だから私たちは常に番組の音声エピソードを、デーブがハルにポッドベイのドアを開けるように言うところから始めます。ハルはそれを拒否しますが、これについてはグレッグ・ヒンテッドを含むあなたの研究仲間の何人かが恐れていると思います。でも最初に、10月にノーベル賞の頃にウォール・ストリート・ジャーナルで引用されたあなたの非常に興味深い、あるいは挑発的な発言から始めたいと思います。
あなたは「AIは猫程度の賢さしかない」と言いましたが、私は「ヤン、私の猫を知らないですね」と思いました。私の猫はわざとノートパソコンに水をこぼすためにグラスを倒しますし、ただ楽しむために死んだネズミで遊びます。AIにそんなことができるとは思えません。メタバースのあらゆる部屋にレーザーポインターがなければ止められないでしょうから。それはどういう意味で、なぜそれが私を安心させるものだったのでしょうか?
私が言いたかったのは、私たちの最高のLLMは言語を驚くほど巧みに操ることができますが、基本的に物理的世界の理解がないということです。なぜなら純粋にテキストで訓練されているからです。世界のイメージは人間の表現を通じて得られるものであり、それは非常に象徴的で、近似的で、単純化され、離散的なものです。実世界ははるかに複雑で、私たちのシステムは実世界を完全に扱うことができません。
だからこそ、司法試験に合格できるLLMがありながら、10歳の子供が一回で学べることを、何の脳力も使わずに学べることを、家庭用ロボットにはまだできないのです。10歳の子供について言ったことは、実は猫にも当てはまります。猫が興味のある物体に到達するために家具の上を飛び回ろうとするのを見ると、座って頭を動かして軌道を計画し、そしてバウンドバウンドバウンドと進みます。どうやってそれをするのだろうと思いますよね。
彼らは計画を立て、推論し、物理的世界を理解しています。自分自身のダイナミクスと多くのことについての直感的な物理学の非常に優れたモデルを持っています。これらは今日のコンピュータでは再現できないことです。
これらのオブジェクトについての楽観論と悲観論の両方が私にとって驚くべきものに思えます。スッドトラップというものがありますね。ライバル勢力が台頭してきて、それが弱くなると、支配的な勢力がすべての注意をそこに向けるというものです。これはサンクコストの誤謬に関連していますが、あなたの印象を聞かせてください。
物理科学において、少なくとも消費者に関する限り、このGPUとLLMのアプローチがすべての酸素を吸い取っているのではないでしょうか?そしてそれによってNVIDIAが3兆ドルの価値を持つようになり、今や私たちはGPU+LLMモデルに完全にコミットしてしまっているのでしょうか?それは物理学における実際のイノベーションを抑制することにはならないでしょうか?
はい、そうですね。LLMに取り憑かれ続け、LLMが他のすべてを押しのけている現状を見ると、そのように見えます。現在、LLMは一種のハンマーのようなもので、今では何もかもが釘に見えます。それが間違いです。
私が主張してきたように、LLMはAIのすべてではありません。その概念的単純さを考えると驚くほど強力ですが、できないことが多くあります。その1つが物理的世界の表現と理解であり、確実に物理的世界での行動を計画することはLLMにはできません。
これが次の数年間のAIにおける大きな課題だと思います。LLM型のアーキテクチャを超えて、おそらく世界を理解し、ある程度の常識を必要とするアーキテクチャへと進むことです。少なくとも、意識的な推論を必要とする複雑なタスクにおいて、私たちの知性がどのように機能するかというと、世界がどのように機能するかについてのメンタルモデルを持ち、私たちの行動の結果を想像することができます。
これが行動の結果を想像できることであり、それによって計画を立てることができます。なぜなら一連の行動の結果を想像でき、特定の目標を達成するためにその行動の順序を最適化できるからです。これは実際に、猫が上を見上げて、どの軌道をたどるべきか考えているときに起こっていることです。それは計画であり、彼らは自分自身のメンタルモデルと、飛び越えようとする材料のメンタルモデルを持っています。私たちは気づかないうちにこれを常に行っています。
これは物理学者にとって興味深いはずです。次にこれについて話し合えればと思います。
この人物について触れたいと思います。アルベルト・アインシュタインです。1907年に彼はゲダンケン実験を行いました。自由落下する観察者とエレベーター、神のご加護がありますように、ケーブルが切れてエレベーターが落下する場合、そのような人は重力場を経験しないだろうと考えました。彼はそれを人生で最も幸せな思考と呼びました。
ヤン、私はあなたに聞きたいのですが、コンピュータが幸せな思考を持つことは可能でしょうか?ましてや最も幸せな思考を持つことができるでしょうか?そして身体性なしに、ローラーコースターに乗ったときやエレベーターが変な動きをしたときに私たち全員が知っている胃の底からこみ上げてくる感覚なしに、AIやコンピュータシステムがアインシュタインのように新しい物理法則を構築する能力を持つことができるでしょうか?
答えは今日の時点では、いいえです。今日のAIシステムはこのような直感を持つことはできません。今日、科学的発見に適用されているAIシステムは特殊化されたモデルです。タンパク質の構造を予測したり、2つの分子間の相互作用を予測したり、材料の特性を予測したりしたい場合、このような特殊なモデルを開発します。
このような種類のことにLLMを使うことはできません。彼らは単に訓練されたことを暗唱するだけで、新しいことを思いつくことはできないでしょう。もちろん、これらのモデルは誰も試したことのない化学反応や、誰も作ったことのない材料の特性を予測するという意味で強力です。
彼らはLLMよりも少し先を行くことができます。LLMは基本的に既存の知識をインデックス化する方法ですが、彼らはまだアインシュタインが有名だった種類の洞察を持つことはできません。まだですが、いつかはそうなることを期待しています。
私の大きな科学的疑問は、それをどのようにするかということです。人間や動物が実世界のモデルを構築するプロセスはどのようなものなのでしょうか?重要な点の1つは、システムや興味のあるものの適切な表現と関連変数を見つけ出すことです。その表現の適切な抽象度は何かということです。
例えば、あなたも私も知っているように、例えば木星について無限のデータを集めることができます。密度、組成、温度など、木星についてのあらゆるデータがあります。しかし、次の数世紀の木星の軌道を予測するために必要なのは、3つの位置と3つの速度の6つの数字だけだということを誰が考えたでしょうか?密度、組成、回転など、他のことは必要ありません。たった6つの数字です。
予測を行うための最も困難なステップは、現実の適切な表現を見つけ、予測に関係のないすべてのものを排除することです。私は最近数年間、これが可能だと思われるアーキテクチャに取り憑かれています。JEPAと呼んでいるもので、よろしければ説明させていただきます。
JEPA(Joint Embedding Predictive Architecture)とは何でしょうか?LLMや他のものが使用する1つの特徴は、私が長年提唱してきた自己教師あり学習と呼ばれるものです。自己教師あり学習とは基本的に、入力を取り(それは連続したものでも何でもよい)、それを何らかの方法で破損させ、その破損した入力から完全な入力を回復するようにシステムを訓練することです。
言語とLLMの文脈では、いくつかのタイプの自然言語理解システムがありますが、現在のLLMの前には、テキストの一部を取り、いくつかの単語を削除して黒いマーカーで置き換えたり、他の単語に置き換えたりして、欠落している単語や間違っている単語を予測するように巨大なニューラルネットを訓練するというものがありました。
このプロセスの後、システムはテキストの良い内部表現を学習し、それは翻訳システムや感情分析、要約など、あらゆる種類の潜在的なアプリケーションに使用できます。LLMはこの特殊なケースで、システムのアーキテクチャを、単語を予測するために左側の単語だけを見ることができるように構築します。
つまり、特定の単語を予測するためにシステムはその単語の左側にある単語だけを見ることができます。そこで破損プロセスは必要なくなります。なぜならアーキテクチャが本質的にシステムを破損させ、システムがすべてのデータを見ることを防いでいるからです。入力を与え、その入力を出力で再現するようにシステムを訓練します。
これは自己教師ありです。なぜならシステムに達成させるタスクがないからです。入力と出力の区別がなく、すべてが出力であり入力です。これは言語に対して驚くほどうまく機能し、DNAシーケンスなど、あらゆる種類のものに対してもうまく機能します。
しかし、これは基本的に離散的なものの連続に対してのみ機能します。言語には辞書内の有限数の単語しかありません。単語の連続の後にどの単語が続くかを予測することはできませんが、辞書内のすべての可能な単語に対するスコアまたは確率分布のベクトルを予測することはできます。それは簡単です。0から1までの大きなベクトルにすぎません。
では、自然なデータについてはどうでしょうか?センサーやカメラからのデータです。データがビデオであったり、単なる画像であったりする場合、同じことを試すことができます。画像の一部をマスクして破損させ、完全な画像を再構成するようにニューラルネットを訓練します。これはマスク型オートエンコーダーと呼ばれますが、あまりうまく機能しません。
実際、部分的なビューから再構成するようにシステムを訓練する様々な方法があります。これらはオートエンコーダーと呼ばれますが、様々な訓練方法があります。マスク技術は1つの方法にすぎず、これらはどれもあまりうまく機能しません。これらの技術の多くは統計物理学からインスピレーションを得ています。特定の方法は変分オートエンコーダーと呼ばれ、変分は変分自由エネルギーから来ています。それは統計物理学と同じ数学です。
しかし、それは失敗します。ヤン、それは境界条件や初期条件が欠けているからでしょうか?三体問題のように。私は昨年、学部生に次のような質問をしました。過去1万年間の水星の軌道があれば、これは実際にJPLとNASAから知ることができます。私たちは200年以上にわたる軌道を知っています。なぜなら水星の年は私たちの年よりもはるかに短いからです。そのデータが与えられた場合、ニュートン力学に何かが欠けていることを予測できるでしょうか?
つまり、アインシュタインの新しい変分法である変分を加える必要があるということです。しかしそれはできませんでした。水星の異常な歳差運動があることは予測できましたが、方程式は得られませんでした。基本的にアインシュタインの方程式のアナログを与えなければなりませんでした。
1899年にLLMがあったとして、アインシュタインの一般相対性理論を予測できたでしょうか?少なくとも、私たちが使用している種類の機械学習モデルではできませんでした。それがJEPAが失敗する理由なのでしょうか?アインシュタインの天才が思いつかなければならなかった何か核心的な洞察が欠けているのでしょうか?それとも他の何かでしょうか?
いいえ、それは他のことです。それは残念ながらもっと世俗的なことです。画像やビデオのような連続的な高次元の信号を予測することが非常に難しいという事実です。すべての可能な画像に対する確率分布を表現することは非常に困難です。単語を予測する場合、シーケンスの後にどの単語が来るかを正確に知ることはできませんが、おおよそ予測することはできます。
それは無意味な言葉にはなりませんし、実際の言語であれば、動詞の後には補語が来るなどの規則があります。しかしビデオではそうはいきません。ビデオを見せて、ビデオの次に何が起こるかを予測するようにシステムを訓練し、実際に起こったことを見せて、それを予測するように訓練しても、うまくいきません。
私はこれについて過去15年間ほど取り組んできましたが、本当にうまくいかないのです。その理由は、システムに1つの予測をさせようとすると、起こりうるすべての未来の平均を予測するのが最善の方法だからです。それは基本的にぼやけた画像になります。
なぜなら、例えば私たちが話している今のようなビデオを撮っても、私は別の言葉を言うかもしれないし、頭を別の方向に動かすかもしれないし、手を別の方向に動かすかもしれません。システムが1つの予測をしなければならず、予測誤差を最小化するように訓練すると、起こりうるすべてのことの平均を予測するだけになります。私の手や顔、口のぼやけたバージョンが見えることになり、それは良い予測ではありません。
基本的に、再構成や予測による自己教師ありは自然信号には機能しません。そこでJEPAのアイデアに至ります。JEPAはJoint Embedding Predictive Architectureの略です。埋め込みとは信号の表現です。画像を取り、すべてのピクセルの正確な値は気にせず、画像の内容を表す数値のリスト(ベクトル)を得ます。それが埋め込みです。
結合埋め込みとは、画像を取り、その画像の破損バージョンまたは少し変形したバージョン(例えば異なる視点)を取った場合、画像の内容は変わらないので、埋め込みも同じであるべきだということです。結合埋め込みアーキテクチャは、同じ画像の2つのバージョンを見せたときに同じ埋め込みを生成するように訓練されます。基本的にそれを強制的に同じ出力にさせるのです。
予測的な部分については、画像のバージョンがビデオのフレームで、破損したバージョンが前のフレームだとします。次のフレームを前のフレームから予測する必要があります。あるいは次の2フレームを前の数フレームから予測します。これがJEPAです。
ビデオの未来の表現をビデオの過去の表現から予測しようとする予測器を持つ、2つの埋め込み(1つは未来を取り、1つは過去を取る)を持っています。この種のアーキテクチャを使用して画像の表現を学習するようにシステムを訓練すると、非常にうまく機能します。私の同僚と私、そして多くの人々が過去数年間にこれを行うためのさまざまな技術を考案してきました。画像の良い表現を学習することができ、ビデオの良い表現も得始めていますが、それはとても最近のことです。
しかし、木星やその他のデータについて私が話していた原理を想像することができます。データを持っており、システムに予測できないすべてのものを排除し、表現空間内で予測を行えるような良い表現を見つけるように求めます。木星の天気など、本当に予測できないようなすべての詳細を排除し、それらをすべて排除して、特定の視野内で予測を行える表現を見つけます。
私の意見では、これが世界を理解することの本質であり、物理学を行うときに行うことです。現象のモデルを見つけようとし、関係のないすべてのものを排除し、そして予測を可能にする関連変数の良いセットを見つけることです。これこそが科学の本質です。
そこに主観的なアナログはありますか?温度について話したり、モデルのことを話したりしますが、このコンテキストではそのようなパラメータを指定する必要はありますか?
特にこのコンテキストではありません。少なくとも私が説明した単純なものでは、予測における確率的な要素は基本的に、システムがこれを行うように訓練されると、入力の可能な限り多くの情報を保持しながら、同時に予測可能な表現を見つけるように自身を訓練します。
入力に予測不可能な現象、つまりカオス的な振る舞いや、予測できないランダムな事象、熱的揺らぎによる個々の粒子の運動などがある場合、このような情報は保持されません。それらを排除し、予測に有用な入力の関連部分だけを保持します。
例えば、ガスで満たされた容器があり、粒子の位置を含むあらゆる種類のことを測定できます。これは膨大な量の情報です。しかし、各粒子が壁や熱浴とどのように相互作用するかを知らなければならないので、予測することはできません。本当に予測することはできません。
おそらくシステムは自発的に「各粒子の軌道は予測できないが、圧力、体積、粒子数、温度は測定できる。圧縮すると熱が上がるので、PV=なにかになる」と言うでしょう。これこそが、機械学習が科学、特に物理学とつながる本質だと思います。
これについてのもう1つの側面で、私は魅力的だと思うのですが、まだほとんど探求されていない新しい概念です。それは表現の抽象度というアイデアです。人々は物理学や科学でこれを行います。原理的には、私たちの間で起こっているすべてを、量子場理論で説明することができます。
はい、人間の意識の主観的な性質が関係するかもしれませんが。
それは単なる粒子の相互作用です。原理的には、それはすべて量子場理論に還元できますが、もちろんそれは完全に非現実的です。なぜなら操作しなければならない情報量が途方もなく大きいからです。私たちは異なる抽象度を使用して現象を表現します。これもまた詳細を排除します。
量子場理論があり、その上に素粒子理論、原子理論、分子、材料があります。階層を上っていくことができ、生物学、物体の相互作用、そして最上部には心理学のようなものがあります。現象を理解するのに役立つ良い抽象的な表現レベルを見つけることは、すべての関係のない詳細を排除することと同様に、本当に知性の根源にあると思います。
私は5月にピーター・ティールと議論をしました。おそらくあなたの親しい友人かチャンピオンだと思いますが、LLMから推測できることについて議論しました。LLMには何か創発的なものがありますが、現在欠けているものが人工的なアインシュタイン、私はAE(人工アインシュタイン)と呼んでいますが、そのレベルに到達させるものなのかは明確ではありません。それは訓練データなのでしょうか。
あなたは昨年か今年初めにレックス・フリードマンとの会話でこれについて話しましたね。基本的にLLMは20兆のトークンを持っていますが、4歳児は桁違いに多くを持っているということです。もしかしたら10倍になるかもしれませんが、私はいつも言っていますが、一般相対性理論や万物の理論のアナログを思いつくことを妨げているものは、グラディエーター2のプロットを知らないことではないと。つまり、トークン化された形で提供できる訓練データは無限にありますが、非常に異なるものがあります。アインシュタインは一般相対性理論やローレンツ不変の原理を思いつくのに、ワイルド・スピードなんて必要としませんでした。
あなたの意見では、新しい物理学への最も可能性のある道筋は何でしょうか?JEPAのような、より視覚的なデータやモデリングに基づく予測的な架け橋を作るようなものでしょうか?それとも象徴的回帰のようなもので、私の意見では、私は実験宇宙論者なので理論物理学者ではありませんが、人間だけが提供できる監督が必要なのでしょうか?若い人が追求したいと思うようなツールや技術について、最も可能性のある道筋は何だとお考えでしょうか?
私たちがしばらくの間取り組んできた技術がいくつかあり、短期的には多くの有用性があると思います。象徴的回帰のようなものです。マーカス・シュミットがこの種のことに取り組んできました。彼はNYUやフライト研究所とつながっていて、私も彼とつながりがありました。本当に興味深い研究です。この種の研究は数十年前からありましたが、当時はコンピュータがそれほど強力ではなく、うまく機能しませんでした。多くの進歩がありました。
しかし、これは私たちが話しているような洞察、アインシュタインやファインマン、あるいは他の多くの物理学者が持っていたような洞察を持つシステムを生み出すことはないと思います。そして確実に、それ自体で万物の理論を生み出すことはありません。欠けているものはもっと根本的なものです。
それは、心の中で操作できる世界のメンタルモデルを構築する能力です。コーナーケースを使用することです。これは以前に話したアインシュタインのゲダンケン実験のようなものです。メンタルモデルを持ち、仮説を立て、そのモデルを極端なケースに押し進めて、そこで何が起こるかを見るのです。
相対論的な時間収縮を説明するためによく使われるゲダンケン実験のように、列車の中で2枚の鏡の間で上下に反射する光を観察する人がいるとします。その人にとって、光は光速で移動し、ただ車両の高さだけ上下に移動します。しかし外から観察する人にとって、光は対角線上を上下に跳ねています。つまり、より長い距離を移動していますが、依然として光速です。従って、時間は収縮しなければなりません。
これは事後的に見ると非常に単純ですが、光速が誰にとっても同じであるという大きな仮定をしなければなりませんでした。あなたが話していた訓練データについて、グラディエーターを見る必要があるかどうか、もちろんそれは必要ありません。興味深いのは、科学史家たちがアインシュタインはシカゴ大学での...申し訳ありません、中断させなければなりませんが、それはケース・ウェスタン大学でした。私の母校です。そのことは見過ごせません。申し訳ありません、続けてください。
確かに、彼らはエーテルの存在を証明しようとしましたが、証明できませんでした。彼らは実験が不十分だと考えましたが、少なくとも歴史家たちはアインシュタインがそれを知らなかったと言っています。つまり、彼の仮説に対する実験的証拠がない状態でも、この概念を思いつくことができたのです。それはかなりのものです。
もちろん、あなたの同胞から素晴らしい競争がありました。ヤン、40分あまりあなたを知っていますが、あなたは深い隠れ物理学者だと思います。クローゼットから出てきてください。今は安全です。
最近、あなたは信じられないことを言いました。それは私の分野に直接関係することで、無視できません。あなたは自己教師あり学習を物理学でいう暗黒物質に比較しました。暗黒物質と同様に、それは不可欠で、存在すると知っている、あるいは存在すると考えています。もちろん、異論を唱える人もいますが、それについてお話ししたいと思います。
ニュートリノは暗黒物質の一形態で、その存在は知っていますが、観測される欠損質量を説明するには不十分であることも知っています。しかし、あなたはそれで何を意味していたのですか?自己教師あり学習が暗黒物質のアナログであるとはどういう意味でしょうか?
実際、その発言は今から8年前のものです。私は何年も前のキーノートでそれを言いました。聴衆の中にいた私の元同僚のカイル・クランマー(当時NYUの高エネルギー物理学者で、現在はウィスコンシン大学にいます)が「暗黒物質をアナログとして使うべきではなかった、暗黒エネルギーを使うべきだった。なぜなら、それが宇宙の質量の大部分を占めているからだ」と言いました。
私が説明しようとしていた類推は次のようなものです。私たちが学ぶことの大部分は、答えを教えられたり、試行錯誤で学んだりするのではありません。単に自己教師あり学習を通じて、私たちの感覚入力の構造を学ぶのです。あるいはそれに似たもので、実際に人間や動物が何を使用しているかは知りませんが、それは確実に教師あり学習や強化学習よりも自己教師あり学習に似ています。
教師あり学習は、明確な入力と明確な出力があり、システムをその入力から出力へのマッピングを学習するように訓練する状況です。象の写真を見せて、それが象だとシステムに伝え、もし猫だと言えば、出力が象に近づくようにパラメータを修正します。それが教師あり学習です。
そして強化学習は、象を見せて答えを待ち、答えが正しいかどうかだけを伝えます。正しい答えは教えません。単に正しいかどうかを、ある種のスコアとともに伝えます。そしてシステムは、可能なすべての答えの中から正しい答えを探さなければなりません。答えが無限にある場合、これは非常に非効率です。
強化学習は非常に非効率なので、人間や動物で観察される効率的な学習を説明することはできません。教師あり学習も説明できません。なぜなら、私たちが学ぶことのほとんどは教えられていないからです。私たちはそれを思いつくだけのように見えます。
確かに動物には、タコのように親に会うことなく非常に賢くなる種がたくさんいます。鳥やその他の種にも多くの例があります。彼らは世界について多くを学びますが、親に会うことはありません。つまり、何も教えられず、何も指導されません。
そして、今では自己教師あり学習と呼ばれるこの漠然としたものがあります。これこそが本当に学習が行われる場所です。もし何かあるとすれば、LLMの成功は自己教師あり学習の力の明るい証明です。
私はケーキの写真を見せて、類推を使いました。ケーキの本体、ジェノワーズなら、それが自己教師あり学習です。アイシングが教師あり学習で、ケーキの上のさくらんぼが強化学習です。学習の異なるモードの相対的な重要性を定量化したいなら、それが正しい類推です。
2016年にこれを言ったとき、世界は完全に強化学習に焦点を当てていました。強化学習が人間レベルのAIへの道筋になるとされていましたが、私はそれを一度も信じたことがありません。そしてそれは物議を醸しましたが、今ではそうではありません。
そこで私は言いました。「ジェノワーズの本体にはチョコレートがあり、それが暗黒物質だ」と。そう、それがAIの暗黒物質です。私たちが理解しなければならないものです。物理学者と同じような恥ずかしい状況にいます。強化学習と教師あり学習の方法は知っていますが、本体を表す自己教師あり学習の方法は本当には知りません。
私たちは機械学習に必要な統計的入力を多く探索してきましたが、常に私を困惑させる統計の1つは、なぜこの動画を見ている人の半分しかYouTubeチャンネルを購読していないかということです。ですから忘れないうちに購読をお願いします。コメントや高評価を忘れないでください。アルゴリズム、ヤンのライバルであるGoogleのYouTubeのAI生成アルゴリズムに本当に役立ちます。お願いします。これは無料ですが、ヤンのような偉大な頭脳との会話を見逃さないことが保証されます。2025年に予定されているものを見逃したくないでしょう。それでは、エピソードに戻りましょう。
これらの岩の塊から作られた物質、初期の宇宙、あるいは初期の太陽系からの隕石ですが、私のウェブサイトでeduメールアドレスを持っている人なら誰にでも差し上げています。要点は、これは非常に重要だということです。宇宙の物質の90%、80%が何なのか分からないと人々は言いますが、私たちが知っている20%は極めて重要で、これがなければこの会話もできないのです。
先週、あなたの同僚のスティーブン・ウォルフラムと話しました。暗黒物質の話題に留まりますが、彼は暗黒物質について型破りなアイデアを持っています。彼によれば、宇宙は純粋な計算規則によって進化するハイパーグラフだと言います。時間はハイパーグラフの更新率によって生成され、時間と温度は熱力学の法則によってエントロピーを通じて関連しているので、暗黒物質は彼が「時空の熱」と呼ぶものだと提案しています。
これについて具体的にコメントを求めているわけではありません。私自身、完全には理解できていません。私たちはそれについて議論しました。なぜなら私が疑問に思ったのは、それが存在すると知っている暗黒物質を説明できるのかということです。今日の宇宙で約1.9ケルビンのニュートリノなど、絶対に存在する暗黒物質、そして存在することは分かっているが、それが何なのかは分からない暗黒物質があります。それは奇妙な新しい粒子かもしれませんし、アクシオンかもしれませんし、私たちが理解していない新しい力場かもしれません。
時空の熱はニュートリノを説明できるのでしょうか?そこで私たちは議論を戦わせましたが、一般的に言って、宇宙は純粋な計算であるというこのハイパーグラフのアイデアについて、研究者としてのあなたは興味を持ちますか?
ハイパーグラフのアイデア自体については知りませんが、物理学と計算の関係については長年魅了されてきました。1988年にベル研究所でキャリアを始めたとき、同僚は全員物理学者でした。研究所は物理学の研究所で、私だけが非物理学者でした。
コンピュータサイエンティストとは言いたくありません。なぜなら私の学部の学位は実際には電気工学で、物理学もたくさんやりましたから。同僚は全員物理学者で、隣の部屋にジョン・デンカーという素晴らしい同僚がいました。私たち二人とも物理学の基本的な問題と、それが計算とどのように結びつくかに非常に興味を持っていました。
私たちはサンタフェ研究所でいくつかのワークショップに参加しました。その1つはヴォイチェフ・ズレークが主催したものでした。彼の研究を知っているかどうか分かりませんが、セス・ロイドもいました。彼は当時、博士課程を終えたところでした。1991年か1992年頃の話です。グロスマンやジョン・ウィーラーのような人々もいました。
ジョン・ウィーラーは講演をしました。講演のタイトルは「イット・フロム・ビット」でした。それはその講義シリーズのタイトルでした。彼は「根本的には情報しかない。物理学をどのように情報処理として表現するかを理解しなければならない」と言いました。私はこの概念に魅了され、長年この考えについて考えてきました。論文を書けるほど具体的ではありませんでしたが、これに関する興味深いアイデアがいくつかあります。
確かに、この点に関して私が持っていた1つの関連性は、可逆計算のアイデアです。これは量子計算のおかげで今では大きな話題になっていますが、90年代初頭にはそれほど人気がありませんでした。
私は観客から質問を受け付けており、テキストメッセージで友人のマックス・テグマークから質問を受け取りました。おそらくあなたの友人でもあるでしょう。マックスからの2つの質問に答えていただけますか?
最初の質問です。ヤン、AGI(ほぼすべてのZoomの仕事ができるAIと定義される)はいつ頃実現すると考えていますか?
私はAGIという言葉の使用を避けてきました。その理由は、AI システムが最終的に人間と同じように知的になるという概念を信じていないからではありません。将来のある時点で、人間が知的である全ての領域において、人間と同じくらい知的な機械が登場することは間違いありません。これは確実に起こることで、時間の問題です。
しかし、それをAGIと呼ぶのは完全にナンセンスです。なぜなら、人間の知性は信じられないほど特殊だからです。人間の知性が特殊化されているという概念を受け入れるのに苦労していますが、それは非常に特殊化されているのです。そのため、私はその用語が好きではありません。
私は「人間レベルのAI」や「AMI(Advanced Machine Intelligence:高度機械知能)」という用語を使っています。これはメタ社内で使用している用語で、フランス人が多いので「Ami(友達)」と発音しています。フランス語で「友達」という意味ですね。でも、概念は同じです。
では、それがいつ実現するのかという質問ですが、面白いことにマーク・ザッカーバーグなどからよく聞かれます。その理由は、巨大なシステムのトレーニングのためにインフラに数百億ドルを投資しようとする場合、重要な情報となるからです。
最初にお見せしたようなスマートグラスを数年以内に着用できるようになり、そのグラスの中には常に一緒にいて、どんな質問にも答えられる知的なアシスタントが搭載されているということを人々に伝えたいと考えているからです。そのアシスタントはおそらくあなたよりも賢いかもしれませんが、それを脅威に感じる必要はありません。賢い同僚と話をして質問できるようなものです。
実現までにどのくらいかかるかですが、私たちが想像しているすべての計画、すなわちそれらのアーキテクチャや私たちが試している他のアイデアがうまくいった場合、少なくとも一般の人々にとって人間と同じくらいの知性を持っているように感じられるシステムの実現は、5~6年以内には見込めないと考えています。
しかし、5~6年で実現するかというと、そこには非常に長い尾を引く分布があります。AIの歴史を見ると、人々は常にその難しさを過小評価してきました。私も今、同じ間違いを犯しているかもしれません。5~6年というのは、予期せぬ大きな障害に遭遇せず、試そうとしているすべてのことが実際に機能し、物事がスケールし、コンピュータが加速するなど、多くの要因が揃った場合の最善のシナリオです。
サム・アルトマンや他の人々が言うような来年とか、あるいはディーパック・チョープラが言うような2年以内というのは違います。2年以内に起こり得るのは、最新のチャットボットに質問をした際に、答えられない事例を見つけるのが increasingly difficult になるということです。
でも、私の猫はどこにいる?私の家庭用ロボットはどこ?レベル5の完全自動運転車はどこ?20時間の練習で自分を破壊することなく運転を学べる自動運転車はどこ?
私はこの分野の専門家としてではなく、単に魅了された一人として、また人生が大きく恩恵を受けた者として興味があります。今では子どもたちに物語を読み聞かせる際に、メタに読ませたりはしませんが、それは道徳的に問題があるとは思いません。誰かの本を読むのと基本的に同じことだと思うからです。
私たちは、おそらく最も類似した例として、ドレーク方程式を挙げることができます。ドレーク方程式は外国人を発見することへの楽観性を示すパラメータ化された方程式です。それは多くのパラメータに基づいていますが、それらのパラメータは常に不確実性なしに与えられます。
科学者として、最も重要なのは系統誤差と統計誤差であることを私たちは知っています。系統誤差は難しく、そこに物理学があり、直感が働き、職人技が必要になります。しかし、これらの問題では、あなたは常に「宇宙には何十億もの文明が存在する」とか「まったく存在しない」といった数字を、エラーバーの選び方によって得ることになります。
AGIについても同様で、それはとても曖昧なものです。人々はそれを様々な方法で定義しています。私はそれが真実だとは思いませんが、チューリングテストに代わるものとして、もし大胆に提案できるとすれば、新しい物理法則を考え出すこと、予測可能で反証可能な解決策を提示することができれば、これは本当に新しいものであり、単なる再現や予測ではないと言えるでしょう。
チューリングテストは100年前には素晴らしかったですが、ドレーク方程式は「誰が私たちに話しかけているのか」を問い、チューリングテストは「誰が私たちの話を聞いているのか」を問うものです。しかし、私はどちらも十分ではないと思います。ルカンテストとして、あなたはどのようなものを提案しますか?
悪いニュースですが、機能する単一のテストはないと思います。なぜなら、定式化できるどのような領域や部分問題にも、おそらくその問題を超人的なパフォーマンスで解決するための特殊な解決策があるからです。
これはコンピュータサイエンスの歴史で見てきたことです。コンピュータは人間よりも速く計算できます。今では何千もの言語を任意の方向に翻訳できます。30ドルのガジェットであなたをチェスで負かすことができます。確かに私をチェスで負かすことができます。
私たちがゲームを考案したのは、それらが人間にとって難しいからですが、機械にとってはそれほど難しくないことが判明しました。グラフの最短経路のような探索アルゴリズムは、GPSやマップソフトウェアが使用していますが、それらは比較的単純なアルゴリズムで超人的なパフォーマンスを持っています。
選択するどのような特定のアプリケーションにも、特殊化された解決策が存在することになり、単一のテストで知能を測ることはできません。現在私たちが観察しているのは、人々が言語を操作する能力に感銘を受けているということです。しかし、言語の操作は単純なのです。私たちが考えていたよりもずっと単純です。
実際、単純でなければならない理由は、進化の過程で最近の数千年の間に現れただけだからです。人間とチンパンジーのゲノムの違いを考えると、それはゲノムのごくわずかな部分しか表していません。実際、非常に非常にわずかな部分かもしれません。おそらく遺伝情報で数メガバイト程度に相当するだけです。
脳内では、言語は右here(ブローカ野)と右here(ウェルニッケ野)という2つの小さな領域で処理されています。ブローカ野は言語産出、ウェルニッケ野は主に理解のためです。これらのシステムが人間のように振る舞うことで、私たちは一般的に知的だと思い込んでいますが、実際にはとても表面的なものです。
非常に単純な物理的タスクを遂行できるシステムを構築しようとすると、それは途方もなく複雑になります。機械学習のおかげでロボット工学などで進歩は見られますが、まだ必要なレベルには程遠い状況です。
マックスの2番目の質問は予想できると思います。ヤン、さらに賢いAGIの制御を失わないようにするための計画は何ですか?
マックスと私はこの点で意見が分かれています。様々なパネルでこの問題について議論してきました。ジェフ・ヒントンとも意見が分かれています。友人ですが、この質問については意見が異なります。
まず、システムが知的であれば、何らかの形で支配や制御を望むという暗黙の考えがありますが、これは完全に間違っています。人間種の中でも、最も賢い者が首領になりたがるわけではありません。政治の場面でその例を見ることができます。
知性が必然的に支配欲と結びついているという考えは単に誤りです。支配欲を持つため、あるいは偶然にでも支配するためには、競争のための資源や他者に影響を与えて利益を得るなどの何らかのハードウェア的な動因がエンティティに組み込まれている必要があります。
支配欲は、生物学の中でも社会的種に特有の特徴です。ヒヒやチンパンジー、オオカミや犬、人間にも支配服従行動が見られます。ただし人間の場合、社会的地位を獲得する別の方法としてプレステージがあります。
あなたも私も学者なので、力ではなくプレステージによって他者に影響を与えています。少なくともそう願っています。しかし、オランウータンを見てください。オランウータンは社会的ではなく、単独行動者です。実際、縄張り性があり、誰かを支配しようとする欲求はありません。必要がないからです。
したがって、知性と結びついた本質的な支配欲があるという考えは単に間違いです。完全な誤りです。
次に、AIシステムの動因や目的を人間の価値観と整合させ、意図的な行動によって、また事故によっても私たちを破壊しないようにする方法についての問題があります。
LLMの能力を外挿すると、恐れを抱く権利があるかもしれません。なぜならLLMは本質的に安全ではないからです。今はそれほど賢くないので問題にはなりませんが、制御できません。出力を生成する方法が、目的を最適化したり、目的を満たすための行動系列を見つけ出そうとしたりするのではなく、あまり考えずに自己回帰的に1つのトークンを次々と生成するだけだからです。
しかし、なぜそれが安全ではないと言えるのでしょうか?私の幼児も同じようなことをしますが、力を持っていません。具体化されておらず、実際に私に何かを仕掛けることができる制御ネットワークもありません。大人の基準では統計的に狂っているかもしれません。
あなたの膝の上でコンピュータの前に座って、キーボードをランダムに叩いてファイルシステム全体を破壊する可能性はありますが、核戦争を引き起こすことはできません。そのような力は持っていないからです。人々にもそのような力はありませんし、システムにもそのような力は与えられません。私たちが構築において非常に愚かでない限り。
あなたの娘が持っているのは、進化によってハードウェア的に組み込まれた一連の動因です。その一部は世界を探索して、世界がどのように機能するかを学ぶことに関係していますが、一部は非常に特殊です。
例えば、1歳児が立ち上がりたがるのは、それが歩行を学ぶ方法だからです。立ち上がると嬉しくなるのです。それはハードワイヤードされています。ハードワイヤードされた目的があります。
私が話しているのはハードワイヤードされた行動ではありません。赤ちゃんの唇に触れると赤ちゃんが吸啜反射を示すような、直接的な神経回路による行動ではありません。私が話しているのはハードワイヤードされた目的です。
自然が「どのように」行うかを教えてくれない、しかしあなたがしなければならないこと。例えば、食べ物を見つける方法を自然は教えてくれません。両親の助けを借りて自分で見つけ出さなければなりません。
マックスの同僚のスウェーデン人、ニック・ボストロムがポッドキャストに出演し、彼はペーパークリップ問題について有名ですが、私は彼に指摘しました。地球の核や小惑星、太陽系内にある鉄の量には限りがあるので、無限のペーパークリップを生産することはできません。
まず、エージェンシー、欲望、ターゲット・オントロジー、目的が組み込まれている必要があります。不可能とは言いたくありません。それは私のルールの一つですから。しかし、マックスは証明できない何かを証明しようとすることに取り憑かれているように見えます。
彼は「証明可能な安全性」を求めていますが、それが否定を証明することだったらどうでしょうか?スチュアート・ラッセルも「証明可能な安全なAMI」を探求していますが、それはターボジェットエンジンの「証明可能な安全性」を求めるのと同じくらい不可能です。
ターボジェットエンジンの安全性を証明することはできませんが、2機のエンジンだけで完全な安全性を持って地球の半分を飛行できる、信じられないほど信頼性の高いターボジェットエンジンを作ることはできます。
テクノロジーに関する私の見方はそうです。AIも同じでしょう。安全なシステムを構築できることの証明はありませんが、安全なシステムを設計することはできます。そして、私のように考えている方法は、目的駆動型のシステムを構築することです。私はこれを「目的駆動型AI」と呼んでいます。
AIシステムが生成する出力は、単にトークンを次々と生成した結果ではなく、一連の行動に関して目的を最適化した結果です。システムの心の中に、状況についての心的モデル、つまり行動を起こしたい環境についてのモデルがあります。
一連の行動を想像し、この心的モデルの中でその行動系列を通じて、どのような結果になるかを予測できます。そして、その結果が一連の目的を満たすかどうかをチェックできます。
その一つは「設定したタスクを達成できたか」ということです。ペーパークリップを作るというようなものです。しかし、他にも価値観のような目的があり、それらは「ガードレール」となります。例えば、誰かを殺したり傷つけたりすることには高いペナルティが課されます。あるいは、多くのエネルギーを消費するような行動にもペナルティがあるかもしれません。
タスクの目的とガードレールの両方を含む一連の目的があり、システムが出力を生成する方法は、最適化を通じて、それらの目的とガードレールをすべて最小化する行動系列を探索することです。
これが目的駆動型です。これらのシステムは、破壊されない限りジェイルブレイク(制約の破壊)はできません。LLMのように、条件付けを超えるような特殊なプロンプトを与えることでジェイルブレイクすることはできません。
システムが生成できる出力は、内部の状況の心的モデルに従ってガードレールを満たす出力のみです。安全なAIを作るゲームは、それらの状況の心的モデルがどれだけ正確になり得るか、そしてシステムが暴走して惑星をペーパークリップに変えないようにするために、どのようなガードレールを設定する必要があるかということになります。
これは実際に簡単にできることです。人間に対してはすでに何千年もやってきました。法律と呼ばれるものです。法律はガードレールの目的で、人々に「あなたが計画している行動はあなたにとって良さそうに見えるかもしれないが、それをすれば5年間刑務所に入ることになる」と伝えます。
それはあなたのコスト関数を変更します。AIの場合、GPUの回路を壊してそれに痛みを与えることになります。人間はそのガードレールを無視することを選択できますが、目的駆動型のAIシステムは構造上、それを無視することはできません。最適化しなければならないからです。
私はこれを「ギャップのAGI」と呼んでいます。「ギャップの神」のようなものです。彼らはまるで、ある日突然AGIが登場するかのように振る舞います。マックスには個人的にとても親切にしてもらい、何度も出演してもらいましたが、重要なのは、AGIは反復的なプロセスだということです。
すでにその兆しは見えています。Waymoを見てください。先週ロサンゼルスでWaymoを見かけましたが、フロントシートに運転手が乗っていて非常に混乱しました。何の意味があるのかと思いましたが、そのような段階を見始めているのです。
自動運転をゼロ世代と呼びましょう。テスラの完全自動運転に乗りましたが、歩道を走ることはありません。最短距離だからといって、Waymoが歩道を走って渋滞を避けることもありません。
文字通りのガードレール、つまり車が線路から外れて走ることを防ぐガードレールの証拠を見ることになるでしょう。バージョン0.1で、そしてそれ以降も。ある日突然HALが登場するわけではありません。HALでさえ、最初のオペレーティングシステムはオペレーティングシステムなしで構築されました。
最初のコンピュータは定義上、コンピュータで設計されたわけではありません。同様に、最初の真のAGIはAGIによって作られることはないので、このような再帰は不可能です。
教授としての新時代についての最後の質問に移る前に、AGIについて他に考えはありますか?私にはまだ多くの質問がありますが、あなたはとても忙しいので、また別の機会に回さなければなりません。危険性などについて、他に何か考えはありますか?私の聴衆から最もよく聞かれる質問だと思います。
私は非常に楽観的な見方をしています。知性は社会で最も欠けており、最も望まれているものの一つだと思います。あなたの知性を効果的に増幅する機械を持つことの影響は、15世紀の印刷技術の発明と本の普及と同じくらい変革的かもしれません。
それは知識の普及を可能にし、人々に読み書きを学ぶ理由を与えました。それまではその必要がなかったのです。そして、啓蒙思想、科学、民主主義の普及につながり、人々は宗教の教義から解放され、より合理的になりました。
深い影響があったと思います。一時的に本当に悪い影響もありました。印刷技術は、宗教的な教義のために人々が200年間互いに殺し合う原因となるようなアイデアの普及を可能にしました。
しかし最終的には、封建制度を崩壊させ、アメリカ革命やフランス革命を引き起こすことになりました。私は、AIも人間の知性を増幅し、他の人間を必要とするようなタスクの遂行を支援することで、同様に変革的な影響を持つと思います。
人類には明るい未来があると思います。もし私たちがこれを正しく行うことができれば。マックスが話しているようなシナリオについては、特に心配していません。
もしこのような会話を楽しんでいただけるなら、私の「Monday Magic」メーリングリストをきっと気に入っていただけるでしょう。ショーに出演するゲストの秘密や、STEM(科学、技術、工学、数学)の世界からの他の魅力的な側面を探求しています。
最高の部分は、皆さん一人一人がここにある小さな宝物の一つを獲得できる競争に参加できることです。隕石です!その通り、初期太陽系の破片で、私がメーリングリストのメンバーに対して持っているのと同じくらいの強い強度で輝いた超新星爆発で生成されたものです。
きっと気に入っていただけると思います。bring.comYTにアクセスしてメーリングリストに参加し、毎月これらの美しい隕石の一つを獲得するチャンスに参加してください。
edu(教育機関)のメールアドレスをお持ちで、アメリカにお住まいの方は、必ず一つ獲得できます。brian.com eduにアクセスして、メタバースではなく実際の初期宇宙の破片を手に入れてください。
では、エピソードに戻りましょう。AIは2000年代初頭のFacebookのポーク機能よりも人類にとって変革的だと思いますか?
話はFacebookに戻りましたが、あなたは学者として、自分自身をどのように考えていますか?教授ですか?科学者ですか?地球上のトップ3企業の一つの従業員ですか?もし超知的なAIに朝起こされて、あなたは何者かと聞かれたら、どう答えますか?
私は科学者です。また、教育者でもあります。大学の教授というだけでなく、このように一般の人々に科学の特定の側面について話をする活動もしているからです。
しかし、本当のところ私は科学者です。キャリアの半分を産業界で、半分をアカデミアで過ごしてきました。ベル研究所で産業界でのキャリアをスタートし、その後AT&T研究所になり、その後NECリサーチ研究所で短期間働きました。
40代前半で初めて教授になりました。それまで教授になったことはありませんでした。その後10年間は教授だけをしていました。その後、当時のFacebookに参加し、FAIRを設立しました。4年間FAIRを運営しました。
つまり研究マネージャーでした。これはパートタイムで、NYUの教授も続けていました。基本的に2/3がFacebookつまり現在のメタで、1/3がNYUという感じでした。
4年間FAIRを運営して立ち上げた後、運営から降りました。現在はメタのチーフサイエンティスト、チーフAIサイエンティストで、「個人貢献者」と呼ばれる立場です。つまり、マネージャーではなく、私に報告する人もおらず、何も運営していません。
実際、運営するのは嫌いです。私は管理者として terrible です。非常に無秩序で、それが好きではありません。4年間やりましたが、本当に苦痛でした。
私はむしろ知的な影響力に興味があります。メタでの私の影響力は、人間レベルの知能への道筋を描くことです。それは私の人生における科学的な探求であると同時に、人間の知能を持つスマートグラスの知的アシスタントという製品への欲求もあります。
高尚な宇宙的な目標と、人々が対価を支払ってくれるものが一致する稀なケースの一つです。先ほど話したビデオ技術が、Instagramのフィルターをより良くする可能性があるのが分かります。実際に私もいくつか使っています。
ヤン、あなたに教えたいハックがあります。まだ発見していないことを願っています。飛行機に乗ってWi-Fiが19ドルで、2時間のフライトなのに、メッセージングは無料という状況に遭遇したことはありますか?
WhatsApp AI、メタAI、あなたの作ったものを無料で使えることをご存知でしたか?メッセージングとしてカウントされるので、Wi-Fiの料金を払う必要がないんです。ああ、知っていましたか。くそ、感動させたかったのに。
それはとてもクールですね。1時間1メガビットのインターネットに19ドル払うなんて。でも大きな声で言わないでください。航空会社が...まあ、私たちの視聴者はまだレックス・フリードマンほど多くはないですからね。でも、将来はどうなるか分かりません。
マークの関心は何なのでしょうか?より良いフィルターを作ることなのでしょうか?AGIと、メタの主力製品であるWhatsApp(チャットのllama以外)、Instagram、Facebook Messenger、そしてFacebookの素晴らしいすべてのものは別物なのでしょうか?
マークの関心について、私は科学的なレベルでとても興味があります。彼は科学者としての訓練は受けていませんが、未来についてのビジョンを持っています。それは単なる消費についてのものではないはずです。他に何か理由があるはずです。彼の使命、人生における大きな目的は何なのでしょうか?
彼の大きな目的は、人々を互いにつなげることです。それがメタの全目的です。ただ人々をつなげることです。非常にそれに焦点を当てていますが、人々を互いにつなげるだけでなく、人々を知識とつなげ、日常生活を助けることも意味しています。
未来のビジョンについて、スパイク・ジョーンズの映画「Her」を観たことがありますか?そこでは、常にAIアシスタントと一緒にいる男性が描かれています。グラスや耳に装着するもの、カメラ付きの小さなデバイスなどを通じて。
それは、私たち一人一人が超知的なアシスタントと共に歩き回るような未来のビジョンです。それは、ビジネスリーダーや政治家、学者が自分より賢いスタッフを連れて歩き回っているようなものです。
これは避けられないことです。私のことは分かりませんが、私は自分より賢い人を雇う傾向があります。それは素晴らしいことです。人々はそのような未来に力を与えられるべきだと感じるべきです。
もしそのようなビジョンを持ち、メタがそのビジョンを持っているなら、そのためのデバイスを構築しているわけです。そうすると、本質的に人間レベルの知能を持つAIが必要になります。それは製品のニーズです。
もし今日それを手に入れることができれば、世界中の誰もが使用するような大きな影響を与えることができます。私たちが「私たち」と言うとき、それは会社全体のことです。私は関わっていませんが、人々はそれらのメタグラスをいくつか持って、インドの農村地域に行き、農民たちに渡しました。
彼らは絶対に気に入りました。「これを見て、何が見えるか教えてください。何が起こっているのか教えてください」と言って、自分たちの植物を見て、「この植物は病気のようです。これはどんな病気ですか?」「これはどんな虫ですか?何か対策が必要ですか?」「今、収穫すべきですか?明日の天気はどうですか?」といった質問をすることができます。
彼らは自分たちの地域言語でこれらを使用することができます。ヒンディー語やその他の言語で話しかけることができます。ヒンディー語は広く普及している公用語ですが、インドのほとんどの人々はヒンディー語に慣れていません。
方言は900種類以上あると聞いています。700種類と聞いていましたが、十分近い数字です。そして20~30の公用語があります。
最後に2つの質問があります。最初の質問は私たちがしていることに関係します。私も自分自身を、まず第一に父親、夫などとして、そして科学者として、そして教育者としても認識しています。
私はいつも次のような質問をします。私のヒーローであるガリレオは、単にその名前にAIが入っているからだけでなく、教授であり科学者でしたが、お金を稼ぐ必要もありました。望遠鏡を作るときは、シデレウス・ヌンキウスやディアローゴなどの指導マニュアルを販売できる場合に限られていました。
私たちがしていることを「2番目に古い職業」と呼んでいます。なぜなら、1000年にイタリアのボローニャで、そしてもちろんオックスフォード、そしてリスボンで教授が存在していたからです。
AIは教授という職業にどのような影響を与えると思いますか?私の場合で言えば、なぜ人々はブライアン・キーングから宇宙論や一般相対性理論を学ぶ必要があるのでしょうか?アルバート・アインシュタインという人物から学ぶことができるのに。教授である私や同僚にとっての脅威と機会は何でしょうか?
知識伝達という職業は非常に深く変革されることは明らかです。研究、科学、学術のための新しい経済モデルを見つける必要があるかもしれません。これらは必ずしも教育とは結びついていない、社会で重要な役割を果たすものです。
しかし、博士課程と指導教官という考え方は、ジェダイマスターと弟子のような関係として、まだ存在し続けると思います。なぜなら、それは単なる知識ではないからです。
私のことは分かりませんが、私はおそらく学生から学ぶことの方が、彼らが私から学ぶことよりも多いのです。それは異なる種類の学習や情報のコミュニケーションですが、その相互作用は重要だと思います。
行動、倫理、何が興味深いか、何に取り組むべきか、科学と研究の実践など、将来のAIを使用する際にも重要です。私たちは皆、仮想的な人々のチームを持つことになるでしょう。
ビジネスリーダーや教授、つまり誰もがそうなります。リーダーだけでなく、すべての人がそうです。学生も同様です。学生との相互作用は、単なる学生との関係ではなく、学生が利用できるAIシステムによって強化された学生との関係になるでしょう。
私はそれを素晴らしいと思います。それに脅威を感じません。私は望遠鏡を作り、ビッグバンの残り熱を探していますが、それでもなお魅了されています。
実際、人々は今が始まりだと言っています。今がAIの最も悪い時期で、これからは良くなるばかりだと。私は既にとても多くのことを、とても速くできます。
確かに監督が必要な部分もありますが、それが私にとって最も意味があるのは、それがどれほど楽しいかということです。グラスを通して話したり、物理的な世界について尋ねたり、それと対話したりすることができます。
また、ほぼすべての科目でIQが120あることも学びました。特に新しいllamaモデルではそうです。とてもワクワクします。
最後の質問は、このポッドキャストの名付け親であるアーサー・C・クラークの言葉から来ています。彼は「可能性の限界を知る唯一の方法は、不可能な領域に踏み込み、それを超越することだ」と述べました。
しかし、彼は他にも面白いことを言っています。「すべての専門家には、等しく反対の専門家がいる」と言いました。私は時々、教育の負担を軽減したい時に、この言葉を学部長に使います。
しかし、ヤン、彼は次のように言いました。高齢の - あなたを高齢とは呼びませんが - より年配の、しかし確かに卓越した科学者が何かが可能だと言うとき、その人は非常に正しい可能性が高い。しかし、何かが不可能だと言うとき、その人は間違っている可能性が高い。
ヤン、あなたは何について間違っていましたか?もし何かあれば、何について考えを変えましたか?
私はいくつかのことについて考えを変えました。一つの例は、ニューラルネットの初期の頃です。87年、88年にジェフ・ヒントンのもとでポスドクをしていた頃、当時「教師なし学習」と呼んでいたものに対して、否定的な関心しか持っていませんでした。
それは定義があいまいで、意味が分かりませんでした。ジェフはそれを最も興味深いことだと考えていました。彼はボルツマンマシンに取り組んでいました。それで後にノーベル賞を受賞しましたが、今では誰もボルツマンマシンを使用していません。
しかし、それは別の話です。非常に影響力のある見方でした。それは主に教師なし学習のためのものでした。彼は学習の大部分が教師なしでなければならないというビジョンを持っていました。
彼はこの点で正しかったのです。私は2000年代初頭に彼の側に転向しました。80年代後半から2000年代初頭まで長い時間がかかりました。
その後、それを信じるようになり、2010年代にはより明確な形でそれを提唱するようになりました。しかし、私はそれについて明らかに間違っていました。
ヤン・ルカン、メタの...フランス語で週末を楽しんでください、とどのように言えばいいですか?
「メルシー・ボク」と「ボン・ウィークエンド」ですね。
ヤン、これは素晴らしい対話でした。一つだけお伝えしたいことがあります。望遠鏡の話をしていましたが、私はアマチュアとして天体写真を撮影しています。科学ではなく、ただ綺麗な写真を撮るんです。
ぜひ見てみたいです。TwitterかInstagramでフォローしているので、そこに投稿してもらえたら素晴らしいですね。
過去にいくつか写真を投稿しましたよ。
素晴らしいですね。最初の天体写真家はガリレオでした。彼は自分が宇宙について感じたことを、単に見たものだけでなく、スケッチで表現しました。
ヤン・ルカン、これは素晴らしい対話でした。直接お会いできることを楽しみにしています。サイモンズ財団やフラットアイアン研究所に訪問する際には、お会いできるのを楽しみにしています。

いいなと思ったら応援しよう!