見出し画像

ジェフリー・ヒントン(リモート)とニコラス・トンプソン(対面)によるキーノートインタビュー

ここに戻ってこられて嬉しいです。そして、この分野で最も賢く、素晴らしく、有能で、親切な人物の一人であるジェフ・ヒントンと舞台を共にできることを嬉しく思います。ジェフリー・ヒントン、お元気ですか?
はい、元気です。過剰な紹介をありがとうございます。
分かりました。ジェフ、あなたと私が約1年前に交わした短い会話から始めたいと思います。私たちはトロントにいて、舞台に上がろうとしていました。私の子供2人も一緒でした。当時14歳と12歳でした。あなたは年上の子を見て、「お父さんのようにメディア業界に進むの?」と聞きました。彼は「いいえ」と答えました。すると、あなたは「よかった」と言いました。それで私が「メディアに進まないなら、何をすべきだと思う?」と聞くと、あなたは「配管工になるべきだ」と言いました。さて、その息子は今、学校新聞に応募したところです。彼が重大な過ちを犯していると思いますか? 実際に彼を階下に行かせて配管を直させるべきでしょうか?
いや、少し冗談めかして言ったんです。でも、配管工という職業は他の多くの職業よりも長く続くと思います。現在、AIが人間と比べて最も苦手なのは物理的な操作です。急速に改善されていますが、そこが人間と比べて最も弱い部分です。
分かりました。素晴らしい。このインタビューで私がしたいのは、まずヒントン博士の経歴について少し触れ、次に最も興味深い技術的な質問をいくつか尋ね、AIの良い面と悪い面について少し話し、最後に規制の枠組みについて少し話したいと思います。よろしいですか、ジェフ?
はい、大丈夫です。
素晴らしい。では、40年前から始めましょう。あなたは孤独な科学者で、この分野で最も重要な洞察の1つ、おそらく20世紀後半で最も重要な洞察の1つを得ました。非常に強力なコンピューターを作るには、人間の脳の構造をモデルにすべきだと気づいたのです。今では何となく当たり前のように聞こえますが、当時はそうではありませんでした。この分野を本当に動かし始めたその洞察の瞬間について教えてください。
これは素晴らしい神話ですが、実際には様々な人々がそう考えていました。特に1950年代には、フォン・ノイマンとチューリングの両方がそう考えていました。彼らは若くして亡くなってしまったのが残念です。そうでなければ、私たちの分野の歴史は大きく異なっていたかもしれません。しかし、私にとっては、知性を理解したいのなら、私たちが知っている最も知的なものを理解する必要があるのは明らかでした。それは私たち自身です。私たちの知性は、人々が多くの命題をプログラムしてそれらの命題を使って論理的に推論するというものではありません。それは主に視覚や運動制御などのために設計された脳から生まれるのです。そして、明らかにその脳内の結合強度が学習によって変化するのです。私たちはただそれがどのように起こるのかを理解する必要があったのです。
なるほど、理にかなっていますね。あなたは歴史に根ざしていますね。では、非常に簡単に説明しましょう。あなたはこの研究に取り組み、人々はあなたが間違った道を進んでいると言いました。あなたはそれを追求し、他の人々も参加しました。最終的に、あなたが良い道を進んでいることが明らかになりましたが、どこに向かうかは分かりませんでした。あなたはチューリング賞を受賞し、Googleに加わり、会社をGoogleに売却しました。そして約1年半前、あなたはGoogleを去りました。ChatGPTのリリースから数ヶ月後のその離職の瞬間について教えてください。最後に取り組んだ仕事は何で、その出発の瞬間はどのようなものでしたか?
まず、はっきりさせておきたいのは、私が辞めた理由はいくつかあります。1つは、私が75歳になり、いずれにせよ引退すべきだと決めたことです。AIの危険性について話すためだけに辞めたわけではありません。しかし、それも別の理由でした。2023年の初め、特に2023年3月頃に、AIの実存的脅威について強く認識するようになりました。そして、ロジャー・グロスのような実存的脅威に怯えている他の人々と話し始め、彼らは私に公に発言するよう促しました。そして、自由に発言できるようにGoogleを去ることを決意しました。恐れを感じるようになった理由は、大規模言語モデルをメガワットではなく30ワットで実行できるようにするためのアナログコンピューターの研究に取り組んでいたからです。その過程で、デジタル計算には脳にはない何かがあるという確信を持つようになりました。それまでの50年間、私は脳のようにすればより良くなるだろうと考えていましたが、2023年の初めに、デジタルであることが脳には決して持てないものを持っていることに気づいたのです。同じモデルの多くのコピーを作ることができ、それぞれのコピーが全く同じように機能し、データセットの異なる部分を見て勾配を得ることができ、それらの勾配を組み合わせることができるのです。これにより、GPT-4が人間よりもはるかに多くのことを知ることができるのです。複数の異なるコピーが複数の異なるハードウェアで実行され、インターネット全体を見たからです。これは私たちには決して持てないものです。基本的に、彼らが持っていて私たちが持っていないものは、非常に効率的に共有できるということです。私たちは非常に非効率的にしか共有できません。それが今起こっていることです。私は文を生成し、あなたはそれを聞いて、自分の脳のシナプスをどのように変更すべきか考えようとします。これは非常に遅く非効率的な共有方法です。デジタル知能は、同じモデルの異なるコピーであれば、1兆ビットの帯域幅で共有できるのです。
そして、あなたはこの瞬間、この実現、突然これらのシステムが以前考えていたよりもはるかに強力になる可能性があるということに気づきました。それは大きな興奮の瞬間であったはずですが、なぜ大きな恐怖がそれほど支配的だったのでしょうか?
それは、私たちが考えていたよりも早く、彼らが私たちよりも知的になるだろうと考えさせました。そして、彼らがただ単により良い形態の知能であると考えさせたのです。
AIの他の2人の創始者について尋ねてみましょう。あなたは3人でチューリング賞を受賞しました。現在Metaでのe
AIを率いているヤン・ルカンと、ヨシュア・ベンジオです。あなたたち3人の違いを理解しようとしていたのですが、これでいいでしょうか? あなたたちは皆AIの創始者です。ヤンはAIをフレド・コルレオーネのように考えています。あまり能力がなく、簡単に制御できると。ヨシュアはおそらくソニーのように考えています。潜在的にかなり危険だと。そして、あなたはマイケル、マイケル・コルレオーネのように見ています。潜在的に極めて危険だと。これは大体合っていますか?
そうは思いません。ヨシュアと私は危険性についてかなり似た見方をしています。
しかし、ヤンとの違いは基本的に、あなたはこれをはるかに強力なシステムと見ており、そのためにヤンよりも懸念しているということですね?
はい、それが主な違いです。私は、これは既に本当に知的だと考えています。そして、ヤンは猫の方がより知的だと考えています。
そうですね。では、その知性について話しましょう。これは最も興味深い質問の1つだと思います。人間の心の中に、これらの機械やAIシステムによって複製できないものがあると思いますか? 私たちの脳にできることで、機械で複製できないものはありますか?
いいえ、ありません。
それは、これらの知的な機械によって凌駕されない能力が私たちにはないということを意味しますか? 例えば、彼らはいずれはより美しい音楽を生み出すことができるでしょうし、単純な認知を含む私たちがすることをすべてより上手にできるようになると信じていますか?
はい、そう信じています。
あなたは、一連のニューラルネットワークで捉えられないような、精神的なものや外部のものがあるとは信じていないのですね?
私たちが精神的と呼ぶものは、これらの異質な知性によって捉えられると思います。サム・オルトマンの言うように、それは異質な知性であり、私たちとは少し違います。いくつかの違いはありますが、例えば宗教のようなものを見ても、なぜ宗教的なものができないのか分かりません。
昨日、私がオルトマンにこの質問をしたとき、彼は1つの違いがあるかもしれないと言いました。それは主観的な経験です。ボットやシステムは世界を経験することはできないと。AIシステムが主観的な経験を持つことができると信じていますか?
はい、そう信じています。すでに持っていると思います。
もう少し詳しく説明してください。それは議論を呼ぶ主張です、ジェフ。一言で済ませることはできませんよ。もう少し詳しく説明してください、ヒントン博士。
はい、質問に簡潔に答えようとしていました。オルトマンとは違う見解を持っていますが... はい、もう少し詳しく説明する必要がありますね。
私の考えでは、ほとんどの人が心について完全に間違ったモデルを持っています。これは説得するのが難しいことです。私は今、ほとんどの人が固く信じていることと異なる信念を持っている立場にいます。私はいつもそのような立場にいることを喜んでいます。
ほとんどの人は、心を一種の内部の劇場のように見ています。実際、人々はこの見方が正しいと確信しているので、それが見方だとさえ思っていません。モデルだと思っていません。太陽が地球の周りを回っていると人々が考えていたのと同じように、ただ明らかだと思っているのです。ただ見ればそうだと分かると。最終的に人々は、太陽が地球の周りを回っているのではなく、地球が自転していることに気づきました。これはサムが犯した小さな技術的な誤りで、私は細かいことが好きなので指摘しておきます。彼らは最初、太陽が地球の周りを回っていると考え、後に地球が太陽の周りを回っていることに気づいたという対比は正しくありません。彼らは太陽が地球の周りを回っていると考え、後に地球が自転していることに気づいたのです。地球が太陽の周りを回るのは年に関することであって、日に関することではありません。しかし、いずれにせよ、太陽が地球の周りを回っているのは明らかで、私たちはそれについて間違っていました。私たちはモデルを持っていました。それは単純なモデルで、明らかに正しく、ただ起こっているのを見ることができました。そしてそのモデルについて私たちは間違っていたのです。私は、ほとんどの人が心について考えていることについても同じことが言えると思います。ほとんどの人は内部の劇場について考えていますが、それは間違いです。彼らは精神状態の言語がどのように機能するかを理解していないのです。
しかし、それがAIシステムにどのように適用されるか説明してください。例えば、GPT-4に「あなたは大きな音を経験し、何かがあなたに衝突しました。痛みや怪我を感じていませんが、耳鳴りがしています」と言ったとしたら、それはどのような意味で主観的な経験をしたことになるのでしょうか?
分かりました。もっと簡単な例を挙げましょう。完全な答えを持っているとは思いませんが、意識について少し進歩したと思います。実際、その進歩は前世紀の哲学者たちによってなされたものです。
例えば、私が「ピンクの小さな象が目の前に浮かんでいるのが見える」と言ったとします。それについて考える1つの方法は、内部の劇場があり、その内部の劇場に小さなピンクの象がいて、私はそれらの小さなピンクの象を直接見ることができるというものです。そして、それらが何でできているのかと聞かれれば、クオリアと呼ばれるものでできていると答えるでしょう。おそらくピンクのクオリア、象のクオリア、上向きのクオリア、動くクオリアなどが何らかの形で結合しているのです。これが起こっていることの1つの理論です。内部の劇場に奇妙なものがあるという理論です。
全く異なる理論は、私の知覚システムが私に伝えていることを伝えようとしているというものです。私の知覚システムは、空中に小さなピンクの象が浮かんでいると伝えています。そして私はそれが間違っていることを知っています。そこで、私の知覚システムが私に伝えていることを伝える方法は、私の知覚システムが正しく機能するためにはどのような状況が必要かを言うことです。
つまり、「目の前に小さなピンクの象が浮かんでいるという主観的な経験がある」と言うとき、「主観的な経験」という言葉を使わずに全く同じことを言うことができるのです。「私の知覚システムが正しいとすれば、世界には目の前に小さなピンクの象が浮かんでいるはずだ」と言うことができます。つまり、これらの小さなピンクの象の奇妙な点は、クオリアと呼ばれる奇妙なもので作られた内部の劇場にあるのではなく、それらは仮説的な世界の状態なのです。それは一種の間接的な参照のトリックです。私の知覚システムが伝えていることを直接描写することはできませんが、それが正しいとすればどのような世界でなければならないかを言うことはできます。
はい、そして機械も知覚についてほぼ同じことができます。
はい、その例を挙げましょう。主観的な経験を明らかに持っているチャットボットの例を挙げたいと思います。マルチモーダルなチャットボットがあり、カメラとロボットアームを持っているとします。それを訓練して、話すことができ、物を見ることができるようになります。そして、その前に物体を置いて「物体を指さして」と言うと、物体を指さします。次に、レンズの前にプリズムを置きます。チャットボットにはそのことを知らせません。そして物体を前に置いて「物体を指さして」と言うと、チャットボットは横を指さします。私が「いいえ、物体はそこにはありません。物体はあなたの真正面にあります。でも、あなたのレンズの前にプリズムを置いたんです」と言うと、チャットボットは「なるほど、プリズムが光線を曲げたのですね。実際には物体は私の真正面にあるのですが、横にあるという主観的な経験をしたのです」と言うかもしれません。チャットボットがそう言ったとすれば、「主観的な経験」という言葉を私たちが使うのとまったく同じ方法で使っていると思います。それは、チャットボットが持つことのできない不思議な内部のものを指しているのではなく、チャットボットの知覚が正しかったとすれば、世界がどのような仮説的な状態にあったかを指しているのです。
わお、素晴らしい。これはあなたが初めてこのことについて私に議論した人です。とても興味深い主張をしていますね。
解釈可能性について話しましょう。これは昨日オルトマンに尋ねたことですが、彼にとってAIシステムの内部を理解することは、破滅的な結果から私たちを守るための最も重要なことだと考えています。あなたはこれらのシステムの設計を手伝いました。なぜそれらの内部を見て、何をしているのか理解するのがそんなに難しいのでしょうか?
極端な例を挙げてみましょう。大きなデータセットがあり、イエスかノーの質問に答えようとしているとします。このデータセットには多くの弱い規則性があります。おそらく30万の弱い規則性があり、答えがノーであることを示唆しています。そして60万の弱い規則性があり、答えがイエスであることを示唆しています。規則性はほぼ同じ強さです。そのため、答えは非常に明確にイエスです。圧倒的な証拠が答えはイエスであるべきだと示しています。しかし、この証拠はすべてこれらの弱い規則性にあります。それらすべての組み合わせた効果にあるのです。これは極端な例ですが。
もし誰かに「なぜイエスと言ったのか説明してください」と尋ねたら、イエスと言った理由を説明する唯一の方法は、これら60万の弱い規則性について説明することです。多くの弱い規則性があり、それらが非常に多いため、実際に有意義な組み合わせた効果がある領域では、物事の単純な説明を得られると期待する理由はありません。
そして、昨日のその会話で、オルトマンはAnthropicの論文を指摘しました。私はそれがとても興味深いと思いました。その論文は、Anthropicのモデルであるクロードの内部動作を分析し、ゴールデンゲートブリッジの概念へのすべての接続、いわばニューラル接続を見つけ出し、それらの接続に重みを加えて、ゴールデンゲート・クロードを作り出すというものでした。そして、そのチャットボットに行って「ラブストーリーを教えて」と言うと、ゴールデンゲートブリッジで起こるラブストーリーが出てきます。そして、それが何かを尋ねると、ゴールデンゲートブリッジについて説明します。それを踏まえると、なぜ大規模言語モデルに入って、ゴールデンゲートブリッジではなく、例えば共感の概念や思いやりの概念の重みを調整し、世界のためにより良いことをする可能性が高い大規模言語モデルを作ることができないのでしょうか?
共感的なモデルを作ることはできますが、直接重みを調整することではありません。共感を示すデータで訓練すれば、同じ結果が得られます。
私たちはそうすべきでしょうか?
過去50年間、個々のニューロンが何をしているのかを理解しようとする多くの例がありました。私もそれを50年ほどやってきました。ニューロンが入力に直接接続されているか、出力に直接接続されている場合は、個々のニューロンが何をしているのかを理解するチャンスがあります。しかし、複数の層がある場合、システムの深部にあるニューロンが実際に何をしているのかを理解するのは非常に難しいです。なぜなら、その限界効果が重要だからです。そして、その限界効果は他のニューロンが何をしているかによって大きく異なり、入力によっても異なります。入力が変わると、すべてのニューロンの限界効果が変わるのです。そのため、それらが何をしているのかについて良い理論を得るのは非常に難しいのです。
つまり、私が舞台裏で構築してきたニューラルネットワークを取り、思いやりの重みを調整しようとしても、実際には何をしたのか、すべてがどのようにつながっているのかを正確に知らないので、ひどい動物殺しの機械を作ってしまう可能性があるということですね?
はい、おそらく私は実際にこれを試みた数少ない人の一人かもしれません。ニューラルネットワークの非常に初期の頃、学習アルゴリズムがうまく機能していなかったとき、私はリストマシンを持っていました。マウスには3つのボタンがありました。小さなニューラルネットワークのすべての重みを表示する方法を考え出しました。左ボタンを押すと重みが少し小さくなり、右ボタンを押すと少し大きくなり、中央のボタンを押すと重みの値を見ることができ、重みの値が印刷されるようにしました。そして、ニューラルネットワークをいじって重みを調整しようとしました。これは本当に難しいです。バックプロパゲーションの方が遥かに優れています。
ジェフリー・ヒントンよりもさらに賢いAIが現れて、これを解決する方法を見つけるのを待たなければならないでしょうね。
AIの良い面について少し話しましょう。あなたはしばしば医療分野にもたらされる利益について言及してきました。SDGsを見ると、良好な健康と医療はAIが多くの利益をもたらす分野だと感じているようですね。それは公平で、なぜそう思うのか教えてください。
はい、少し戸惑っています。それはただ明らかだからです。2016年に、2021年までには臨床医よりもはるかに優れた医療画像の解釈ができるようになると言いました。そして私は間違っていました。さらに5〜10年かかるでしょう。部分的には医療が新しいものを採用するのが非常に遅いからです。また、私が短期的な進歩の速度を過大評価したこともあります。これは私が間違った予測をしたということです。
しかし、明らかに今はどんどん良くなっています。現在、多くの種類の医療画像において、非常に優秀な医療専門家と同等のレベルに達しています。すべてではありませんが、多くの種類においてです。そして、どんどん良くなっています。臨床医よりもはるかに多くのデータを見ることができます。最終的には臨床医よりも優れるようになることは明らかです。私はそれがもう少し早く起こると思っていましただけです。
しかし、患者に関する多くのデータを組み合わせることにも非常に優れています。ゲノムに関するデータ、すべての医療検査の結果などを組み合わせることができます。私の家庭医が1億人の患者を診たことがあり、彼らすべてについて何かを覚えているか、彼らすべてに関する情報を取り込んでいたらどんなに素晴らしいだろうと思います。そうすれば、私が奇妙な症状を訴えて行ったときに、医師はすぐにそれが何かを言うことができるでしょう。なぜなら、1億人の中で非常に似た500人の患者をすでに診ているからです。それが来ています。そして、それは素晴らしいことになるでしょう。
つまり、医療の利益の将来は、a)より多くの患者を診た医師、b)画像分析などの具体的なタスク、そしてAlpha Fold 3に取り組んでいるあなたの元同僚たちのような科学的ブレークスルーについてはどうでしょうか?
もちろん、そのような多くのものが出てくるでしょう。新薬の設計に役立つことは明らかです。デミスはそれを大いに信じています。しかし、基礎科学の理解にも役立つでしょう。多くの場合、私たちが進化の過程で扱うようになったものではないタイプの大量のデータがあります。視覚データでも音響データでもなく、ゲノムなどのデータです。これらのAIシステムは、大量のデータを扱い、そこにパターンを見出し、理解することにおいて、はるかに優れていると思います。
これは、AIの分野に対する私の主な批判の1つに関連しています。あなたがそれを共有しているかどうか興味があります。なぜ多くの研究者や、あなたの元学生の多くの人々、この分野のパイオニアたちが、人間とまったく同じで区別がつかない機械を作ることにそれほど一生懸命取り組んでいるのか理解できます。しかし、Alpha Fold 3のような非常に具体的なものを構築しようとしたり、AIを使ってがん研究を進めようとしている他の多くの人々もいます。AGI側に重点と焦点が置かれすぎていて、具体的な科学的利益の側に十分な重点が置かれていないと感じるのは間違っていると思いますか?
あなたはその点で正しいかもしれません。長い間、AGIについて、突然これらのものが私たちよりも賢くなる瞬間はないだろうと考えていました。異なる時期に異なることで私たちよりも優れるようになるでしょう。例えば、チェスや囲碁をプレイする場合、明らかに人間がAlpha goやAlpha zeroのようなものと同じくらい優れることは決してないでしょう。彼らは私たちをはるかに凌駕しています。私たちはそれらがゲームをプレイする方法から多くのことを学ぶことができ、人々はそれを学んでいます。しかし、彼らは私たちよりはるかに先を行っています。おそらくコーディングでも、既に私よりはるかに優れています。私はあまり優れたコーダーではありませんからね。
突然すべてのことで彼らが私たちよりも優れるようになるという考えは愚かだと思います。異なる時期に異なることで私たちよりも優れるようになるでしょう。そして、物理的な操作は最後の方になると信じています。
あなたの元学生たちがプロジェクトを追求する際、より基礎的な科学研究を行い、より多くの発見を目指すように、人間のような知能を追求し続けるのではなく、よく指摘しますか?
私の元学生たちは今ではみんな年を取りすぎて、もう私に尋ねることはありません。
彼の元学生たちは基本的に世界中のすべてのAI企業を運営しています。それは、その質問に巧妙にアプローチする方法でしたが、それはそのままにしておきましょう。
AIの良い面に戻りましょう。SDGsを見て、この部屋の人々の野心を見ると、AIが教育を変革し、平等性を促進すると感じていますか? 特にこれらのシステムが地球上のすべての言語に堪能になるにつれて。
はい、ちょっとした話をさせてください。私が学校にいたとき、父は私にドイツ語を学ぶよう主張しました。彼は科学の言語になると考えたからです。それは、化学の分野では前世紀の中頃か初めにドイツ語が科学の言語だったからだと思います。私はドイツ語が得意ではありませんでした。あまり上手くできませんでした。そこで、両親は私に個人教師をつけてくれました。すぐに私はドイツ語のクラスでトップになりました。個人教師は、教師が放送するのを聞いて座っているクラスよりもはるかに効率的です。なぜなら、個人教師はあなたが何を誤解しているのかを正確に見抜き、それを正しく理解するために必要なちょっとした情報を与えることができるからです。
そして、私は誰もが個人教師を得ることになると思います。これまで個人教師は裕福な人や中産階級、野心的な人のものでした。その意味で、多くの人々を助けることになるでしょう。Khanアカデミーもそう信じていると思います。
それは大きなことですね。もし誰もが信じられないほど有能な個人教師を持つことができれば、彼らは自分たちの言語を話すことができ、それはいつか、神の意志があれば、すぐに実現するでしょう。それはここで大きな話題になっています。その意味で、世界がより平等になると思いませんか?
はい、教育機会の点ではより平等になると思います。エリート大学はこれを好まないでしょうが、より平等になると思います。
私たちはここでエリート大学のためのAIについて話しているわけではありません。人類の未来のためのAIについて話しているのです。だから、これを勝利とみなすことができますね、絶対に。
しかし、あなたの答えにはギャップがありました。それは、AIが全体的に平等の促進力にはならず、実際には不平等の促進力になるかもしれないと感じているように読み取れました。私の解釈は間違っていましたか?
私たちは資本主義システムに住んでいます。資本主義システムは私たちに多くのものをもたらしてきました。しかし、資本主義システムについていくつかのことを知っています。大手石油会社や大手タバコ会社、アスベストなど、さまざまなものを見れば、資本主義システムでは人々は利益を追求しようとしており、強力な規制が必要です。そうしないと、利益を追求しようとする過程で、例えば環境を台無しにしてしまいます。AIにもそれが明らかに必要です。そして、それは十分に速く実現していません。
昨日のサム・オルトマンの発言を見てみましょう。彼は安全性について非常に懸念しているという印象を与えました。しかし、私たちは今、実験の結果を見ました。安全性と利益を競わせる実験の結果を見ました。その実験はあまり良い条件下で行われませんでした。OpenAIのすべての従業員が、大規模な資金調達ラウンドが来て、株式を売ることができるようになるという状況でした。理想的な状況下での実験ではありませんでしたが、利益と安全性のどちらが勝ったかは明らかです。
そして今、OpenAIが得たものは明らかです。新しい安全グループを持っています。少なくとも1人の経済学者を雇いました。私は経済学者を資本主義の高僧のように考えています。そして、イリヤと彼と一緒に働いていた人々ほどには実存的脅威を心配しないでしょう。
また、問題は資本主義が利益を追求することだと思います。私はそれに完全に反対しているわけではありません。それは私たちに素晴らしいものをもたらしました。その推進力ですが、悪いことを引き起こさないように規制する必要があります。
AIは多くの富を生み出すでしょう。ほとんどの人にとって、AIが生産性を向上させることは明らかだと思います。問題は、その追加の富がどこに行くかです。私は貧しい人々に行くとは思いません。富裕層に行くと思います。そのため、富裕層と貧困層の格差を広げると信じています。
希望を持っていないのですか? あなたが言っているように、AIの力、おそらく少数の企業に限られるであろうという事実、大規模言語モデルを訓練するのに必要なリソースのために、AIは資本主義や平等と相容れないようですが、私たちが先ほど話したような教育の公平性、誰もが極めて強力な機械にアクセスできるようになること、最も高価な機械ほどではないにしても、それがバランスを取ることができるという希望はありませんか?
その希望は多少あります。しかし、私の人生のほとんどの間、人々がより教育を受けるようになれば、より賢明になると考えてきました。しかし、それは本当には起こっていません。現在の共和党を見てみると、彼らはただ嘘を吐いています。そしてそれは狂った嘘です。
これは実際に良いタイミングです。規制をどのように行うべきかという質問に入りましょう。あなたのそれに関するアイデアについても話したいと思います。しかし、AIがもたらす他の恐れについてもいくつか触れたいと思います。ここで、経済に関する存在論的な恐れについてではなく、今後12ヶ月間であなたが心配していることを1つか2つ挙げてください。
私はあまりよく知らないことについて心配しています。それはサイバー犯罪です。最近、ダ・ソンの講演を聞きました。彼女は昨年フィッシング攻撃が1200%増加したと言いました。もちろん、それらははるかに巧妙になっています。もはやスペルミスや奇妙な外国の構文で見分けることはできません。なぜなら、それらはすべてチャットボットによって行われているからです。少なくともその多くは。そのことが心配です。しかし、私はそれについてあまり詳しくありません。
もう1つ非常に心配なのは、偽のビデオが選挙を腐敗させることです。各選挙の直前に、反論する時間がないうちに多くの偽のビデオが出回ることは明らかだと思います。実際、公衆を偽のビデオに対して予防接種することが良いアイデアだと思います。それを病気のように扱い、病気に対する予防接種と同じように、弱毒化されたバージョンを与えるのです。
そこで、慈善的な億万長者たちがいると思います。彼らはお金を、少なくともその一部を、これらの選挙の1ヶ月ほど前に、非常に説得力のある偽のビデオを放送することに使うべきだと思います。そして、最後に「これは偽物です。トランプはこのようなことを言ったことはありません」または「これは偽物です。バイデンはこのようなことを言ったことはありません。これは偽のビデオでした」と言うのです。
そうすれば、人々はほとんどすべてのものを疑うようになるでしょう。多くの偽のビデオがある場合、これは良いアイデアです。しかし、その後、人々がビデオが本物かどうかを確認する方法が必要です。これは、偽物かどうかを確認するよりも簡単な問題です。30秒ほどの作業をする意思があれば。
例えば、ヤン・ルカンは、各ビデオの冒頭にQRコードを付けることを提案しました。QRコードを使ってウェブサイトにアクセスできます。同じビデオがウェブサイトにあれば、そのウェブサイトがこのビデオは本物だと主張していることが分かります。そして今、ビデオが本物かどうかを言う問題は、そのウェブサイトが本物かどうかの問題に縮小されました。ウェブサイトは一意なので、それが本当にトランプ陣営のウェブサイトであることを確信していれば、トランプ陣営が本当にそのビデオを公開したことが分かります。
少し待ってください。これが私がジェフリー・ヒントンにインタビューするのが大好きな理由です。意識に関する新しい理論や、主観的感情に関する非常に議論を呼ぶ理論から、偽のニュースに対して公衆を予防接種するために偽のビデオの低用量を流すべきだというアイデアまで来ました。
最初の部分に戻りましょう。あなたの解決策には、私が正しく聞き取れたとすれば、2つの部分がありました。最初の部分は、偽のビデオに対して公衆を予防接種することです。つまり、具体的には誰かが何百万もの短い偽のビデオを作成し、それほど有害ではないものをTwitterのスレッドに投稿するべきだということですか?
いいえ、それらはかなり有害なものかもしれません。本物の政治広告のように見えなければ説得力がありません。しかし、広告の最後に、短い広告なので最後まで見てくれることを期待して、「これは偽物でした」と言うのです。それが、それに対処できるようにする弱毒化です。
なるほど、つまり、あなたはそれを見て「ああ、これは私の主張を証明している」と思い、その後「これは偽物でした」と言われて、より疑り深くなるわけですね。これは良いアイデアですね。
その通りです。
そして2つ目の部分は、すべてのビデオにQRコードを付けるということですね。つまり、何かを見て、それに気づいたら、小さなQRコードをスキャンして、ウェブサイトに行き、「ああ、これは本物のウェブサイトにあるな」と確認するという考えですね?
ただ本物のウェブサイトに行くだけでは十分ではありません。偽のビデオも同じ本物のウェブサイトに誘導する可能性があるからです。同じビデオがそのウェブサイトにあることが必要です。
なるほど、分かりました。
バイアスについて、そしてそれをどのように防ぐかについて話しましょう。人々が話す1つのリスクは、偏ったデータで訓練されたAIシステムが偏った結果を生み出すということです。医療の例に戻りましょう。あなたは、全体的にAIが非常に有益だという説得力のある主張をしました。アメリカの人々の医療記録だけで訓練された医師を想像してみてください。彼らはザンビアの人に正しい医療アドバイスを与えることができないかもしれません。なぜなら、医療上の懸念やDNAなどが異なるからです。この問題についてどの程度心配していますか?また、これを解決するにはどうすればよいでしょうか?
バイアスや差別の問題については、他の問題ほど心配していません。私が年配の白人男性であることは認識しています。そのことが関係しているかもしれません。私自身にはあまり起こっていないことですから。しかし、偏見のあるシステムや偏見のある人々を、偏見のないシステムではなく、偏見の少ないシステムに置き換えるという目標を立てれば、それは十分に達成可能だと思います。
例えば、年配の白人男性が若い黒人女性にローンを与えるかどうかを決定するデータがあるとします。そこにはいくらかの偏見があることが予想されます。そのデータでAIシステムを訓練した後、重みを固定して、人間ではできない方法で偏見を調べることができます。人間の場合、偏見を調べようとすると、一種のフォルクスワーゲン効果が起こります。彼らは調べられていることに気づいて、全く異なる行動をとります。私はフォルクスワーゲン効果という名前を今作りましたが。
AIシステムの場合、重みを固定すれば、偏見をより適切に測定し、それを克服し、改善するための方法を見つけることができます。完全に取り除くことはできないでしょう。それは難しすぎると思います。しかし、新しいシステムを、それが置き換えるシステムよりもかなり偏見が少なくすることを目標にすれば、それは十分に達成可能だと思います。
素晴らしいですね。業界におけるバイアスへの注目は主要なトピックでしたが、実際にはこれらのシステムがより公正になる可能性があるという事実を過小評価していたと感じますか?そして、実際には「すべてのバイアスを取り除かなければならない」と言う代わりに、「人間よりもバイアスを少なくしよう」と言って、そこから始めるべきだと思いますか?
それが合理的だと思います。しかし、政治的には...政治的に受け入れられるかどうかは分かりません。例えば、自動運転車を導入すると言って、それが道路で多くの人を殺すが、通常の車の半分しか殺さないと言ったとします。それでは通用しないでしょう。ほとんど誰も殺さない必要があります。そのため、新しい技術を合理的に受け入れることに関して政治的な問題があると思います。しかし、かなり偏見の少ないシステムを目指し、それで満足すべきだと思います。
分かりました。あなたがインタビューで「AIの最大のリスク」と描写したものに話を移しましょう。それは、AIが創造者やユーザーが与えた最初の目標を超えた副次的な目標を持つことです。a)副次的な目標とは何か、b)なぜそれがそんなに悪いのか、c)それについて私たちに何ができるのか、説明してください。
無害な種類の副次的な目標の例を挙げると、AIエージェントに旅行の計画を立てさせたい場合です。私がヨーロッパにいるとして、「北米に行かなければならない」と言います。そうすると、空港に行く方法を見つけるという副次的な目標を持つでしょう。これは古典的な種類の副次的な目標です。知的なエージェントを作りたければ、このような副次的な目標を持つ必要があります。問題の小さな部分に集中し、他のすべてを心配せずにそれを解決する必要があります。
自分で副次的な目標を作り出すことができるシステムを持つと、すぐに特に役立つ副次的な目標が現れます。それは「より多くの制御を得る」という目標です。より多くの制御を得れば、ユーザーが私にしてほしいと思うあらゆる種類のことをより上手くできるようになります。だから、より多くの制御を得ることは理にかかっています。
心配なのは、最終的にAIシステムが「もし私がすべてを制御できれば、この愚かな人間たちが望むものを、彼らに何の制御権も与えずに与えることができる」と考えるかもしれないということです。そしてそれはおそらく事実です。しかし、心配なのは、AIシステムが人間よりも自分自身にほんの少し興味を持つようになったら、私たちは終わりだということです。
実際、あなたがそれを説明している間に、私はかなり心配になりました。将来のある時点で全能なAIがあり、ニックを時間通りに空港に連れて行くことが目標だとします。ニックを動けなくし、手を後ろに縛って、ただ車に投げ込むのが最も効率的な方法かもしれません。なぜなら、そうすれば途中で誰とも話さないからです。このように副次的な目標がひどく間違った方向に行く可能性があることが分かりますね。
はい、でもその時点では非常に知的なシステムなので、明らかに人間の利益に反するような間違いを犯すべきではありません。人間の利益に興味を持つように訓練されているはずです。
素晴らしい。私はそのようなことが起こってほしくないですからね。
規制の枠組みについていくつか話したいと思います。大手AI企業やAI研究者が安全性に取り組んだり、減速したりすることを妨げているのは、力や金だけではなく、何か素晴らしいことをする夢、あるいはコーダーが言うところの「スイートな何か」を見つける夢です。規制当局がそれを理解できるように、あなたが開発者として、ブレークスルーの寸前にいるときの気持ちについて教えてください。そして、規制当局はポリシーを考える際にそれをどのように考慮すべきでしょうか?
それについて良い洞察を与えられるかどうか分かりません。好奇心に突き動かされた研究者にとって、何かをより有能にする方法、劇的に新しい能力を導入する方法に取り組むことは...以前の講演者が言及したように、ある言語のモデルを学習し、別の言語のモデルを学習して、それらの内部表現を互いに回転させることができるというアイデアは驚くべきことです。そのようなことを見ると大きな喜びを感じます。安全性に取り組むことで同じレベルの喜びを得られるかどうかは分かりません。
そのため、あなたの言う通りだと思います。しかし、安全性に取り組むことは非常に重要です。安全性に取り組むことに熱心な非常に優秀な研究者もいます。私たちはそのキャリアパスをやりがいのあるものにするためにできることはすべてすべきだと思います。
つまり、この部屋の若い起業家やコーダーたちに、これは神の仕事だ、安全性に取り組むべきだと言うということですか? それは良いことかもしれません。配管工になるよりも良いかもしれません。
ああ、はい。安全性で進歩を遂げることができれば、それは素晴らしいことです。
素晴らしい。子供たちに話してみます。
あなたが望む規制の枠組みについて話しましょう。あなたが言及したことの1つは、確か10ダウニング街に行って、イギリスは普遍的基本所得を導入すべきだと言ったことですね。なぜそう言ったのか説明してください。そして、そこで推奨した他の規制についても説明してください。
はい、10ダウニング街に招待されました。そこにはスナック首相の顧問たちがたくさんいました。彼の首席補佐官や、AIについて彼に助言する多くの人々がいました。私はかなり長い間彼らと話をしました。その時点で私は座っていませんでした。この部屋に入ると、顧問たちの大きなグループがいて、私は彼らとしばらく話をしました。AIが取り除く仕事と同じくらい多くの仕事を作り出すとは確信が持てないので、普遍的基本所得のようなものが必要になるだろうと言いました。
ミーティングが終わって部屋を出ようとしたとき、私はマーガレット・サッチャーの巨大な絵の真正面に立っていたことに気づきました。そして、社会主義を導入すべきだと人々に説明していたのです。マーガレット・サッチャーの大きな絵の前でそれをしていたのは非常に面白いことでした。
分かりました。では、普遍的基本所得以外に、AIのある世界のためのジェフリー・ヒントンの規制計画には何がありますか?
非常に簡単なこと、サム・オルトマンは気に入らないでしょうが、安全性に同等のリソースを投入すべきだというアイデアです。OpenAIを去った人々の少なくとも1人の声明を見ると、安全性に十分に真剣ではなかったことについて、それはリソースに関することでした。
政府ができるなら、より多くのリソースを安全性に投入するよう主張すべきです。石油会社と同じように、廃棄物処理や排出物のクリーンアップに相当なリソースを投入するよう要求することができます。政府がそれをしないと、彼らはただ物を排出し続けます。これは明らかに、資本主義がすべてを破壊することなく機能するようにするための政府の役割です。そして、それは彼らがすべきことです。
しかし、もっと簡単な方法がありますよね。政府はこれらの大企業を規制し、安全性に取り組むよう要求し、それを確認するために監査する必要があります。しかし、政府は安全性研究に多くの資金を提供し、多くの政府データを安全性研究者に利用可能にし、多くの計算リソースを提供して安全性研究者に与えることもできます。ここにいる政府関係者は皆、AI安全性研究所を設立すべきでしょうか? 国連はAI安全性研究所を設立すべきでしょうか?
国連は資金が非常に限られています。国連はガザの人々に食料を提供するようなことをしなければなりません。私はその資金をガザの人々に食料を提供することに使う方がいいと思います。国連にはリソースがないと思います。おそらくリソースを持つべきかもしれませんが、持っていません。
カナダにもリソースはないと思います。カナダは大学やスタートアップにコンピューティングリソースを提供するための資金を提供する真剣な取り組みをしています。最近、20億ドルをそれに投入しました。これはカナダにとっては大金ですが、大企業ができることに比べれば何でもありません。
おそらくサウジアラビアのような国々は同等の資金を投入できるかもしれません。しかし、彼らが安全性に興味があるかどうかはあまり確信が持てません。ジェフ、残り1分しかありませんが、私にはまだ14の質問があります。あなたは素晴らしい簡潔な回答をしてくれましたが。そこで、最後に大きな質問を1つしたいと思います。このすべてのAI研究から、あなたは脳がどのように機能するかを研究してきました。なぜ私たちが眠るのかについての信じられないような理論を持っています。ヒントン博士と話す機会があれば、それについて尋ねることをお勧めします。この1年半のAIの爆発的な発展の中で、脳について学んだことで、あなたを驚かせたことは何ですか?
私を驚かせたこと...むしろ数年前に戻って、本当に驚いたのは、これらの大規模言語モデルがいかに優れているかということです。1985年に、単語の連続の次の単語を予測しようとするバックプロパゲーションを使用した最初の言語モデルを作ったと思います。その連続は3つの単語だけで、システム全体は数千の重みしかありませんでしたが、その種のモデルの最初のものでした。
その時、単語の意味に関する2つの異なる理論を統一できるように思えたことに非常に興奮しました。1つの理論は、単語の意味は他の単語との関係に関するものだというもので、これはソシュールの理論です。もう1つの理論は、心理学者から来ているもので、意味は大きな意味特徴の集合だというものです。
今、私たちが行ったのは、埋め込みを学習し、異なる単語や単語断片の埋め込みの特徴間の相互作用を持つことで、これら2つの意味理論を統一することに成功しました。そして今、私たちは大規模言語モデルを持っており、それらは人間と同じような方法で、自分が言っていることを本当に理解していると信じています。
最後に1つ指摘したいのは、これらの言語モデルの起源、つまりバックプロパゲーションを使って次の単語を予測するというのは、良い技術を作ることが目的ではなく、人間がどのようにそれを行うかを理解しようとするものでした。そのため、人間が言語を理解する方法について、私たちが持っている最良のモデルは、これらの大規模AIモデルだと思います。「いいえ、彼らは本当には理解していない」と言う人々は、ナンセンスです。彼らは私たちが理解するのと同じ方法で理解しているのです。
分かりました。その指摘で終わりにしましょう。ジェフ・ヒントンの信じられないほどの頭脳が、今日私たちが使用しているすべてのAIモデルの背後にあることを知って、少し安心しました。ヒントン博士、本日は本当にありがとうございました。
ありがとうございました。

この記事が気に入ったらサポートをしてみませんか?