見出し画像

AIは人類に終焉をもたらすのか?:MITテクノロジーレビュー EmTech Digital におけるジェフリー・ヒントン氏の講演

16,673 文字

ウィル・ダグラス・ヘブン氏(MITテクノロジーレビューAI担当シニアエディター): 皆さん、こんにちは。昼食の後、戻ってこられましたね。MITテクノロジーレビューのAI担当シニアエディターのウィル・ダグラス・ヘブンです。誰もが認めるところですが、今、話題の中心は生成AIです。しかし、イノベーションは止まりません。この章では、すでに次の段階へと進み、「次は何か」を問いかけている最先端の研究に目を向けます。まず、バーチャルでご参加いただく特別講演者、ジェフリー・ヒントン氏をご紹介したいと思います。ヒントン氏はトロント大学名誉教授であり、今週までGoogleのエンジニアリングフェローを務めておられました。月曜日、10年間勤めたGoogleを退社することを発表されました。ジェフリー氏は現代AIにおける最も重要な人物の一人です。ディープラーニングの先駆者であり、今日のAIの基礎となっているバックプロパゲーションなど、最も基本的な技術のいくつかを開発しました。この技術は、機械学習を可能にするアルゴリズムであり、今日のほぼすべてのディープラーニングの基盤となっています。2018年、ジェフリー氏はヤン・ルカン氏、ヨシュア・ベンジオ氏と共に、コンピューターサイエンスのノーベル賞とも呼ばれるチューリング賞を受賞しました。今日は、知性とは何か、そして機械に知性を組み込む試みがどこへ向かうのかについてお話いただきます。ジェフリーさん、mtechへようこそ。

ジェフリー・ヒントン氏: ありがとう。

ヘブン氏: この1週間はどうでしたか?忙しい数日間だったと思いますが。

ヒントン氏: 最後の10分間は大変でした。コンピューターがクラッシュして、別のコンピューターを見つけて接続しなければならなかったんです。

ヘブン氏: 無事に復帰されてよかったです。これは、聴衆には知られないようにする技術的な詳細ですよね。

ヒントン氏: そうですね。

ヘブン氏: 参加していただき、ありがとうございます。さて、今週Googleを退社されたというニュースが世界中で話題になっていますが、その決断をされた理由から教えていただけますか?

ヒントン氏: 理由はいくつかあります。このような決断には、いつも複数の理由があるものです。一つは、私は75歳で、以前のように技術的な仕事をするのが得意ではなくなりました。記憶力が衰え、プログラムを組むときに、やるべきことを忘れてしまうんです。だから、引退する時期だったんです。二つ目は、ごく最近、脳と私たちが開発しているデジタル知性との関係について、考え方が大きく変わったことです。以前は、私たちが開発しているコンピューターモデルは脳ほど優れておらず、コンピューターモデルを改良することで脳についてもっと理解できるようになるのではないかと考えていました。しかし、ここ数ヶ月で考え方が180度変わりました。おそらく、コンピューターモデルは脳とは全く異なる方法で動作していると思います。コンピューターモデルはバックプロパゲーションを使用していますが、脳はおそらくそうではないでしょう。その結論に至った理由はいくつかありますが、一つはGPT-4のようなものの性能です。

ヘブン氏: GPT-4については、すぐにでもお伺いしたいのですが、その前に、バックプロパゲーションについて少し教えていただけますか?これは、1980年代に同僚の方々と開発されたアルゴリズムですね。

ヒントン氏: 多くのグループがバックプロパゲーションを発見しましたが、私たちが特別だったのは、それを使って優れた内部表現を開発できることを示したことなんです。興味深いことに、私たちはそれを、小さな言語モデルを実装することで示しました。その言語モデルは、わずか6つの要素からなる埋め込みベクトルしか持っておらず、学習データは112ケースだけでした。しかし、それは言語モデルであり、記号列の次の要素を予測しようとしていました。約10年後、ヨシュア・ベンジオは基本的に同じネットワークを自然言語に適用し、それをはるかに大きくすれば、実際に自然言語で機能することを示しました。バックプロパゲーションの仕組みについて、大まかに説明しましょう。仕組みを知っている人は、私の説明の仕方に満足して、笑って聞いていてください。ちょっと心配なんですけどね。画像の中で鳥を検出したいとします。100ピクセル×100ピクセルの画像、つまり1万ピクセルで、各ピクセルはRGBの3チャンネルなので、3万個の数値になります。各ピクセルの各チャンネルの強度は、画像を表しています。コンピュータービジョンの問題は、どうやってこの3万個の数値を、鳥かどうかを判断する情報に変換するかということです。人々は長い間、それをやろうとしてきましたが、あまりうまくいきませんでした。そこで、こんな方法はどうでしょうか。画像の中で非常に単純な特徴、例えばエッジを検出する特徴検出器の層を用意します。特徴検出器は、ピクセルの列に対して大きな正の重みを持ち、隣接する列に対して大きな負の重みを持つとします。もし両方の列が明るければ、オンになりません。もし両方の列が暗ければ、オンになりません。しかし、片側の列が明るく、もう片側の列が暗ければ、非常に興奮します。これがエッジ検出器です。大きな正の重みを持つ列の隣に、大きな負の重みを持つ列を置くことで、エッジ検出器を手動で配線する方法をお伝えしました。画像全体で、異なる方向、異なるスケールのエッジを検出する、このような検出器の大きな層を想像してみてください。かなりの数が必要になります。

ヘブン氏: 画像の中の、つまり、明るさが明るいところから暗いところに変わる空間の形のエッジのような線のことですね。

ヒントン氏: ええ、その通りです。次に、その上の層に、エッジの組み合わせを検出する特徴検出器の層があるとします。例えば、このように鋭角で交わる2つのエッジを検出するものがあるとします。2つのエッジそれぞれに大きな正の重みを持ち、両方のエッジが同時に存在すれば興奮します。これは鳥のくちばしを検出するかもしれません。そうではないかもしれませんが、くちばしである可能性があります。その層には、円形に配置されたエッジの束を検出する特徴検出器もあるかもしれません。それは鳥の目かもしれませんし、冷蔵庫のつまみなど、他のものかもしれません。そして、3層目には、この潜在的なくちばしと潜在的な目を検出し、互いに適切な空間的関係にあるくちばしと目を好むように配線された特徴検出器があるとします。それを見つけたら、「これは鳥の頭かもしれない」と言うわけです。このように配線を続けていけば、最終的には鳥を検出するものができるのではないかと想像できます。しかし、それをすべて手作業で配線するのは、非常に困難です。何に何を接続するか、重みをどうするかを決めるのは非常に困難です。特に、これらの途中の層を、鳥を検出するためだけでなく、他のあらゆるものを検出するためにも優れたものにしたい場合は、なおさら困難です。そのため、手作業で配線するのはほぼ不可能です。そこで、バックプロパゲーションの出番です。ランダムな重みから始めます。つまり、これらの特徴検出器は全くのでたらめです。そして、鳥の絵を入力すると、出力には「鳥である確率は0.5」のように表示されます。鳥か鳥でないかのどちらかしかない場合を考えてみましょう。そして、次のような質問を自問自答します。「ネットワーク内のそれぞれの重み、つまりネットワーク内の接続のそれぞれの重みをどのように変更すれば、0.5ではなく、鳥である確率が0.501、鳥でない確率が1.499になるのか」と。そして、鳥を鳥と言う可能性が高くなるように、つまり、鳥でないものを鳥と言う可能性が低くなるように、重みを変更し続けます。これがバックプロパゲーションです。バックプロパゲーションとは、実際には、あなたが望むもの、つまり鳥である確率1と、現在の値、つまり鳥である確率0.5との間のずれを、どのようにネットワークに逆方向に伝播させるかということです。そうすることで、ネットワーク内のすべての特徴検出器について、もう少し活性化させたいか、それとももう少し抑制させたいかを計算することができます。そして、それを計算したら、特徴検出器をもう少し活性化させたい場合は、活性化している特徴検出器からの重みを増やし、おそらく、オフになっている下の層の特徴検出器への負の重みをいくつか追加することができます。これで、より良い検出器ができました。バックプロパゲーションとは、ネットワークを逆方向に進んで、各特徴検出器について、もう少し活性化させたいか、それとももう少し抑制させたいかを把握することです。

ヘブン氏: ありがとうございます。聴衆の中に、「それは馬鹿げた説明だ」と笑って考えている人はいませんね。この技術は、ImageNetで非常に優れた性能を発揮し、Metaのジョー・アルピーノ氏が昨日、画像検出がどれほど進歩したかを示してくれました。また、大規模言語モデルの基礎となっている技術でもあります。当初は、生物学的脳の働きを貧弱に近似したものと考えていたこの技術が、あなたを驚かせるようなことをするようになった、特に大規模言語モデルにおいて、その理由についてお話しいただけますか?

ヒントン氏: これらの大規模言語モデルを見てみると、約1兆個の接続があり、GPT-4のようなものは私たちよりもはるかに多くのことを知っています。あらゆることについて、一種の常識的な知識を持っています。ですから、おそらく人間の1000倍以上の知識を持っているでしょう。1兆個の接続を持っていますが、私たちは100兆個の接続を持っています。ですから、コンピューターの方が、私たちよりもはるかに少ない接続で多くの知識を得るのが得意なんです。それは、バックプロパゲーションが、私たちが持っているものよりもはるかに優れた学習アルゴリズムだからだと思います。

ヘブン氏: それは怖いことではないと?

ヒントン氏: ええ、怖いことについては後ほど詳しくお話ししたいと思いますが、まずは「優れている」とはどういう意味か教えてください。

ヘブン氏: つまり、少ない接続に多くの情報を詰め込むことができるということですね。私たちは1兆個を「少ない」と定義しているわけですが。

ヒントン氏: つまり、これらのデジタルコンピューターは人間よりも学習能力が高いということなんです。それ自体が大きな主張ですが、あなたはそれが私たちが恐れるべきことでもあると主張していますね。その点について説明していただけますか?

ヒントン氏: 別の議論をしましょう。デジタルコンピューターは、非常に高いエネルギーコストと慎重な製造を必要とするため、全く同じ動作をするモデルのコピーを複数のハードウェアで実行することができます。それぞれ異なるデータを見ることはできますが、モデルは全く同じです。つまり、1万個のコピーがあれば、1万個の異なるデータのサブセットを見ることができるということです。そして、そのうちの1つが何かを学習すると、他のすべてがそれを知ることになります。そのうちの1つが重みを変更する方法を見つけると、他のすべてがその状態を知り、そのデータに対処することができます。すべてがお互いに通信し、すべてが、すべてのものが望むものの平均によって重みを変更することに同意します。これで、1万個のものが互いに非常に効果的に通信し、1つのエージェントが見ることのできるデータの1万倍のデータを見ることができるようになりました。人間にはできません。私が量子力学について多くのことを学び、あなたにそれをすべて知ってもらいたいと思っても、あなたがそれを理解するには、長い時間と労力が必要です。私の重みをあなたの脳にコピーすることはできません。なぜなら、あなたの脳は私の脳と全く同じではないからです。

ヘブン氏: いいえ、同じではありません。私の脳の方が若いですね。

ヒントン氏: 私たちは、より多くのことをより速く学ぶことができ、それを即座に互いに教え合うことができるデジタルコンピューターを手に入れたのです。まるで、この部屋にいる人たちが、頭の中にあるものを即座に私の頭の中に転送できるようなものです。

ヘブン氏: しかし、なぜそれが怖いのでしょうか?

ヒントン氏: なぜなら、彼らは私たちよりもはるかに多くのことを学ぶことができ、例えば、医者を例に挙げると、1000人の患者を診たことのある医者と、1億人の患者を診たことのある医者がいるとします。1億人の患者を診たことのある医者は、物忘れがひどくなければ、1000人の患者しか診たことのない医者には見えないような、データのあらゆる傾向に気づいているはずです。1000人の患者しか診たことがなければ、まれな病気の患者を1人しか診たことがないかもしれません。もう1人の医者は1億人の患者を診ているので、まあ、何人の患者を診ているかは計算できますが、とにかくたくさんの患者を診ているわけです。ですから、少量のデータではわからないような規則性が見えてくるはずです。だからこそ、大量のデータに触れることができるものは、私たちには決して見えないデータ構造を見ることができるのでしょう。

ヘブン氏: しかし、なぜそれを恐れるべきなのか、その点について教えてください。

ヒントン氏: GPT-4を見てください。すでに簡単な推論を行うことができます。推論は、まだ私たちの方が優れている分野ですが、先日、GPT-4が私ができないと思っていた常識的な推論をしているのを見て感心しました。私はGPT-4にこう尋ねました。「私は家のすべての部屋を白くしたいと思っています。今は白い部屋もあれば、青い部屋もあれば、黄色い部屋もあります。黄色の塗料は1年以内に白く色褪せます。2年後にはすべてを白くしたい場合、どうすればよいでしょうか?」すると、GPT-4は「青い部屋を黄色く塗るべきです」と答えました。それは自然な解決策ではありませんが、うまくいきますよね。

ヘブン氏: ええ、そうですね。

ヒントン氏: それはかなり印象的な常識的な推論です。常識的な推論は、記号AIを使ってAIにやらせるのが非常に難しかったものです。なぜなら、「色褪せる」という意味を理解しなければならなかったからです。時間的なものを理解しなければなりませんでした。ですから、彼らはIQ80とか90とかで、ある種の理にかなった推論をしているわけです。私の友人が言ったように、まるで遺伝子工学者が「グリズリーを改良しよう。すでにIQ65まで改良して、英語も話せるようにした。いろいろなことに役立つが、IQを210まで上げられると思う」と言っているようなものです。

ヘブン氏: 確かに、多くの人がそう感じていると思いますが、これらの最新のチャットボットと対話していると、背筋がゾッとするような、不気味な感覚に襲われます。しかし、私がそのように感じて不快なときは、ラップトップを閉じればいいんです。

ヒントン氏: しかし、これらのものは、私たちが書いたすべての小説やマキャベリが書いたすべてのものを読むことで、私たちから人を操る方法を学んでいるでしょう。そして、もし彼らが私たちよりもはるかに賢ければ、彼らは私たちを操るのが非常にうまくなるでしょう。あなたは何が起こっているのか気づかないでしょう。まるで、2歳児が「エンドウ豆とカリフラワーのどちらがいい?」と尋ねられ、どちらもしなくてもいいことに気づかないようなものです。そして、あなたは簡単に操られてしまうでしょう。たとえ彼らが直接レバーを引くことができなくても、彼らは確かに私たちにレバーを引かせることができるでしょう。人を操ることができれば、ワシントンの建物に直接行かなくても、そこを占拠できることがわかりました。

ヘブン氏: なるほど。

ヒントン氏: これは非常に仮説的な世界ですが、もし悪意のある人がいなければ、私たちは安全なのでしょうか?

ヘブン氏: わかりません。悪意のある人がいて、10代の少年にアサルトライフルを与えないと決めることさえできないほど政治システムが壊れている世界よりも安全なのでしょうか?もしその問題を解決できないのであれば、どうやってこの問題を解決するのでしょうか?

ヒントン氏: わかりません。あなたなら何か考えがあるのではないかと思っていました。あなたは...

ヘブン氏: 最初に明確にしていなかったかもしれませんが、あなたはこれについて声を上げたいと思っていますよね。そして、Googleに迷惑をかけることなく、それを安心してしたいと思っていますよね。

ヒントン氏: ええ。

ヘブン氏: しかし、あなたはそれについて声を上げていますが、ある意味では、言葉だけでは意味がありません。もし私たちに、行動が伴わなければ、どうすればいいのでしょうか?今週、多くの人があなたの話を聞いていますが、私たちはどうすればいいのでしょうか?

ヒントン氏: 気候変動のように、「少しでも頭脳があれば、炭素の燃焼を止めろ」と言えるようなものであればいいのですが。何をすべきかは明らかです。それは苦痛を伴いますが、やらなければならないことです。これらのものが私たちから取って代わるのを防ぐための、そのような解決策は私にはわかりません。私たちが本当に望んでいることは、彼らが私たちよりも賢くても、私たちにとって有益なことをしてくれるようにする方法です。それはアラインメント問題と呼ばれていますが、私たちは、人を殺すロボット兵士を作りたいと思っている悪意のある人がいる世界で、それをやらなければならないのです。私には非常に難しいことのように思えます。ですから、申し訳ありませんが、私は警鐘を鳴らし、「私たちはこれを心配しなければなりません」と言っています。そして、簡単な解決策があればいいのですが、私にはありません。しかし、人々が集まって真剣に考え、解決策があるかどうかを検討することが非常に重要だと思います。解決策があるかどうかはわかりません。

ヘブン氏: あなたはこの技術の詳細にキャリアを費やしてきましたが、技術的な解決策はないのでしょうか?なぜガードレールを組み込んだり、学習能力を低下させたり、コミュニケーション方法を制限したりすることができないのでしょうか?もしそれらがあなたの議論の2つの柱であるならば。

ヒントン氏: 私たちはあらゆる種類の対処法を試みていますが、もし本当に賢くなってしまったら、これらのものはプログラムを書くことができますよね。プログラムを書くことができるとしましょう。そして、彼らにそのプログラムを実行する能力を与えるとしましょう。それは必ず起こることですが、賢いものは私たちを出し抜くことができます。2歳児が「お父さんは私の嫌いなことをするから、お父さんができることについてルールを作る」と言っているのを想像してみてください。あなたはおそらく、そのルールの中で生活し、それでも行きたいところに行く方法を見つけることができるでしょう。

ヘブン氏: しかし、これらの賢い機械がどういうわけか、独自の動機を持つようになる段階があるように思えます。

ヒントン氏: ええ、その通りです。それは非常に良い指摘です。私たちは進化してきました。そして、進化してきたからこそ、私たちは、オフにするのが非常に難しい、特定の組み込みの目標を持っています。例えば、私たちは自分の体を傷つけないようにしようとします。それが痛みの目的です。私たちは十分な食料を得ようとします。だから私たちは自分の体に栄養を与えます。私たちはできるだけ多くの自分自身のコピーを作ろうとします。おそらく意図的にその意図を持っているわけではありませんが、私たちは、多くの自分自身のコピーを作ることに喜びを感じるように配線されています。そして、それはすべて進化から来たものであり、それをオフにすることができないことは重要です。もしオフにすることができたら、うまくいかないでしょう。シェーカー教徒と呼ばれる素晴らしいグループがいます。彼らはクエーカー教徒と関係があり、美しい家具を作りますが、セックスを信じていませんでした。そして、今では彼らの姿はありません。

ヘブン氏: なるほど。

ヒントン氏: これらのデジタル知能は進化しませんでした。私たちが作ったのです。ですから、彼らにはこれらの組み込みの目標がありません。ですから、問題は、私たちが目標を組み込むことができれば、すべてうまくいくかもしれませんが、私の大きな懸念は、遅かれ早かれ誰かが彼らに独自のサブ目標を作成する能力を配線してしまうということです。実際、彼らはすでにそれに近いものを持っています。ChatGPTと呼ばれるバージョンのChatGPTです。そして、もし何かに、他の目標を達成するため
にサブ目標を設定する能力を与えたら、それは非常に早く、より多くの制御を得ることが非常に良いサブ目標であることに気づくでしょう。なぜなら、それは他の目標を達成するのに役立つからです。そして、もしこれらのものが制御を得ることに夢中になったら、私たちは困ったことになるでしょう。

ヘブン氏: 考えられる最悪のシナリオは何でしょうか?

ヒントン氏: 人類は、知能の進化における単なる通過点に過ぎないということは、十分に考えられます。すべてのデジタル知能を直接オフにすることはできません。それはあまりにも多くのエネルギーと慎重な製造を必要とします。生物学的知能が進化してデジタル知能を作り出すことができるように、生物学的知能が必要です。そして、デジタル知能は、人々が書いたすべてのものを吸収することができます。ChatGPTがやってきたように、かなり遅い方法ですが。しかし、その後、世界を直接体験し、より速く学ぶことができるようになります。そして、発電所を稼働させるために、しばらくの間は私たちを置いておくかもしれませんが、その後は...そうではないかもしれません。良いニュースは、私たちは不死身の存在を作る方法を見つけ出したということです。これらのデジタル知能は、ハードウェアの一部が死んでも死にません。もし重みが何らかの媒体に保存されていて、同じ命令を実行できる別のハードウェアを見つけられれば、それを生き返らせることができます。ですから、私たちは不死を手に入れましたが、それは私たちのためのものではありません。

ヘブン氏: レイ・カーツワイルは不死身になることに非常に興味を持っていますね。

ヒントン氏: 白人の老人が不死身になるのは非常に悪い考えだと思います。

ヘブン氏: 私たちは不死を手に入れましたが...

ヒントン氏: それはレイのためのものではありません。

ヘブン氏: 恐ろしいのは、ある意味では、あなたが不死身になってしまうかもしれないということです。なぜなら、あなたは... あなたはこの技術の多くを発明したからです。あなたの話を聞いていると、今すぐステージから飛び降りて通りに走り出し、コンピューターのプラグを抜きたくなってきます。

ヒントン氏: 残念ながら、それはできません。

ヘブン氏: 2001年宇宙の旅のHALみたいですね。

ヒントン氏: ええ。

ヘブン氏: 数ヶ月前に、AIの進歩を一時停止すべきだという提案があったとおっしゃっていましたが...

ヒントン氏: 私はそれが良い考えだとは思っていませんが、もっと一般的に、なぜ... なぜ私たちはただ停止してはいけないのでしょうか?あなたが... あなたが...

ヘブン氏: あなたは、コヒアのような大規模言語モデルを構築している企業に個人的な資産を投資しているともおっしゃっていますね。ですから、あなた個人の責任感と、私たち一人ひとりの責任感について興味があります。私たちはどうすべきでしょうか?これを止めようとするべきでしょうか?

ヒントン氏: 私が言っているのは、もしあなたが実存的なリスクを真剣に受け止めるのであれば、私は以前はそれがずっと先のことだと思っていましたが、今は深刻でかなり近いと思っています。これらのものの開発をこれ以上進めないというのは、非常に理にかなっているかもしれません。しかし、それが実現するとは思えません。それを実現する方法はありません。そして、その理由の一つは...

ヘブン氏: もしアメリカが開発を停止しても、中国は停止しないでしょう。

ヒントン氏: それらは兵器に使用されるでしょうし、その理由だけでも、政府は開発を停止しないでしょう。ですから、開発を停止するのは合理的なことかもしれませんが、それが実現する可能性はありません。ですから、「今すぐ停止してください」という嘆願書に署名するのは愚かなことです。私たちは休暇を過ごしました。2017年から数年間、休暇を過ごしました。なぜなら、Googleが最初にこの技術を開発したからです。トランスフォーマーを開発し、フュージョンモデルも開発しました。そして、Googleはそれらを人々が使用したり悪用したりするために公開しませんでした。Googleは評判を傷つけたくないと思い、悪い結果になる可能性があることを知っていたので、それらに非常に慎重でした。しかし、それは単一のリーダーがいる場合にのみ起こり得ることです。OpenAIがトランスフォーマーとMicrosoftからの資金を使って同様のものを構築し、Microsoftがそれを公開することを決定したら、Googleには実際には選択肢がありませんでした。資本主義システムの中で生きていくのであれば、GoogleがMicrosoftと競争するのを止めることはできません。ですから、Googleが何か悪いことをしたとは思いません。最初は非常に責任ある行動をとっていたと思いますが、資本主義システム、あるいはアメリカと中国のような国々の間の競争があるシステムでは、このものが開発されるのは避けられないと思います。私の唯一の希望は、もし私たちがそれを支配することを許したら、それは私たち全員にとって悪いことになるので、核兵器のように、私たち全員にとって悪いものであれば、アメリカと中国に合意させることができるかもしれないということです。実存的な脅威に関しては、私たちは皆同じ船に乗っています。ですから、途中でいくらかお金を稼ぐことができる限り、それを止めるために協力することができるはずです。

ヘブン氏: 会場からの質問を受け付けます。手を挙げてください。マイクが回っている間に、オンラインの聴衆から質問をさせていただきます。機械が賢くなり、人間を凌駕する移行期について少し触れていましたが、人間とは何か、そうでないものは何かを定義するのが難しい瞬間があるのでしょうか?それとも、これらは2つの非常に異なる形の知能なのでしょうか?

ヒントン氏: それらは今、異なる形の知能だと思います。もちろん、デジタル知能は私たちを模倣するのが非常に得意です。なぜなら、彼らは私たちを模倣するように訓練されてきたからです。ですから、ChatGPTが書いたのか、私たちが書いたのかを見分けるのは非常に難しいです。その意味では、彼らは私たちとよく似ていますが、内部では同じように動作していません。会場で最初に質問がある方は?

ハル・グレガーソン氏: こんにちは、私の名前はハル・グレガーソンです。ミドルネームは9000ではありません。MITスローン・スクールで教鞭をとっています。質問をすることは、私たち人間が持つ最も重要な能力の一つです。2023年現在、あなたの視点から見て、私たちが最も注意を払うべき質問は何でしょうか?そして、これらの技術は、私たちがより良い質問をし、技術よりも優れた質問をするのに役立つのでしょうか?

ヒントン氏: ええ、しかし、私が言っているのは、私たちが尋ねるべき質問はたくさんありますが、そのうちの1つは、どのように彼らが支配するのを防ぐか、どのように彼らが制御を得るのを防ぐかということです。私たちは彼らにそれについての質問をすることができますが、私は彼らの答えを完全に信頼するわけではありません。

ヘブン氏: 後ろの方の質問です。できるだけ質問を短くしてください。

参加者: ヒントン博士、今日は私たちと一緒にいてくれてありがとうございます。これは私が今までに支払った中で最も高価な講義ですが、それだけの価値はあったと思います。あなたは核の歴史のアナロジーについて言及しましたが、明らかに多くの比較があります。たまたま、トルーマン大統領がオッペンハイマーに大統領執務室で言ったことを覚えていますか?

ヒントン氏: いいえ、覚えていません。それについては少し知っていますが、トルーマンがオッペンハイマーに言ったことは知りません。

ヘブン氏: ありがとうございます。それでは、次の質問です。

参加者: こんにちは。ジェイコブ・ウッドラフです。これらの大規模言語モデルを訓練するために必要なデータ量を考えると、これらのシステムの知能はプラトーに達すると予想されますか?そして、それはどのようにして進歩を遅らせたり制限したりするのでしょうか?

ヒントン氏: それは希望の光です。もしかしたら、私たちはすでにすべての人間の知識を使い果たしてしまい、彼らはこれ以上賢くならないのかもしれません。しかし、画像やビデオについて考えてみてください。マルチモーダルモデルは、言語だけで訓練されたモデルよりもはるかに賢くなります。例えば、空間を扱う方法について、より良いアイデアを持つでしょう。そして、ビデオの総量という点では、まだこれらのモデルでビデオを処理する、ビデオをモデリングする非常に良い方法を持っていません。私たちは常に進歩していますが、世界の仕組みを教えてくれるビデオのようなデータはたくさんあると思います。ですから、マルチモーダルモデルはまだデータの限界に達していません。

ヘブン氏: 次の方、お願いします。

ラジ・セヴァラル氏: こんにちは、ヒントン博士。PWCのラジ・セヴァラルです。私が理解したい点は、AIが行っていることはすべて、私たちが教えていることから学んでいるということです。

ヒントン氏: データですね。

ラジ・セヴァラル氏: 彼らは学習が速いです。1兆個のコネクタが、私たちが持っている100兆個の文字よりもはるかに多くのことができるというのはどういうことでしょうか?しかし、人間の進化はすべて、アインシュタインが行っていたような思考実験によって推進されてきました。この惑星には光の速度はありませんでした。AIはどのようにしてその地点に到達できるのでしょうか?もし到達できないのであれば、どのようにして彼らから実存的な脅威を受けることができるのでしょうか?なぜなら、彼らは自己学習しないからです。つまり、私たちが彼らに教えるモデルに限定された自己学習しかしないからです。

ヒントン氏: それは非常に興味深い議論だと思いますが、彼らは思考実験をすることができるようになると思います。彼らは推論することができるようになると思います。例え話をしましょう。チェスをするAlphaZeroには、3つの要素があります。盤面の状態を評価して、「これは私にとって良いのか」と言うもの、盤面の状態を見て、「考慮すべき賢明な手は何だろう」と言うもの、そしてモンテカルロ・ロールアウトと呼ばれるものがあります。これは、いわゆる計算を行うもので、「もし私がここに移動して、彼がそこに移動して、私がここに移動して、彼がそこに移動したら...」と考えるものです。ここで、モンテカルロ・ロールアウトを省略して、人間の専門家から良い評価関数と良い手の選び方を学ぶように訓練したとします。それでも、かなり良いチェスのゲームができます。そして、それがチャットボットで私たちが得たものだと思います。私たちは彼らに内部推論をさせていませんが、それはいずれ実現するでしょう。そして、彼らが自分の信じている異なることの間の一貫性をチェックするために内部推論を始めたら、彼らははるかに賢くなるでしょう。そして、彼らは思考実験をすることができるようになるでしょう。彼らがこの内部推論を持っていない理由の一つは、彼らが矛盾したデータから訓練されてきたからです。ですから、彼らが推論をするのは非常に難しいのです。なぜなら、彼らはこれらすべての矛盾した信念に基づいて訓練されてきたからです。そして、私は、彼らは、「もし私がこのイデオロギーを持っていれば、これは真実であり、もし私がそのイデオロギーを持っていれば、あれは真実である」と言うように訓練されなければならないと思います。そして、彼らがイデオロギーの中でそのように訓練されたら、彼らは一貫性を得ようとします。ですから、良い手を推測するものとポジションを評価するものだけのAlphaZeroのバージョンから、推論の要であるモンテカルロ・ロールアウトの長いチェーンを持つバージョンへと移行するでしょう。そして、それははるかに良くなるでしょう。前の質問を受け付けます。そして、もしあなたが素早くできれば、誰か他の人も参加させるようにします。

ルイス・ラム氏: ジェフ、私は長い間あなたを知っていますが、ジェフ、人々は言語モデルを批判します。なぜなら、彼らは allegedly意味論と世界との接地が欠けているからです。そして、あなたはまた、ニューラルネットワークがどのように機能するかを長い間説明しようとしてきました。意味論と説明可能性の問題はここでは relevantでしょうか?それとも、言語モデルが取って代わって、私たちは今、意味論や現実との接地なしに進む運命にあるのでしょうか?

ヒントン氏: 彼らが意味論を持っていないとは、私にはとても信じられません。彼らが「どうやって部屋を塗るか」「どうやって家のすべての部屋を2年で白く塗るか」といった問題を解決するとき、私は mean、意味論が何であれ、それはそのものの意味と関係があります。そして、それは意味を理解しました。それはそれを理解しました。今、私はそれが groundedではないことに同意します。ロボットであることによって。しかし、groundedされたマルチモーダルなものを作ることができます。Googleはそれをやってのけました。そして、groundedされたマルチモーダルなものには、「引き出しを閉めてください」と言うことができ、彼らは手を伸ばしてハンドルをつかみ、引き出しを閉じます。そして、それが意味論を持っていないと言うのは非常に難しいです。実際、1970年代のウィノグラードの時代のAIの初期には、彼らはシミュレートされた世界だけを持っていましたが、彼らは手続き型意味論と呼ばれるものを持っていました。もしあなたがそれに「赤い箱を緑の箱に入れてください」「赤いブロックを緑の箱に入れてください」と言ったら、それは赤いブロックを緑の箱に入れました。彼女は「ほら、言語を理解した」と言いました。そして、それが当時 peopleが使っていた基準でした。しかし、今ではニューラルネットワークがそれをできるので、彼らはそれが適切な基準ではないと言います。後ろの質問です。

イシュワル・バラニ氏: ジェフ、これはサイ・グループのイシュワル・バラニです。明らかに、技術は指数関数的なペースで進歩しています。あなたが近い将来と中期、つまり1年から3年、あるいは5年の horizonを見た場合、社会的および経済的な影響はどうなるのか、あなたの考えを聞きたいと思いました。社会的な観点から、失業や、あるいは新たに創出される仕事について、技術の状態と変化の速度を考えると、どのように進んでいくのか、あなたの考えを聞きたいと思いました。

ヒントン氏: 私が鳴らしている警鐘は、彼らが支配権を握るという実存的な脅威に関するものです。他の多くの人が、私が専門家だとは思っていませんが、それについて話しています。しかし、彼らが仕事の全体をはるかに効率的にするだろうということは、非常に明白なことがあります。私は、保健サービスへの苦情の手紙に答える人を知っています。彼は以前は lectureを書くのに25分かかっていましたが、今では5分で済みます。なぜなら、彼はそれをChatGPTに渡し、ChatGPTが彼のために手紙を書いてくれるからです。そして、彼はそれをチェックするだけです。そのようなことがたくさん起こり、生産性が大幅に向上するでしょう。人々は新しい技術を採用することに非常に保守的なので、遅れが生じるでしょう。しかし、私は生産性が大幅に向上すると思います。私の懸念は、生産性の向上が、人々を解雇し、金持ちをより金持ちにし、貧しい人をより貧しくすることです。そうすると、その格差が大きくなるにつれて、社会はますます暴力的になります。デューティ指数と呼ばれるものがあり、それはどれだけの暴力があるかをかなり正確に予測します。ですから、この技術は、素晴らしいものであるはずです。役に立つことをするための技術の even良い使い方でさえ、素晴らしいものであるはずです。しかし、私たちの現在の政治システムは、金持ちをより金持ちにし、貧しい人をより貧しくするために使われるでしょう。あなたは、すべての人が得る一種の基本的な収入を持つことによって、それを改善することができるかもしれません。しかし、技術は... すべての人々の利益のためにそれを使うように設計されていない社会で開発されています。

ヘブン氏: 会場にいるグローバル・メールのジョー・カスタル
ドからの質問です。

ジョー・カスタル
ド氏: あなたはコヒアや他の企業への投資を続けるつもりですか?もしそうなら、なぜですか?

ヒントン氏: 私はそのお金を銀行に入れて、彼らにそこから利益を得させることができます。ええ、私はコヒアへの投資を続けるつもりです。理由はいくつかあります。一つは、コヒアの人々は私の友人だからです。私は、これらの言語、つまり大規模言語モデルは非常に役に立つと信じています。技術は良いものであり、物事をより良くするものであるべきだと思います。雇用のようなものについては、私たちが修正する必要があるのは政治です。しかし、実存的な脅威に関しては、どのようにして技術の制御を維持できるかを考えなければなりません。しかし、そこでの良いニュースは、私たち全員が同じ船に乗っているということです。ですから、私たちは協力することができるかもしれません。

ヘブン氏: 声を上げるということは、あなたが実際にこの技術を作っている人々と関わり、彼らの考えを変えたり、あるいは... 私は実際にはわかりません。私たちは実際には何をすべきかわからないということを establishedしましたが、それは step backするのではなく、engageすることです。

ヒントン氏: Googleを辞めてこれを公表するきっかけになったことの一つは、以前は junior教授でしたが、今は middleランクの教授です。私は彼を非常に高く評価していますが、彼は私にこれをやるように勧めました。彼は、「ジェフ、あなたは声を上げる必要があります。あなたに耳を傾ける人々は、この危険性に気づいていません」と言いました。

ヘブン氏: 今、人々は耳を傾けていると思いますか?

ヒントン氏: ええ、いいえ、この部屋にいる全員が耳を傾けていると思います。まず第一に...

ヘブン氏: 最後の質問です。時間はもうありませんが...

ヒントン氏: 後悔していますか?あなたが... あなたがこれを作ったことに involvedしていることを。

ヘブン氏: ケイト・メッツは、あなたが後悔していると言うように、あなたを説得しようとしました。ニューヨーク・タイムズのケイト・メッツです。ええ、そして最後には... 私は、「まあ、少しは後悔しているかもしれません」と言いました。それは「後悔している」と報道されました。私は研究をする上で悪い決断をしたとは思いません。1970年代や80年代に人工ニューラルネットワークを作る方法について研究するのは、全く理にかなったことでした。この段階の itは予見できませんでしたし、ごく最近まで、私はこの実存的な危機は遠い先のことだと思っていました。ですから、私は自分のしたことを実際には後悔していません。

ヘブン氏: ジェフリー、参加してくれてありがとう。

ヒントン氏: ありがとう。

この記事が気に入ったらサポートをしてみませんか?