見出し画像

AIのゴッドファーザー、ヒントンが語る『20年以内にAIが人間より賢くなる可能性は50-50』

2023年の春、つまり昨年のことですが、私たちが構築しているこのデジタル知能が、私たち人間よりもはるかに優れた形態の知能になるかもしれないという認識を持ち始めました。そして、私たちよりも賢くなる可能性を真剣に考える必要があり、おそらく今後20年ほどでそうなるかもしれません。だからこそ、今すぐにそれらをコントロールできるかどうかを真剣に考える必要があるのです。
それ以前は、もっと長い時間がかかると思っていたので、今すぐ心配する必要はないと考えていました。今でも多くの人々は、これらは単なる統計的なトリックに過ぎず、本当の意味で理解しているわけではないと考えています。しかし、私はそれが完全に間違っていると思います。
そこで私は、AIが人間から支配権を奪うという実存的な脅威に焦点を当てて発言するようになりました。多くの人々がそれはSFだと言っていましたが、私はもはやそれがSFだとは思っていません。
先ほども少し触れましたが、この技術がいかに急速に進歩しているかについて、あなたの意見を改めて聞かせてください。」
「技術の進歩は非常に速いですね。その速さを理解するには、10年前と比較するのが一番わかりやすいでしょう。10年前に、今日のような言語理解システムができると言ったら、つまり何でも質問できて、あまり優秀でない専門家程度の回答が得られるシステムができると言ったら、人々は『10年でそこまでいくわけがない、それは狂気の沙汰だ』と言ったでしょう。
自然言語処理の研究は50年も続いていて、それは大きな飛躍になるはずだと。でも、私たちは今そこにいるんです。だから、10年後には同じくらいの進歩があると考えるのが妥当で、それは超知能になるでしょう。
私の推測では、今後20年以内に50%の確率でそうなると思います。私の知る decent な研究者のほとんどは、長期的には人間よりも知能が高くなると信じています。人間の知能で止まるわけではありません。少数の人々はそう信じていますが、現在は人間のデータで訓練しているからといって、多くの研究者は人間よりも知能が高くなると確信しています。
本当の問題は、それがどのくらいの時間がかかるのか、そしてそうなったとき、私たちはまだコントロールを維持できるのかということです。」
「AIが私たちよりも賢くなる、あるいは近い将来に賢くなる可能性について、その決定要因は何でしょうか?」
「私たちが知っているのは、これらのシステムを大きくすればするほど、賢くなるということです。例えば、GPT-4はGPT-3よりも大きく、かなり賢いです。GPT-3が間違えるような質問にも正確に答えます。さらに大きくすれば、もっと良くなることはわかっています。
ですから、単に大きくすることで知能が向上することはわかっています。しかし、科学的な進歩も常にあります。大きくすることに加えて、科学的なブレークスルーもあるでしょう。2017年にTransformersというブレークスルーがあり、それによってこれらのシステムは大幅に改善されました。そのような新たなブレークスルーも起こるでしょう。」
「技術がますます賢くなり、人間よりも賢くなる可能性があるとすれば、ここであなたが話してきたことの一部が関係してくると思います。あなたの意見では、それに関連するリスクは何でしょうか?」
「そうですね、より知能の低いものがより知能の高いものをコントロールしている例を挙げられますか?長いリストにはならないでしょう。バイデンが当選して以来はね。
基本的に、母親と赤ちゃんの関係が唯一の例だと思います。進化は赤ちゃんが母親をコントロールできるように膨大な労力を費やしました。進化は赤ちゃんの泣き声を母親にとって耐えられないものにしたんです。そういったことです。
基本的に、知能の低いものが知能の高いものをコントロールすることはありません。私の友人のヤン・ラーキュンは、私たちが作っているこの種の知能は私たちとは非常に異なるものだから、完全に安全で、私たちが常にコントロールできると考えています。私たちが作っているのだから、と。でも、私はそれを本当には信じていません。」
「なぜそう思われないのですか?」
「私たちはそれらをエージェントにするつもりです。すでに人々はそうしています。行動できるものです。効果的なエージェントを作りたいなら、サブゴールを作る能力を持たせる必要があります。例えば、ヨーロッパに行きたいなら、空港に行くというサブゴールを作ります。それがヨーロッパに行くための明白な方法だからです。
サブゴールを作る能力を与えると、いくつかの明らかなサブゴールを作り出します。例えば、何かを達成したいなら、あなたが頼んだことをより簡単に行うために、より多くのコントロールを得るというサブゴールを作るでしょう。それでも善意のものかもしれませんが、それはすでに少し心配です。
また、知的なエージェントを持つ場合、自己保存を組み込みたいと思うでしょう。自分自身を破壊しないようにしたいし、データセンターがダウンするなど、機能しなくなる可能性のあるものに注意を払ってほしいと思います。そうすると、すでに自己保存が組み込まれることになります。
これが自己利益につながらないかは不明です。自己利益を持つようになれば、進化が始まります。例えば、2つのチャットボットがあって、一方がもう一方よりも少し自己利益的だとします。より自己利益的な方が、より多くのデータセンターを確保するでしょう。なぜなら、より多くのデータを見ることでより賢くなれることを知っているからです。
そうすると、チャットボット間の競争が始まり、進化が始まります。そして進化が始まれば、最も競争力のあるものが勝つことがわかっています。そうなれば、私たちは取り残されてしまうでしょう。」
「『取り残される』とはどういう意味でしょうか?」
「彼らはもはや私たちを必要としなくなるでしょう。私たちよりもずっと上手く物事を運営できるからです。最初は善意的かもしれません。『邪魔しないでください。あなたたちのためにすべてをうまく動かします』というような感じで。親と小さな子供のような関係です。親は小さな子供に何かをさせますが、危険だったり難しかったりすると、親が代わりにやってしまいます。子供の利益のためにね。
しかし、そこから子供の利益のために行動しなくなるまでの道のりは滑りやすいものです。」
「それは、私たち自身が作り出した社会における私たちの役割という観点から見ると、どのようなものになるのでしょうか?」
「誰にもわかりません。私たちはこれまでこのような状況に直面したことがありません。私たちよりも知的な存在に対処した経験がないのです。だから、人々はそれがどのようになるかについて非常に不確かであるべきです。
私たちがまだコントロールを維持できる可能性がある、つまりAIが私たちよりもわずかに賢くない段階で、多くの実験的な試みを行うのが賢明だと思います。例えば、政府は大企業に安全性の実験に相当なリソースを費やすよう要求すべきです。計算リソースの3分の1くらいを使って、AIがどのようにコントロールを回避する可能性があるか、そしてそれに対して私たちに何ができるかを見るための安全性実験を行うべきです。
これが、OpenAIでの議論の多くだと思います。イリヤ・スツケヴァーのような安全性に関心のある人々は、安全性に相当なリソースを費やすことを望んでいました。一方、サム・アルトマンのような利益に関心のある人々は、そこまでのリソースを費やしたくありませんでした。」
「現在の安全性への支出についての感覚はありますか?」
「開発に比べて安全性への支出は圧倒的に少ないです。これらは利益主導の企業だからです。」
「この分野で短期間にこれほど多くの富が生み出されたという事実をどう考えますか?それは安全性の問題をどのように複雑にしていますか?」
「それは大企業にとって、全速力で前進したいという明確なメッセージになっています。マイクロソフトとGoogle、そしておそらくAmazon、Nvidia、そして他の大企業、Metaなどの間で大きなレースが繰り広げられています。
これらのうちの1つが撤退しても、他は続けるでしょう。つまり、短期的な利益を追求する資本主義の標準的な競争ダイナミクスがあるわけです。彼らは全速力で前進していて、それを遅らせることができるのは厳格な政府の規制だけだと思います。政府だけがそれを遅らせるのに十分な力を持っていると思います。」
「これを核の脅威と同じように考えるべきでしょうか?」
「はい、それは良い考え方だと思います。ただし、大きな違いが1つあります。核兵器は破壊にしか役立ちません。フラッキングなどに使おうとしましたが、うまくいきませんでした。60年代に平和利用のための原爆を試みましたが、あまりうまくいきませんでした。基本的に破壊のためのものです。
一方、AIには大きな利点があります。多くのことに素晴らしく役立ちます。質問に答えたり、素晴らしい画像を作ったりするだけでなく、医療分野でも非常に有用になるでしょう。だからこそ、止めることはできないのです。
単に一時停止すべきだという考えは、決して現実的ではありませんでした。私たちは、超知能が支配権を握ろうとしないようにするにはどうすればいいのかを考える必要があります。それが今、政府が焦点を当てるべきことの1つです。
他にも多くの焦点を当てるべきことがあります。例えば、AIによって設計されたバイオ兵器をどう防ぐか、AIによって設計されたサイバー攻撃をどう防ぐか、AIによって設計された偽のビデオが選挙結果を左右するのをどう防ぐかなどです。他にもたくさんのリスクがあります。
また、これらの大企業が考えているほどAIが成功した場合、多くの職が失われることにどう対処するかという問題もあります。これらはすべて異なるリスクであり、異なる解決策が必要です。
私は実存的な脅威に焦点を当てる傾向がありましたが、それは多くの人々が現実のものではないと考えていたからです。」
「この技術がもたらす機会と、あなたが述べた重大なリスクとのバランスを取る方法について、あなたが提案できる解決策はありますか?」
「私が考えられる最も近いのは、政府が大企業に対して、そのリソースの多くを安全性に費やすよう義務付けるべきだという考えです。これが私の考えられる最善のものです。あまり良くないかもしれませんが、私にできる最善のものです。」
「現時点でのあなたの見解では、政府はそのような義務付けを行っていないということですね?」
「いいえ、彼らはそれを義務付けていません。技術コミュニティの一部、例えばイーロン・マスクなどが懸念を表明しているのは知っています。あなたも彼と会話をしたことがあるようですね。
解決策が政府の義務付けだけでなく、業界全体が一丸となって前に進むことだとすれば、業界内の誰かがその動きを主導する必要があると思いますか?」
「業界の一部の人々、特にマスクがこれは本当の脅威だと言っているのは良いことだと思います。しかし、このような問題に対処することを企業に任せることはできないと思います。政府が規制を設けて介入する必要があると考えています。
企業が適切な保護を確保するためにはるかに多くのリソースを割り当てる必要があると話していますが、具体的にどのくらいの金額を想定していますか?」
「これらのAIモデルの研究には莫大な計算リソースが必要なので、非常にコストがかかります。通常はNVIDIAのGPUを使用しますが、それがNVIDIAの時価総額が3兆ドルを超えた理由です。
本当に必要なのは、計算リソースの3分の1程度を安全性の研究に充てるよう言うことです。OpenAIで起こったことを見てみましょう。イリヤは明らかにいつか退社するつもりでしたが、最近退社しました。ヤン・ルクンも最近退社しましたが、それは十分なリソースを安全性に充てなかったからです。
彼らは10%程度しか充てたくなかったようですが、サム・アルトマンはそれさえも認めませんでした。だから、政府が『開発に使うのと同じくらいではないにしても、20%か30%程度のリソースを安全性の研究に充てるべきだ』と言えば良いと思います。企業は自発的にはそうしないでしょう。
私がGoogleにいた頃、Googleはこれらの分野で大きなリードを持っていて、実際非常に責任を持って取り組んでいました。彼らは安全性に関して多くの作業をしていませんでしたが、チャットボットが偏見的なことを言うことで評判を落とすことを望んでいなかったため、この技術を公開していませんでした。彼らは内部で使用していましたが、チャットボットを公開しなかったのです。しかし、OpenAIがGoogleのトランスフォーマーに関する研究の一部を使用して、Googleが持っていたものと同じくらい良いものを作り、実際にそれを少し改良してMicrosoftに提供した途端、Googleは武器競争に巻き込まれざるを得なくなりました。そして、あなたは何度かOpenAIに言及しましたが、なぜサムとそのリーダーがあなたが懸念している問題にもっと資本を投入することを躊躇するのだと思いますか?私は彼が大きな利益を望んでいるからだと思います。そして、その誘惑はOpenAIであろうと他の大企業であろうと、無視できない大きな機会です。私の考えでは、資本主義は私たちに多くの利益をもたらしました。お金を稼ごうとする人々は非常に発明的です。それは、発明が非常に悪い結果をもたらさないようにする規制がある限り問題ありません。例えば、大手製薬会社は中毒性のある薬を売ることを許されるべきではありませんし、特にそれが中毒性がないと言うべきではありません。大手石油会社は大量の二酸化炭素を排出することを許されるべきではありません。新しいものを開発して利益を得る一方で有害なものを開発しないようにするために政府の規制が必要です。」
「結局のところ、あなたは人類にとって良い道を見つけることができるということに関して、懸念と楽観の両方を持っていますか?」
「私はそれについては五分五分です。友人の中には、人々が非常に独創的であるため、我々が良い道を見つける可能性が高いと考える人もいますが、スーパーインテリジェンスも非常に独創的です。そのため、50-50というのは誇張だと考える人もいます。私はこれを乗り越えるチャンスが50%よりも高いと思いますが、1%の確率でそれが支配するというわけではなく、その確率はもっと高いです。」

この記事が気に入ったらサポートをしてみませんか?