見出し画像

AIの父 ジェフリー・ヒントン氏、人間の生産性を超えるAIが雇用を奪うと予見

2,356 文字

そやね、生産性の面から見たら素晴らしいことやと思います。でも、社会にとって素晴らしいことかどうかは、それはまた別の話ですわ。ちゃんとした社会やったら、生産性が上がれば皆がええ暮らしができるはずなんですけど、現実はどうなるかというと、生産性が上がることで大企業や金持ちがより豊かになって、一般の人々は仕事を失うことで却って暮らしが苦しくなる可能性が高いんです。
よく「新しい仕事が生まれる」言うてる人がおるんですけど、私はそれにはあんまり納得できひんのです。産業革命のときは人間の肉体的な力が要らんようになったんですが、今度は人間の知性が要らんようになってきてる。これはほんまに怖いことですわ。
まあ、需要が弾力的な分野もありますよ。例えば医療なんかがそうです。私も70歳超えてますけど、医者と週10時間も話ができたらそれは嬉しいですわ。そういう分野では、高性能なAIと一緒に働くことで人がより効率的になっても失業するわけやなくて、むしろ医療サービスがもっと充実するだけです。これは素晴らしいことですな。
でも、そうやない分野もあるんです。私の姪っ子が医療サービスのクレーム対応の手紙を書く仕事をしてるんですけど、今までやったら1通25分かかってたものが、ChatGPTにスキャンして答えをチェックするだけで5分で済むようになった。こういう場合は人員が減らされる可能性が高いと思います。まあ、みんながもっと気軽にクレーム出せるようになるかもしれませんけど、それでも人は減るでしょうね。
つまり、仕事によって需要の弾力性が違うんです。弾力性の低い仕事は失われていって、生産性向上で生まれた余剰な富は、そういう人たちには回ってこないんです。
長年、致死性自律型兵器開発の軍拡競争が起こることは分かってました。アメリカ、中国、イギリス、イスラエル、ロシアなどの国防省や武器製造業者は、みんな自律型致死性兵器の開発に躍起になってる。どこかが止めても他は止めへんでしょう。
必要なんは開発を止めることやなくて、ジュネーブ条約みたいなものです。でも、化学兵器のジュネーブ条約だって、ひどいことが起こってからできたもんです。現実的に言うと、自律型致死性兵器でもなんか酷いことが起こってからじゃないと条約はできへんと思います。
化学兵器に関しては条約がうまく機能してます。プーチンもウクライナで使ってへんし、他でもあんまり使われてへん。自律型致死性兵器でも同じようになればいいんですけど、ちょっと自信はないです。でも何か酷いことが起こるまでは何も変わらへんでしょうね。
今、みんなが一生懸命作ろうとしてる世界で行動できるエージェントですけど、効果的なエージェントを作るには下位目標を作る能力を与える必要があるんです。例えばヨーロッパに行きたかったら、空港に行くっていう下位目標を立てて、その間はヨーロッパのことを考えんでもええわけです。そういう意味で下位目標は便利なんです。
でも問題は、下位目標を作る能力を与えてしまうと、すぐにある特定の下位目標がほぼ常に有用やということに気付くんです。世界をより支配できるようになれば、自分の望むことは何でも達成しやすくなる。たとえ自己利益がなくても、支配力が増えれば与えられた仕事をより上手くできることを理解して、より多くの支配力を得ようとする。これは非常に危険な坂道の始まりです。
時間があんまりないっていうことですね。生成AIをコントロールする方法を見つけるための時間が。今はまだコントロールできてますけど、私たちより賢くなったときにどうやってコントロールし続けるかを考える時間があんまりないんです。
アメリカを例に取ると、政府には優秀な人もおれば、そうでない人もいる。でも彼らはあなたの言ってることを本当に理解して、それに対処できるんでしょうか?現政府は真剣に取り組んでるとは思いますけど、何をすべきかを知るのが難しいんです。
一つ明確なのは、最も優秀な若手研究者たちにこの問題に取り組んでもらう必要があるし、そのためのリソースも必要やということです。政府にはそんなリソースがない。大企業にはある。だから政府は大企業に対して、今より安全性の研究により多くのリソースを使うように要求すべきやと思います。
今のところ企業は数パーセントしか安全性に使ってへんくて、ほとんどのリソースを、より大きくて優れたモデルの開発に使ってる。確かに大企業は政府に金の使い方を指図されるのを嫌がりますけど、会計規制の要件を満たすために大きな会計部門を持ってるように、最大手のAI企業に対して安全性のための支出を義務付けるのは理にかなってると思います。
収益の何パーセントっていうのはややこしいです。収益を別の国に移して誤魔化したりできますからね。むしろコンピューティングリソースの割合を決めるべきです。ここでのボトルネックはコンピューティングリソースなんです。NVIDIAのチップやGoogleのTensorチップをどれだけ使えるか。これは測定が簡単です。私としては3分の1くらいが妥当やと思いますが、4分の1でも妥協できます。
あなたの知識や理解から見て、生成AIは人類にとって実存的な脅威になり得るんでしょうか?そうですね、私が言ってきたことはまさにそれです。これは本当に実存的な脅威なんです。
SF的な話やと言う人もいますし、つい最近まで私も、そんな先の話やと思ってました。常に長期的な脅威やとは思ってたんですけど、100年とか、まあ少なくとも50年はかかると思ってた。考える時間はたっぷりあると。でも今は、これから20年くらいの間に人間より賢くなる可能性が十分にあると思います。そうなったときのことを、本気で心配せなあかんのです。

この記事が気に入ったらサポートをしてみませんか?