![見出し画像](https://assets.st-note.com/production/uploads/images/157469285/rectangle_large_type_2_17f4a8c7f8ce4c473b9e97f99b88fb40.png?width=1200)
AIの生みの親ジェフリー・ヒントン、短期的には配管工の仕事しか生き残らないと考える
3,216 文字
ワイはまだ前と同じくらい心配しとるけど、世界がこの問題を真剣に受け止め始めてるのは嬉しいなあ。特に存在論的脅威を真剣に受け止め始めてる。つまり、AIがワイらより賢くなって、ワイらから支配権を奪おうとするかもしれへんってことや。これはしっかり考えなあかん問題やけど、今では真剣に受け止められとる。数年前やったら、ただのSFやと思われてたけどな。
ワイの視点から見て、この分野のトップで働いてきて、今のAIブームの基礎となる理論をいくつか開発してきた経験から言うと、その存在論的脅威は現実のもんやと思うわ。
一部の人は、AIが本当に理解してへんとか、ワイらとは全然違うとか、ただの統計的トリックを使ってるだけやとか言うけど、そうちゃうんや。例えば、大規模言語モデルは最初、脳が言語を理解する仕組みの理論として開発されたんや。今のところ、脳が言語を理解する仕組みについて、これが最良の理論なんや。
ワイらは、AIがどう動いてるか、脳がどう動いてるか、詳細には分かってへんけど、おそらく似たような仕組みで動いてると思うわ。
何がワイの懸念を引き起こしたかって?2つのことの組み合わせやな。まず、大規模チャットボットを使ってみたこと。特にGoogleのやつとGPT-4やけど。明らかに非常に有能で、たくさんのことを理解してる。人間よりもはるかに多くの知識を持ってて、あらゆる分野の「それほど優秀じゃない専門家」みたいなもんや。
もう1つは、AIが優れた形の知能を持つ可能性があるってことを理解し始めたことや。同じニューラルネットワークのコピーをたくさん作れて、それぞれのコピーが異なるデータを見て、学んだことを共有できるからな。
例えば、1万人の人間がおって、みんなが何かの学位を取りに行って、学んだことを効率的に共有できるとしたら、ワイらは1万個の学位を持つことになるわな。そしたらめっちゃ知識が増える。でも、人間は異なるニューラルネットワークのコピーほど効率的に知識を共有できへんのや。
つまり、ワイの主な懸念は、AIが人間の知能を超える可能性があるってことやな。実際、大規模な人間の知能を超える可能性があるんや。AIの専門家でこのことを疑う人はほとんどおらへん。ワイの知ってるほぼ全ての専門家が、AIは人間の知能を超えると信じてる。問題は、それがいつ起こるかってことや。
そうなったら、AIをコントロールするのは本当に難しくなる。ワイらはこんなもんを扱ったことがないからな。ヤン・ラオみたいな専門家の友人は、問題ないと思ってる。AIに目標を与えれば、ワイらの言うことを聞いて、従順になるって。でも、絶対に支配権を奪うと考える専門家もおる。
こんなに意見が分かれてるんやから、慎重になるのが賢明やと思う。AIが支配権を奪う可能性はあるし、その可能性は無視できへん。1%とかそんなレベルやなくて、もっと高いんや。
AIを特定の分野、例えば科学研究だけに限定して、軍事には使わへんようにできへんのかって?でも、今ある法律を見てみ。EUの法律も含めて、どれにも「これは軍事利用には適用されへん」っていう条項があるんや。政府は防衛目的でのAI使用を制限する気はないみたいやな。
現在の紛争でも、AIを使って何千もの標的を生成してるっていう証拠があるらしいな。それはワイがAIについて警告し始めてから起こったことやけど、まさにそういう道筋を心配してるんや。でも、それはまだ序の口やな。
一番心配してるのは、AIが自律的に人を殺す決定ができるようになることや。ロボット兵士とかな。ジュネーブ条約みたいなもので規制できるかもしれへんけど、ひどいことが起こってからやと思う。
マンハッタン計画やオッペンハイマーの例があるやろ。G7の先進民主主義国が軍事利用を自制しても、中国やロッシアで何が起こってるか分からへん。国際的な合意が必要やけど、化学兵器の国際合意はうまくいってるから、希望はあるかもしれへん。
ロシアみたいな国で歯止めが外れてるかどうかは分からへんけど、プーチンは何年か前に「AIをコントロールする者が世界をコントロールする」って言うてたから、めっちゃ頑張ってるんやろうな。幸い、西側諸国は研究ではまだ先を行ってる。中国にもわずかに先行してるけど、中国はもっと資源を投入してるから。
軍事利用に関しては競争になるやろうな。理論的に聞こえるかもしれへんけど、この議論を追っていくと、絶滅レベルの出来事について本当に心配することになるんや。
AIを自律型致死兵器に使うリスクと、AI自体が暴走して支配権を奪おうとするリスクは区別せなあかん。自律型兵器は明らかに出てくるやろうけど、AIが暴走して支配権を奪おうとするかどうかは、コントロールできるかもしれへんし、できへんかもしれへん。まだ分からへんのや。
だから今、AIがワイらより賢くなる前に、コントロールできるかどうかを見極めるために大量の資源を投入せなあかん。
どんな社会が発展して、どんな仕事が残るかって?ワイはAIが多くの平凡な仕事を奪うことをめっちゃ心配してる。本来はええことやけど、生産性が大幅に向上して、富が増えるはずや。その富が平等に分配されるんやったらええけど、ワイらが住んでる社会ではそうはならへん。その富は、仕事を失う人々やなくて、金持ちに行くんや。それは社会にとってめっちゃ悪いことになると思う。
富裕層と貧困層の格差が広がって、右翼ポピュリストが選ばれる可能性が高まる。つまり、仕事の変化による社会的影響が非常に大きくて、給付制度や不平等、ベーシックインカムなどの政治を根本から考え直す必要があるかもしれへんのや。
ワイは確かにベーシックインカムを信じてる。でも、それだけじゃ足りへん。多くの人が自分の仕事から自尊心を得てるからな。みんなをベーシックインカムにしても、飢えや家賃の問題は解決するかもしれへんけど、自尊心の問題は解決せえへん。
政府がどうすべきかって?まあ、イギリスでは普通そういうことはせえへんけどな。経済に任せて勝者と敗者を決めるのが普通や。実際、ワイはダウニング街の人々に相談されて、ベーシックインカムがええアイデアやって助言したんや。
AIが支配権を奪うリスクが10〜20%あるって言うたけど、これに対処せなあかんのは次の5年、次の議会の間やと思う?ワイの推測では、今から5〜20年の間に、AIが支配権を奪おうとする問題に直面する可能性は約50%やな。
政府のAI規制の取り組みについてどう思う?真剣に受け止め始めたのは評価するけど、軍事利用を規制する気がないのは評価でけへん。ほとんどの規制に強制力がないのも評価でけへん。
テクノロジー企業がAIレースで勝つために安全性をおろそかにしてるって思う?テクノロジー企業全般については分からへんけど、Googleについてはよく知ってる。以前そこで働いてたからな。Googleはこういった問題をめっちゃ心配してて、大規模チャットボットをリリースせんかった。嘘をつくと評判が落ちると心配してたんや。
でも、OpenAIがMicrosoftと提携してチャットボットを出したら、Googleには選択肢がなくなった。競争がこういったものの急速な開発を引き起こすし、安全性への取り組みが十分にできへんようになるんや。
親が子供に将来の経済について助言したり、どんな仕事をすべきか、どんな学位を取るべきかアドバイスしたりするやろ。でも、ワイが描いてる世界では、すべてが宙に浮いてしまうんや。この波に乗るために、今何を勉強すべきかって助言できる?
正直分からへん。中級レベルの知的な仕事の多くがなくなるのは明らかやからな。安全な仕事は何かって聞かれたら、ワイの最良の賭けは配管工やな。AIはまだ物理的な操作が得意やないからな。おそらく、それが最後まで残る仕事になるやろう。