見出し画像

MetaのAI主任研究員 Yann LeCun、人工知能の未来を語る

13,594 文字

インタビュアー:お時間いただき、ありがとうございます。
LeCun:こちらこそ、楽しみにしてましたわ。何日もかけて話したいところですけど、40分しかないので、できるだけ有効に使わせていただきましょう。
インタビュアー:今、AIの進歩が表に出てきて、期待も懸念も高まっていますが、この時期をどのように見ていらっしゃいますか?
LeCun:興奮と、あまりにも多くのことが起こっていて、全てをフォローできないという状況ですね。私でさえ、ついていくのが大変です。そして、科学的、技術的、さらには政治的で、ある意味道徳的なイデオロギー的な議論もたくさんありますわ。
インタビュアー:その点については後ほど掘り下げたいと思います。まずは、あなたがこの分野に入ったきっかけについて。言語の起源に関する本を読んだことがきっかけと聞きましたが。
LeCun:はい、有名な言語学者のチョムスキーと発達心理学者のピアジェの間で、言語は生得的なものか、学習によるものかという議論がありました。チョムスキーは生得的だと主張し、ピアジェは構造は必要だが、主に学習によるものだと主張しましてな。
フランスで開かれたこの会議での議論について、いろんな人が興味深い論文を書いていました。その中の1つが、MITのシーモア・パパートによるパーセプトロンについての論文でした。パーセプトロンは初期の機械学習モデルの1つです。私が20歳くらいの時にこれを読んで、機械が学習できるという考えに魅了されましたわ。
インタビュアー:そうやってニューラルネットに興味を持たれたわけですが、当時の研究コミュニティはあまり関心を示していなかったんですよね?
LeCun:そうです。1980年代の話ですが、ニューラルネットの研究者は本当に少なくて、主要な学会でも発表できないような状況でした。サンディエゴには、デイビッド・ルメルハートやジェイ・マクレランドといった認知科学者が何人かいて、それから私がPh.D.の後に一緒に働くことになるジェフリー・ヒントンもいました。日本やドイツにも何人か isolated な研究者がいましたが、まだ1つの分野として確立されていませんでした。1986年ごろになってようやく分野として認識され始めましたな。
インタビュアー:その後、またAIの冬が来て、あなたは「陰謀」という言葉を使われていましたが、ヒントンさんやヨシュア・ベンジオさんと一緒にニューラルネットを復活させようとされた。そんなに大変だったんですか?
LeCun:AIの冬という概念は複雑です。1950年代以降、ある特定の技術に対する関心が高まり、多くの人が研究し、そしてその技術の限界に気付いて興味が薄れる、あるいは別の用途に使われ始めて知的な機械を作るという野心が失われる、というサイクルが何度もありました。
パーセプトロンや、より古典的なコンピュータサイエンスのロジックベースのAI、80年代のエキスパートシステムなどでそういう波がありました。80年代後半にはニューラルネットへの関心が高まりましたが、90年代半ばには下火になりました。それが私が経験した「冬」ですわ。
2000年代初頭、ジェフとヨシュアと私は、これらの手法への関心を再び呼び起こさなければならないと考えました。これらの手法が機能することは分かっていましたから。実験的にそれを示し、新しい世界に適用できる新しい技術を生み出す必要がありました。
その間にインターネットが普及し、これまでにない規模のデータソースが利用可能になり、コンピュータも格段に速くなりました。それらが2000年代後半から2010年代初頭に収束して、音声認識や画像認識、そして少し遅れて自然言語理解で本当に良い結果が出始めました。それが機械学習ベースのAIへの新しい波のきっかけとなったんです。
我々はそれを「ディープラーニング」と呼びました。「ニューラルネット」という言葉には悪いイメージがついていたので、名前を変えたんですわ。
インタビュアー:数十年もの間、コンピュータサイエンスの中でも周縁的な存在だったのが、今では技術だけでなく、世界的な議論の中心にいる。すごい変遷ですよね。
LeCun:そうですね。ただ、私としては、もっと連続的な進歩があると予想していました。あのような波のような進展は予想していませんでした。コミュニティがこれらの手法への関心を失うことも、2000年代以降のこの分野の急速な爆発的な発展も、全く予想していなかったですわ。
インタビュアー:ここ18ヶ月から2年ほどの間に、少なくとも一般に見える形での大きな進展があり、政府による規制を求める声も大きくなっていますが、それについてはご懸念があるとお聞きしました。
LeCun:まず、ここ10年以上、AIやディープラーニングの応用分野では大きな進歩がありましたが、その多くは表面には見えないものでした。ソーシャルネットワークでのコンテンツモデレーション、様々な攻撃からの保護など、AIは大規模に使われています。
インタビュアー:Facebookで友達の写真を認識するような機能ですか?
LeCun:ええ、でもそれはもう使われていません。Facebookの顔認識は数年前に停止されましたわ。
インタビュアー:そうなんですか。時代遅れな質問でしたね。
LeCun:でも、ポイントは、これらの製品には様々な形でAIが組み込まれているということです。今日、メタからディープラーニングを取り除いたら、会社全体が機能しなくなります。それほど根本的な技術になっているんです。
多くは表面からは見えないものですが、翻訳や動画の字幕生成など、より目に見える形のものもあります。AIを使った音声認識で、動画を音声なしで見ることができるようになり、その一部は翻訳もされます。
社会の他の分野でも、多くは表面からは見えません。今、車を買うと、ほとんどの車のフロントガラスにはカメラが付いていて、障害物があると自動的にブレーキがかかります。自動緊急ブレーキシステムと呼ばれるもので、ヨーロッパではこの機能がない車は販売できません。
インタビュアー:アメリカの車のほとんどにも付いていますよね。
LeCun:そうです。それは私が発明したConvNetを使っています。命を救っているんです。医療応用なども同様です。
この1、2年で変わったのは、一般の人々が直接使えるAIファーストの製品が登場したことです。一般の人々がこれほど熱狂的に受け入れるとは、OpenAIやGoogle、そして我々も含めて、誰も予想していませんでしたわ。
インタビュアー:規制についてのお考えをお聞かせください。OpenAIのサム・アルトマンを含め、多くの主要プレイヤーが、少なくとも表向きには規制が必要だと言っています。
LeCun:規制にはいくつかの種類があります。製品の規制、例えば自動車の緊急ブレーキシステムは当然、政府機関によって安全性が確認されていなければなりません。医療や輸送分野など、命に関わる製品は確実に規制が必要で、おそらく他の分野でも必要でしょう。
議論になっているのは、研究開発を規制すべきかということです。この点について、私は明確に反対の立場です。規制すべきだと考える人々は、この技術を事実上すべての技術者の手に委ねることに本質的な危険があると主張していますが、私はまったく逆だと考えています。むしろ、大きな利点があるんです。
インタビュアー:その利点とは?
LeCun:AI技術を社会や経済のあらゆる場所に普及させる必要があります。なぜなら、それは人々をより賢く、より創造的にするからです。きれいにまとめられた文章や、絵、動画、音楽を作る技術を持っていない人々が、より創造的になれるよう支援するツールになります。
多くのビジネスや退屈な仕事の自動化を促進し、経済や娯楽など、様々な分野にプラスの効果をもたらします。人々をより賢くすることは本質的に良いことです。長期的には、印刷技術の発明に似た効果があるかもしれません。印刷技術は人々を識字化し、より賢く、より多くの情報を得られるようにしました。
インタビュアー:一部の人々はそれを規制しようとしましたよね。
LeCun:その通りです。オスマン帝国ではアラビア語の印刷が禁止されていました。UAEのAI担当大臣は、それがオスマン帝国の衰退の一因になったと言っています。
技術の進歩を禁止しようとすると、それを促進するよりもずっと大きなリスクを負うことになります。もちろん、正しく行う必要があります。技術には副作用があり、できる限り軽減する必要がありますが、利点は危険性をはるかに上回ります。
インタビュアー:EUが提案している規制については、どうお考えですか?
LeCun:提案されている規制には良い点もありますが、研究開発を規制し、企業がプラットフォームをオープンソース化することを実質的に困難にする点については、非常に逆効果だと考えています。実際、フランス、ドイツ、イタリアの政府は、まさにこの理由でEU議会の法案を阻止しています。彼らはオープンソースを望んでいます。
なぜオープンソースを望むのかというと、未来では誰もがデジタル世界とのやり取りをAIシステムを介して行うようになるからです。そこに向かっているんです。数ヶ月以内に、誰もがAIアシスタントを持つことになります。メタのスマートグラスを使えば、それと話すことができ、背後にはAIアシスタントがいます。
やがてディスプレイも搭載されるでしょう。私がフランス語で話しても、あなたのグラスで自動的に翻訳されます。字幕が表示されるか、私の声が英語で聞こえるようになります。建物の情報を表示したり、行き先を案内したりもできます。
つまり、常に私たちと共にいる知的なアシスタントを持つことになります。これは人間のスタッフを持つようなものですが、人間ではありません。あなたよりも賢いかもしれませんが、それは問題ありません。私も自分より賢い人々と働いていますから。
これが未来です。もし、すべての情報がこのようなAIシステムによって仲介される未来を想像するなら、それらをアメリカ西海岸の少数の企業にコントロールされることは望ましくありません。インターネットのように、オープンなプラットフォームでなければなりません。
インターネットのソフトウェアインフラはすべてオープンソースです。これは設計によるものではなく、安全でカスタマイズ可能なプラットフォームを持つための最も効率的な方法だったからです。アシスタントについても同様で、これらのシステムは人類の知識と文化のすべてを含むことになります。それを中央集権化することはできません。誰もが貢献できなければなりません。
インタビュアー:FAIR(Facebook AI Research)の10周年イベントで、オープンな方法を取らない企業では働かないとおっしゃっていましたが、なぜそれほど重要なのですか?
LeCun:2つの理由があります。まず、科学技術は情報の迅速な交換によって進歩します。AIで解決しなければならない問題は、どんな製品を作るべきかという技術的な問題だけではありません。それももちろん問題ですが、主要な問題は、機械をより知的にする方法を見つけることです。これは科学的な問題です。
良いアイデアは、我々だけのものではありません。多くの良いアイデアが学術界や、公的・私的な他の研究所から生まれています。情報交換が活発であれば分野は早く進歩しますが、秘密主義になると、もう誰も話をしてくれなくなって遅れを取ることになります。
インタビュアー:将来についてお話しましょう。大規模言語モデルからの転換を図り、画像にもっと注目されているようですが、なぜそれが重要なのでしょうか?
LeCun:自問自答してみてください。LLMは素晴らしいことができます。司法試験にも合格できます。でも、まだ自動運転車も家庭用ロボットもありません。10歳の子供ができるような、食卓を片付けて食洗機に入れるようなロボットはどこにあるんでしょう?
17歳の若者のように20時間の練習で運転を覚えるロボットはどこにあるんでしょう?それがないということは、我々が何か大きなものを見逃していることを示しています。間違った方法で訓練しているわけではありませんが、人間レベルの知能に到達するために必要な本質的な要素が欠けているんです。
テキストから膨大な量のトレーニングデータを吸収できるシステムはありますが、テキストは人間の知識のほんの一部しか表現していません。これは驚くべきことに聞こえるかもしれませんが、実際、人間の知識のほとんどは、赤ちゃんの時に学ぶもので、言語とは何の関係もありません。
世界がどのように機能するか、直感的な物理学、人々がどのように相互作用するかなど、様々なことを学びます。動物のことを考えてみてください。多くの動物は超スマートで、いくつかの分野では実際に人間よりも賢いものもいます。言語を持っていませんが、うまくやっているように見えます。
人間の赤ちゃんや動物の中で、どのような学習が行われ、世界の仕組みを理解し、現在のAIシステムが持っていない常識を身につけることができるのでしょうか?
私がよく言う冗談は、今日最も賢いAIシステムは、家猫よりも愚かだということです。チャットボットには明らかにできないような方法で、猫は世界を理解し、世界の中を移動することができます。因果関係を理解し、何かをすれば何かが起こることを理解します。
家具の下に座って、あたりを見回し、頭を動かして、ジャンプ、ジャンプ、ジャンプとしているのを見たことがありませんか?あれは素晴らしい計画性です。今日のロボットにはできません。
まだまだやるべきことがたくさんあります。解決された問題ではありません。人間レベルのAIシステムを手に入れる前に、ビデオを見たり世界で行動したりすることで世界を理解するようにシステムを訓練する能力に、大きな進歩が必要です。
インタビュアー:目的駆動型モデルに注目されているようですが、それが重要だと考える理由を説明していただけますか?また、安全性がその重要な要素なのか、それとも安全性は別個の、あるいは付随する問題なのか、お話を聞いていてはっきりしませんでした。
LeCun:それは一部です。まず、現在の根本的な問題について説明させてください。LLMは実際には自己回帰LLMと呼ばれるべきです。なぜなら、実際に言おうとすることを計画せずに、1つの単語またはトークン(サブユニット)を次々と生成するからです。
プロンプトを与えて、次にくる単語は何かと尋ねると、1つの単語を生成し、その単語を入力にシフトして、また次の単語は何かと尋ねます。これは自動予測と呼ばれ、非常に古い概念です。
ジェフは30年ほど前にこれを行い、実際に学生時代にエラスと一緒にこの研究をしていました。ヨシュア・ベンジオは2000年代にニューラルネットを使ってこれを行う非常に興味深い論文を書きました。おそらく最初の試みの1つだったでしょう。
話を戻しますと、あらかじめ考えることなく、一つずつ単語を生成していきます。システムは前もって何を言うつもりなのか知りません。これの問題は、時として正しい答えの一部ではない単語を生成してしまう、つまり幻覚を起こすことです。そうなったら終わりです。
2つ目の問題は、制御できないことです。「12歳の子供と話しているから、12歳が理解できる言葉だけを使って」とは言えません。プロンプトにそれを入れることはできますが、システムがそのために微調整されていない限り、効果は限定的です。
このため、これらのシステムを制御するのは非常に困難で、生成される内容が、有用な回答を生成するための、あるいは有害でない回答、偏りのない回答を生成するための条件付けや訓練から外れないことを保証することは決してできません。
現在は、システムを微調整し、多くの人々に質問に答えてもらい、その回答を評価してもらうという人間からのフィードバックによって行われています。
これに代わる方法があります。それは、システムに目的を与えることです。目的とは、システムが生成する回答が、満たすべき一連の制約にどの程度適合しているかを測定する数学的な関数です。
12歳に理解できるか、特定の文化において有害でないか、望む方法で質問に答えているか、昨日の私のお気に入りの新聞が言っていることと一致しているかなど、様々な制約があります。これらは安全性のガードレールかもしれませんし、単なるタスクかもしれません。
システムは盲目的に一つずつ単語を生成するのではなく、これらの基準をすべて満たす回答を計画します。それが目的駆動型AIです。これが未来だと私は考えています。まだ我々が望む状況では機能していませんが。
ロボット工学では、モデル予測制御や動作計画として、長年このような研究が行われています。
インタビュアー:ジェフリー・ヒントンとヨシュア・ベンジオが技術の危険性について懸念を示していますが、三人の間でこのように異なる結論に至った理由をどのように説明されますか?
LeCun:ジェフについては説明が少し難しいですね。4月に一種の啓示を受けて、現在のシステムが彼が予想していたよりもはるかに賢いことに気付き、「ああ、人間レベルに近づいているんだ」と実感したようです。
私はこれには完全に同意できません。彼が考えているほど賢くはありませんわ。
インタビュアー:そうですね。
LeCun:彼は非常に長期的で抽象的な観点で考えています。彼が言っていることは理解できますが、単に間違っていると思います。以前にも技術的な問題などで意見が合わないことはありました。良い友人ですが、このような問題については意見が異なることがあります。
存在論的リスクなどの問題については、彼は4月以降、あまり長く考えていないと思います。私は長年、哲学的、道徳的な観点からこれについて考えてきました。
ヨシュアの場合は異なります。ヨシュアは、テロリストグループや悪意のある人々による技術の悪用など、短期的なリスクをより懸念しています。また、AIを開発する産業界の動機が必ずしも共通の利益と一致していないと考えています。利益に動機づけられていると主張するからです。
そこには、おそらく彼が民主的な制度が正しいことをするという信頼を私ほど持っていないという、少し政治的な要素があるのかもしれません。
インタビュアー:民主主義と制度に対する信頼の違いだとおっしゃっていましたね。
LeCun:そう思います。ただ、彼らの言葉を曲解したり、誤って伝えたりしたくはありません。結局のところ、我々は同じ目標を持っていると思います。AIテクノロジーには多くの利点があると知っています。そうでなければ、この研究をしていないでしょう。
問題は、どうやって正しく行うかということです。ヨシュアが提唱するように、すべてが安全であることを確認する超国家的な規制機関が必要なのでしょうか?潜在的に危険なモデルのオープンソース化を禁止すべきなのでしょうか?ただし、その場合、進歩を遅らせ、技術の経済や社会への普及を遅らせるリスクがあります。
これらはトレードオフの問題で、理性的な人々の間でも意見が分かれる可能性があります。私の意見では、オープンプラットフォームを強く支持する基準、理由は、AIシステムが将来的に非常に基本的なインフラを構成することになり、文化的にも知識の面でも、それらが多様性を持つことを保証する方法が必要だということです。
Wikipediaのようなものです。1つの言語のWikipediaだけでは不十分で、すべての言語、すべての文化をカバーする必要があります。同じ話です。
インタビュアー:明らかに彼ら二人だけではなく、人類を文字通り絶滅させる現実的な可能性が10%、20%、30%、40%あると言う人が増えています。これは恐ろしいことですが、なぜこれほど多くの人々が、あなたの見解では間違った考えを持っているのでしょうか?
LeCun:ごく少数の人々です。一つの調査で研究者の40%というのは、それは自己選択的なオンライン調査です。人々が自分で回答を選択するものです。
学術界やスタートアップ、我々のような大規模な研究所にいるAI研究者の大多数は、このようなことを全く信じていません。人類に対する存在論的なリスクが大きいとは考えていません。
我々全員が、技術を展開する適切な方法と悪い方法があり、適切な方法で行う必要があると考えています。
私が引く類推は、1920年か1925年に「飛行機を禁止しなければならない。誰かが都市の上を飛んで爆弾を落とすかもしれない。危険だから大西洋横断飛行なんてできない。多くの人が死ぬだろう」と言う人々のようなものです。
そして彼らは、ターボジェットの発明を禁止するように、あるいは1920年にターボジェットを規制するように求めるでしょう。1920年にはターボジェットはまだ発明されていませんでした。2023年には人間レベルのAIはまだ発明されていません。
超人的知能を安全にする方法を議論することは、1920年のエンジニアにターボジェットを安全にする方法を尋ねるようなものです。まだ発明されていないんです。
安全にする方法は、ターボジェットと同じように、何年も何十年もの反復的な改良と慎重なエンジニアリングを重ねることです。安全でなければ展開されることはありません。繰り返しになりますが、社会の制度がそれを実現することを信頼する必要があります。
インタビュアー:存在論的リスクについてのお考えをよく理解するために。ゼロではないとおっしゃっていますが、かなり小さい、1%未満だとお考えですか?
LeCun:小惑星の衝突や世界規模の核戦争などの可能性よりも低いですね。同じ程度のものです。心配すべきことはありますが、自然現象のように何もできないこともあります。
しかし、AIの展開のような場合、我々には主体性があります。危険があると考えれば、展開しないことを決めることができます。だから、これに確率を割り当てることは意味がありません。我々には主体性があるからです。
インタビュアー:最後にこのトピックについて。自律型兵器について、少なくとも本当に悪い結果になる可能性を避けるために、どのように安全にするのでしょうか?
LeCun:自律型兵器は既に存在しますが、将来のような形ではありません。今は自己誘導ミサイルの話ですが、それは戦場に送り込まれる兵士とは大きく異なります。
自律型兵器の最初の例は地雷です。アメリカではありませんが、一部の国々はその使用を禁止しています。アメリカもロシアも中国も署名していない国際協定があります。
禁止の理由は、賢いからではなく、愚かだからです。自律的で愚かなため、誰でも殺してしまう可能性があるんです。誘導ミサイルは、より誘導性が高ければ高いほど、付随的な被害が少なくなります。
そこには道徳的な議論があります。必要なものだけを破壊し、周辺の何百人もの民間人を殺さない、より賢い武器を持つ方が良いのでしょうか?その技術はウクライナのように民主主義を守るために使えるのでしょうか?ウクライナは大規模にドローンを使用し、AIを搭載し始めています。それは良いことでしょうか、悪いことでしょうか?
民主主義を守るためには、良いと思うかどうかに関わらず、自律型兵器は必要です。
インタビュアー:でも明らかな懸念は、ルーズベルトではなくヒトラーが持っていたらどうなるかということですよね?
LeCun:それは世界の歴史です。より良い技術を持つのは善人か悪人か。だから善人は可能な限りのことをすべきです。これは複雑な道徳的問題で、私の専門分野ではありません。私は武器の研究はしていません。
インタビュアー:でもあなたは「みなさん、心配しないで、前に進みましょう」と言う著名な声の一人で、これは人々の主な懸念の一つだと思います。
LeCun:私は同僚の中には平和主義者もいますが、私はそうではありません。この技術が防衛のため、そして良いことのために展開されているという現実的な見方をする必要があると思います。ウクライナの紛争で、技術の進歩が民主主義を守るのに役立つことが明らかになりました。
インタビュアー:一般的にAIができる良いことについて話してきましたが、可能な範囲で、中年以下の人々が生涯で期待できる、AIが生活をより良くする具体的なことについてお話しいただけますか?
LeCun:短期的には、輸送の安全システムや、腫瘍の検出などの医療診断があります。AIの進歩によってこれらは既に改善されています。
中期的には、生命の仕組みをより理解することで、薬品設計をより効率的に行えるようになります。タンパク質の折りたたみや設計、新しい化合物の合成など、多くの活動があります。
まだ革命的な成果は出ていませんが、希少な遺伝病の治療など、AIの助けを借りて開発された技術がいくつかあります。これは今後数年でさらに進歩し、人々の生活をより楽しく、おそらくより長くするでしょう。
その先には、我々全員が、科学、ビジネス、政治などの分野のリーダーのようになることを想像してください。我々には補佐するスタッフがいますが、それは人間ではなく仮想の存在です。基本的に誰もがボスになるんです。
その結果として、誰もが賢くなります。個人的にはそうでないかもしれませんが、学習しやすくなりますし、システムによってより賢くなります。正しい知識にアクセスし、適切な決定を下すのが容易になります。
我々はAIシステムを管理し、制御し、目標を設定します。システムは従属的ですが、それらの目標を達成するのに非常に賢くなることができます。
研究所のリーダーとして、私の下で働く人々の多くは私より賢いですが、それは我々が彼らを雇う理由です。政治家と職員の間にも興味深い相互作用があります。表に出る政治家は決定を下し、基本的に他の人々のために目標を設定します。
我々はシステムとそのような相互作用を持つことになります。我々が目標を設定し、システムがそれを達成するんです。
インタビュアー:AGIは少なくとも10年、もしかするとそれ以上先だとおっしゃっていましたが、それはあなたたちの目標なのでしょうか?それとも他の人たちに任せているのでしょうか?
LeCun:もちろん我々の目標です。常にそうでした。ただ、この10年間は短期的に有用なことがたくさんあったため、研究所の一部はコンテンツモデレーション、翻訳、コンピュータビジョン、ロボット工学など、様々な応用分野に向けられることになりました。
この1、2年で変わったのは、LlamaなどのAIファーストの製品、つまりメタが展開している、あるいは展開予定のサービスがあることです。モバイルデバイスだけでなく、スマートグラスやAR/VRデバイスにも搭載されます。
これらはAIファーストの製品で、本質的に人間レベルのAIを必要とするプロダクトパイプラインがあります。我々はこれをAIとは呼びません。人間の知能は実際にはとても専門的で、一般的ではないからです。
我々はこれをAMI(Advanced Machine Intelligence)と呼んでいます。
インタビュアー:AMIと言うときは、基本的にAGIを意味しているんですよね?
LeCun:そうです、他の人々がAGIと呼んでいるものと同じです。フランス語を話す私とジョエルは、「ami」が「友達」を意味するので気に入っています。「mon ami」は「私の友達」という意味です。
いずれにせよ、我々は完全にそれに焦点を当てています。それがFAIRの使命なんです。
インタビュアー:AGIが実現したとき、人間と機械の関係は変わることになります。より賢い存在に対する制御を企業や政府に委ねることについて、懸念はありませんか?
LeCun:我々は制御を委ねるのではなく、実行を委ねるんです。先ほど言ったように、我々が目標を設定し、彼らが実行します。これは、チームのリーダーになることとよく似ています。あなたが目標を設定するんです。
インタビュアー:これは wild な話ですが、私には魅力的です。たとえ人類がこれらの機械によって絶滅させられたとしても、それは知能の自然な進化だから悪い結果ではないと考える人々がいます。イーロン・マスクによれば、ラリー・ペイジがその著名な支持者の一人だそうです。絶滅は悪いことなのでしょうか?それとも進歩の一形態として利点があるのでしょうか?
LeCun:今の時点でそのようなことを考えるべきではないと思います。10年以上先の予測は完全な推測にすぎません。我々の子孫が進歩をどのように見るか、彼らの未来をどう考えるかは、我々が決めることではありません。
我々は彼らが望むことをするためのツールを提供しなければなりませんが、決定する正当性は我々にはありません。それがどうなるかは分かりません。
インタビュアー:人類の継続を気にする必要はないと考えているということは興味深いですね。
LeCun:今の時点ではそれは心配すべきことではないと思います。人類がどれくらい存在してきたか考えてみてください。約30万年です。これは非常に短い期間です。
30万年先を予測すると、技術の進歩を考えると人類はどのような姿になっているでしょうか?おそらく最大の変化はAIによってではなく、遺伝子工学などによってもたらされるでしょう。現在は、その潜在的な危険性が分からないため禁止されています。
インタビュアー:時間が迫っていますので最後の質問です。あなたの重要視するオープン性を維持しながら、懸念をより認識し、この他のグループが正しく、あなたが間違っているかもしれないことを考慮する中間的な道はありますか?一種の妥協点はあるのでしょうか?
LeCun:技術の潜在的な悪用による中期的な危険性は確かにあり、技術をより利用可能にすればするほど、より多くの人々がアクセスできるようになり、悪意のある人々が使用する可能性も高くなります。
では、それに対してどのような対策を取るのか。例えば、AIによって生成された大量の誤情報の氾濫を懸念する人々がいます。どのような対策が取れるでしょうか?
我々が取り組んでいるのは、システムがデータを生成したことを示すウォーターマークなどです。メタでは偽アカウントの検出に非常に精通しています。
また、時には悪意のある人々によって生成され、時には単に入力される分断的な発言、ヘイトスピーチ、危険な誤情報などがあります。ソーシャルネットワーク上でこれらから保護するシステムは既に存在します。
人々が理解すべきは、これらのシステムが大規模にAIを使用しているということです。世界中のすべての言語でヘイトスピーチの検出と削除を行うことは、5年前には技術的に不可能でした。AIの進歩のおかげで、今ははるかに優れています。
サイバーセキュリティも同様です。AIシステムを使ってコンピュータシステムを攻撃することもできますが、それは保護にも使えるということです。すべての攻撃には対策があり、両方ともAIを使用します。これまでもそうだった猫とネズミのゲームで、新しいことは何もありません。
これが短期から中期的な危険性についてです。そして存在論的リスクという長期的な危険性がありますが、私はこれを全く信じていません。なぜなら我々には主体性があるからです。
これは止めることのできない自然現象ではなく、我々が行うことです。我々は偶然に自分たちを絶滅させることはありません。
人々がこのように考える理由の一つは、SFによって普及したシナリオで、「foom」という名前が付けられています。ある日誰かがAGI、あるいは超人的知能の秘密を発見し、システムをオンにすると、2分後にはそのシステムが世界を支配し、人類を破壊し、科学技術において非常に急速な進歩を遂げ、我々は皆死んでしまう、というものです。
実際、一部の人々は3ヶ月以内にこれが起こると予測していますが、それは狂気の沙汰です。
このシナリオは完全に非現実的です。物事はそのようには機能しません。人間レベルのAIへの進歩は遅く、漸進的なものになるでしょう。
最初は、人間レベルのAIに到達する可能性を持つシステムを持つことから始まりますが、最初はネズミや猫程度の賢さになるでしょう。そして、徐々にそれを向上させ、より多くのガードレールを設けて安全性を確保し、より賢く、より制御可能なシステムへと段階的に進んでいきます。
ターボジェットを安全にするのと同じプロセスになります。数十年かかりましたが、今では2機のエンジンで太平洋を横断することができます。10年前にはできませんでした。3機か4機必要でした。ターボジェットの信頼性がそれほど高くなかったからです。
同じように、多くのエンジニアリング、本当に複雑なエンジニアリングが必要になるでしょう。
インタビュアー:今日はここまでにしましょう。でも、3ヶ月後に我々がまだ here にいたら、また話をしましょう。
LeCun:喜んで、ありがとうございました。

いいなと思ったら応援しよう!