OpenAIの共同創設者兼チーフサイエンティスト、イリヤ・スツケヴェル氏がスタンフォード大学非常勤講師のラヴィ・ベラーニとの対談で、OpenAIや一般的なAI企業における複雑な意思決定のアプローチについて説明し、深層学習の将来について予測しています。
公開日:2023年4月27日
※動画を再生してから、インタビューを読むのがオススメです。
あなたが誰であるかによって、あなたがどのように構築するかが決まります。
スタンフォード大学工学部のアントレプレナーシップ・センターであるSTVPとスタンフォード起業家学生のビジネス・アソシエーションであるBASISがお届けするアントレプレナー・ソートリーダーズ・セミナーへ、YouTubeとスタンフォードのコミュニティの皆様をお迎えします。
本日は、イリヤ・スーツケバー氏にETLにお越しいただき、大変光栄に思っています。
イリヤさんは、全人類のために人工知能を構築することを目的としたOpenAIの共同設立者でありチーフサイエンティストです。
イーロン・マスクなどは、イリヤが大規模言語モデルの生成前訓練型トランスフォーマー3(GPT-3)とその公開製品であるChatGPTの基礎を築いた人物であることを挙げています。
2022年11月のChatGPTのリリースほど、興奮と陰謀と恐怖を生み出した製品リリースはないでしょう。
イリヤは、米国と世界がイスラエルとロシアから素晴らしい才能の恩恵を受けてきたことを示すもう一つの例です。
イリヤはロシアで生まれ、5歳の時にイスラエルに移り住み、そこで育ちました。
そして彼は学部生の前半をイスラエルで過ごし、その後転校してトロント大学に進学し、数学の学士号を取得しました。
彼はトロント大学で修士号と博士号を取得し、その後スタンフォード大学でアンドリュー・ングと共に短期間過ごしました。その後、彼の指導教官であるジェフリー・ヒントンの研究会社DNNリサーチで働くためにトロントに戻りました。
その後、Googleは2013年にDNN Researchを買収し、イリヤはGoogle Brainの一員としてリサーチサイエンティストとなった。
そして2015年、Googleを離れ、当時設立されたばかりのOpenAIのディレクターに就任した。
昨年11月のリリース以来、ChatGPTが世界に与えたインパクトは過大評価しがたいものがあります。
そして、ChatGPTはどこからともなく現れて世界をひっくり返したように感じるが、実はその瞬間に至るまでには、深いイノベーションの歴史があった。
そして、ChatGPTが深遠であるのと同様に、イリヤはAIのイノベーションの非連続的な飛躍を口にすることにかけては、決して他人事ではありません。
ジェフ・ヒントンは、イリヤが2012年に畳み込みニューラルネットワークであるAlexNetの主なきっかけを作り、今の瞬間につながる深層学習革命を起こしたと述べている。
そしてもちろん、ChatGPTがついに世界に解き放たれたのは、OpenAIの設立から7年目のことでした。
イリヤは2022年に英国王立協会のフェローに選出された。
2015年にはMIT Tech Review 35 under 35に選ばれている。
2014年にトロント大学のInnovator of the Year Award、2010年から2012年までGoogle Graphic Scholarshipを受賞しています。
それでは皆さん、仮想の温かい拍手で、イリヤを起業家ソートリーダーズセミナーに迎えてください。
イリヤ、たくさんの拍手をお願いします!そして、いつでも農場に戻ってきてください。
イリヤ、話したいことは山ほどあるのですが、時間がないのは分かっていますし、ChatGPTや大規模言語モデルに関しても、聴衆の皆さんはかなり幅広い流暢さをお持ちですから。
OpenAIや生成AIの根幹をなす重要な技術として、大規模言語モデルがありますが、その技術について簡単に説明してください。
この技術を簡単に説明できますか?
また、この技術の最前線にいる今、この技術でできることで、予想外に驚いたことがあれば教えてください。
そうですね。
この技術がどういうもので、なぜ機能するのかを説明することはできません。
なぜ機能するのかの説明は、シンプルであり、かつ非常に美しいと思います。
そして、それは次のような理由で機能するのです。
人間の脳が、世界で最も優れた知性の例であることはご存じでしょう。
そして、人間の脳は非常に多くのニューロンからできていることも知っています。
非常に、非常に多くのニューロンです。
神経科学者は何十年にもわたってニューロンを研究し、その仕組みを正確に理解しようとしてきました。
そして、私たちの生物学的なニューロンの動作はまだ謎に包まれていますが、40年代に最も初期の深層学習の研究者たちによって、かなり大胆な推測がなされてきました。
人工ニューロン、つまり私たちの人工ニューラルネットワークにあるものは、目を細めると生物学的なニューロンに似ている、というものです。
つまり、そこには仮説があるのです。
そして、この仮定をもとに実行すればいいのです。
さて、このような人工ニューロンの良いところは、よりシンプルで数学的に研究できることです。
非常に初期のディープラーニングの先駆者たちによって行われた非常に重要なブレークスルーの一つは、バックプロパゲーションアルゴリズムの発見でした。これは、人工ニューラルネットワークがどのように学習すべきかに関する数学的な式です。
このアルゴリズムによって、大型コンピュータでニューラルネットワークをコードで実装することができるようになりました。
そして、このニューラルネットワークが経験から学ぶために、どのように接続を適応させるべきかを示す方程式をコード化することができるようになったのです。
さて、さらなる進歩の多くは、この学習手順がどの程度優れていて、どの程度の能力があるのか、また、この学習手順がうまく機能する正確な条件は何なのかを理解することと関係がありました。
コンピュータを使ったとはいえ、これは少し実験的な科学で、生物学に少し似ています。
私たちは、生物学的な実験に少し似ているものを手に入れました。
そして、ディープラーニングの進歩の多くは、基本的にこれに集約されるわけです。
大型コンピュータでニューラルネットワークを構築し、いくつかのデータでそれを訓練することができます。
その大規模なニューラルネットワークを訓練して、データから要求されたことは何でもできるようにするのです。
さて、大規模言語モデルの考え方は、非常に大規模なニューラルネットワーク、おそらく今ではそれほど遠くないもの、例えばこれらのニューラルネットワークはかなり大規模で、テキスト内の前の単語の束から次の単語を推測するというタスクで訓練する、というものです。
これが大規模言語モデルの考え方です。
大きなニューラルネットワークを訓練して、テキスト中の前の単語から次の単語を推測させるのです。
そして、ニューラルネットワークには、できるだけ正確に次の単語を推測してもらいたい。
ここで、「生物学的なニューロンと人工的なニューロンはそれほど違わないのではないか」という最初の仮説に立ち返る必要があります。
つまり、このような大規模なニューラルネットワークがあり、次の単語を実にうまく推測するのであれば、それは人が話すときに行うこととそれほど違わないかもしれないのです。
そして、それが実現するのです。
このようなニューラルネットワークと話すと、次に何が来るか、どんな単語が来るかについて、とても優れた感覚を持つからです。
未来を見ることはできませんが、その理解から可能性を正しく絞り込むことができます。
次に来るものを非常に正確に推測できるようになるには、予測することが必要です。
ニューラルネットワークが理解するとはどういうことでしょうか?
きれいな答えを出すのは難しいですが、ネットワークの次の単語の予測誤差を測定して最適化するのは非常に簡単です。
つまり、「理解すること」と言っても、「予測を最適化すること」はできるのです。
そして、それを実行するのです。
こうして、現在の大規模言語モデルができあがったのです。
これはニューラルネットワークで、大規模なものですが、バックプロパゲーション・アルゴリズムで訓練されており、非常に高性能なものです。
人工の神経細胞は生物学的な神経細胞とさほど変わらないと想像すれば、私たちの脳は、細心の注意を払えば、次の単語を推測するのに非常に優れた仕事をすることができるのです。
ですから。
私はそれが大好きです。
そして、これをもっと具体的にしたいんです。
生物学的な脳と、神経アナログ、物理的なネットワーク、デジタル・ネットワークとの間のアナロジーをさらに推し進めたい。
もし人間が、以前は機械が学習するのは無理だと考えられていたのに、今では学習したり、次のことを予測したりするのは当たり前になっている、と考えてみましょう。
もし人間が1Xの学習をしているとして、最新のチャットGPTモデルが見えるとしたら、人間の学習状況に対する最新のチャットGPTモデルの比率はどうでしょうか。
つまり、人間が1Xに達しているとしたら、チャットGPTは何Xに達しているのか?
ご存知のように、私たちの人工ニューラル ネットワークと人間を直接比較するのは少し難しいです。現在、人間ははるかに少ないデータからより多くのことを学ぶことができるからです。
そのため、チャットGPTのようなニューラルネットワークは、最初の学習能力の遅さを補うために、非常に多くのデータで訓練されます。
このようなニューラルネットワークを訓練し、より良いものにしていくと、より速い学習能力が現れ始めるんですね。
しかし、全体的に見れば、全体的に見れば、かなり違うということです。
人の学習方法は、このニューラルネットワークの学習方法とは全く異なります。
例えば、このニューラルネットワークは、数学やプログラミングには強いのですが、例えば微積分のようなものを得意にするために必要な数学書の量は非常に多いのです。
しかし、例えば微積分のようなものを得意にするために必要な数学の本の量は非常に多いのです。
だから、まだ...
しかし、桁違いの感覚を得るために、データ制約を緩和し、機械が必要なだけのデータを消費させた場合、今現在、人間の10分の1程度で動作していると思われますか?
この質問に答えるのは、まだかなり難しいですね。
なぜかというと、このような数値は誤解を招くと思うからです。
その理由を説明したいと思います。
というのも、今現在のニューラルネットワークは、その知識の広さと、ニューラルネットワークが持つ非常に多くのスキルに関して、明らかに超人的だからです。
例えば、ニューラルネットワークは詩がとても上手で、どんな話題でも雄弁に語ることができるんです。
そして、歴史的な出来事や、このような様々なことについて話すことができます。
一方、人は深く掘り下げることができますし、実際に深く掘り下げます。
例えば、そのテーマについてほんの少ししか文献を読んでいないにもかかわらず、何かを非常に深く理解しているような専門家がいるかもしれません。
このような違いがあるため、「0と1の間の数」という意味で質問に答えるのは、本当にためらわれますね。
学習や適応のスピードにおいて、機械が人間を超えるシンギュラリティポイントはあると思いますか?
そうですね。
その時期はいつだと思いますか?
わかりません。
いつ起こるかはわかりません。
さらなる進化が必要だと思いますが、ある時点でこのポイントが発生することに賭けてはいけないと思います。
範囲を教えてください。
来月のある時点でしょうか?
来年でしょうか?
というのも、これらの進歩は、かなり時間がかかると想像できるからです。
残念なほど長い時間がかかることは想像できます。
また、何年かかかるということも想像できますが、較正された答えを出すのは非常に困難です。
しかし、その答えを出すのはとても難しいことだと思います。
しかし、あなたが子供の頃、意識という概念に悩まされたという話を読みました。
しかし、あなたは意識や感覚、自己認識を学習の延長としてとらえているのでしょうか?
また、それは必然的に起こるものだと思いますか、そうではありませんか?
そうですね、意識の質問で、そうですね、子供の頃、自分の手を覗き込んで、「これが自分の手だなんて、どうしたらいいんだろう」と思っていました。
このような性質のもので、どう説明したらいいのかわかりません。
だから、そういうことに興味があったんです。
意識というのは厄介なもので、どう定義すればいいのでしょう?
長い間、定義されなかったものです。
そして、それをシステムでテストするにはどうしたらいいのでしょう?
もしかしたら、完璧に正しい行動をするシステムがあるかもしれません。しかし、意識のあるシステムであれば、完璧に期待通りの行動をするはずですが、何らかの理由で意識がないのかもしれません。
まだ実行できませんが、AIが少ないデータから非常に素早く学習するようになった将来の時点で、次のような実験ができるかもしれません。
非常に慎重に、意識について決して言及しないようにデータを管理します。
ここにボールとお城があり、ここに小さなおもちゃがあります」と言うだけです。
このようなデータがあるとすれば、それは非常に管理されたものであることが想像されます。
おそらく、何年分かのこのようなトレーニングデータがあるはずです。
おそらく、このようなAIシステムは、多くの異なる教師と対話し、彼らから学びますが、すべて非常に慎重に行われるでしょう。
あなたは決して意識について言及しませんね。
人々は、自分の経験に関する最も表面的な概念以外、何も話しません。
そしてある時、あなたはこのAIを座らせて、「意識について話したい」と言うのです。
意識というのは、ちょっとよく分かっていないものです。
人によって意見が分かれるところですが、これがその説明です。
もし、そのAIが「私も同じようなことを感じていたのですが、どう表現したらいいのかわかりませんでした」と言ったらどうでしょう。
それはそれでいいんじゃないでしょうか。
それは間違いなく、考えるべきことでしょう。
もしAIが、物体や場所から場所への移動など、ごくありふれたデータについて訓練されただけだとしたら、そのようなことは決して口にしないでしょう。
しかし、もしAIが、私たちが認識できるような方法で、雄弁に、そして正しくそれを語ることができたなら、それは説得力のあることでしょう。
また、意識というのは、程度のものだと考えているのでしょうか、それとももっと二元的なものだと考えているのでしょうか。
どちらかというと、程度の問題だと思います。
例えば、人がとても疲れていて、ものすごく疲れていて、酔っ払っているような場合、そのような状態になると、おそらく意識はすでにある程度低下しているのではないかと思います。
動物の場合は、もっと意識が低下していると想像できます。
大型の霊長類から、犬や猫になり、やがてネズミになり、昆虫になると想像してみてください。
そう考えると、かなり連続的なものだと言えますね。
そうですね。
技術に関する質問をもっと続けたいですが、OpenAIのミッションや倫理問題について話を進めたいと思います。チーフ・サイエンス・オフィサーとして、倫理がどのようにあなたの役割に影響を与えるか教えてください。
そこで、いくつかの基本的なポイントを説明し、その後、あなたに話してもらいたいと思います。
ご存知のように、OpenAIのミッションは、人工知能が全人類に利益をもたらすようにすることです。
最初は非営利でオープンソースでしたが、現在は営利でクローズドソースとなり、マイクロソフトと密接な関係にあります。
イーロン・マスクは、OpenAIが非営利団体だったころに、あなたを勧誘して1億ドルを提供したと思いますが、当初のビジョンは、Googleや企業への対抗馬を作ることだったと語っています。
そして、AIが人類にとって存亡の危機となりうることを認識し、それを企業や営利団体の手に委ねるような世界にはしたくなかったのです。
そして今、OpenAIはオープンでもなく、非営利団体でもない。
マイクロソフトと密接な関係を持つ営利企業でもあるのです。
そして、世界はマイクロソフトとグーグルの私的独占に向かいつつあるように見えます。
営利から非営利へ移行するための算段を明らかにしていただけますか?
また、その決断の倫理を考慮したのでしょうか?
また、チーフ・サイエンス・オフィサーとしての役割をどのように考えているか、倫理観は関係していますか?
それとも、他の誰かが処理すべきことで、あなたは主に技術を前進させることを任務としていると考えているのでしょうか?
そうですね、この質問にはいろいろな部分があります。
どのようにアプローチするのがベストなのか、考えてみたいと思います。
いくつかのパートがあります。
オープンソースとクローズドソースの問題。
非営利と営利の問題、そしてマイクロソフトとの関係もあります。
そして、イーロン・マスクの最近の発言との関連で、それをどう見るか。
そして、この中で自分の役割をどう考えるかという問題です。
その方が簡単だと思うので、そちらから始めようと思います。
自分の役割についてですが、OpenAIの活動には直接的な責任を感じています。
私の役割は主に科学の進歩ですが、それでも、私は会社の創設者の一人です。
そして最終的には、OpenAIの全体的な影響力をとても気にしています。
さて、このような背景から、オープンソースとクローズドソース、非営利と営利の違いについてお話したいと思います。
オープンソースとクローズドソースの比較から始めたいのですが、AIの課題は、AIが非常に包括的で、さまざまな課題を伴うことだと思います。
また、AIにはさまざまな危険性があり、互いに衝突することもあります。
オープンソースとクローズドソースの比較は、その好例だと思います。
なぜそれが望ましいのか、こう言ってみましょう。
AIをオープンソース化することが望ましい理由は何でしょうか?
そこでの答えは、AIを構築している人たちの手に権力が集中するのを防ぐためでしょう。
つまり、例えば、この非常に強力なテクノロジーをコントロールする企業が、ごく少数しか存在しないような世界であれば、あなたはこう言うかもしれません。
これは望ましくない世界であり、AIはオープンであるべきで、誰でもAIを使うことができる、と言うかもしれません。
これがオープンソースの主張です。
しかし、この議論は、もちろん、明白なことを言えば、オープンソースに対する短期的な商業的インセンティブがあります。
しかし、オープンソース化に対するもう一つの長期的な反論もあります。それは、AIが最終的に信じられないほど強力になると信じるなら、AIがあなたに言わせれば、「ねえ、自律的に生物学的な研究所を作ってくれるか?」と言えるほど強力になるとしたら、どうでしょうか?
すべての事務手続き、スペースの運営、技術者の雇用、実験の集計、これらすべてを自律的に行うことができます。
そうなると、気が遠くなるようなパワーを発揮し始めます。
これもオープンソースにすべきなのでしょうか?
オープンソースの問題に対する私の立場は、おそらく能力のレベルがあると思うのです。
ニューラルネットワークを能力という観点で考えてみるとよいでしょう。
どれくらいの能力があるのか、どれくらいの賢さがあるのか、どれくらいのことができるのか。
能力が低いうちは、オープンソースは素晴らしいことだと思います。
しかし、ある時点で、どこがポイントかについては議論がありますが、ある時点で、能力があまりにも膨大になり、オープンソースモデルを使うことが明らかに無責任になると言えるでしょう。
そして、それがクローズドソース化の原動力となったのでしょうか、それとも、マイクロソフトなどから現金をもらって事業の存続を支えるという、悪魔のコンパクトさやビジネス上の必要性によって原動力となったのでしょうか。
それとも、マイクロソフトなどから資金を得るためのビジネス上の必要性だったのでしょうか?
つまり、私の考えでは、現在の能力レベルはまだそれほど高くはなく、モデルやこの種の研究でクローズドソースを推進するのは、安全性を考慮したものであると考えます。
つまり、段階的に進めていくというのが私の主張です。
今はまだ競争的な段階ですが、このようなモデルの能力が向上していくにつれて、安全への配慮がオープンソース化しないための明白かつ直接的な原動力となる日が来るだろうと私は主張しています。
これはオープンソースとクローズドソースの違いですが、ご質問にはもう一つ、非営利と営利の違いもありました。
それについてもお話ししましょう。
確かに、OpenAIのミッションが完了するまで、OpenAIが非営利であることは、ある意味望ましいことです。
しかし、指摘すべきは、これらのデータセンターのコストが非常に大きいということです。
皆さんは様々なAIスタートアップの記事を読んでいると思いますが、彼らが集めている資金の大部分はクラウドプロバイダーへ流れています。
なぜでしょうか?
なぜこれほど多くの資金が必要かというと、これが大規模なニューラルネットワークの性質だからです。
つまり、計算機が必要なのです。
このような図をご覧ください。
アカデミアとAI企業の間に今起きている分裂を見ることができます。
長い間、何十年もの間、AIの最先端研究は大学の学部で行われていました。
2010年代半ばまではそうでした。
しかし、ある時点で、これらのプロジェクトの複雑さとコストが非常に大きくなり、大学ではもはや競争力を維持できなくなりました。
そして今、大学は、AIにおける大学研究が貢献できる他の方法を見つける必要があります。
そのような方法は存在します。
ただ、今までの方法とは違いますし、今現在の企業の貢献の仕方とも違います。
さて、このような背景から、あなたは、非営利団体について、非営利団体に資金を提供した人は、その資金が戻ってくることはない、と言っているのです。
それは本当の寄付です。
そして、信じられないかもしれませんが、非営利団体にお金を寄付するよう人々を説得するのはかなり難しいことなのです。
そこで、私たちは、どうすればいいのか?
どうすればいいのだろう?
そこで、私たちは考えます。
あるいは、良い行動指針は何だろう?
そこで私たちは、私の知る限り、世界中のあらゆる企業構造の中で唯一無二のアイデアを思いつきました。
OpenAIの企業構造は、まったくユニークなものです。
OpenAIは営利を目的とした会社ではありません。
利益の上限を定めた会社です。
その意味を説明したいと思います。
つまり、OpenAIの株式は、普通の会社の株式というよりも、債券と考えたほうがいいということです。
債券の最大の特徴は、一度支払われたらなくなってしまうということです。
つまり、OpenAIの投資家に対する義務は有限であり、普通の会社が持つ義務は無限であるということです。
その中には創業者も含まれるのでしょうか?
創業者はOpenAIの株式を持っているのでしょうか?
アルトマンの何人かは持分を持っていませんが、他の創業者は持っています。
それは上限があるのですか、それとも無制限なのですか?
上限があります。
その上限はどうなっているのでしょうか?
上限があるのですか?
創業者たちは、名目上の株式価値に上限がない限り、購入しなかったと推測されるからです。
質問の意味が正確には分かりませんが、理解できる部分に答えます。それは通常のスタートアップ株式とは異なりますが、会社に早く参加するほど、キャップが高くなるという点では類似点もあります。
なぜなら、初期投資家を惹きつけるためには、より大きなキャップが必要だからです。
会社が成功し続けるにつれて、キャップは減少していきます。
なぜそれが重要なのでしょうか?
それは、投資家と従業員に対するすべての義務が支払われると、OpenAIは再び非営利団体になることを意味するからです。
こんなのおかしい、何を言っているんだ、と言われるかもしれません。
何も変わらないじゃないか、と言われるかもしれません。
しかし、私たちが何を期待するかを考える価値はあります。
つまり、現在のAIがどのようなものかを見てみる価値はあります。
OpenAIが投資家や従業員に対する義務を果たし、非営利団体になるころには、コンピュータが非常に優れた能力を持ち、経済的な破壊が非常に大きく、この移行が非常に有益になるとは全く考えられません。
これが、キャピタルプロフィット対ノンプロフィットの資本提携に関する答えです。
質問の最後の部分がありました。
私はしばらく話していますが、質問には多くの部分がありました。
ご質問の最後の部分は、マイクロソフトとの関係です。
ここで、非常に幸運なことに、マイクロソフトはこのような質問に対して、正しい方法で考えてくれています。
彼らはAGIの可能性と重大性を理解しています。
たとえば、OpenAI の投資家が署名したすべての投資家向け文書について、ところで Microsoft は OpenAI への投資家であり、Google DeepMind とは非常に異なる関係にあります。
どんな投資書類に署名した人でも、投資書類の上部に紫の四角があり、OpenAIの忠実義務はOpenAIのミッションにあると書かれています。これは、ミッションが競合すると、お金をすべて失う可能性があるというリスクを負っています。
これは投資家全員が署名したものです。
そして、皆のためにはっきりさせておきたいのですが、GoogleはDeepMindを買収しました。
DeepMindはGoogleの中の資産であり、Googleに従属していましたが、OpenAIとMicrosoftの関係では、Microsoftは投資家であり、OpenAIのミッションに対する忠実義務に従属しています。そのミッションは非営利団体によって保持されており、営利法人のGPまたはLPです。
なるほど、わかりました。
ええ、こんな感じです。
私は、正確なことは言えませんが、このような一般的なイメージを持っている人がいます。
アップルの共同創設者であるスティーブ・ウォズニアックやイーロン・マスクは、もう引き返せない地点を過ぎているか、そこに近づいており、AIとその影響を今止めなければ制御不可能になるという公開請願に署名しています。
そして、彼らはAIを止めようと呼びかけています。
イリヤさんは世界市民なんですよね。
あなたはロシアで生まれ、イスラエルで育ち、カナダ人です。OpenAIの公開請願に対する回答は、サムがそうではない方法で進めるべきだと言っていましたが、同時にサムは西側に敵対的な国々も含む世界ツアーをしています。
現在、OpenAI を通じて世界中にテクノロジーを広めることに関して、市民としての義務、倫理的義務が技術的義務よりも重要だと思われるものはありますか?
規制や監督に従うべきと思いますか?
考えさせてください。
もう一度言いますが、この質問にはいくつもの部分がありました。
そうですね、申し訳ありません。
その点については、どのようにでもお答えいただけるよう、お伝えしています。
時間切れになりそうなので、マイクを渡して、私の心にあることをすべて話して、どう対処するかはあなたが決めてください。
ええ、ありがとうございます。
AIが非常に強力になり、非常に大きな変革をもたらすことは事実です。
そして、賢明な政府の規制がある世界に移行したいと思うようになると思います。
そして、それにはいくつかの次元があります。
例えば、より強力なニューラルネットワークを訓練することについて、明確なルールがある世界でありたいと思います。
私たちは、これらのニューラルネットワークが現在できることや、1年後や直面する時にできると予想されることについて、慎重な評価、慎重な予測があることを望んでいます。
今から1年後、あるいは彼らがトレーニングを終えるまでに。
これらのことは、合理的に、進歩を遅らせるという言葉は使いませんが、非常に必要なことだと考えています。
つまり、一歩一歩、宿題をこなしていくような、理にかなった進歩を遂げたいのです。
実際、ニューラル ネットワーク、私たちが訓練したシステム、それを実行していて、すべての手順が検証または認定されているという、信頼できる話をすることができます。
それが、私たちが向かっている世界であり、正しいと思っています。
そして、市民の義務については、私はこう答えることにしています。
2つの答えがあるような気がするんです。
私はアメリカに住んでいて、ここが本当に好きで、この場所ができるだけ栄えてほしいと思っています。
もちろんたくさんあると思いますが、世界はアメリカだけではありません。そして、国家間の関係がどのように機能するかというような質問は、少し私の専門外だと感じます。
しかし、そこでも多くの議論が交わされることでしょう。
では、イリヤ、少し戦略的な話に移ってもいいですか?
社内の皆さんにお聞きしたいのですが、北極星としてどのような指標を追っているのでしょうか?
OpenAIの成功を測るために、最も神聖なKPIは何でしょうか?
最も神聖なKPIですね。
この質問も、人によって答えが違うかもしれませんね。
しかし、私は、非常に多くのKPIがあると思いますが、もし本当に絞り込むとしたら、本当に重要なKPI、本当に重要な進歩の次元が2つあると言えるでしょう。
ひとつは、紛れもなく技術的な進歩です。
私たちは良い研究をしているのでしょうか?
システムをよりよく理解しているか?
システムをよりよく訓練できているか?
システムをよりよく制御できているか?
研究計画はうまく実行されているか?
私たちの安全計画はうまく実行されているか?
私たちはそれにどれだけ満足しているか?
これが私の言う第一のKPI、つまり「技術をうまく使う」ということです。
それから、もちろん、製品にまつわることもありますが、これはクールだと思います。
しかし、私が言いたいのは、OpenAIの心臓部であるコアテクノロジーです。
テクノロジー、その開発、そしてコントロール、ステアリングです。
今、チャットGPTは目的地だと考えているのでしょうか。
将来的にOpenAIは、Googleのように人々が行く目的地となるのでしょうか。それとも、他のアプリケーションに力を与え、バックエンドやバックエンドインフラの一部として使われるようになるのでしょうか。
それとも、5年後、10年後には、もっと舞台裏にいるのでしょうか?
ええ、まあ、つまり、物事の変化はとても速いのです。
5年後、10年後というのは、正しい形という意味では何ら主張することはできません。
おそらく、その両方を少しずつ想像しています。
でも、この種の質問は、つまり、まだわからないと思うんです。
この手のものは、まだ新しいと思うので。
では、もう1つ質問させていただきます。
学生の質問に飛びますね。
もしあなたがAIに興味のあるスタンフォード大学の学生だとしたら、イリヤになりたいと思っている人だとしたら、何に時間を割くでしょうか?
また、2つ目の質問として、もしあなたが起業にも興味があるのなら、AIと起業に興味があるスタンフォード大学の学部生エンジニアにどんなアドバイスをするでしょうか?
最初の質問では、このような一般的なアドバイスをするのはいつも難しいと思います。
しかし、それでも一般的なアドバイスをすることは可能です。
それは、一般的に、自分のユニークな素養に寄り添うことが良いということです。
例えば、その人が持っているかもしれない傾向やスキル、才能のセットについて考えてみると、その組み合わせはかなり稀です。
ですから、どのような方向に進むにしても、それを活用することは非常に良いアイデアです。
そして、AIの研究ですが、これは私が何か言うことができるかもしれません。
しかし、特にこの分野では、自分のアイデアに寄り添い、「なぜ他の人はそれを理解できないのだろう」と思わせるような、自分にとってまったく当たり前のことはないだろうかと自問自答することをお勧めします。
もしそう感じたら、それは良い兆候です。
その直感が正しいかどうかを確かめるために、その直感に寄り添い、探求したいと思うかもしれないということです。
そうでない場合もあります。
でも、私のアドバイザーであるジェフ・ヒントンは、こんなことを言っています。
自分の直感を信じなさいということです。
なぜなら、直感が優れていれば、本当に遠くまで行けるからです。
もし直感が良くなければ、どうしようもない。
そして、起業に関しては、ユニークな視点がさらに価値を持つ場であるような気がします。
あるいは、同じように、研究よりも価値があると思う理由を、もしかしたら、説明するかもしれないからです。
まあ、研究においては、それも非常に価値があります。
しかし、起業の場合は、自分のユニークな人生経験から引き出さなければなりません。
このテクノロジーはどうだろう?
というように、非常に広い視野を持ち、何かに焦点を当てられるかどうかを確認するのです。
そして、実際にやってみるのです。
それが、私の一般的なアドバイスの結論です。
なるほど、それは素晴らしいですね。
これも素晴らしいことです。
では、学生の質問に移りたいと思います。
ディープラーニングの分野は、今後5年から10年の間にどのように進化すると思われますか?
ええ、そうですね。
ディープラーニングはこれからも進歩し続けると思っていますね。
一時期、スケーリングによって多くの進歩がもたらされた時期があったと思います。
GPT-1からGPT-3への移行で、それが最も顕著に表れました。
しかし、状況は少しずつ変化していくでしょう。
スケーリングの進歩が早かったのは、人々が多くのデータセンターを持っていて、それを1回のトレーニング実行に使っていなかったからです。
ですから、既存のリソースを再配分するだけで、多くの進歩を遂げることができたのです。
しかも、既存のリソースを再配置するのにそれほど時間はかかりません。
ただ、誰かがそうすることを決めるだけでいいのです。
しかし、今回はトレーニングの規模が非常に大きいので、その点では異なります。
データセンターの建設には時間がかかるので、スケーリングは以前ほど速く進まないでしょう。
しかし同時に、ディープラーニングは他の場所からも進歩し続けるだろうと予想しています。
ディープラーニングのスタックはかなり奥が深いです。
そして、スタックの多くの層で改良が進むと思います。
そして、それらを合わせると、やはり進歩は非常に強固なものになるはずです。
そして、もし私が推測するならば、もしかしたら、現在ディープラーニングの未知である新しい特性を発見することができるかもしれませんね。
そして、その特性は活用されるでしょう。
そして、5年後、10年後のシステムは、今のシステムよりもずっとずっと良くなっているだろうと、私は十分に期待しています。
しかし、それが具体的にどのようなものになるかというと、ちょっと答えづらいと思います。
それは少し似ていますが、それは改善のためです。おそらく、少数の大きな改善と多数の小さな改善があり、すべてが大規模で複雑なエンジニアリング成果物に統合されます。
共同創業者のサム・アルトマンは、より大きな言語モデルに拡張することで達成できることの限界に達したと述べていますね。
そうお考えですか?
もしそうだとしたら、あなたが注目している次のイノベーションのフロンティアは何でしょうか?
ええ、ですから、たぶん、彼が何を言ったのか正確には分かりませんが、簡単にスケーリングできる時代は終わったとか、そういう意味だと思います。
もちろん、より大きなニューラルネットはより良いものになるでしょうが、それを実現するためには多くの労力とコストがかかるでしょう。
でも、いろいろなフロンティアは出てくると思います。
ディープラーニングでどのように貢献できるかという問いに対して、そのようなフロンティア、おそらく他の人が見逃しているフロンティアを特定することは、非常に実りあることです。
垂直方向への集中とジェネラリスト・トレーニングの違いについて、議論があると思います。
法律や医療といった特定の領域で、特別なデータセットを使ってトレーニングすることでより良いパフォーマンスが得られるのか、それとも、利用可能なすべてのデータを使った一般的なトレーニングの方がより有益なのか。
ですから、ある時点では、専門家のトレーニングが大きな影響を与えることを絶対に期待すべきです。
しかし、ジェネラリスト・トレーニングを行うのは、ニューラルネットワークが私たちの問いかけを理解できるところまで到達できるようにするためです。
そして、非常に強固な理解を得たときに初めて、専門的なトレーニングに進み、その恩恵を受けることができるのです。
つまり、これらはすべて、実りある方向性だと思うのです。
しかし、専門的なトレーニングに力を入れるようになるのは、いつになるのでしょうか?
オープンソースの仕事をしている人たちを見ていると、オープンソースのモデルを使って仕事をしている人たちは、かなり力不足なモデルを使っているため、このような専門的なトレーニングをかなり行っているようです。
そして、そのモデルから少しでも性能を引き出そうとします。
ですから、これはその一例と言えるでしょう。
これはその一例と言えるでしょう。
すでにある程度は起きていることなのです。
二元論ではありません。
連続体、スペクトルとして考えたほうがいいかもしれません。
しかし、勝ち組になるには、こうした独自のデータセットを持つことだと思いますか?
それとも、AIを垂直方向に応用する場合、より高性能で大規模な言語モデルを持つことでしょうか?
ですから、このようなAIは、複数の要素の組み合わせであり、それぞれの要素が貢献すると考えるのが生産的だと思います。
また、特定のタスクのセットでAIをより良くするのに役立つ特別なデータがあった方が良いのでしょうか?
もちろんです。
より高性能なベースモデルがあったほうがいいのでしょうか?
もちろん、タスクの観点からはそうです。
だから、これが答えなのかもしれません。
どちらか一方というわけではないのです。
他の質問に移ろうと思います。
GPT-3スラッシュ4の訓練と開発にかかった費用はどうだったのか、という質問がある。
そうですね。
だから明らかな理由で、私はそれについてコメントできない。
そうですか。
しかし、私たちの研究コミュニティからも、OpenAIの技術のさまざまな側面にアクセスできるようになりたいという強い要望があると思います。
また、競争やイノベーションを促進するために、研究者や他のスタートアップに公開する計画はあるのでしょうか?
私が聞いた要望の中には、モデルのパフォーマンスを理解するためのセーフガードなしの自由な対話、モデルの仕様(どのように訓練されたかの詳細を含む)、モデル自体へのアクセス(すなわち、訓練されたパラメータ)などがあります。
モデル自体へのアクセス、つまり学習されたパラメータへのアクセスです。
それについて何かコメントはありますか?
はい。
つまり、オープンかクローズかという先ほどの質問と関連していると思います。
私は、非常に有益な中間的なアプローチもあると思います。
たとえば、モデルアクセスやそのさまざまな組み合わせは、非常に生産的です。なぜなら、ニューラルネットワークは、すでに非常に大きく複雑な動作の表面積を有しているからです。
それだけを研究しても、非常に興味深いものになります。
また、アカデミック・アクセス・プログラムもあります。
様々な形でモデルへのアクセスを提供しています。
実際、多くの学術研究機関がこの方法でモデルを研究しています。
ですから、このようなアプローチは可能だと思いますし、私たちも行っています。
時間が迫っているのは承知しています。
最後に1つだけ質問させてください。「ChatGPTの使い方で、他の人が知らないような、直感的ではないが説得力のある使用例があれば教えてください」ということです。
つまり、知られていないとは言いませんが、詩を書く機能がとても気に入っています。
詩を書くことができる。
ラップもできる。
かなり面白いです。
で、皆さんはそれを使っているのでしょうか?
オープンでは、チームワークの一部として組み込まれているのでしょうか?
そうだと思いますが、AIが人間のチームに深く統合されると、チームのダイナミクスがどのように変化するのか、また、彼らがどのように働いているのか、そして、私たちが知らないだけで、これから起こるであろうことについての洞察はあるのでしょうか?
今日、このインパクトを表現するのに最適な方法は、すべての人の生産性が少し上がったということでしょう。
物事に積極的に取り組むようになりました。
今現在は、ああ、このように顕著にダイナミクスが変化した、と言えるような劇的なインパクトがあるとは言えません。
AIボットだから会話を非人格化するのか気になるけど、まだ非常識になるような段階ではないのかもしれないね。
それは絶対にないと思います。
でも、まだその段階ではないと思っていますし、そうなるとは思っていません。
さて、イリヤ、魅力的な議論をありがとう。
時間はいつも短すぎる。
またいつでも農場にお招きします。
バーチャルでも直接でも、ぜひお越しください。
それでは、ありがとうございました、ありがとうございました。
視聴者の皆さん、アントレプレナー・ソートリーダー・シリーズのこのセッションにご視聴いただき、ありがとうございました。
来週は、Oktaのエグゼクティブ・チェアマン兼共同創業者であるフレデリック・カリスト氏をお招きします。
このイベントやETLシリーズの今後のイベントは、スタンフォードE-CornerのYouTubeチャンネルでご覧いただけます。
また、起業やイノベーションに関するビデオ、ポッドキャスト、記事は、スタンフォードE-Cornerでご覧いただけます。
ecorner.stanford.eduです。
そして、いつもETLにご視聴いただきありがとうございます。
また次回、ETLでお会いしましょう。