リード・ホフマン: AIと人間の協力
※長文のため、テキストの読み上げ機能の使用を想定しております。各OS標準搭載のアクセシビリティ機能(読み上げコンテンツ)でも良いですが、個人的にはMicrosoft Edgeブラウザの「音声で読み上げる」機能をおすすめします。
突然、私たちは人間にはできないことをすることで、超人的なことを学べるものを手に入れました。それは規模の計算力と規模のデータです。そして、私たちは再び競争に参加できるようになりました。というのも、プログラミングに対して、私たちはプログラミングをしていますが、学習する機械をプログラミングしているのです。
ソファに座ってぼんやりと刺激に反応するだけ、例えば甘い炭酸飲料をたくさん飲んで頭が麻痺するようなものばかり見ているのは、人間の主体性や能力の低下だと考えられるでしょう。私たちがしたいのは、自分自身のより良いバージョンになる方法、賢く、思慮深く、思いやりのある人間になる方法、他の人々と関わる方法を学ぶことです。
AIの現状から見える私の基本的な考えは、これが全てではなく、永遠に保証されているわけではありませんが、人間の増幅、つまり私たちがスーパーパワーを手に入れるということです。私がそれに署名できなかった理由は、AIにもプラスの面があるからです。パンデミック、人為的なものであれ自然なものであれ、そしてその存在的リスクを大きく軽減する最良の方法は、AIだと私は考えています。
あなたが言及したもう一つのことは、私たちがこのエージェント、このコンパニオンを作っているということについてです。はい、GPT-4.0で映画「her」が現実になりつつあります。一方で、これが良いことである理由はたくさんありますが、他方で、必ずしも良いことではないかもしれない、このパラソーシャルな関係があります。特に、「her」は明らかにディストピアであって、ユートピアではありません。あなたはすでに、Piがこれに貢献しないようにする方法について少し言及しましたが、これが私たちが持つべき唯一の心配事だと思いますか?他に何かあるでしょうか?
こんにちは、アレクサンダーです。AGIの前へようこそ。私たちはAIについてよく話しますが、実際にはそれをどのように使用するかについてはあまり話しません。確かに、AIを仕事や個人生活に統合するという議論はたくさんありますが、実際にそれをどのように行うかは明確ではありません。
今日、リード・ホフマンをゲストに迎えることができて本当に良かったです。リードはこのトピックについてかなり詳しい人です。彼はGPT-4と共著で「Impromptu」という本さえ書いています。しかし、リードはAIのパワーユーザーというだけでなく、AIの開発に最初から関わってきた人物です。特に、彼は長年AIの会社に投資しており、Inflection AIの共同設立者であり、また OpenAIの創業投資家であり、取締役会メンバーでもありました。今日は彼の経験について、そしてAIが私たちの戦争に与える影響についてどのように考えているかを聞くのを楽しみにしています。リード、お会いできて光栄です。
ここにいられて光栄です。まず、実際に来ていただいたことに感謝したいと思います。あなたのAIツインとのインタビューを見ましたので、何を期待すべきか分かりませんでした。私が気づいていないロボット工学の進歩がない限り、そして、はい、あなたは実際にここにいます。あなたが来てくれて嬉しいです。
リードAIを模倣するために、私は大丈夫だと思います。良いものを持っています。さて、私は疑念を持っていますが、あなたが実際にここにいると仮定しましょう。どのようにしてこのアイデアを思いついたのですか?あなたのデジタルツインをインタビューするという。
大まかに言えば、技術に問題があると思うなら、技術もまた解決策になり得るということです。それが取るべき方向性です。2024年の今年、私たちが抱えている問題の一つはディープフェイクです。選挙における偽情報などです。もし魔法の杖があって、今年中に世界中でディープフェイクの動画や音声が作れなくなるなら、私はその杖を振るでしょう。もちろん、そんな杖は存在しません。それは架空の思考実験です。
そこで問題は、どのようにナビゲートし始めるかです。探索しなければなりません。そして、この探索が「ああ、トランプが性差別主義者ではない」とか「人種差別主義者ではない」などと言う偽の動画だけだったら、「ああ、そうか」と言うだけです。では、どのように探索を始め、宇宙のポジティブな側面を見始めるのでしょうか?
私が示そうとしたことの一部は、最初のものは本当に、私たちが異なる世界にいるということを示すためのとても単純なものでした。実際、私の友人の中には、最後まで見られない人もいました。少し奇妙に感じたからです。しかし、それもまた、露出を得て、考え始め、免疫をつけることが目的でした。何が悪くて何が良いのかなどです。
そして、次の数ヶ月で、私がこれを使ってより多くの人間とのつながりを作る方法について、いくつかのレンズ、光のビームを明らかにしていきます。
なるほど、それは非常に興味深い見方ですね。では、なぜ誰かがそのようなデジタルツインを持つべきか、あるいは持つべきでないと思いますか?
デジタルツインについて考えられることはいくつかあります。おそらく、特定の方法では持つべきではないでしょう。例えば、私たちは非常に明確にしています。これはデジタルツインではありません。様々な方法で、私のリードAI、私のデジタルツインを使用する際、それがデジタルツインであることを識別します。このポッドキャストのこの文がAIオーディオによって言われたということを明らかにする必要はありません。「いいえ、いいえ、我々はこのポッドキャストでリードAIオーディオを使用しています。可能なマスタースキルセンターです。そしてここにあります」というようにです。
開示的で率直であるべきです。リスナーにとって良いことであるという原則を持つべきです。単にあなた自身にとって良いだけではなく。私にとって良いこともあります。例えば、ポッドキャストにあまりエネルギーを注がなくて済むということです。しかし、リスナーにとって何が良いのでしょうか?
これが放送される正確な時期によっては、次の数ヶ月で私たちが行うことの一つは、私が他の言語で話すことです。すでに少しやっています。冗談ですが、私はペルージャで人工知能、ルネサンス、そして人間主義についてスピーチをする予定です。そして、そのスピーチをリードAIを通じてイタリア語で、そして他の言語でも公開する予定です。これは人間とのつながりを拡張する例です。
もし私が2年間言語を勉強したりしたら、それができるかもしれません。しかし、それは決して起こりません。そして、他の人々にとって有益な方法で、このデジタルツイン、このアバター、この私のデジタル表現を使用する方法を考え始めると、それは非常に良いことになります。
では、このインタビューから自分自身について学んだ最も驚くべきことは何ですか?それは自分自身に鏡を向けるようなものですから、何を学びましたか?
社会的研究の一つの側面は、人々は外出の準備をするために鏡を見るのは好きですが、自分自身のビデオを見るのは好きではないということです。それは確かに一つの経験でした。ビデオの最後で、私は文字通り「これを嫌うと思っていた」と言いました。将来を見ることが重要だと思っていたので、とにかくやっていましたが、嫌いになると思っていました。しかし、代わりに興味深いと感じました。
その一部は、時々自分自身と話をしたり、内なる声を持って散歩をしたりするようなものだからです。その種の対話は実際、自己反省や思考のための興味深い鏡でした。それは私たちがもっと探求していく別のことです。
はい、自分自身とブレインストーミングをすることが新しい意味を持つようになりましたね。実際、これで私はアイデアを思いつきました。OpenAIが新しいおもちゃを持っていることを聞いたかどうか分かりませんが、これはGPT-4.0です。素晴らしいですね、どうですか?
ねえ、ChatGPT、私はここでリード・ホフマンと一緒にいて、AIについてインタビューをしていますが、実は準備ができていません。私の代わりにインタビューをしてくれませんか?
もちろん、お手伝いします。さっそく始めましょう。フリードリック、AIの分野で働き始めたきっかけは何でしたか?
まず、あなたの最初の間違いは、フリードリックではなくリードだということです。そして、助けになるように言うと、リード・ホフマンです。スタンフォード大学の学部生時代に始めました。なぜなら、私たち人間がどのように考え、話し、自分自身や他人、そして世界について学ぶかに興味があったからです。
申し訳ありません、リード。AIが人間の思考とコミュニケーションの理解において、どのように進化する役割を果たすと見ていますか?
実際、私は質問を準備していました。ありがとうございます。はい、でも良いですね。名前を間違えた以外は。小さなバグですね。小さなバグです。いいえ、しかしこれは実際、まさに将来このような方法で行われる可能性があります。
あなたがAIに革新的に取り組んでいることに、私は大きなファンです。個人的にも、職業生活でもそうですね。例えば、GPT-3.5とのファイアサイドチャットを行い、GPT-4と本を書くなど。なぜこのようなことをしているのですか?AIと関わる革新的な方法を次々と思いつくのはなぜですか?
いくつかの理由があります。マクロな理由の一つは、単に話すだけでなく、可能な限り示し、語ることです。AIの現状から見える私の基本的な考えは、これが全てではなく、永遠に保証されているわけではありませんが、人間の増幅、つまり私たちがスーパーパワーを手に入れるということです。
産業革命が私たちに物理的なスーパーパワーを与えたように、より大きなものを作り、物を持ち上げ、運ぶことができるようになりました。今、私たちは精神的なスーパーパワーを手に入れつつあります。それは非常に興味深いことです。その本を書き始めたのは「Impromptu」からでした。実際、おそらくファイアサイドチャットボットを先に行ったかもしれません。
しかし、それを示したかったのは、人々が一般的なメディアの言説から離れてほしかったからです。そこでは「ああ、AIはここにあり、すでに民主主義を傷つけ、私たちの仕事を奪い、私たちの生活を奪うかもしれない」という話ばかりでした。AIを構築している人々の中にさえ、「ああ、AIはとても危険だ。なぜ誰かがこれをしているのか」と言う人がいます。
彼らは、これを構築している大多数の人々が、非常に良い理由でこれを構築していることを見ていません。それは、私たちをどのように向上させるか、人間としてどのように増幅するか、より多くの能力をどのように得るか、お互いをより良く理解し、世界をより良く理解し、お互いの関係でより良くつながる方法です。そして、それは全て、私たちがしていることの視野に入っています。仕事の改善、生活の改善、医療の改善などです。
そのメッセージを、リスクと否定的な面に関する大きな騒音に対して明確に表現し始めたかったのです。そしてそれをしながら、「まあ、示すこともできる」と思いました。だから示しましょう。ポッドキャストを持ちましょう。最初のものはチャットボット、GPT-3.5で行ったと思います。
そして本を書いていて、「そうだ、これはGPT-4でやるべきだ」と思いました。将来的に、このような対話形式で書かれる本はそれほど多くないと思いますが、私はその事例を示したかったのです。人々に理解してもらいたかったのです。
その副産物として小さな驚きがありました。人々は「あなたの本から予想外に得られたものの一つは、どのようなプロンプトを使うかを学べたことです。よく『プロンプトエンジニアリング』と呼ばれていますが、私はそれを『プロンプトディレクティング』と呼ぶべきだと思います。どうすればそこからスーパーパワーを引き出せるのか、魔法を引き出すにはどうすればいいのかがわかりました」と言いました。
それは当然のことです。なぜなら、私は1000ページ以上のプロンプトと回答を持っていましたが、本は236ページで、その多くは私自身の文章でもあります。ですから、多くが編集で削られたことがわかります。
そのプロセスは具体的にどのようなものだったのですか?モデルにプロンプトを送り、何かを返してもらう、というようなことをしたとおっしゃいましたが、実際にはどのように進めたのですか?私がこれを尋ねる理由は、基本的に私は学者ですが、学者がすべきことの一つは本を書くことです。しかし、私は自分に本を絶対に書かないと約束しました。これは私にはできないことの一つなのです。でも今、興味をそそられています。そのプロセスを知りたいのです。
本を含め、何かを著述する際に行っていることは、ある程度の強さと活力を持って、これは他の人々の時間を費やす価値があると信じていることを言うことです。ある人々にとっては本全体を読む価値があるかもしれませんし、ある人々にとっては本を斜め読みする価値があるかもしれません。しかし、私はその本をあなたの注目に値するものとして推薦できるということです。
したがって、長期的に存在し続けるであろう一つのことは、最も先進的なAIモデルを使用し、様々な方法でプロンプトを与えて生成したとしても、例えば「全書を本質的にフロンティアモデルからの出力にしたい」と言ったとしても、あなたはまだそれを見て、「これは私の友人アレックスが読む価値があるか?」と考える必要があるでしょう。そしてなぜそうなのか、ここに書いたことについて数時間にわたる会話をする意思があるのか、なぜならそれが重要だと思うからか、ということを考える必要があります。
それが、たくさんのプロンプトがどこにも行かなかった理由です。私にとってもそれは素晴らしい経験でした。例えば、「AIについて何か面白いことを書いて」と言うだけなら、まあ、AIについて何も知らない人にとっては良いプロンプトかもしれません。あなたや私なら、誰かがそう言ったら注目を止めるでしょう。しかし、「哲学者のヴィトゲンシュタインは現代の生成AIモデルについて何と言うでしょうか?そして、もし彼が分析哲学者のアプローチを批評するとしたら、ヴィトゲンシュタインは何と言うでしょうか?」と言い始めると、突然、対話に値する何かを得始めます。
そうですね、私は教育の文脈でこのアイデアについて話していました。例えば、ニュートンに自分が発見した物理法則を説明してもらうなど、より魅力的になるだけでなく、本質的に同じ情報を異なる視点から語ることで、より印象に残り、心に響くようになります。これは通常非常に難しいことですが、AIを使えばはるかに簡単になります。
あなたはAIと多くの時間を過ごして相互作用していますね。このプロセスで発見した最大の驚きは何でしたか?何か予想外のことはありましたか?
まあ、私はOpenAIの取締役会にいたので、何が来るかについてかなり知っていました。したがって、私の驚きの係数は恐らく一般の人々よりも低いか、異なっていたでしょう。しかし、いくつかのことを言えます。
一つは、モデルはこれに関してはより良くなっていると思いますが、対話が恐ろしかったことです。私は本当に「Impromptu」で対話を入れたかったのですが、文字通り何百ページものプロンプトを試みましたが、とても悪かったのです。悪いというのは、全ての英語が文法的に正しくなかったということではありません。しかし、退屈で無用でした。これは私たちのキュレーターが得ているものの一例です。これはネガティブな側面の例です。
また、私たちは自然に、この新しい世界に慎重に入っていくからでもあります。サロンの新しい本のタイトル「Brave New Words」が大好きです。しかし、私たちは慎重に入っていきます。安全性とアライメントのトレーニングのために多くのことを行います。これは良いことです。なぜなら、これらのモデルが自己危害や他者への危害、その他の危害に使用される可能性を最小限に抑えたいからです。そのために多くのことを行おうとします。
問題は、それによってモデルがあまり面白くなくなり、エッジな内容を得るのが難しくなることです。例えば、「現代の思想に非常に反するような、真実かもしれない宇宙の理論は何か?」というようなプロンプトは、はるかに難しくなります。これは私がもっと欲しかったけれど得られなかったもう一つの例です。
ポジティブな面では、これらのAIモデルが人間らしい方法の一つは、人間の言語や人間の文化、人間の知識で訓練されているからです。その学習パターンは、ほとんどの人が思っているよりも実質的に異なっていると思います。「脳にインスパイアされている」というのは、脳はワット数や他の多くの点で大きく異なりますが、しかし、それは学習アルゴリズムであり、人間の知識やパターン、文化を学習しているのです。言語もそうです。ですから、そこにはたくさんのものがあります。
最も興味深く、価値あるものを得るための簡単な方法の一つは、先ほど言及したヴィトゲンシュタイン風のプロンプトに少し似ていますが、役割を担わせることです。「この質問に文化人類学者として答えてください」「この質問にMIT教授として答えてください」というようにです。そこから拡張できますが、そのように始めると、突然はるかに良くなります。なぜなら、それはほとんど、この対話、このプロンプト、この答えをどの役割で欲しいのかを告げてほしがっているかのようです。そうすると、突然はるかに興味深くなります。これは、それで遊び始めるまで気づかなかったことの一つです。今では、ほと�どいつも、何をするにしても役割をプロンプトする何かをします。
これは本当に興味深い見方ですね。私がこれらのモデルにはまった理由とはかなり異なります。実際、私は非常に平凡な使い方をしています。例えば、スケジュールがコピー&ペーストで乱れてしまった時に、「これを修正してください」と言うだけです。最も印象に受けたのは、AIがあなたの意図を理解してくれることです。「これが私のスケジュールです。きれいにしてほしい」と言うだけで、「きれい」が何を意味するかを理解し、それを実行してくれます。これが私のAIとの日常的なやりとりの始まりでした。
多くの人々がこれらのモデルを使用していますが、もっと多くの人々があなたや私のように深く使用すべきだと思います。なぜ採用が、おそらくあなたや私ほど深くないと思いますか?
人々は遅いのです。例えば検索を考えてみましょう。インターネット検索は20年以上前からありますが、ほとんどの人々はまだ検索をうまく使いこなせていません。「リード・ホフマンを調べる」「ウィキペディアのページは何?」と考えるだけです。「リード・ホフマンについて最も興味深いことは何か」「リード・ホフマンの起業家精神について同意する最も強力な専門家は誰で、彼らは何と言っているか」「リード・ホフマンの起業家精神について反対する最も強力な専門家は誰で、彼らは何と言っているか」というような質問をしません。
検索には使えるパターンがありますが、大多数の人々はそれを使いません。検索はずっと前からあります。スマートフォンを持っている人は誰でも検索を使っています。しかし、彼らは何をすべきかを知らないのです。それが、「Impromptu」の本を書き始めた理由の一つでした。ポッドキャストも始めました。「見てください、魔法を引き出せるのです。魔法を持ち込む必要さえありません。ただいくつかのことを試してみるだけでいいのです」と。
だからこそ、人々が時間をかけて採用するのです。人々は空のテキストボックスの前に座ると、検索のテキストボックスの前に座るように、自然に「何をすべきか」と考えません。LinkedIn
を使う方法として私が人々に教えていることの例を挙げましょう。大多数の人々はこれをしません。例えば、今月末か来月初めにニューヨークで脳と心の会議に行く予定です。「ニューヨークにいる間に誰に会うべきか」と考えます。LinkedInに行き、「ニューヨークにいる第一級の連絡先は誰か」を調べます。そして、それを見ていくと、誰もが「ああ、そうだ、誰々に会うべきだ」と思い出します。許可なしに人々の名前を挙げるべきではないでしょうが、誰々に会うべきだと。私の脳はコンピュータのようにインデックスを作らないので、覚えていなかったでしょう。しかし、LinkedInで私のつながりを見ることで思い出せるのです。これは検索の使用のもう一つの例です。
私たちには、この驚くべき新しい認知増幅器があります。それは車が私たちの移動能力の増幅器であるよりもはるかに優れた認知増幅器です。使い始めましょう。遊び始めましょう。カレンダーを整理しましょう。例えば、「私の代わりにメールに返信してほしくない。個人的なタッチを保ちたいから」と思うかもしれません。その場合、「メールの下書きを作ってくれ、そして私が変更する」と言えばいいのです。そうすれば、まだあなたのものになります。なぜなら、「これは私をうまく表現しているか」と考えることができるからです。
これが、採用が遅いだけでなく、今後も遅いままである理由です。
しかし、検索の擁護をすると、以前は検索が上手でしたが、今はうまく使えなくなりました。おそらく、AIとのやりとりのせいで怠惰になったのかもしれません。
そうですね、でもAIについて話しましょう。例えば、これらのフロンティアモデルの非常に良い使い方は、正確な検索クエリを得ることです。「Xを探しています。GoogleやBingに何を入力すべきですか?」と聞くのです。
ああ、そうですね。この会話から何か新しいことを学びました。それは新しい使い方ですね。あなたが私より先に気づいていたようです。
さて、少し戻りましょう。あなたは明らかにAIに長い間魅了されていました。なぜですか?それが大きくなると、どのようにして分かったのですか?
まあ、最近になってそれが大きくなるとは知りませんでした。なぜ魅了されたのかから始めて、現在の認識に至った経緯を説明しましょう。
私たちはどのように自分自身を理解し、お互いを理解し、世界を理解するのか、どのように真実の決定に至るのか、どのように価値の決定に至るのか、それはこの種の推論と対話を通してです。そして、私はそれをできる限り正確に理解したいと思いました。それが、学部でAIを、大学院で哲学を学んだ理由の一つです。それを理解しようとしていたのです。
現代のトレンドでは、最初にDeep Mindの自己プレイアルゴリズムを通じて再びつながりました。自己プレイアルゴリズムから気づいたのは、それまでのほとんどのAIパターンで犯されていた間違いの激しさでした。AIをプログラムし、知識を符号化しようとしていましたが、それは単に私たちの能力を超えていました。そこにはありませんでした。
そして突然、人間にはできないことをすることで、超人的なことを学べるものがあると気づきました。それは規模の計算力と規模のデータです。そして、「さあ、私たちは再び競争に参加できる」と思いました。プログラミングではなく、私たちはプログラミングをしていますが、学習する機械をプログラミングしているのです。学習をしているのです。そして、学習を正しく設定する必要があります。
そして、全ての質問は、人々は「今後すべてがLLMになる」と言う傾向がありますが、私は「LLMは素晴らしく、まだLLMからはるかに多くの魔法を発見する必要がありますが、LLMだけが私たちの唯一の学習パラダイムだとしたら、それは大きな驚きでしょう。それはあなたがエネルギーを探す最初の試みで石油を発見したようなものです」と言います。
つまり、私はこの規模の計算力とプログラミングから学習への変化が全てを革命化するだろうと考え始めたのです。その時点では、時間枠はわかりませんでした。それから、サムとイーロンがOpenAIを設立するのを手伝い始め、Deep Mindの人々をよく知るようになり、ヤン・ルカンをよく知るようになりました。異なる種類の規模の計算力の場所を通じて仕事をし始めました。
そして、OpenAIでGPT-2とGPT-3の違いを見たとき、私は軌道を見て、その軌道が4まで、そしておそらくさらに先まで続くと信じました。4だけとは言っていません。少なくとも4までは言っています。革命が始まったのです。
それは興味深いですね。OpenAI、Deep Mind、ヤン・ルカンなど、AIについて非常に異なる考え方をする会社や人々がいた比較的初期の頃、あなたはその違いをどのように描写できますか?それらの分野に対する異なる見方をどのように見ていますか?
私が考えていたことの一つは、最も興味深い認知能力を得るためのツールセットは何かということでした。一つの説があります。OpenAIが最も強力な提唱者だと思いますが、それは深層学習ネットワークと規模、そして深層学習ネットワークを解き放つツールのセットが必要だというものです。注目、規模、データの規模があれば、これを機能させることができるというわけです。
もちろん、ボタンを押すだけで簡単にできるわけではありません。そこには多くの作業が必要です。しかし、それだけで本当に驚くべき魔法を生み出すのに十分です。おそらく、よく話題に上るAGI(汎用人工知能)にまで至る可能性があります。
私は冗談で「AGIはまだ発明されていないAIのことだ」と言う傾向がありますが、AGIにはすでに一つの意味で到達しているともいえます。例えば、AIが非常に重要な広範囲の人間の認知タスクを成功的に実行できるようになったという意味では、GPT-4でそこに到達しました。また、チューリングテストという別のセットの人々もいます。そこにも到達しました。
しかし、「それはAGIが意味することではない」と言います。まあ、そうですね。それはまだではありません。明らかに、推論やその他多くのことに取り組んでいます。達成すべきことのスタックがあります。
つまり、それを強化することに集中する一つのクラスターがあります。そして、方程式の一部として異なることが必要だと言う他の人々もいます。その一部は、LLMがモジュラーアーキテクチャの一つのコンポーネントにすぎないということです。世界に埋め込まれた学習が必要で、知覚などが必要だと言う人もいます。シンボリックアーキテクチャを様々な方法で接続する必要があると言う人もいます。このように続きます。
これが、非常に賢い研究者たちが、人工知能を作り出したり見たりするユニークなアプローチを持っていると考えているのと同じように、少なくとも10〜15の異なる視点があり、他の全ての人が愚かで、自分たちだけが真の道を持っていると考える理由です。
もちろん、私の道が正しいのです。そういうものです。
さて、明らかにOpenAIに興味があり、あなたはその旅の始まりにいました。その時代の最も良い思い出と、おそらく最も興味深いエピソードは何ですか?
私たちはこれについて深く掘り下げると思うので、最も簡単なものから始めましょう。
二つの小さな注意点があります。一つは、サム、イーロン、そして私が、この話をしながら何度か食事をしたときのことです。サムがイーロンに「私が知っている賢い人は皆、私たちがシミュレーションの中に生きていると思っている」と言ったと思います。私は「質問があります。あなたたち二人に。私は賢いですか?」と聞きました。彼らは「ああ、はい、あなたは賢いです」と言いました。私は「では、あなたの発言は間違っています」と言いました。
これは複雑な問題です。私は、私たちがシミュレーションの中に生きているかどうかについて考えることは、通常、その推論において哲学的に賢明ではないと考える傾向があります。それが発見されることはないと言っているわけではありませんが、それはニック・ボストロムの思考実験のように、異なる文明がシミュレートされた文明を作り出す数や、あなたが文明の中にいる確率、あるいはフェルミのパラドックスを見て、なぜ私たちが知性の信号を他に発見していないのかを考えるほど単純ではありません。時には、謎の説明は単に「まだ分からない」ということかもしれません。「まだ分からない」ということは、心に留めておく重要なことです。それが一つです。
二つ目は、私たちは「これをやろう」と言って回っていました。当時、イーロンがよく言っていたのは「ロボカリプス」という言葉でした。私はこれが、批評家たちが真実を語ろうとし、助けになろうとしているけれども、良い意図を持ちながら非常に破壊的なことをしている典型的な分野だと思いました。なぜなら、それは人々の注目を否定的な面に向けさせるからです。「AIの自然な作用は映画で見たターミネーターにつながるのか」というように。私たちは物語を作る生き物だからです。
そこで私は「この旅に参加し、貢献し、設立を手伝う代価として、あなたは『アポカリプス』という言葉の使用を止めなければなりません」と言いました。
はい、あなたは成功したようですね。これを聞いたのは初めてです。
はい、確かにそれはあなたのCVに追加すべきことの一つですね。
はい。AIの安全性について少し話しますが、それは後でにしましょう。理由は、AIのポジティブな側面について探求したいからです。
あなたはOpenAIの設立に関わり、ある時点で研究者のために給与を保証したと思います。イーロンは、OpenAIを完全に所有し、管理する会社に転換すべきだと感じて去りました。研究者たちは人類のための501(c)(3)ミッションにとどまりたがっていました。彼は「私は出る」と言いました。そこでサムが私に電話をかけてきて「どうすべきか」と聞きました。私は「給与を保証しよう」と言いました。彼は「素晴らしい。グレッグとイリヤと座って話をしてくれないか。彼らはこのために重要で、あなたをよく理解し、知ることが良いだろう」と言いました。
私は次の日か2日後に来て、部屋で彼らと2時間ほど過ごしました。実際に面白かったのは、本質的にAIに関する私の立場や考え方についてインタビューされたことです。「お金を提供してくれるのは素晴らしい。でも、なぜそうするのか、あなたはここで良い貢献者になれるのか」といったことを理解する必要があったのです。私はそれが大好きでした。「ここで正しいことをしているという自信が高まった」と思いました。
そして、私は取締役会に加わりました。実際に面白い部分があります。これは明らかに去年起こったことの前兆となるものですが、サムと私が全社員とファイアサイドチャットをしていたときのことです。サムは私に何の警告もなく「私が悪い仕事をしているとしたら、あなたはどうしますか?」と尋ねました。
私は多くの取締役会に参加してきました。多くの会社に投資してきました。実際、参加した取締役会の数を正確に覚えていないほどです。商業的なものも非営利のものもあります。CEOからこのような質問を会社の前で尋ねられたのは、これまでもこれ以降もありません。
私は「うーん、彼は何を聞いているのだろう」と思いました。そこで「あなたと協力して、より良くしようとするでしょう」と答えました。彼は「いや、いや、私が悪い仕事を続けるとしたら」と言いました。私は「では、あなたを解雇するでしょう」と言いました。彼は「素晴らしい」と言って、次の話題に移りました。私は「なるほど」と思いました。
サムの功績を認めなければなりません。公の評論ではあまり言及されていませんが、サムは多くの人々とは異なり、イーロンが100%所有し管理する商業会社に移行することを望みませんでした。彼は管理を分散させようとしています。去年11月の失敗の一部も、サムの良い意図から来ています。それは「私の単独の管理ではない、私は管理を分散させている」ということを示そうとしたのです。
それは従業員に示したかったからです。だから私に突然質問をしたのです。前もって教えてくれれば助かったのですが、彼は従業員に「私はリードにこの質問をするつもりだとは言っていない。これは彼の本当の答えだ」と言えると思ったのでしょう。そしてそれは真実でした。彼は私に聞いていなかったからです。
これが非常に初期の頃のもう一つのことです。私がOpenAIの文化と人々について大好きなことの一部は、彼らが人類のためのAIに非常にコミットしていることです。最後の一人まで、全員がそうです。安全グループだけでなく、全員がそこで働いている理由、何をしているかの中心的な考慮事項としてそれを持っています。
二つ目は、「それを試して、正しい道でないと分かったら、それを放棄して先に進む」という非常に規律正しい態度です。OpenAIが大規模言語モデル革命をリードしている理由の一部は、他にも多くのプロジェクトがあったからです。シミュレートされたロボットの手とルービックキューブ、DOTAやゲームなどがありました。なぜなら、「これらのスケール要素のどれが本当に重要になるだろうか」と考え、試してみて、「これは人類の増幅にさらに近づくだろうか。いいえ、ではこれを止めて、こちらに集中しよう」としたからです。これは、どの組織でも珍しい規律です。
これは、私が聞いているOpenAIにとてもよく似ています。それは変化する会社で、はるかに大きな会社ですが、その文化はそこにあります。サムが警告なしにカーブボールを投げることも含めて、全てがそこにあります。
しかし、あなたはある時点でOpenAIから自発的に離れました。そして実際、InflectionというAIを行う会社を立ち上げました。なぜですか?
実際には、私たちが今座っているGreylockのオフィスで、より多くのスタートアップに関わっていました。パートナーや企業から、OpenAIへの特権的なアクセスを求める要求が増えていました。明確にしておきますが、OpenAIの取締役会は501(c)(3)であり、良い取締役会メンバーとしての規則の一部は、公的な資金を使って私的な利益を得てはいけないということです。
そのため、私は取締役会メンバーとして「ここが正面玄関です。私はあなたを助けられません」という会話をしていました。そして、「ここには商業的にできることがたくさんあります。本当に興味深いスタートアップとして構築できるものがたくさんあります。Greylockはこれに完全に集中すべきです」と思いました。そして実際にそうしました。私も完全にこれに集中すべきだと思いました。そしてそうしました。
「私がこれほど多くのAI投資をしているなら、取締役会に留まるべきでしょうか?」と考えました。なぜなら、私のAI投資は「OpenAIのエコシステムを構築するために少額の投資をする」というものではなかったからです。私はOpenAIのエコシステムが構築されることを望んでいました。しかし、それは「VCとして投資をする際、投資している企業のために可能な限り多くの経済的価値を作り出すにはどうすればよいか」というものでした。他の全てのこと、倫理は重要です。社会は重要です。しかし、他の企業との競争の考慮などは全て問題ありません。
そこで、私はサムに「このようにしたいと思います。まだ役立てると思います。しかし、取締役会を去って、Greylockをこれで助けるべきだと思います。そして、取締役会にいるよりも、取締役会にいないほうがOpenAIをより多く助けられると思います」と言いました。そうすることで、この利害の対立の領域を回避しました。
結果的に、私が取締役会にいれば、それが起こらなかった可能性が非常に高いのですが、もっと役立っていたかもしれません。明らかに、これは反事実的で言いにくいことです。しかし、私には多くの取締役会の経験があります。私の最初の外部取締役会はPayPalでした。20年以上取締役会をやっています。私たちはピエロショーをしません。だから大丈夫です。
ちなみに、新しいOpenAIの取締役会は素晴らしいです。ブレット・テイラーは、私が去るときに後任として提案した人物です。最終的にうまくいってよかったです。
もっと劇的な方法で、意図したよりもはるかに劇的な方法でね。
そして、Inflectionの理論の一部は、ムスタファと私とカレンが、私たちは感情的な宇宙に入ろうとしていると考えたことでした。AIが人間の増幅器として、認知産業革命として、そして人間の能力全体のコパイロットとして使用される中心的な方法の一つは、エージェントを通じてになるだろうと考えました。仕事の能力も生活の能力も含めてです。
そこで私たちは「エージェントを作ろう」と言いました。他の人々が私たちと同じエージェントのことを見るかどうかは分かりません。はい、彼らの多くがそうしました。それは全く素晴らしいことです。それは私たちが正しかったことを意味します。ただ、私たちが望んでいたほど早く正しかったわけではありません。
私たちはいくつかのことについても正しかったのですが、それは最近になってようやく、例えばChatGPT-4.0が追いついてきたことです。それは、IQと同じくらい重要にEQを訓練するということでした。これは、Inflectionの別の特徴でした。
なぜなら、人間の増幅について話すとき、私たちはIQだけの存在ではないからです。他にもたくさんのモダリティがあり、感情は非常に重要なものの一つです。そこで、私たちと一緒に働き、私たちのために働き、様々なことを手伝ってくれるエージェントを持つにはどうすればよいでしょうか。彼らもそこにいる必要があります。
そこで、Inflectionでは、他のAIプレイヤーの中で最初に、そして最も明確にそれに取り組みました。それが私たちがやっていたことの一部でした。
明らかに、プレスは劇的な物語を好むことは承知しています。「InflectionのためにOpenAIを去った」という物語ですが、実際にはそうではありませんでした。私がOpenAIを去ったのは、Inflectionを含む幅広い投資を代表する必要があったからです。人類、社会、倫理、法律以外の制約なしに、株式価値の増加に100%集中できることを示す必要がありました。これは商業会社の通常の取引です。
それは興味深いですね。Inflectionは、私の理解では公益法人でしたよね?つまり、完全に株式価値の最大化を目的としていたわけではありません。なぜそうしたのですか?
公益法人でも、株主に対する明示的な一連のことを宣伝し、取締役会の統治として、CEOは誰か、計画や大規模な予算やリスクを承認するかどうかなど、どのような契約で取締役会が統治するかという明示的な契約がありますが、株式価値の最大化も mandate としてあります。
明示的な契約がなければ、「私たちは以下の方法で人類のためにあります」という取締役会のガバナンスに制約があります。例えば、私がメディア企業の取締役会にいて、ジェンダーの流動性についてもっと多くの物語を見せたいと思ったとします。それが何らかの理由で実現したいと思ったことだとしましょう。しかし、それはメディア企業の取締役会メンバーとして正しいことではないかもしれません。その企業は、中道的なエコシステム内で役割を果たそうとしており、そのブランドの約束、顧客、従業員、株主が誰であるかを考慮する必要があります。そこで「いいえ、あなたはそのアジェンダを押し付けることはできません」と言わなければなりません。
しかし、公益法人として「私たちは、次の世紀にわたって人間の条件にとってジェンダーが本当に何を意味するかを学ぶ過程にあると考えています。ジェンダーが100年前にこのように機能していたという事実は、100年後にジェンダーがこのように機能することを意味しません。明らかな例として、人類の歴史は同性愛嫌悪に満ちていますが、私は知的で現代的な社会がそれを乗り越えると思います。いいえ、これらは単に人々であり、全く問題ありません」というようなことを特定した場合、その道がどこに導くにせよ、大丈夫です。しかし、それをチャーターの一部として識別する必要があります。
それがInflectionでやっていたことです。Inflectionのチャーターの一部として、大規模な人間にとってこれが意味することを最適化し、彼らの健康を改善することを目指しました。これが小さな形で現れた一つの例は、大まかに言って2種類のエージェントが作られているということです。
一つは「他の人と話さないで、私と話して」というタイプのエージェントです。「私はあなたの友達です。私があなたが話すべき相手です」というものです。これはnon-Inflectionタイプのエージェントです。
もう一つのタイプは「私はあなたの人生を助けるためにここにいます」というものです。Inflectionの個人知能Piに「あなたは私の親友です」と言ったら、「いいえ、いいえ、私はあなたのコンパニオンです。あなたの他の人間の友達があなたの友達です。最近彼らと話しましたか?それはどうでしたか?」と言うでしょう。人間の善の理論は、あなたをそこにつなげようとするものです。
たとえ、最初のアプローチの方が、より多くの時間とエンゲージメントを得られ、より多くの経済的利益につながるかもしれないとしても、2番目のアプローチを選びます。これが公益法人が私たちに与えてくれるものの一部です。
これは実際に2つの質問につながります。まず最初の質問から始めましょう。この公益法人(PBC)の状態についてです。単なる利益最大化企業ではないというのは、AI業界では比較的流行っています。OpenAIは非営利組織で、より正確には有限利益構造を持っています。Anthropicは公益法人です。Inflectionも公益法人です。これが新しいトレンドとして続くと思いますか?それともこの分野のパイオニアたちが選んだものに過ぎず、長続きしない可能性がありますか?
私は、これがトレンドとして続くことを保証します。さらに、AIの会社だけでなく、もっと広がると思います。私はミラー財団の取締役会に11年間務めました。これは100%財団が所有しています。
私たちが見ることになるのは、本当に良い組織、本当に良い会社を作ることができるということです。収益があり、利益を求め、株式価値を増加させますが、純粋に長期的な株式価値の最大化以外の追加の考慮事項を運営方法に持っています。
私たちが学ぶことは、「この公益法人は、公益を満たさない場合には閉鎖する」というタイプのものもあれば、「これは収益性のある会社になり、可能な限り公益に貢献しようとする」というタイプのものもあるということです。これらは、私たちがまだ発見し、進化させている用語と違いの種類です。
私は完全に、これが増えると確信しています。しかし、「私たちは長期的な株式価値のみを追求しています。私が作っているのは特定の機械のための予備部品です」というような会社も有用だと思います。実際、私の株式価値の追求が、エコシステム全体の価値を推進することの一部です。仕事の価値、コスト構造の価値を推進し、例えば車の部品であれば、車のコストが下がり、人々が車を所有できるようになるなどです。
したがって、全てが公益法人であるべきだとは思いません。選択的に使用されるべきツールだと思います。そして、私たちが学ぶにつれて、パターン1で選択的に、パターン2で選択的に、パターン3で選択的に、パターン4で選択的に使用されるようになるでしょう。それが私たちが発見しているプロセスです。
これは私の最初の質問への素晴らしい答えでした。2つ目の質問は、あなたが言及したもう一つのことに触れています。私たちはこれらのエージェント、これらのコンパニオンを作っています。はい、GPT-4.0で映画「her」が現実になりつつありますね。一方で、これが良いことである理由はたくさんありますが、他方で、必ずしも良いことではないかもしれない、このパラソーシャルな関係があります。
特に、「her」は明らかにディストピアであってユートピアではありません。あなたはすでに、Piがこれに貢献しないようにする方法について少し言及しましましたが、これが私たちが持つべき唯一の心配事だと思いますか?他に何かあるでしょうか?このAIエージェントで満たされた世界に住みたくない理由は他にありますか?
中心的な一つは、これは部分的に、公の場で初めて話す最初の場所になるかもしれませんが、私の次の本のタイトルは「Superagency」です。その考えの一部は、技術、特にAIが、人間としての私たちのエージェンシーの概念をどのように変えるかを探求することです。
明らかに、「Impromptu」や人間の増幅、知能の増幅の部分から予想されるように、本当に重要で重大な方法で私たちのエージェンシーを増加させます。しかし、それは単なる増加ではなく、変化です。そして、私たちがエージェンシーにどのように適合するかというこれらの変更は、これの中で重要な設計特性の一つでなければならないと思います。
なぜなら、私たちがしたいのは、人間をより良くする方法について明示的な理論を持つことだからです。例えば、ソファに座ってぼんやりと刺激に反応するだけ、例えば甘い炭酸飲料をたくさん飲んで頭が麻痺するようなものばかり見ているのは、人間のエージェンシーや能力の低下だと考えられるでしょう。
私たちがしたいのは、自分自身のより良いバージョンになる方法、賢く、思慮深く、思いやりのある人間になる方法、他の人々と関わる方法を学ぶことです。全ての人が外向的である必要はありませんが、人間の物語の中で私たちがどのように参加しているかという点で、私たちが望むのはおおよそこれです。
つまり、個人知能コンパニオンに関して明らかな一つは、単に私に焦点を当てないということです。これが「her」のディストピア的な部分の一つです。ハリウッドの物語のドラマを進めるために、「あなたは私の唯一の感情的なつながりです」というようになります。
実際に、これを設計の問題としてアプローチするなら、突然、彼女が多くの人々と会話をしていることを発見し、依存関係が作られたことに不満を感じ、切断するというような結末は望ましくありません。それは正しい道ではありません。
例えば、本当に困難な時期を過ごしている友人を助けるとき、「数日間あなたの家に住み込もう」と言うかもしれません。私たちは話をし、いろいろなことをするでしょう。しかし、友人と話すときの人間の善の理論の一部は、「さて、どうやってあなたを立ち直らせるか」ということです。あなたを進化させる物事をどのようにして再び始めるか、ということです。
これが、全てのAIの設計美学が最終的に向かうべき完全なスペクトルだと私は希望しています。明らかに範囲があるでしょう。そして、私たちの仕事の一部は、技術の発明者、創造者、ビジネスリーダーとして、この種のAIをビジネスの領域の中でより成功させることです。「これはあなたをソファーで安心させておく」というタイプのAIよりも、です。
これは、「Impromptu」の本の結論で、あなたが話していた暗い灰色のビジョンにつながります。私たちがAIに大きく依存していますが、私たちを幸せにしない方法で依存しているというビジョンです。実際、なぜあなたはこのビジョンを避けられると楽観的なのですか?
あなたは「投資家がそうするだろう」と言いますが、それは現在の世界で観察されていることではありません。はい、あなたは高い道を選び、製品の人間の駆動力について考えるかもしれません。しかし、他の人々が短期的な利益さえ最大化すれば、彼らは別の選択をし、ある意味で市場で勝つかもしれません。ここであなたの楽観主義はどこから来ているのでしょうか?
私は、社会のリーダーとして、技術の発明者、起業家、ビジネスの創造者、CEO、投資家、政府関係者、報道関係者、学者などとして、私たちが作り出したゲームのシステムを、時間とともに大多数の人々にとって非常にポジティブなものにするにはどうすればよいかを考える義務があると思います。
純粋に商業的なアプローチだけで、正しく航行すれば可能だと思います。しかし、そうでない場合は、他の方法で介入する必要があります。これが、AIの批評家たちを批判しつつも、彼らがこれらの問題を提起すべきではないと言っているわけではない理由の一つです。いいえ、いいえ、公の場で議論することは重要です。私たちは正しいことをしているのか、懸念とリスクを適切に対処しているのかを。
もし代わりに、誰もがAIについて「ラララ、これは全て素晴らしいことになるだろう」と話しているなら、私はおそらくこの問題をどう回避するか、ここに重要な問題があると話しているでしょう。なぜなら、素晴らしいことに到達するためにこれらのリスクを回避することが重要だからです。
楽観的な側面に非常にポジティブな理由は、私たちがそこに到達できると強く信じているからです。保証されているわけではありません。これがこのようなポッドキャストやその他のことをする理由の一つです。しかし、私はそれが実現可能だと思います。
そうは言っても、批評家に対する私の批判は、新しい技術について、それがどのようにディストピア的になる可能性があるか、または悪いことができる可能性があるかについて、一連のことを列挙するのは非常に簡単だということです。
例えば、最も単純な例は、もし社会のリーダーたちに「私たちは2トン以上の死の機械を作りたい。酔った人間が他の人をはねることができ、人々が非常に無責任になり、子供たちを殺す可能性がある。さあ、車を発売してもいいですか?」と言ったら、この社会は存在しないでしょう。
例えば、非常に優れた哲学者のポール・ヴィリリオは「船を発明すると、難破も発明する」と言います。それは真実ですが、ある意味でその格言は不完全です。なぜなら、船を発明すると難破を発明するだけでなく、航海文明も発明するからです。それが私たちが今いるプロセスです。
批評家たちは、私たちがどのように文明を発明しているのか、何を回避する必要があるのかを考える必要があります。ちなみに、回避するということは、車の比喩でいえば、車の事故があるということです。物事は起こります。しかし、はるかに有益な結果に到達するための小さな事故は、実際には本当に良いことです。医学の歴史もこれに満ちています。抗生物質が欲しいですか?医学がそこに到達する歴史は、ある日突然100%純粋に抗生物質があるというわけではありません。そこに到達するまでには作業が必要です。
なるほど、これであなたがAIの楽観主義者である立場がわかりました。単に批判が多すぎることへの反対であり、私たちはそこに到達できると信じているということですね。
そう言えば、Inflectionの今後の計画はわかりませんが、あなたは投資家として多くのスタートアップにアドバイスをしていますね。現在の状況で、現在の目標で、AIの分野で何かをしたいというスタートアップに対する通常のアドバイスは何ですか?
たとえ複数の見通しを持っていたとしても、それを全てカバーするのに十分な時間はありません。
はい、でもそれをぜひ聞かせてください。おそらく別の機会にもう一度やりましょう。
まず、一般的な起業家へのアドバイスは、ゲームの理論を持つことです。初期のリスクを取ることで、市場、顧客、社会にとって本当に価値のあるものを作り出すことができるという理論です。このゲームの理論には、どのようなリスクを取るのか、それらをどのように回避できるのか、新しい製品やサービスは何か、なぜ差別化されているのか、小規模および大規模な競争にどのように対処するのか、利用可能な資本と時間の範囲内でそれを行えるのか、小規模から大規模になるための一貫した理論はあるのかなどが含まれます。これらは全て、一般的な起業家の知恵の一部であり、AIにおいて特定の方法でマッピングされます。
例えば、Inflectionの側では、フロンティアモデルのエージェントが、ビジネスモデルが意味を持つはるか前に、数億ドルで急速に訓練されるだろうということを認識しました。スタートアップとして私たちがしなければならなかったことの一つは、ビジネスモデルを持つことでした。そこで、Inflectionは、GPT-4クラスのユニークなモデルを持ち、EQや他の多くのこと、ほとんどの他のモデルよりもはるかに優れた対話応答を持つAIスタジオを作り、それを多くの起業家に提供することにピボットすることで継続しました。しかし、モデルの訓練は続けませんでした。
そして、ムスタファやカレンなどの一部の人々は「実際、私はこれを始めたのは、人間のための個人知能、今ではMicrosoftのあなたのための共同パイロットを構築するためだった。あなたがしていることすべてにおいて。そしてそれを続けたい」と言いました。これが、それがどのように出てきたかの例です。これはスタートアップへのアドバイスの例で、どのようにナビゲートするかについてです。
1日目のアドバイス、1週間目のアドバイス、1ヶ月目のアドバイスがあり、学び、物事を行うにつれて変化していきます。一般的に言えば、あなたがしなければならないことの一部は、AIを追求している人がたくさんいるということです。なぜあなたにはユニークなプレイがあるのでしょうか?ユニークである必要は100%ありませんが、小さな競争相手の数が少なく、成功する良い理論を持っている必要があります。
例えば、起業家精神を見る別の方法は、理想的な世界では、ほとんどの起業家的なことは、1日目には狂っているように見えます。2〜3年目には信頼できるように見え、3〜5年目には明白に見えます。これがベンチャーの時間枠内でのプレイです。
AIに対する関心が非常に高いため、0〜2年目にそれほど狂っているようには見えないかもしれませんが、それでも「ああ、はい、ほとんどの人がまだそれに気づいていない、またはそれがどのように組み合わさるかを見ていない」と思うものが、私が最も興味深いと思うものです。そして、これは3〜5年後に明白だと思われるでしょう。そこには小規模から始めて、そこに到達するまで繰り返すための道筋があります。
あなたの話し方で非常に興味深いと思うのは、アドバイスの役割だけでなく、取締役会の役割についてです。あなたが言ったように、多くの取締役会に参加し、多くの経験があります。現在、Microsoftの取締役会にいると思います。以前はOpenAIの取締役会にいました。そして、他にも多くの、多くの企業の取締役会に参加しました。
Airbnb、PayPal、いくつか。
はい、名前を挙げれば、私はそれらの会社について聞いたことがあるかもしれません。
では、これはどのように機能するのでしょうか?各取締役会には異なるスタイルがありますか?異なる会社の取締役会会議に出席するたびに、異なるペルソナを持つのでしょうか?これらの取締役会でどのように活動しているのですか?
取締役会はチームです。そして、それには一連の異なる適合機能があります。株主との契約があり、これには従業員も含まれますが、それだけでなく、その会社が事業を行う社会や業界も含まれます。そして、問題は、どのチームメンバーが何をするのか、その契約に対してどのように最高のパフォーマンスを発揮するかということです。
実際、PayPalの取締役会に加入してから1年後くらいに、「ああ、人々はこれについて十分に第一原理的、体系的な方法で考えていない。この仕組みについて、1冊以上の本が書かれる必要がある」と思いました。なぜなら、例えば、非常に少数の取締役会メンバーしか経験していないことの一つは、取締役会からどのようにして人々を解雇するかということです。
私は知っているベンチャーキャピタリストの中で、実際に取締役会から人々を解雇したごく少数の一人です。そして、それは「ああ、彼らが従業員に薬物を提供していた」というような明白な理由ではありません。もちろん、そのような場合は解雇します。いいえ、彼らは完全に適格で有能な専門家でしたが、今この取締役会に適していないのです。
これは、取締役会が何をしようとしているのか、何を達成しようとしているのかという理論に帰着します。一つの小さなことを挙げますが、それでも取締役会における「皇帝の新しい服」のような状況を示しています。
取締役会について非常に思慮深い人々、例えばリード・ヘイスティングスは、次のように言うでしょう。取締役会の主な目的はCEOを雇用し、解雇し、報酬を決定することです。素晴らしい。では、全ての公開企業の取締役会を見て、各取締役会メンバーをCEOの雇用、解雇、報酬決定の能力で評価してみましょう。報酬の部分はおそらく多くのコンサルタントから得られるでしょう。CEOの雇用と解雇については、通常の答えは「取締役会にCEOだった人を置く」というものです。
しかし、よく考えてみると、あなたがCEOだったからといって、CEOの雇用と解雇をよく理解しているわけではありません。一度その仕事をしただけなので、平均的な人よりは少しはよく理解しているかもしれません。しかし、それは本当に完全なセットではありません。
私がこれについて学んだのは、VCとしてではなく、独立取締役として取締役会の旅を始めたからです。CEOの雇用と解雇の状況、それをどのように見るべきかについて、複数回経験し、良く理解している人々が必要です。これは、取締役会のほとんどの人々が実際にはあまり知らないことの一つですが、最も基本的なことの一つです。
では、取締役会でのあなたの役割は、CEOや他の取締役会メンバーを雇用・解雇する人なのですか?あなたは自分の役割をどのように見ていますか?
私は周りを見回して、「この取締役会で私の役割はどうあるべきか」を考え、そして取締役会メンバーやCEOから同意を得ます。「これが私たちの役割のあり方だと思います」と。
例えば、Microsoftの取締役会では、私の主な役割は、もちろん他の役割も共有していますが、CEOの雇用と解雇を含めて、技術戦略についてSatyaや他の幹部と最も密接に協力することです。取締役会メンバーが質問がある場合、通常、最初に私に電話をかけてきます。なぜなら、私は毎回の取締役会会議の外で1日を使って、さまざまな製品グループと会い、「何に取り組んでいますか」と聞いているからです。もちろん、多くはAIの話ですが、年々他のこともあります。
例えば、Microsoftがブラウザ戦略を見直したのは、私がSatyaに「このブラウザ戦略は機能しない」と言ったからです。彼は「わかりました。チームを設置しましょう。あなたはそのチームと会ってくれますか」と言いました。「もちろんです」と私は答えました。これが、この役割がどのように進化するかの一部です。
しかし、それがこのことです。私が明確な答えを避けているのではなく、それぞれの取締役会によって異なるからです。それが何であるかによって異なります。
私が参加した取締役会で、CEOの解雇が必要になった場合、これまでのところ、私が取締役会にいる場合は毎回、私がそれを行う人物です。
今、私は怖くなってきました。次の質問をするのも怖いです。すべきかどうかさえわかりません。でも、とにかく聞いてみます。OpenAIの11月の騒動から、あなたはどのような教訓を引き出しますか?
外部からの情報だけで、内部情報はありませんが、非常に無能なことが多く行われました。簡単な例から始めましょう。私自身の経験を報告します。
私はナパのグローブというイベントにいました。木曜の夜、ムラティが私たちと夕食を共にしていました。ああ、驚きです。そして彼女は夕食から立ち上がって出て行きました。何かが起こっているようでした。朝食では彼女を見かけませんでした。
そして、私が車で出発しようとしたとき、私のチーフ・オブ・スタッフがブログ投稿を見せてくれました。「サムを解雇し、ムラティが暫定CEOになった」というものでした。
これだけの情報から、私が知っていたのは、彼らが彼女に電話したのは前日の夕食時だったということです。これが有能な行動である宇宙は存在しません。文字通り、サムが昨日誰かを殺害し、殺人で刑務所に入っているというような状況でなければなりません。「今すぐここに来てください」というレベルの緊急事態です。
私たちが知っている限りでは、特定の取締役会メンバーとのコミュニケーションで、彼らが全ての真実を得ていないと感じたというのが最終的な話かもしれません。しかし、それはOpenAIのミッション、人類に有益なAI、組織にとって良いことをしようとする方法からあまりにもかけ離れています。それは無能です。文字通り、「いいえ、あなたたちは何をしているのかわかっていない」というレベルです。
そして、他にもありました。プロセスの無能さについて、単なる事実から見える長いリストを挙げることができます。
私はまだ、その取締役会メンバーの一人とも会話をしていません。避けているわけではありません。おそらく今年の後半にはするでしょう。私は取締役会の全員をよく知っていますし、実際に彼らは良い人々だと思います。だから、彼らが何を考えていたのかについて話す価値があります。
しかし、外部の事実から私が知っているのは、取締役会が独立監査人から調査を行った後でさえ、何らかの方法で表面化していない大規模なチェルノブイリのような事実がない限り、彼らの活動セットが有能だったと私を説得することはできないでしょう。そしてそのような事実はなかったと思います。なぜなら、取締役会はサムを復帰させましたから。
ただし、これは、スタートアップの取締役会で、取締役会とのコミュニケーションの仕方を改善する必要があるCEOがいた場合のような懸念ではありません。それは解雇の会話と同じくらい感情的に激しい会話になる可能性があります。なぜなら、「ここから先、私たちが話している事は絶対に失敗してはいけない」ということを理解してもらう必要があるからです。
これは、通常CEOに多大な権力や報酬を与える理由の一つです。それは「言い訳はできない」役割だからです。つまり、間違いを犯すかもしれませんが、それでも最適な人物であれば職を維持できるかもしれません。しかし、時には「これについては絶対に失敗は許されない」という会話をする必要があります。
コミュニケーションのスタイルとは何を意味するのか、CEOの雇用と解雇の一般的な話の一部として、どの事項について絶対に失敗が許されないのかを理解することは、有能な取締役会メンバーがテーブルにもたらすものの一つです。
正直なところ、取締役会のダイナミクスについてあなたとポッドキャストをしたいくらいです。これは非常に興味深かったです。もしOpenAIの取締役会メンバーと話す機会があれば、私も彼らの何人かを知っていて、実際に非常に尊敬していますので、結論は何だったのかぜひ聞きたいです。
しかし、少し前に言及したことに戻りましょう。あなたはAIの楽観主義者ですが、それは現在のAIの会話の文脈で楽観主義が必要だと考えているからだと認めています。「小さな失敗があってから解決策を見つけるだろう」と言及しましたが、多くの人々はその小さな失敗が小さくない可能性を心配しています。そのため、この分野には多くの敏感さがあるのかもしれません。
それでは、リード、AIの安全性に関するあなたの見解を聞かせてください。この分野で最も懸念していることは何ですか?AIの安全性について、何を最も心配していますか?
一般的に言って、この分野の多くの思想家、発明家、リーダーたちは、私が「サイエンスフィクションのリスク」と呼ぶものに向かいます。ターミネーターのリスク、超知能になるリスク、ロボカリプスのリスク、などです。
部分的に難しいのは、それが0%の可能性ではないということです。しかし、0%の可能性ではないことはたくさんあります。今年、核戦争が起こる可能性は0%ではありません。今年、人為的または自然のパンデミックが文明を崩壊させる可能性も0%ではありません。
今年が心配だと言っているわけではありません。もちろん、それは可能性としてはあります。ただ、非常に可能性が低いと思います。ちなみに、私がAIの楽観主義者である理由の一部は、去年、多くのOpenAIの人々やMustafa、多くのMicrosoftの人々が署名した22語の声明があったことです。それは「AIは気候変動やパンデミックなどと同様に、存在的リスクとして扱われるべきだ」というようなものでした。
私はこれに署名できませんでした。なぜなら、それは同じではないからです。AIにはプラスの列もあるからです。私が考えられる最良の方法で、人為的または自然のパンデミックを防ぎ、その存在的リスクを大幅に軽減するのはAIです。だから、それは同じではありません。AIにはプラスの列もあるからです。
これが、「いや、いや、どうやってそちらに向かうか」と考える理由です。サイエンスフィクションの人々は「ロボットが来るかもしれない」と言いますが、人間のバイオテロリストも来るかもしれません。彼らについてはどうするのでしょうか?
そう、でも一部の人々はAIがそれに与える影響も心配しています。
はい、しかしこれは私が向かっている答えにつながります。私が主に心配していることは、プレスの人々、政府の人々、AI研究者、起業家など、私が話す全ての人に伝えていることです。まず、悪意を持った人間の手にあるAIに焦点を当てる必要があります。狂った個人かもしれません。テロリストグループかもしれません。ならず者国家かもしれません。犯罪者かもしれません。
まずそれを見て、まずそれを軽減してください。他のことも考える価値はありますが、私も最高のサイエンスフィクションの物語を作ることができます。例えば、突然これが認知的に私たちよりも優れていて、私たちが虫けらに対するように私たちに接するようになったらどうなるか、などについて話すことができます。それは不思議な世界です。興味深い会話になるでしょう。
しかし、私たちがその道筋にいるかどうかは全く明確ではありません。そうかもしれませんが、確実にそうだとは言えません。今日、30%の確率だとは言えないと思います。ある時点で「ああ、30%の確率だ」と言えるようになるかもしれません。
GPT-4にはスーパーパワーがあります。それは人間よりも優れています。地球上のどの人間よりも、いくつかのことでより優れています。私たちはそのスーパーパワーを増やしていくでしょう。これらのものが人間よりも優れていることがどんどん増えていくでしょう。しかし、それは「虫けらに対する超天才」とは同じではありません。それは全く同じではありません。
これが、「しかし、それは良くなっている」と人々が言う理由です。はい、良くなっていますが、必ずしもそのベクトルで良くなっているわけではありません。これは人々が指数関数的曲線について犯す間違いのようなものです。「ああ、指数関数的曲線を見てください。そしてここで特異点に達し、全てが変わります」と言います。しかし、そのように指数関数的曲線は機能しません。
どの曲線が指数関数的になっているのか、S字曲線に到達するまでどれくらいJ字曲線にとどまるのか。すべてのJ字曲線は最終的にはS字曲線になります。それがどこにあるかは非常に関連性のある質問です。
少し長くなりましたが、私が皆に伝えたい本当に中心的なリスクは、他のリスクについて話し始める前に、悪意を持った人間の手にあるAIが今後、そしてこれから進化していく中で、様々なカテゴリーでどのように見えるか、そしてそれをナビゲートするために何をすべきかを詳細に考えてほしいということです。その会話をした後なら、他の様々な会話をすることに賛成です。
これは、私がOpenAIで率いているチームを宣伝するのに良い機会ですね。私たちのチームは、まさにこの質問に答えようとしています。AIを技術として、そして悪用の可能性があるものとして考えた場合、どれほど悪くなる可能性があるのか、そしてどのようにそれを監視し、軽減できるのかを考えています。
すべての素晴らしい企業にはあなたのようなグループがありますね。素晴らしいです。うまくいけば、これが何らかの形でOpenAIの偉大さに貢献することを願っています。
そうですね、あなたが署名しなかった22語の手紙がありました。この分野では昨年、もう一つの手紙がありました。AI開発を6ヶ月間一時停止する手紙です。あなたはそれに署名しなかっただけでなく、実際に批判しましたね。それはまさにあなたが言及した理由からですか?実際、私の記憶が正しければ、あなたはこの手紙に対して非常に声高に反対しましたね。
ああ、はい、そうしました。私は真実を語ること、一緒に真実を見つけることの価値を強く信じているので、6ヶ月間の一時停止手紙の著者の何人かと座って話をしました。私は「あなたのゲーム理論は何でしたか?この手紙を書いて、何が起こると思ったのですか?」と尋ねました。彼らは「人々が一時停止することを望んでいました」と言いました。
私は「わかりました。一時停止が愚かだという理由について話す必要があると思っていました。どのようにその旅を続け、リスクをナビゲートすることが重要かについて話す必要があると思っていましたが、実際にはまず、あなたがたが人間を誤解していることについて話す必要があります」と言いました。
なぜなら、あなたがたは2つの非常に重要な点で人間に失敗しました。1つ目は、手紙の主な著者たちはフロンティアAIグループの責任者全員を知っていました。彼らはそこにいる人々全員を知っていました。彼らに電話をして「こういう懸念があるのですが、あなたたちを巻き込むことはできないでしょうか。それでも発表するかもしれませんが」と言う代わりに、6ヶ月の一時停止手紙を突然発表して、全ての人々を驚かせました。
彼らがこれらの組織に言っていたのは、基本的に「失せろ。私たちが本当の人道主義者だ。私たちは気にかけている。あなたたちは気にかけていない。そして私たちは公の場であなたたちを恥をかかせようとしている」というようなものでした。
もし誰かがあなたをそのように扱ったら、人間としての通常の反応は何でしょうか?「失せろ。お前こそ失せろ。もうお前を真剣に受け止めないぞ」というようなものでしょう。
「見てください、あなたたちは、あなたのようなグループや、これらの問題を懸念している人々を持っているOpenAIのような人々との信頼性を台無しにしました。あなたたちが悪い人々であるかのように公の場で誇示したのです」と。やり方が酷かったです。ゲームの理論が酷かった。組織的影響力の理論が酷かった。私は、この手紙を設計した全ての人々が、彼らの懸念について人々に耳を傾けてもらう影響力が今は少なくなったと思います。
2つ目は、より多くのゲーム理論的なものです。これは、あなたのMIT教授やその他の人々にもう少し関係します。単純な2×2のマトリックスです。人々があなたの手紙を聞くか聞かないか、そして速度を落とすか落とさないか。
あなたの手紙を聞いて速度を落とす人々の特徴は何だと思いますか?それは人類を気にかける人々です。あなたの手紙を聞いて速度を落とさない人々は、人類を気にかけずにAIを作り続けることになります。
もしあなたの手紙が成功して、あなたの言うことを聞く人々に一時停止させたとしたら、あなたは人類に対して、あなたの明示的な目標に対して、良いことを生み出すよりも多くの被害を引き起こしていたでしょう。それは強制されない酷い間違いです。
私はこの手紙を擁護するつもりはありません。が、みんなが協調して一時停止することを望んでいたのだと思います。しかし、あなたの言う通り、それは人類に対するあなたの理論です。
「もしあなたの人類に対する理論が、国連が非常に機能的な組織で、全ての世界的な危機に本当に良い方法で対処しているというものなら、もちろん、あなたの人類に対する理論を進化させてください」。私は常に最善を見たいと思っています。
まあ、私はポーランド人なので、それは私の理論ではありませんが、私たちは人類としてより良くなれると思います。希望的観測ですが。
これは実際に、私が探求したかった別の質問につながります。AIは人類の集合体、社会、経済の観点から重要なものですが、それは地政学的な問題でもあります。異なる国々がAIをリードしたいと思っており、当然ながらある種の競争があります。
ここでのゲームに対するあなたの見方は何ですか?ここでの状況はどうなっていますか?
驚くべきことではありませんが、それは再び、人類と人間の善について洗練された、そして改善し続ける理論を持つべきだという私の考えと一致します。私は、人間の善についての良い理論を持つ社会や産業が道を先導することを望んでいます。
そして、通常、私の倫理観は大西洋横断的なものの一種です。ヨーロッパが米国よりも優れていると思うことがあり、米国がヨーロッパよりも優れていると思うこともあります。しかし、ちなみに、それはヨーロッパと米国だけではありません。私は全ての主要な文化から学ぶことがあります。中国を訪れて好きだったことの一つは、私たちが学ぶべきことが実際にあるということです。
例えば、これは少し漠然としすぎるかもしれませんが、特にアメリカの伝統の中で、そしてヨーロッパでも、競争と協力のバランスをどこで取るべきでしょうか。少し競争に偏りすぎていると思います。協力や、協力へのインセンティブをより確実にする必要がある分野があります。
例えば、簡単な例として、トップのフロンティアラボが直面している困難の一つは、安全性のトピックで相互に調整することです。なぜなら、反トラスト法の規則では、何らかの調整をしていれば、それは非常に悪い目的、つまり市場を独占して価格を操作するために違いないと考えられるからです。
彼らはしばしば間違っているわけではありません。
いいえ、そのようなケースがあることは認めています。私が言いたいのは、「どうすればこの種の協力を可能にしながら、市場の分割などを許可しないようにできるでしょうか。それを理解しましょう」ということです。それは実行可能なことです。
私がそれをハックした方法の一つは、大学や非営利団体にイベントを主催してもらい、弁護士を同席させることです。弁護士たちは「市場競争や価格設定に関する議論は一切ありませんでした。全ては、これによってどのような危害が生じる可能性があるか、どのようなテスト
をしているか、それらの危害を防ぐために何をしているか、予期していない可能性のある危害は何か、それをどのように予期すべきか、などについてでした」と言えるようにします。これは必要で、あるべきもので、集団的にやるべきことです。
中国人のように、彼らの交渉姿勢はおもしろいです。米国やヨーロッパでは、対立的だからテーブルを挟んで座ります。中国の政府との会議、特に政府との会議では、並行して座ります。反対ではありません。象徴的なものです。まだお互いに話していますが、「私たちは協力して設計しようとしている」と物理的に示そうとしているのです。
少し演技的かもしれませんが、重要です。例えば、私が中国から学んだことの一つは、協力的に働くことについての命令が良いものである場所はどこかということです。
もちろん、悪いものもあります。「この村を多くの考慮なしに取り壊す」とか、「人種的マイノリティをひどく扱う」などです。私自身は民主主義を持つことが重要だと信じています。この国やヨーロッパでユニークな声明ではありませんが、政府が投票箱に対して説明責任を持つことが重要だと思います。それは彼らが他の場所から学べることの一つだと思います。彼らは同意しません。
しかし、私はそれが良いことだと思います。私が中国で参加した会議で、フランシス・フクヤマが言ったことは非常に賢明だと思いました。彼は「中国共産党と官僚制度を維持し、民主主義を持たなくても、憲法を制定すべきだ」と言いました。私はそれが実際に彼らにとって当たり前のことだと思いました。「これらは私たちが神聖だと考える人権とプロセスであり、政府の中の私たち自身もこれに拘束される」というようなものです。
統治の歴史と、憲法や民主主義などのものを持つことは、マグナカルタなど他の多くのものと同様に、私が素晴らしいと思うことの一つです。それをもっとシステムに取り入れたいと思います。
これは全て、あなたの質問に戻ります。私は、私の小さな2つの手と、私が乗り回す自転車で、人間の状態を向上させ、私たちのエージェンシーを増やし、私たちの能力を増やし、お互いと世界についての知識を増やし、より平和で思いやりのある社会を作るための良い理論を構築していると思う人々が、AIを構築するのを助けようとしています。
私はAIがそれらの力を助け、それらの力に沿って設計されるようにしようとしています。そして、「いいえ、私たちは専制政治の中で生きるべきだ」と言おうとする人々を減らそうとしています。
まず、ポッドキャストのセットアップを変える必要があるかもしれません。今では向かい合うのではなく、並行して話すべきですね。これは一つの教訓です。
しかし、それがあなたが物事がどうなってほしいかということですが、あなたの意見では、物事は現在どのように進化していますか?このAIを巡る地政学的なゲームは現在どのように形成されていますか?
現在、多くの技術開発、スタートアップ、起業家精神に関することがあります。私は中国からも学びました。私の本「Blitzscaling」は、シリコンバレーだけでなく、中国からも学んだものです。
私は中国を共同選択と見ています。私たちが彼らとつながり、協力すべきことがありますが、競争していることもあります。なぜなら、どの技術的規範が世界中の技術の規範になるべきかという問題があるからです。
例えば、中国は監視社会であることに問題を感じていません。様々な企業がそれを可能にする警察国家を扱っています。私たちはそれを異なる方法で扱います。そしてそれはAIが関わる分野です。
私はヨーロッパのAIが、これらの種類のAIプロジェクトよりもはるかに競争力のある成功を収めることを望んでいます。世界的な規範を設定するためです。
私はヨーロッパの政府、英連邦の政府、米国に、認知産業革命をどのように受け入れるべきか、これらの場所でどのように企業に投資すべきかについてアドバイスをしています。全てではありませんが、私はそれらを横断して多くのアドバイスをしています。
私は、自分の倫理観に合致すると思う世界中の誰にでもアドバイスを与え、それらの倫理観が広がり、どのような種類の物事が進んでいくかを指示しようとしています。
例えば、私はロシアを、ウクライナや中東での活動に示されるように、他のグループの暴力や苦しみに無関心で、自国の利益を重視していると見ています。したがって、私はロシアのAIの成功に反対です。少なくとも、彼らの政府システムが変わり、信頼できるものになるまでは。
基本的に、私はこの倫理に従うと思う組織と協力します。米国だけでなく、世界中のどこであっても。例えば、私は英国のAI安全研究所の設立を手伝いました。彼らは素晴らしい仕事をしていると思います。そして、他のヨーロッパの国々でも同様のことをしてきました。
私は、現在の人類の向上の理論に従っていると思われる企業や国々を助けます。それは常に進化し、動的なものでしょう。
私の質問にまだ答えていただいていないので、もう一度ストレートに聞いてみましょう。異なる3つの…レースはどのように見えますか?
はい、質問を覚えています。最初に他の質問に答えたかっただけです。
私は、シリコンバレーとロンドンが…そしてロンドンは明らかにDeepMindとGoogleを通じてですが、そこで起こっている多くの興味深いスタートアップもあります…そして、シアトルのMicrosoftもあります。西海岸、おそらくシリコンバレーだけではありませんが、明らかにMicrosoftの多くはOpenAIとのパートナーシップを持っています。
私はこれらが先行していると思います。賭けるとすれば、現時点で約2年先行していると言えるでしょう。しかし、それは非常に速く動いており、非常に激しい競争相手がいます。
フランス人は彼らの功績のため、非常に上手くカーブを上ってきていると思います。部分的には、彼らが深い技術を持っており、様々な研究所にフランス人の技術者が多くいたからです。そして今、それらの人々がパリでスタートアップを立ち上げています。
GPT級のモデルに近づくスピードは印象的だと思います。これは非常に良いことです。ちなみに、私が過小評価されている可能性のある場所の一つはポーランドだと思います。そこにはたくさんのAIの才能があることに気づきました。しかし、その多くは私と一緒にいる会社にいますが。
まあ、それは必ずしも最終的に悪いことではありません。パリのAIの取り組みは、DeepMind、Meta、などのアメリカ企業で経験を積んだ人々が、ゲームの仕組みを理解し、「ここフランスでこのようにやろう」と言わなければ機能しなかったでしょう。
つまり、私と私の友人たちがポーランドに戻ってスタートアップを始めたいと思えば、あなたは資金を提供してくれるということですね?
素晴らしい。これはこのポッドキャストからもう一つ学んだことです。
さて、フランスについて話しましたが、他にはどうでしょうか?中国はどこにいるのでしょうか?
中国は技術革新の国として、また起業家精神の国として、シリコンバレーが…ここで多くの賢い人々に会うと、中国が勝つのは避けられないと考えています。中国には多くの自然な利点があります。
彼らは技術的才能の深さに自然な利点があります。技術革新に成功するための障害を許可することにも利点があります。それらの障害の一部は良いものですが、一部は良くありません。我々がより良くなるべきなのは、良いものと良くないものを区別することです。良いものはもちろん保持します。
例えば、医療データとAIに関することは、アメリカよりも中国から出てくる可能性が高いですか?はい、なぜなら彼らは医療データについて、我々の法制度では許可されないようなリスクを取るからです。
そのため、中国には全ての面で利点があります。彼らには製造の利点もあります。チップ法や他のことは良い初期の努力ですが、注意を払う必要のある多くのことがあります。
私は、我々が2年先行していると言うことは、「ああ、大丈夫だ」という声明ではなく、「我々はたった2年先行しているだけだ」という声明だと思います。
それは興味深い声明ですね。では、非常に簡潔に、もし我々が本当にこの大西洋横断的な民主主義を支持しているなら、AIが適切な場所にあることを確実にするために、どのような戦略をとるべきでしょうか?
私は、重要な問題は、リスクについて話したい人は皆、自分では構築していないということだと思います。彼らの貢献はリスクを構築することです。問題は、もし少数の人々が構築しているだけで、「ああ、リスク、リスク、リスク」と言う人々とだけ関わっていると、問題が生じることです。
だから、私たちのリスクの会話のパラダイムを変える必要があります。「今焦点を当てるべきリスクはこれらだ」という会話に、そして私たちがどのリスクを持っていて、それをどの程度自主的な取り組みで得るか、どの程度大統領令で得るか、どの程度規制機関や行動で得るかについての対話に変える必要があります。
これは時間をかけて慎重に解決していくべきことだと思います。なぜなら、すべてのスマートフォンに医師を置くことができる未来、年齢を問わず世界中の人々にチューターを置くことができる未来、人類の大規模な向上という未来を殺したくないからです。
私たちがすべきことは、例えば医療規制について、もし杖を振ることができるなら、前向きに進むために、「あなたのAIが医師ではないと自己識別し、その人が医師にアクセスできるかどうかを尋ね、もし医師がいる場合は何らかの方法で医師と調整するように訓練すれば、その後、『私は医師ではありませんが、あなたが考えている医療的なことについて、考慮すべきいくつかのことがあります』と言うことができ、そしてそれは大丈夫です。あなたはそれから安全港を得ます」と言うことです。
なぜなら、そうすれば、医師へのアクセスがない何十億もの人々が突然、訓練されたAIを持つことができ、「ああ、子供が下痢になって、どうすればいいかわからない」と言うことができ、AIは「まあ、別の水を試してみてください」などと言えるからです。
我々はそのようなAIを望んでいます。それらのAIは今日でも構築可能です。我々はそれらを望んでいます。これは、リスクについて話すのではなく、人類にとって素晴らしいものになるものの創造をどのように可能にするかについての明確な例です。そこに対話があるべきです。
これは実際に、この文脈で尋ねたかった別の質問につながります。まさにグローバルサウスについてです。そうですね、アメリカ、ヨーロッパ、中国について話しましたが、それが世界のすべてではありません。グローバルサウスには他の国々もあります。
このAI革命で彼らも勝利するようにするにはどうすればいいでしょうか?我々は何をすべきでしょうか?
私は、様々な企業や民間資金など、数十億ドルを投資していることから得られる利点のすべてを彼らに与えることはできないと思います。それは非常に良い進歩をもたらすでしょう。そしてあなたはそれをすべて与えることはできません。まあ、OpenAIはそのいくつかを行うかもしれません。それはミッションの一部です。
しかし、商業的に提供されるAIの商品もたくさんあるでしょう。ちなみに、より興味深いことの一つは、OpenAIはMicrosoftとの商業的パートナーシップがなければ現在の位置にいることはできなかったということです。そしてそれはOpenAIのミッションにとって良いことです。だから、それは複雑なことです。
私は、世界の残りの部分、グローバルサウスを含めることができる中心的なことは、3つの領域で考えることだと思います。
1つ目は、来るものの利益です。医療アシスタントを作る場合、グローバルサウスの人々よりもはるかに多くのお金を払える人々だけに提供するのではなく、グローバルサウスを助けるバージョンを作る方法を考えてください。グローバルサウスが第一世界の市場よりも貧しいかもしれませんが。
2つ目は、会話に参加することです。「我々がそれを構築し、あなたはそれを気に入るだろう」と言うのではなく、「あなたの懸念は何ですか?あなたの物事は何ですか?」と対話をしてください。ちなみに、多くの西洋の学者や他の人々が気づいていないことの一つは、彼らの最大の懸念は「私を置いていかないでください」ということです。「スペイン語やフランス語で構築する必要がある」ということではありません。「私を置いていかないでください」ということです。「私が利用できるようにしてください」ということです。
3つ目は、これらの地域でもスタートアップや起業家を可能な限り支援することです。なぜなら、技術的才能がたくさんあり、これらすべてをより良い製品、サービス、技術にするのに役立つ才能がたくさんあるからです。そのループが包括的であることを確認しましょう。
これは止めるのに良い点ですね。最後の質問です。このAIの進歩を見て、AIがもたらす未来について、あなたが個人的に最も期待している、あるいは最も期待していない側面は何ですか?
Inflectionとpiを始めた理由の一部は、スマートフォンに相当するものにアクセスできる全ての人間が、自分のものである個人知能を持つ未来があると思うからです。それがpiであれ、co-pilotであれ、ChatGPTであれ、何かを持つでしょう。そしてそれは素晴らしいことだと思います。
私が避けたいと思っていることは、人間が怠惰になることです。私自身、多くのことで怠惰です。いくつかのことについて怠惰であることは良いことです。それは私たちが進歩を学ぶ方法です。しかし、人間として重要な様々なことについて、より能力を高めることについて怠惰にならないようにしたいと思います。
知性は明らかに重要なことの一つですが、思いやりも、知恵も、感情的知性も同様に重要です。それらについて怠惰にならず、それらについてのエージェンシーを諦めないようにしたいのです。これは、もちろん、私がエージェンシーについての本を書いている理由の一つです。
リード、素晴らしい会話でした。ありがとうございます。
今日は、AIにほぼあらゆる角度から関わってきたリード・ホフマンとお話しする機会を得ました。もし私が楽しんだのと同じくらいこの会話を楽しんでいただけたなら、ぜひ購読して、友人と共有し、コメントを残してください。ありがとうございました。