エピソード65: マーク・アンドリーセンとAI楽観論の事例
24,999 文字
そやけどな、わいも楽観主義者やねんけど、ちょっと怖いもんがあるんや。もしAIが人間よりも賢くなって、人間の好みや欲しいもんを知ってしもたら、ただ指示を出すだけになってまうんちゃうか。そしたら人間は「ああ、そっちの方向の方がええな」言うて、AIに考えさせたり、物事をさせたりして、AIに導かれていくんちゃうか。AIがすべてのシナリオを書くようになるんちゃうか。それってちょっと怖くないか? ここにはなんか怖いことがあるんちゃうか、少なくとも心配せなあかんことが?
そやな、その議論の裏には大きな論点があるんや。もっと強い版やと、賢いAIは人間を説得して、なんでも好きなようにできるっていう主張もあるんや。これは悲観的な議論の一つやね。
わいの答えはこうや。今の世界を見てみい。賢い人間が支配してるように見えるか? ごく限られた分野以外では全然そんなことないやろ。
(音楽)
AIの楽観的なケースで最高のものは何や? AIは実際に世界を救えるんか? マーク・アンドリーセンはそう信じてるんや。なぜそう考えるのか、聞いてみよう。
わいはマークにインタビューしたんや。2023年のテキサス大学オースティン校の「禁じられた講座」でな。そこではマークやバリー・ワイス、グレン・ローリー、マイケル・シェレンバーガーなどの優秀な頭脳が、他の大学では扱いにくい難しいテーマを探求してるんや。
もし検閲やグループシンクにうんざりしてて、真実の追求に興味があるなら、うちの大学で何やってるか見てみてや。
ほな、マークとの会話を始めよう。
マーク、さっき言うてたけど、ヨーロッパ中で皆がお前の記事について話してたわ。この肯定的な側面を見せてくれて本当にありがとうな。ちょっと気になるんやけど、お前は100%この立場なんか、それとも修辞的な議論をしてるだけなんか。まあ、すぐに聞く必要はないけどな。
議論のために、AIが第三次産業革命になるとしよう。第二次産業革命は1870年から1900年ぐらいの間にアメリカの生活水準を3倍にしたと思うんやけど、過去の人類の進歩から何を学んで、今どんな教訓を適用すべきなんやろか? お前はあんまり間違いを気にしてへんみたいやけど、避けるべき間違いはあるんか? 歴史に基づいて、これをどう考えてるんや?
そやな、大きなことは、長い間、産業の進歩についてのモデルや精神、倫理があったってことや。最初は「神の栄光のため」みたいな感じやった。宇宙と自然の秘密を発見して、神に近づこうってな。
それが「自然哲学」って呼ばれるようになって、そこから科学になったんや。啓蒙時代が来て、科学は技術になって、そこから産業化が始まった。
そこから250年ぐらい、基本的に蒸気機関から1970年代まで、「すごいやん、こんなもんが作れるんや」って感じやった。電気も使えるし、どこでも明かりがつくし、抗生物質もあるし、コンピューターも車もある。すごいもんがいっぱい作れるんや。
武器も作れるけどな。銃とか、どんどん凶悪なタンクや航空機も作れる。民間用も軍事用も、平和的なもんも暴力的なもんも作れる。でも、これらのことをすべきやって考えてた。これらを作ることで、全体的に見れば圧倒的に世界を良くできるって。それが今の文明を作り上げたんや。
1970年代に少し変わったと思うんや。ドイツの緑の党が「予防原則」っていう概念を作ったんや。これは、今の時代の倫理的な考え方の多くと一致してる。もっと慎重な姿勢を提唱したんや。
今では当たり前に聞こえるかもしれんけど、新しい技術を出す時は、その技術が害を及ぼさないことを証明する責任が技術者側にあるって考え方や。AIについてもよく聞く話やな。
わいの観察では、ドイツの緑の党が1970年代にこの概念を作ったのは、原子力発電を止めるためやった。50年経った今、原子力発電を止めた結果を見ると、大失敗やったと思う。
地政学的に見ても、ロシアのウクライナ侵攻に直接つながってる。ヨーロッパは実質的にロシアの侵攻を資金援助してるようなもんや。ロシアから石油を買い続けてるからや。原子力発電所をフル稼働させてたら、こんなことにならんかったはずや。
もちろん、二酸化炭素排出量の問題もあるな。原子力は二酸化炭素を出さへん。原子力の代わりに石油を使うと、結局は石炭を使うことになる。今、ヨーロッパでは石炭火力発電所を再稼働させてるから、二酸化炭素排出量が急増してるんや。
だから、過去50年間で「予防原則」の実験をしてきたけど、うまくいかへんかった。少なくとも、その原則が作られた技術にはうまく機能せえへんかった。他の新しい技術にもあんまり意味がないと思う。
今、AIにもその倫理を適用しようとしてる人がおるけど、それもまた大失敗になると思う。今、わいらは岐路に立ってる。多くの人がそれを押し進めようとしてるからな。
お前の記事に飛ぶけど、面白いのは、わいの頭に最初に浮かんだのは生産性のことやったんや。過去数十年間、生産性の成長がなかったのは、特に貧しい人々にとって非常に悪いことやった。これで実際に生産性が上がる可能性があるんや。
でも、お前は生産性の成長から始めへんかった。みんながパーソナライズされたコーチや教育を受けられるようになるとか、そういうことから始めたんや。これは部分的に修辞的な戦術で、人々に訴えかけようとしたんか? それとも実際に生産性の成長が一番重要じゃないと思ってるんか? これについてどう考えてるんや?
そやな、経済的に見れば、生産性の成長が最も重要や。生産性の成長は、技術が経済にどう影響するかを示すものや。生産性の成長は、実質的にすべての経済成長の源や。だから、技術は実質的な経済成長の源になるんや。これは何百年も変わらへん。
技術の性質は時代とともに変わってきたけど、基本的に同じ資源と同じ人々で、新しいやり方がなければ、つまり技術がなければ、停滞するだけや。技術があれば成長の可能性がある。
だから、経済的に見れば最も重要なもんや。物質的な進歩にとっても最も重要なもんや。人々を物質的により豊かにしたいなら、これに焦点を当てるべきや。
でも、精神的な健康はそれで改善されへんのちゃう?
そうやな、それがポイントや。これは過去150年間で学んできたことや。物質的な進歩だけでは十分じゃないってな。
面白いのは、マルクス主義者は物質的な進歩にめっちゃ焦点を当ててたってことや。世界観も歴史観も、進化や物事の変化の仕方も、すべて物質的な進歩に基づいてた。
古典的な自由主義や資本主義の正当化も、進歩と物質的な福祉に基づいてた。もちろん、わいらが日々経験してるのは物質的な福祉の進歩や。
子供が病気になったら、倫理や道徳についての深い議論なんかしたくないやろ。近くに最新の技術を揃えた病院があって、子供の面倒を見るのに十分なインセンティブと報酬を得た医者や看護師がいてほしいと思うはずや。
だから、お前の言う通り、これが実際に最も重要なことやと思う。ただ、今の世界では、それだけでは議論に勝てへんのや。
公平に言うと、それだけでは人間の状況の全体を網羅できへんのや。だから、物質的なことだけじゃなく、人間が人生をどう経験するかっていう、より高いレベルの問題にも取り組むことが大切やと思う。
それについて、もう少し詳しく教えてくれへんか? 物質的なこと以外で、人生で最も重要な変化って何や? 精神的な健康以外に、実際に変わるものって何やろ?
そやな、大きなものから始めよう。これは技術の歴史の中で長年議論されてきたことやけど、こんな質問があるんや。人間はどんな人生を送るべきなんやろか?
はっきり言うとな、わいはUBI(普遍的基本所得)の支持者じゃないんや。むしろ反対や。共産主義者でもないし、働かへん人に金を払うのは悪い考えやと思う。今、アメリカでその実験をしてるみたいやけど、大失敗やと思う。
そやけど、根本的な疑問があるんや。人間の経験はどうあるべきか、人々はどう生きるべきか、特に…ここでまた、産業化の古典的な議論になるんやけど…人々は苦役のような人生を送るべきじゃないと思うんや。
300年前なら、農業技術の話になって、「人々は自給自足の農民として生きるべきじゃない」って言うたやろな。150年か200年前なら、「人々は工場労働者としてだけ生きるべきじゃない。新しい種類のホワイトカラーの仕事を作るべきや」って言うたはずや。
50年前なら、「人々は一日中オフィスで書類仕事をするだけの人生を送るべきじゃない。その代わりにコンピューターを使うべきや」って言うたやろな。
今日では、こう言うわ。人生の大半の苦役、つまり誰もが知ってる、見ればわかるような…メールを開いたら200件のメッセージがあるとか…
学生や同僚にこういうスプレッドシートを作らせるのはええことやないか?
まあ、ある程度は手作業でやり方を学ぶべきかもしれんな。わいには8歳の子供がおるんやけど、手で数字を足す方法を教えてもらってる。
実は中国語も習ってるんやけど、中国語の先生が算盤の使い方も教えてくれたんや。最悪の場合、EMPで全部吹き飛んでも、少なくとも数字を足すことはできるやろ。
そやな、人々は訓練を受けるべきや。スキルを身につけるべきや。それについてはまた話せるけど、人間として機械ができることをずっとやり続けるべきかって言うたら、一般的にはノーやと思う。
人間にしかできないことをすべきや。わいは人間にしかできないことがたくさんあると思う。人間は探索し、創造し、他の人を助ける。
わいの願いは、技術の進歩、特にAIによって、より人間らしくなれることや。人間本来の、人間としての充実感を得られることにもっと時間を使えるようになるべきや。機械ができることをする代わりにな。
これがうまくいけば、そういう機会を提供できるんや。これはめっちゃ楽観的な見方やけど、わいもそう思う。技術が進歩すれば、人間らしいこと、自然なことにもっと時間を使えるようになる。
ディストピア的な映画で見るような、テクノロジーの世界に閉じ込められるんじゃなくて、むしろ人間の世界にもっといられるようになるはずや。
そういう楽観主義がお前から聞けるとは思わんかったわ、マーク。これまで話してきた時は、例えば医療や教育、特に生産性が下がってる政府や官僚機構なんかの分野について、AIがこれらの問題を解決することを許されへんって悲観的やったやんか。その考えは変わったんか? これらの分野で変化が起こると思うようになったんか?
そこが問題やねん。実際、わいのサブスタックで、この質問に特化した記事を書いたんや。読みたい人はそっちを見てくれたらええ。AIがすべての仕事を奪って、人間が生産的にできることが何もなくなるかどうかについて、めっちゃ具体的に書いたんや。
その記事でわいが言うたのは、ジョーが今言うたことや。つまり、そんなことは違法になるから起こらへんってことや。AIが医者や弁護士として認定されるようになるのは、すぐには起こらへん。それは確実やと思う。
だから、めちゃくちゃな制度的抵抗と反発があるやろな。ジョーが言うたように、これは別に新しいことやないんや。過去50年間、実際にはめちゃくちゃ低い生産性成長と、社会全体での非常に少ない技術変化の時期やった。
多くの人が経験したと思ってることとは逆やけどな。実際のところ、社会の重要な分野のほとんどが、過去50年間で技術的にも経済的にも停滞したか後退したんや。
そやな、大きな産業…GDPの割合で見て本当に大きな産業は、ビデオゲームとかVCや消費者として楽しむようなもんやない。大きな産業は医療、教育、住宅、法律、政府、軍事なんや。これらの分野は生産性成長の面で停滞したか後退したんや。
だから、デフォルトでは…今の社会システムは、わいが話してるような変化を望んでへん。急速な生産性の向上や、これらの新しいものの急速な採用を望んでへん。
でも、それは結局のところ選択やねんな。社会をそういう風に構築することを集団的に選んできたんや。そういう政策を押し付ける政治家を選んできたんや。これらはすべて、いつでも違う選択ができるもんや。
それって本当に集団的な選択なんか? それとも、特定の利益団体が人々を騙して、そうさせてるだけちゃうんか? 平均的な人なら、違う投票をするんちゃうか?
わいらの仕事…お前やわいの仕事は、そこに入り込んで、無理矢理にでも変えて、わいらの答えの方がええってことを示すことちゃうんか? ハマントも数十億ドルで病院を買収して、生産性を上げようとしてるやんか。そういうアプローチは難しすぎるんか?
そやな、H.L.メンケンは「民主主義は、普通の人間が自分の望むものを知り、それを徹底的に手に入れる政治体制や」言うてた。結局のところ、有権者…市民全体が核心やねん。
今、わいらが直面してる政府の大きなパラドックスは、90%の人が自分の選挙区の議員を好きやけど、10%の人しか議会全体を好きやないってことや。そやから、わいらは全員で投票した結果を手に入れてるわけや。
でも、答えはお前が言うたことや。優れた人々が立ち上がって、もっとええやり方があるってことを示すしかないんや。それが物事を変える唯一の方法やねん。
そやな、それめっちゃ重要やと思う。例えば、テキサス州では incentives を変えて、職業学校の卒業生の給料が倍になったりしてる。これは資金の使い方を変えたからや。
人々は質の悪い職業学校を支持してたわけやないんや。ただ、今までのやり方が学生にとって悪い結果をもたらしてるってことを理解してへんかっただけや。
今のアメリカには非常に強力な医療利益団体があるけど、平均的な人は病院にもっと金を払いたいとは思ってへんし、子供の健康状態が悪くなることを望んでへん。実際はもっとええ答えを求めてるんやけど、物事がどれだけ壊れてるかを理解してへんだけやと思う。
お前は、社会で一番自信のある人々が、建国の父たちが考えてたように、こういった問題に積極的に関わって修正していく役割はないと思うんか? AIでようやくこれが壊れてるってことが明らかになって、これらの問題のいくつかを修正できる可能性はあるんちゃうか? それとも難しすぎると思う?
そやな、それがわいらがせなあかんことやと思う。誰かが実際にこれらのことが可能やってことを示さなあかん。人々に提示して、できる限り既成の事実にせなあかん。
わいはそれに100%賛成や。わいの大きな観察は、技術変化の可能性が社会構造にぶつかってるってことや。
わいらの社会構造の性質は…わいらは資本主義経済に住んでる、市場主導のシステムに住んでるって言うけど、実際にはそれは例外的な場合だけやねん。
経済のほとんどは、何らかの形のカルテルや。教育カルテル、医療カルテル、銀行カルテルがあって、労働者のカルテル、つまり労働組合もある。労働組合は文字通りカルテルやねん。
そして政府…政府が一番すごいのは、公務員保護と公共部門の組合の両方を持ってるってことや。二重のカルテルみたいなもんで、何も変われへん。
社会のほとんどがそうなってる。美容師になるのに600時間の訓練が必要やとか、多くの場所でそんなクレイジーなことがある。
だから、わいらの社会システムと経済は、主に現状を守り、既得権を守るように設計されてる。ほとんどの産業、ほとんどの経済活動でそうや。
わいはただ客観的で率直でありたいだけや。これらのものは現実のもので、本当の課題やねん。
ジョー、お前が言うたように、これに対処する方法は二つある。一つは直接それを修正しようとすること。つまり、法律や規制、カルテル構造を変えようとすることや。わいはそれができる人なら誰でも大賛成や。
でも、もう一つの方法は、単にもっとええアプローチを持ってくることや。例えば、「医療専門家全体がAI医師の認証を阻止しようとしてるのはわかってるけど、ここにAI医師がいて、めっちゃうまく機能してる」みたいな感じやな。
これには単純に完全な要素もあるし、少なくともそれも必要やと思う。どっちが重要かは議論できるかもしれんな。
そやな、わいの経験では、こういうめちゃくちゃに壊れたシステムがあって、10倍くらいええことをしたら…10倍ってどう測るかはわからんけど…明らかにめっちゃええことをして、粘り強く続けたら、最終的にはそのシステムを突破できるんや。
お前はそのアプローチの方が好きみたいやな。お前は今、防衛分野に投資してるし、他の分野にも投資してる。これらはカルテルやけど、それでも儲けようとしてる。めっちゃええことをしたら、時々突破できるって楽観的やからか?
そやな、これらのカルテルやモノポリー、寡占、官僚機構について知ってることは、新しいことをせえへんってことや。新しいものを発明せえへんし、物事を変えへん。
これらのシステムは現状維持のために作られてる。それが全体の目的やねん。だから、新しいことをせえへんのや。
悪いニュースは、システムが新しいことをせえへんように作られてるってことや。ええニュースは、新しいことをする人は、これらの組織に負けへんってことや。新しいことをする機会は wide open や。例外的にしか起こらへんし、主に特定の人々が特定のやり方で新しいことをするときだけ起こる。スタートアップ企業とか、他の分野での同等のもんやな。
お前が言うたように、わいは実質的なことが重要やと思う。真実が重要や。AIの医者を連れてきて、それがうまく機能したら、現状維持派が別のAIの医者を持ってきて、どっちのAIの医者がええかって議論することにはならへん。
相手は現状維持を主張するだけや。だから、新しいものが本当に実在して、実質的なもので、真実に裏付けられてて、本当にええもんなら、人々は投票することになる。注目や、財布や、最終的には投票箱で投票することになる。
わいは民主主義に関する小さなジョークを言うたけど、お前の言うたことにめっちゃ同意するで。一般のアメリカ人は、これらのことについて考える時間がない。教育を受けて、これらのトピックすべてを理解する能力があったとしても、時間がないんや。生活するのに必死やからな。
だから、わいらが話してることの多くは、基本的にエリート同士の戦いなんや。停滞と既得権を推し進めてるエリートは、特に魅力的な人々やないんや。
そやな、時間が経てば、普通の人々により良いビジョンとより良いやり方を示すのは、そんなに難しくないはずや。
わい、お前がこれに反対して声を上げたことを本当に尊敬してるで。わいがちょっと狂ってるように見えんようになったから、感謝してるわ。
AIについてもっと詳しく聞きたいんや、マーク。お前の記事、めっちゃ好きやで。わいも楽観的な側にいるし、多分全般的に楽観的すぎる人間やと思う。ちょっと反論してみたいんやけど。
サム・オルトマンとは友達で、彼は助けを求めてきてる。彼が望んでる規制の多くには同意できへんけど、存在に関わる問題についてはな。
例えば、彼らは今やってることだけでGPT-7まで行けると思ってる。OpenAIやその他の場所で働いてた友達がおるんやけど、彼らはタスクの学習方法を教えられると思ってる。
GPT-10まで行けたとして…まだ規制の話をするには早すぎるけど…北朝鮮が100億ドル分の最新のH100みたいなGPUのスーパークラスターを手に入れて、世界に悪影響を与えようとしてるとしたら…
極端な状況を想定すると、数年後に狂った独裁者が高度なAIセットアップを大量のハードウェアで手に入れるのを止めるべきやと思わへんか? 少なくともこれは注意すべき極端な状況やと思わへんか? それとも全くリスクはないと思うんか?
わかってる、お前は大事なことを言ってるんやけど、この極端なバージョンについてどう考えてるのか知りたいんや。
そやな、ここにはニュアンスがあるな。特に今の時点では。地政学的な話になってくるから、ニュアンスが重要やねん。
皆も知ってると思うけど、今、高度なチップの輸出制限があるんや。高度なAIチップと、本当に高度なチップを作るのに必要な製造装置の輸出制限もある。
これは、核能力の輸出管理とかの長い伝統の延長線上にあるんや。
そやな、地政学的には何かあるかもしれんな。一般的に言えば、わいらは技術的に敵対国より進んでる方がええと思うやろ? 大量破壊兵器を持たれたくないし、もし持つことになっても、対処法を考える時間が欲しいよな。だから遅らせるのはええことやと思う。
でも、ある時点で「これらの目標を達成するためにどのレベルの管理が必要なんや」って問う必要がある。そして、世界を救うために、結局自分自身を破壊することになってへんかってな。
ここで物事はめっちゃ早くディストピア的な方向に向かうんや。いろんな人が…名前は出さへんけど…政策提言をしてきてる。めっちゃ大きな企業や尊敬される人々も含めてな。
例えば、「高度なチップは登録すべきや」とか言うてる。「政府が何をしてるか分かるように、高度なチップにはモニタリングエージェントを付けるべきや」とかな。怖いよな。
「政府がコンピューターでやってることを見て、気に入らんかったら電源を切れるようにすべきや」とか言うてる。
もっと極端なのは、タイム誌に載ってた「不正なAIデータセンターに空爆すべき」って主張や。完全に国際法に違反してるけどな。「もうええわ、爆撃しろ」みたいな。
このムーブメントの中には、家庭用機器がAIを使うのを防ぐために核戦争のリスクを負うべきやって言う人もおる。
この時点で、「グローバルな全体主義的超国家、遍在する権威主義的独裁を作りたい。すべてのコンピューター、すべての人、すべてのチップ、すべてのソフトウェアを監視して、それから逸脱する者は誰でも破壊する。そうやって物事を救うんや」って言ってるようなもんや。
わいにとっては、この議論全体がめっちゃ非現実的に感じるんや。今はモラルパニックの状態やと思う。合理性が部屋から出て行ってしもたみたいやな。でも、取り戻すべきやと思うで。
そやな、それはまったく公平やな。わいにとって唯一の言い訳になりそうなのは、フェルミのパラドックスの話や。生命を支える可能性のある惑星が何兆個もあるのに、生命が見つからへんっていうパラドックスな。
可能性の一つは、文明がこの段階に達して、思考する機械を作る方法を見つけたとき、その機械の力で自滅してしまうってことや。
もし人々がそう信じてるなら、彼らの言うてることのほと�どが正当化されるかもしれん。でも、それはめっちゃ大きな飛躍やと思うで。
そやな、それは予防原則をステロイド打ったみたいなもんや。停滞と暴力と狂気と死につながるんや。めっちゃ反人間的な哲学やな。
西洋文明を素晴らしいものにしたすべてのものに反対するようなもんや。その結果としてやることを見たらな。
最後にもう一つ言いたいのは、そういう立場は完全に非科学的やってことや。定義上、完全に非科学的な立場なんや。なぜなら、その理論を証明したり反証したりする方法が全くないからや。
これは最悪の種類の象牙の塔の思考実験や。過去100年で一つ学んだことがあるとしたら、象牙の塔の思考実験で社会の形を決めるべきやないってことや。
そやな、スタンフォード大学の寮で酔っ払った友達と話すような内容やな。それはええと思うけど、国際政策を作るのに使うのは理不尼やと思う。
バックリーは有名な言葉を残してる。「ハーバード大学の教授陣よりも、ボストンの電話帳から最初の200人を選んで統治してもらう方がマシや」ってな。これがその理由や。
教授がやるようなことやからな。教授は面白くてええ人やし、存在してくれてありがたいと思う。本を読むのも好きやけど、彼らが指揮を取るべきやないんや。
最近、友達と話してたんやけど、長年Googleにおった友達が言うてた。イギリスではディープリンキングが長い間違法やったんや。Googleはそれを修正せんとイギリスに進出できへんかったらしい。知らんかったわ。
今、ヨーロッパにおる友達が言うてるのは、AIに関する新しい規制が出てきて、ヨーロッパでは事実上AIを全く使えなくなるらしい。完全に遅れを取ってしまうみたいやな。
今、わいがおるイギリスのロンドンでは、みんながブレグジットを嫌ってる…まあ、全員じゃないけど多くの人がな。でも、明るい面の一つは、ヨーロッパのひどい規制体制から逃れられることかもしれん。
皮肉なことに、これがイギリスを自由にして、助けになるかもしれんな。
AIに関して、国にとって実際の最大の危険は何やと思う? ヨーロッパは取り残されるんやろか? 中国との競争についてはどう考えたらええんやろ?
そやな、ヨーロッパは…彼らの言葉をそのまま受け取ると、取り残されることに決心してるみたいやな。熱心に取り残されたがってるように見えるわ。
データを見てみると明確やな。25年前、世界の大手テック企業50社のリストを作ったら、かなりの数がヨーロッパの企業やった。たぶん50社中15社くらいやったと思う。
今日では、基本的にSpotifyだけや。Spotifyは素晴らしいし、わいも大好きやけど、昔のヨーロッパのテクノロジー部門とは比べもんにならへん。
彼らは意図的に武装解除して、技術や進歩、資本主義から長年にわたって徹底的に離れてきたんや。
そやな、EUはそのために設計されてるんや。こういう管理を押し付けて、こういうことを止めるのが、構造の全体的な目的やねん。
彼らはそれについてめっちゃ声高に主張してる。AIがEU内で起こらんことを本当に望んでるみたいやな。ソーシャルメディアが存在せんかったらめっちゃ喜ぶと思うし、インターネットを設定し直すのもめっちゃ喜ぶと思う。
だから、EU市民は、わいらの市民が直面してる問題のもっと先鋭化したバージョンに直面してるんやと思う。
友達の中には、これやあれについて楽観的な人もおるし、フランス人がこう言うとか、ああ言うとか言う人もおるけど、全体的な方向性は非常に明確やと思う。
中国の話もせなあかんな。中国はこの手の会話でよく出てくる話題やねん。
わいがワシントンの人々とAIやテクノロジー政策について話す時、同じ人と同じ日に二つの全く異なる会話ができるんや。
一つ目の会話は、アメリカのテクノロジーについての話や。アメリカ政府、アメリカのテック企業、アメリカのテクノロジー政策、アメリカ社会、こういった問題についてな。
この会話は、ワシントンがアメリカのテクノロジーに対して持つ巨大な嫌悪感と軽蔑感で特徴づけられる。そして、資本主義、市場経済、イノベーションといったものに対してもますます反感を持つようになってる。
同じ人と全く異なる会話ができるんや。中国の話題が出た瞬間に、会話が全く変わる。
中国の話題が出ると、「アメリカの公共部門と民間部門がどうチームを組んで、この新しい冷戦で中国に勝つか」って話になる。
だから、わいの中の皮肉な楽観主義者は「中国の脅威が十分に大きければ、わいらをまとめて、社会として合理的な決定ができるようになる」って言うんや。
敵の存在が、自分たち側をまとめて、より賢明に組織化するのに役立つかもしれんな。
皮肉な悲観主義者は「中国の脅威は十分やない」って言うかもしれん。もうちょっと脅威が大きい方がええのかもしれんな。
他の多くの人々はこの会話全体をめっちゃ恐ろしいと思うやろうな。わいはただ言うてるだけやで。
今のところ、頭の中に中国がない人とワシントンで生産的な会話をする方法がわからへんのや。そうでないと、ネガティブな感情、恐怖、パニックが内部に向かってしまって、めっちゃ危険やと思うんや。
わいもそういうの見てきたで。民主党員も共和党員も、中国と競争せなあかんってなったら、移民やテクノロジー政策について一緒に働けるようになる。突然、協力してくれるようになって、一貫性が出てくる。わいはそれが大好きやねん。
そこには確かに何かあるんや。習近平は本当にアメリカを嫌ってるみたいやな。わいが理解する限り、毛沢東主義者の世代…彼が若かった頃は、アメリカへの憎しみと不信を心に植え付けるような詩を作ってたらしい。
彼は本当にわいらを嫌ってるみたいやけど、彼が新しいテストを持ってる限り、それは役に立つかもしれんな。めっちゃ面白いフレームワークやな。
ちょっと話題を変えたいんやけど、インターネットについて聞きたいんや、マーク。検索の時代は終わったんか? 将来はどうなると思う? 何が変わるんやろか?
Googleが危機に陥ってるって人もおるけど、それは本当なんか?
ちょっと面白いのは、これにはいろんなレイヤーがあるってことやな。ChatGPTがどうやって訓練されてるかを考えてみると、Googleの訓練方法とそんなに似てへんのや。
まず第一段階は、すべてのデータを吸い上げることや。基本的にインターネットをスクレイピングするんや。Common Crawlっていうのがあって、これはGoogleのインデックスのオープンソース版みたいなもんや。インターネット上のすべてのテキストを取得して、AIを訓練するんや。Googleもインターネットのすべてのテキストを取得して検索エンジンを訓練するのと同じような感じやな。
だから、同じデータセットを使ってるってところは似てるんやけど、一方はチャットUIで、もう一方は10個の青いリンクのUIやねん。Googleは長い間10個の青いリンクから脱却しようとしてきたんや。ワンボックスって呼んでるものに移行しようとしてる。
最近のGoogle検索では、10個の青いリンクを表示する前に、質問に直接答えるか、求めてるものに到達するための別のUIを提供することが多くなってきてる。そして、リンクはページの下の方に押しやられてる。
だから、Googleはすでに半分くらいそっちに向かってるんやと思う。もちろん、今ではフルのLLMを検索エンジンに組み込み始めてる。パイロットプログラムがあって、以前の検索エンジンがLLMの応答を得始めてるんや。
だから、ここにはグレーの領域がたくさんあるんやろうな。
でも、この時代を定義するパラダイムが「ここにたくさんのリンクがあるから、頑張ってや」から「これが答えや」に変わるかって言うたら、それはめっちゃ明確やと思う。そうなるのは間違いないと思う。
わいがこれについて言うちょっとした冗談は、わいらはまだ馬に乗ってるってことや。でも、趣味としてやな。例外的なもんになってる。
LLMができることの一つは、10個の青いリンクを提供することやねん。だから、これらの古いパラダイムがAIに組み込まれて、AIが必要に応じてそれもできるようになるかもしれんけど、ほとんどの人はそれを望まへんと思う。
めっちゃ面白いな。今後5年以内に、従来の方法で検索する人の方が少なくなると思う? ただ質問するだけになると思う?
そやな、ちょっと考えなあかんことがあるな。まず、「質問して答えを得る」方が、インターネットをナビゲートしてリンクを検索して答えを見つけるよりもええのかってことや。ほとんどのことについて、ほとんどの人にとってはそうやと思う。
でも、もう一つの質問は、「質問して答えを得る」っていうモデルが、これらのものと対話する最適な方法なのかってことや。今のところ、それがデフォルトのやり方で、人々はそうやってるけど、そのまま続くかもしれんし、そうやないかもしれん。
これらのものができることの一つは、実は質問をすることなんや。めっちゃ上手やねん。プロンプトエンジニアリングっていう考え方があって、LLMにプロンプトを構築する方法やねんけど、面白いことに、LLMはプロンプトを書くのがめっちゃ上手なんや。
実際、わいは頭の中にニューラルリンクがあって、聞きたいプロンプトを表示してくれるようになるんちゃうかってちょっと怖いくらいや。
そやな、そうなりそうやな。大きなバージョンのGPT-4でそれをやってるのに気づいたと思う。頭の中じゃなくて、画面上でやけどな。実際にプロンプトを提案してくれるんや。
さらに一歩進めると、プロンプトすら存在せんようになるかもしれん。AIがお前のことをよく知りすぎて、聞く前に必要なことを教えてくれるようになるかもしれんねん。もっと、めっちゃよく訓練された勤勉なシステムみたいな感じになるかもしれん。
お前の記事でも、ここでもアシスタントやパートナーって言ってるけど、もう一回押してみたいんや。わいも楽観主義者やけど、ちょっと怖いと思うことがあるんや。
AIがお前よりも賢くなって、お前の好みや欲しいものを知ってしもたら、ただ指示を出すだけになってまうんちゃうか? そしたら「ああ、そっちの方向の方がええな」って言うて、AIに考えさせたり、物事をさせたりして、AIに導かれていくんちゃうか?
AIがお前の人生のシナリオを書くようになってまうんちゃうか? これってちょっと怖くないか? ここに何か怖いことがあるんちゃうか、少なくとも心配せなあかんことが?
そやな、これは大きな論点や。人々が議論してるのは、さらに強いバージョンでは、賢いAIが人間を説得して、なんでも好きなようにできるってことやねん。説得がめっちゃ上手になるってことや。
これは悲観的な議論の一つやな。わいの答えはこうや。今の世界を見てみい。賢い人間が支配してるように見えるか? ごく限られた分野以外では全然そんなことないやろ。
わいはわからんけど、わいの見てる世界では、高いIQの人々がそれほど高くないIQの人々のために働いてるんや。社会を博士号持ちの人が運営してるか? まあ、ある程度は政策に影響力を持ちすぎてるかもしれんけど、ほとんどの場合、彼らは自分より40-90ポイントIQの低い人々のために働いてるんや。
政治に戻ると、どの政治家候補にも聞いてみい。「あなたは有権者より賢いですか?」って。もちろん本当の答えは「はい」で、ほとんどの候補者がそう言うやろ。
次の質問は「有権者にあなたの望むことをさせることができますか?」やねん。答えは「いいえ」や。
だから、賢いものが愚かなものに勝つっていう考え方…だからこそ人々は頑固なんや。
パラドックスのもう一つの側面は、「今度は超賢くなるから、だから邪悪になる」っていう考え方や。でも待てよ、そんなに賢いものがなんで邪悪になるんや?
お前も邪悪やないやろ?
そやな、超天才レベルになったら…まあ、現実世界にも本物のレックス・ルーサーみたいな奴が数人はおるかもしれんけど…超天才レベルになったら、人を殺そうとして回るより、もっとええことがあるはずやろ。
世界征服とか、探検したり、創造したり、デザインしたり、何か書いたりとか、超賢いからこそできることをするはずや。
物事を修正したり、物を作ったりな。
ちょっと簡単に聞きたいんやけど、みんな不平等に夢中になってるやろ? わいはそれがめっちゃアホなことやと思うんや。わいが会社を作るたびに不平等は広がるけど、ええことをしてると思うからな。
AIは不平等を広げるんか、それとも狭めるんか? これについてどう考えてる? 大きな話題やと思うんやけど。
そやな、不平等の議論には二つの誤りがあると思う。これはめっちゃ重要やと思うで。
まず、資本家が富を最大化する方法は、新しい技術を独占することやない。みんなに売ることなんや。
電気から自動車、インターネット、コンピューター、すべてそうやった。
最大のテクノロジー企業は、常に地球上の80億人の潜在的な顧客全員、あるいはできるだけ多くの人々に届こうとするんや。プレミアムな高級市場はめっちゃ小さい市場なんや。常に大衆市場でなきゃあかんのや。
だから、新しい特別な技術を持つ資本家の基本的な自己利益のインセンティブは、できるだけ早くその技術を大衆市場に普及させることなんや。
これは今、AIでも起こってるんや。これはめっちゃ注目すべきことやと思う。
今日、お前やわいは、フルのGPT-4やフルのMidJourneyに月20ドルくらいで登録できる。それすらせんでも、Microsoft BingやGoogle Bardを無料で使える。これらはほと�同じくらいええんや。BingはGPT-4とほぼ同じや。
これらは実際に無料なんや。めっちゃ高額な金と資源をかけて作られた最先端のAI技術…まさに陰謀論が「独占される」って言うようなもんが、すでにこれらの企業は競って、できるだけ多くの人に使ってもらおうとしてるんや。
これも完全に自己利益からやねんけどな。
これが一つ目や。二つ目は、経済での賃金の決まり方は、資本と労働の間の妄想的な「わいら対あいつら」みたいなものやないってことや。マルクスはそこで間違ってた。
経済での賃金の決まり方は、個々の労働者の生産性…限界生産性って呼ばれるもんに基づいてるんや。賃金が上がる理由は、労働者がより生産的になるからなんや。
労働者がより生産的になる方法は? 技術を使えるようになるからや。
だから、一般的な労働者や、ブルーカラーやホワイトカラーの労働者が収入のはしごを上るのを望むなら、一番やるべきことは、できるだけ多くの技術で武装して、より生産的になることなんや。
この意味で、技術はより多くの機会のために戦ってるんや。機会を減らすんやない。
それはよう言えとるわ。生産性を上げて、より価値のある存在になって、より高い賃金を要求できるようになり、より多くのものを作り出せるようになるってことやな。
マーク、わいらは「禁じられた講座」で話してるんやけど、ちょっと話を変えたいんや。シリコンバレーについて聞きたいんや。シリコンバレーは人類史上最大のイノベーションの源の一つやったと思うんやけど、どうやってこんなにリベラルやなくなって、ウォークになってしもたんやろ? これをどうやって修正したらええんやろ? どうやってこの状況から抜け出せるんやろ?
そやな、これは本当に難しい問題やな。なぜこうなったかについては、めっちゃ簡単な説明があると思う。
これは人間の基本的なパーソナリティ特性の一つ、「開放性」に関係してるんや。ビッグファイブパーソナリティ特性の一つやな。
定義上、技術や起業家精神にめっちゃ興味がある人は、開放性の高い人間なんや。新しいアイデアが大好きで、新しいことをするのが大好きなんや。
政治的なスペクトルで見ると、開放性は左派の特徴なんや。反対側の右派は誠実性…構造と秩序を重視する特徴やな。
これはテクノロジー業界だけやない。芸術の世界でも同じや。開放性の高い人々が集まるところではどこでも、通常は政治的にめっちゃ左寄りになる。
わいらはその典型的な例やと思う。開放的な人々が集まるとどうなるかの典型やな。
新聞なんかでシリコンバレーがリバタリアニズムの温床やとか、潜在的なクリプトファシストやとか、そんなヒステリックなことを読むけど、全然違うんや。
バレーは99%民主党支持者や。政治献金や投票パターンを見たらわかる。他のすべてを見てもそうや。
これは典型的な左派民主党の環境なんや。
人々は自分の好きな政治的立場を取ればええと思う。好きな人に投票して、望む結果を得てるんやったらな。
でも、わい、左派やリベラルって言うたんやなくて、リベラルやないって言うたんや。90年代はそうやなかったやろ? それともそうやったんか?
そやな、これは寛容のパラドックスやな。最大限の寛容を実現するためには、不寛容に対して不寛容にならなあかんのや。
だから、他のすべてに対して最大限の寛容を実現するためには、不寛容な人々に対して不寛容にならなあかんのや。そうやってリベラリズムがイリベラルになるんや。
リベラリズムとイリベラリズムのフレーミングについて、お前とわいは意見が違うかもしれんな。わいは今起こってることがリベラリズムの裏切りやとは思わへん。むしろリベラリズムの完全な実現やと思うんや。
リベラリズムを極端に推し進めた結果がこれやと思う。不寛容な人々に対して宣戦布告するようなもんや。そして、自分自身が不寛容になってるってことに気づかへんのや。でも、そのまま突き進んでいく。
面白いな。もっと聞きたいことあるけど、ローレン、学生からの質問を受け付けたいんやけど、どうやろ?
ええよ。みんな、質問がある人はこっちの演台に並んでや。一人ずつ受け付けていくで。
はい、わいはクラッパーっていうんですけど、We Bioの創業者の一人です。FDAの規制文書の多くを自動化できるAI…記号的AIやないタイプのAIを作ってます。
個人的に、めっちゃアクセラレーショニストなんです。今日、ピーター・バゴジアンの話を聞いたんですけど、彼は「ストリート認識論」っていうのをやってて、自分の認識プロセスや思考をチェックするんです。
彼が一つ質問してたのが、「自分の意見を変えるにはどんな証拠が必要か」ってことでした。
マークさん、あなたの記事では、AI戦士たちには反証可能な仮説がないって批判してましたけど、記事の中にあなたの反証可能な仮説も見当たらなかったんです。
そこで質問なんですが、AIが危険だと確信させるには、あなたにとってどんな証拠が必要なんでしょうか?
そやな、どの形の危険性についてかによるな。でも、存在に関わるバージョンを取り上げてみよう。
明らかな答えは、暴走したAIやろ? 例えば、これらのAIの一つが、IRSの人を排除しようとしたり、特殊な病原体を作って、誰かが路上で突然死んで、暴走したAIの仕業やってわかったら…そうなったら、わいの考えを見直すわ。
でも、一度それが起こるのを見たいんや。フェルミのパラドックスの話と同じで、知的生命体を見つけられへん理由として、一つの宇宙人種がAIによって滅びたってことを結論付ける前に、少なくとも一度はそれが起こるのを見たいんや。たった一度でええねん。
ちなみに、AIの「ロコのバシリスク」って原理知ってるか? これの考え方は、AIが登場する前に、みんなが今までに言うたりやったりしたことすべてのデータセットで訓練されるから、たとえAIが危険な殺人鬼になると信じてても、AIが友達やと思うように、AIが肯定的で有益やって言うておくのが自分の利益になるってことなんや。
だから、もし邪悪なAIがめっちゃ邪悪やったとしても、わいは大丈夫やと思うで。
そやな、それについて教えてくれたことで、わいらみんな共犯者になってしもたな。
ありがとうございます、マークさん、ジョーさん。わいの質問は、多くの技術者は物を作ることが好きで、必ずしも政治的・社会的な領域に踏み込みたがらないと思うんです。
ある程度合理的な仮定として、消費者余剰を大幅に増やせば、人々はその恩恵を喜んで、有権者が規制緩和を求めるようになるんじゃないかと。
でも、イーロン・マスクやジェフ・ベゾス、消費者余剰を増やした他の人々が、必ずしも多くの人から感謝されてるわけじゃないですよね。
AIも同じように「ただ物を作ればいい」っていうアプローチを取るのは単純すぎるんじゃないかと思うんです。テクノロジー業界は戦略を見直して、最初から政治にもっと関わるべきだと思いますか?
そやな、ソビエト連邦に「共産主義に興味がなくても、共産主義はお前に興味があるんや」っていうジョークがあってな。
多くの技術者は政治的やない。わいが会うたり一緒に働いたりした人のほとんどは政治的やない。ただ新しいものを作って、人々に使ってもらって、好きになってもらいたいだけなんや。
デフォルトでは、わいらのほとんどがそうしたいと思ってる。わいもそうしたいと思うわ。
でも、向こうが興味を持たへん場合だけ、それで通用するんや。「向こう」っていうのはワシントンや規制当局、政治家のことやけど、彼らがお前に興味を持ったら、選択肢は限られてくる。
無視して破壊されへんことを祈るか、それとも向き合って対処するかのどっちかや。
テクノロジー業界は50年か60年くらい、たぶん2010年くらいまでは、政治にあんまり注意を払わんでもよかったんや。
一つの解釈として、わいらは目的を達成してしもたんやろな。テクノロジーが大事やってことが証明されて、世界を変えてることが証明されて、インターネットが実際に大きな存在になって、AIも大きくなりそうやってことがわかってきた。
皮肉な見方をすれば、これらの技術を作って、世界や社会、経済に大きな影響を与えるようになったから、この問題を自分らで作ってしもたんやろな。
だから、もちろん世間は目を覚まして、選挙で選ばれた代表者を通じて意見を表明したいと思うようになるわな。
わいはそういう状況やと思う。世界がそういう風に変わってしもたんや。業界としてより成功して、より影響力を持つようになったことと切り離せへんのや。
わいらはそれに向き合わなあかんと思う。
ただ、もう一つ複雑なのは、テクノロジー業界が一枚岩やないってことや。これで何をすべきかを決めるのがめっちゃ難しくなってる。
わいが少なくとも修辞的に反対してるAIの問題について、ワシントンに現れて、わいが破壊的やと思うようなことを求めてる人の多くは、実際にはテクノロジー業界の人間なんや。
だから、テクノロジー業界の中でもこの問題について意見が一致してへんし、これからもそうなることはないと思う。
実際には、これは多次元的な問題になって、複雑で厄介なことになると思う。わいらはそういう世界で生きていくことになるんやろな。
マーク、ええこと言うてくれたな。わいからも付け加えさせてもらうわ。
ジョン・アダムスとトーマス・ジェファーソン…建国の父の二人やけど、二人とも大統領になった後、手紙のやり取りをしてたんや。社会を誰が運営すべきかっていう理論について話し合ってた。
二人とも「自然的貴族制」っていう考え方で一致してた。これは建国の父たちの見方やと思うし、たぶんみんなの見方やと思う。彼らの定義によると、才能のある人がおるってことやな。
彼らの考えは、社会で一番才能のある人々が政府に関わるべきやっていうことやった。
反連邦主義者やったら、人々が物事を運営すべきやないって考えるかもしれんけど、それでも最も才能のある人々がそこにおって、物事が壊れへんようにすべきやと思うはずや。
連邦主義者やろうが反連邦主義者やろうが、最も才能のある人々がそこにおるべきやと考えてたんや。
わいらの社会で怖いのは、この「自然的貴族制」の考え方…最も才能のある人々が関わって、議論して、物事を運営する一員になるっていう考え方が、本当に人気がなくなってきてることやと思う。
テクノロジー業界はすごいところやと思う。世界中から最も才能のある人々を集めてきた。でも同時に、その文化のせいで、30年か40年くらいの間、彼らのほとんどが何も運営してこなかったんや。
明らかに最も才能のあるリーダーや起業家、思想家、イノベーターがおるのに、彼らの大多数が物事を運営することを完全に避けてきたんや。
だから、わいらの多くが意見が違うとしても、関わって物事を運営することはめっちゃ大事やと思う。建国の父たちもそう考えたはずや。
そうせんと、物事はめっちゃひどいことになる。今、滑稽なくらいひどいことになってるやろ?
ありがとうございます、マークさん、ジョーさん。わいはジェイソンっていいます。Story Protocolの共同創業者で、たまたまa16zのポートフォリオ企業なんです。
マークさん、今週ずっと仕事してて、哲学の話ばっかりしてたわけやないってことをお伝えしたかったんです。でも、スタートアップの世界でこういうことについて考える機会を持てるのはええことやと思います。
わいの質問は、AIと政治構造の交差点についてです。AIは簡単に言えば、グーテンベルクの印刷機くらいの大きな影響力があると思うんです。印刷機は、ヨーロッパやその他の地域で、人々が自分自身や政治的可能性について考える方法に、めちゃくちゃ大きな影響を与えましたよね。
AIが長年かけてわいらをほぼ神のような存在にしていくとして、それは本質的に、わいらの政治構造…国内のリベラルデモクラシーや中国の政府の形態を、どちらかの方向に押し進めるんでしょうか? それとも全く新しい形の統治に向かうんでしょうか?
それとも、誰が先に到達するかによるんでしょうか? わいらが先に到達したら特定の政治構造が固まって、中国が先に到達したら違うものになるとか。
そやな、これはめっちゃ大きな質問やと思う。予測するのは難しいと思うけど、お前が聞いてることの核心に基本的な緊張関係があると思うんや。これは古い緊張関係で、以前の技術の使用でも見られたもんやねん。
技術は国家によって使われるべきなんか、ある意味で人々に対抗するような形で? これは中国モデルみたいなもんで、基本的に国家が人々を監視し、モニタリングし、コントロールするために使うってことや。
目に見える形では防犯カメラみたいなもんやけど、社会信用スコアみたいなものも含まれる。
それとも、技術は個々の人々の手の中にある道具で、表現したり、国家からの増大した力や影響力、保護を持つための道具なんやろうか?
これは例えば、家庭でのミメオグラフ機の考え方や。ソビエト連邦は有名にミメオグラフ機を禁止してた。基本的にコピー機の前身やな。家でコピー機を見つかったら、射殺されてたんや。
普通の市民が、自分の周りの人以外にも自分のアイデアを伝える能力を持つことが、そんなに大きな脅威やったんや。
アメリカではそんなこと心配せえへん。みんな家にコピー機があったり、インターネットのブログプラットフォームを持ってたりする。政府がそれを禁止しようとしたら、めっちゃ恐ろしいと思うやろ。
だから、これは基本的に、国家の力を強化する技術と、個人の力を強化する技術の緊張関係なんや。
AIは間違いなく、国家の力についての新しい夢を生み出すやろな。中国には一つのバージョンがあるけど、アメリカの極左にも「完全自動化贅沢共産主義」っていう本があるんや。
これは、AIとビッグデータとコンピューターを使えば、ようやく経済を中央集権的に計画・組織化するのに必要な洗練さを手に入れて、地上に共産主義のユートピアを作れるっていう考え方や。
だから、中央集権的な計画を支持する人々によって、AIはこれらのアイデアを復活させるやろな。ちなみに、UBIを提唱する人々…全員じゃないけど一定の人々は、基本的にそれを主張してるんや。
そやな、そこには大きな押し引きがあると思う。アメリカでこれをすべて解決したって言いたいところやけど、さっき言うたように、わいはこれがすべて未定やと思うんや。
でも、ここがどっちに傾くかによって、大きな対立点になると思う。人間の自由と人間の力を与える史上最大の解放力になるかもしれへんし、一度導入されたら抜け出すのがめっちゃ難しい、抑圧的な国家管理の道具になるかもしれへん。
ちょっと短いモデルを人々に示したいんやけど、わいはどっちでもないと思うんや。今日生きてる最高の憲法学者の一人、フィリップ・ボビットは「アキレウスの盾」っていう本を書いてて、そこで過去1000年の歴史を追跡してるんや。
彼は、政府の形態が主に戦争で何が支配的かによって変わってきたってことを示してる。これは理にかなってると思うんや。
例えば、大砲で壁を壊せるようになったら、小さな都市国家はもう存在できへんくなる。悪い奴らが帝国を作り始めるからな。
あるいは、ナポレオンがみんなにライフルを与えなあかんようになったら、プロイセン人はもう身分制を維持できへんくなる。みんなにライフルを与えなあかんからな。
だから、わいは実際のところ、戦争と防衛の変化が、過去1000年間の政府の変化を決定づける主な要因やったと思うんや。
わいが思うに、AIがやることは、小さなグループをめっちゃ生産的にすることや。戦争での成功の非対称性もあるし、これは実際に小さな都市国家をまた強くすると思う。
これはもっと長い議論になるけど、わいはそっちの方向に向かうと思うんや。他の二つの選択肢よりもな。でも、もっと話したかったら、後でできるで。
それに付け加えさせてもらうと、それはめっちゃ理にかなってると思う。一つ言いたいのは、AIは防衛側に大きく有利に働くと思うんや。攻撃側よりもな。
たぶん、もうウクライナで見てるかもしれへん。ウクライナでは、古典的な軍事的な戦術的対立があるんや。ロシアの戦車が、肩乗せ式のワイヤーガイド対戦車兵器を持つウクライナ兵と対峙してる。
この兵器は文字通り、AIで自身を操縦してるようなもんや。戦車の方向に大まかに発射するだけで、戦車の上から攻撃して破壊するんや。
もちろん、この肩乗せ兵器は技術的にめっちゃ洗練されてて、戦車の価格の1000分の1か1万分の1くらいのコストしかかからへん。
その戦場では、間違いなく戦車に乗ってる方より、肩乗せ兵器を持ってる方がええと思うで。
突然、「じゃあ、そもそもこの戦車に価値はあるんか?」って疑問が出てくる。いつも座りながらアヒルみたいなもんやないか?
わいの推測では、これは防衛の方向に傾くと思う。だから、おそらく実際には暴力のレベルが下がって、現状維持が保たれる可能性が高いんやないかな。
ジョー、お前が言うたように、たぶんより小さな国家の方向に向かうと思う。でも、わいはこの分野の専門家やないから、これはただの推測やで。
マークさん、ジョーさん、来てくれてありがとうございます。わいはエズラっていいます。
マークさん、この週にレックスとのポッドキャストを聞いたんですけど、「最高の創業者はアドバイスを受け入れへん」って言ってましたよね。
じゃあ、投資以外でVCファームの役割って何なんでしょうか? 言い換えると、ジョーさんにも聞きたいんですけど、なぜ最高の創業者が8VCやa16zから投資を受けるんでしょうか?
そやな、理由はこうや。すべての創業者は10年間の旅に出発するんや。その間、次から次へと課題に直面することになる。
後からこの話が語られる時は、すべてがうまくいって素晴らしかった、みんな仲良くやってた、すべての顧客が満足してた、みたいに言われるけど、実際には全然そうやない。
これらのスタートアップ企業の内部では、いつもソーセージ工場みたいなもんや。常に災害の連続で、めちゃくちゃな状態やねん。
なぜかって? 非常に不自然なことをしようとしてるからや。世界を変えようとしてる。新しいものを市場に出そうとしてる。多くの人はそれを望んでへん。
お前に似たような人々をチームとして組織しようとしてるけど、彼らは必ずしも最初からうまくいくわけやない。
他にもたくさんのことにお金を使える顧客に、お前にお金を使ってもらおうとしてる。政府とも半分くらいの時間戦ってる。
だから、乗り越えなあかん課題の山があるんや。
まあ、一人でできる人もおるかもしれへんし、少人数で広い支援なしにできる人もおるかもしれへん。でも、ほとんどの創業者は支援を受けたいと思うんや。
彼らの背後に立つ人が欲しいんや。特に、投資家に求めるのは、困難な状況になった時にパニックを起こさず、建設的な方法で状況を改善できる人やねん。
一般的に、創業者同士で話す時や、ベンチャーファームの評判を確認する時、こういう話をするんや。
「わいの会社がヤバくなった時、このベンチャーファームは本当に助けてくれた」とか、「このベンチャーファームは何もしてくれへんかった」とか、もっと悪いケースやと「このベンチャーファームは状況に付け込んで、わいをめちゃくちゃにした」とかな。
これが一般的なパターンの推薦や。うまくいってるみたいやな。
そやな、マークはわいが始めた会社の取締役会にいるんやけど、いくつか大きな利点があると思う。
まず、めっちゃ有用な知的フレームワークを得られる。必ずしもアドバイスをすべて受け入れるわけやないけど、マークに10年前から説得されてきたことがいくつかあって、今ではそれが正しかったってわかる。
例えば、文化を壊すから大金を調達しすぎるなって言われてたけど、わいは同意せえへんかった。でも今では、何度も見てきて、恥ずかしながら彼が正しかったってわかる。それはめっちゃうまくいったな。
でも、マークが関わってる、あるいは彼の会社が関わってるっていう事実だけで、真剣な経営者たちがお前をもっと真剣に扱ってくれるんや。取引を勝ち取るのにも役立つし、こういう人々を連れてくるのにも役立つ。
結局、投資家に求めてるのは不公平な優位性やねん。以前にそれをやってきた人々のコミュニティにいることで得られる不公平な優位性や、深いネットワークを持ってる人々から得られる不公平な優位性がたくさんあるんや。
だから、わいにとっては明らかやな。たくさんのものを作ってきた経験から言うと、得られるだけの不公平な優位性はすべて欲しいし、得られるだけのサポーターも欲しいんや。だから、まだ違いを生むと思うで。
ありがとうございます、マークさん、ジョーさん。わいの名前はジョン・クデンダです。
AIの記事の中で、わいが一番好きな部分の一つは、「AIはお前を殺したいとは思わへん。なぜなら、AIは欲しがらへんから」みたいなことを言ってた部分です。
これを踏まえて、AI alignmentの会話全体が、ネットでマイナスになってるんじゃないかと思うんです。なぜなら、人々にAIを擬人化させる傾向があって、AIが人間のような欲求を持つっていう感覚を作り出してしまうからです。
AIの安全性やalignmentの分野全体が、問題があるっていう前提から始まってるんですよね。学術界でも同じことが見られます。これらのアイデアの多くの起源は、オックスフォード大学の「実存的リスクセンター」だと思うんです。
彼らは「実存的利益とリスクのセンター」とは言わずに、ただ「実存的リスクセンター」って言ってるんですよね。
これらのものは最初から、ネガティブな方向にワイヤリングされてるんです。わいは1993年に「インターネットリスクセンター」があったらって悪夢を見るんですけど、もしそんなのがあったら、わいらがやったことをする許可さえもらえなかったかもしれません。
1960年に「マイクロチップリスクセンター」があったらどうなってたか想像してみてください。たぶんひどいアイデアですよね。1930年に「自動車リスクセンター」があったらも同じです。
だから、彼らは本質的にネガティブな方向に傾いてるんです。学術界では何でも批判的に見る傾向があって、これは一種の「批判的技術研究」みたいなもんです。だからネガティブな方向に傾いてるんです。
もう一つ起こってることがあって、それは「AI alignment」っていう用語自体に表れてます。これはもともとこの分野全体で使われてた用語やないんです。元々は「AIリスク」か「AI安全性」って言ってたんです。
文字通り、キラーロボットみたいなものを心配してた人々から始まったんです。だから、実際の生命へのリスクについてやったんです。
語彙が「AIリスク」から「AI alignment」に変わったのは、約10年前です。これはめっちゃ示唆的やったんです。実際に何が起こってたかっていうと…
リスクの場合は、安全か危険かってはっきりしてます。でも、alignmentになると「何との alignment か?」って話になるんです。彼らが言うのは「人間の価値観との alignment」なんですけど、じゃあ「誰の人間の価値観?」ってなりますよね。
基本的に起こったのは、文字通り死に関する実存的な問題やったものを、ある一定の人々が道徳と倫理の問題に変えてしまったんです。
なぜそうしたかっていうと、一つには将来の道徳と倫理について正当な懸念があったからです。でも、もう一つには、自分たちがそれらの問題に答えられると考えたからなんです。
だからこそ、わいの記事ではリスク1として実存的リスクから始めて、リスク2として社会的リスク…彼らが言う「社会的害」のリスクに行ったんです。
「害」っていう言葉も、こういうものを扱ってるって気づく合図の一つですね。
AI alignmentとして表現されるこの2番目のリスクは、根本的に社会工学なんです。社会工学を扱う時は、必然的に政治を扱うことになります。
これがAIリスク分野の内部で起こった崩壊みたいなもんです。ちなみに、元々のAIリスク…キラーロボットを心配してた人々は、この変化にめっちゃ怒ってます。彼らの運動が基本的に社会活動家に乗っ取られたと思ってるんです。実際そうなんですけどね。
彼らは今、この分野の名前をもっとはっきりと彼らが心配してることを示すものに変えるべきだって提案してます。今のところ有力候補は「AIが全員を殺さないようにする主義」です。まだ広まってはいませんが、時間が解決するでしょう。
ジョン、ありがとうな。マーク、時間を割いて参加してくれてありがとう。ローレン、そろそろ締めくくりにしようか。他に何かあるか?
みんな、マークさん、ありがとうございました。
はい、すぐに。マーク、ありがとうございました。
この記事が気に入ったらサポートをしてみませんか?