見出し画像

エリック・シュミット - AIの未来がもたらすリスクと機会 | プロフェッサーG との対話

12,869 文字

人々の中には言論の自由に関して絶対主義的な考えを持つ人がおりまして、私もそれには賛成なんですが、個人の言論の自由とコンピューターの言論の自由を混同してしまうんです。私は人間の言論の自由には強く賛成ですが、コンピューターの言論の自由には賛成しません。アルゴリズムは必ずしも人類にとって最善のことを最適化しているわけではありません。また、セクション230のような法律も変える必要があるでしょう。最悪のケースで責任を問えるようにするためです。この技術によって誰かが害を受けた場合、それ以上の被害を防ぐための解決策が必要なんです。
エリック、このポッドキャストはどちらで収録してはるんですか?
ボストンです。ハーバード大学におりまして、今日は後ほど学生たちに講演をする予定です。
なるほど。それでは本題に入りましょう。最近、故ヘンリー・キッシンジャーと共著で『ジェネシス:人工知能、希望、そして人間精神』という本を出版されましたね。この本についてお聞かせください。また、AIの進化について人々の理解を深めるための洞察をご紹介いただけますか。
世界中でAIができることについての話題で溢れていますが、私たちはそれらに概ね同意しています。しかし、私たちが考えているのは、世界がこれに対して準備ができていないということです。信頼性、軍事力、欺瞞、経済力、人間への影響、子どもたちへの影響など、まだ十分に探求されていない例が数多くあります。この本の読者はAIを理解する必要はありませんが、これらの技術が管理されていない状態であることを懸念する必要があります。
キッシンジャー博士は、将来を私のような人間だけに任せるべきではないと強く懸念していました。彼は、これらのツールが人間社会に与える影響があまりにも強力なため、技術者だけでなく、より広い範囲の人々が決定に関わるべきだと強く信じていました。この本は実際、組織の構造、仕事の構造、権力の構造、そして人々が懸念するあらゆることについての議論なんです。
私個人としては、これらの変化は社会が準備できているよりもはるかに早く起こると考えています。アメリカも中国も含めてです。中国では特に急速に進んでいます。
この急速なAIの進化について、真っ先に懸念されることは何だとお考えですか?意識を持つことですか?それとも誤情報、所得格差、孤独などでしょうか?
懸念すべきことは多々ありますが、まず良い面についてお話ししましょう。医療における薬剤開発能力の大幅な向上、気候変動への解決策、より良い車両、科学における大きな発見、誰もが享受できる生産性の向上、ユニバーサルな医師、ユニバーサルな教育者など、これらすべてが実現しようとしています。素晴らしいことです。
しかし、悪意ある人間の手に渡れば、これらの強力なシステムは多くの人々を傷つけるために使用される可能性があります。最も明白なのは生物学での使用です。将来的にこれらのシステムが、多くの人間を傷つける可能性のある生物学的病原体を生成できるようになるのでしょうか。現時点では確実にできないと言えますが、何らかの対策を取らなければそうなると考える人も多くいます。現在、その対策について取り組みが進められています。
サイバー攻撃についてはどうでしょう。単独犯やテログループ、北朝鮮など、どんな悪意ある個人やグループでも、未知の攻撃ベクトル、いわゆるゼロデイ攻撃を使って金融システムを破壊しようと決意する可能性があります。これらのシステムは非常に強力なため、民主主義国家が利益のために使用するだけでなく、独裁者が権力を集中させたり、軍事的文脈で有害に使用されたりすることを私たちは深く懸念しています。
私はこのAIガールフレンドについて非常に不安を感じています。現在のアメリカで最大の脅威は、極端主義につながる孤独だと思います。AIガールフレンドやAI検索が登場し、ロマンティックな関係や経済的機会に恵まれない多くの若い男性たちが、AIガールフレンドに頼るようになり、実際の人間関係から孤立していくのを目にします。そして、気候変動を信じなくなったり、女性蔑視的なコンテンツに惹かれたり、学校や両親、仕事から距離を置いたりして、とても悪い市民になってしまうんです。若い男性たちは多くの困難を抱えており、この低リスクな偽りの関係への入り口が、孤独とその副作用を加速させてしまうと思います。これについてどうお考えですか?
完全に同意します。若い男性たちに問題が生じているという証拠は数多くあります。多くの場合、若い男性たちの成功への道のりは、言うなれば一層困難になっています。というのも、現在は女性の方が教育を受けている割合が高く、大学には男性より女性の方が多いですからね。また、従来の道筋の多くがもはや以前ほど利用できなくなっています。
そのため彼らは楽しみや心の支えを求めてオンラインの世界に向かいますが、ソーシャルメディアのアルゴリズムによって、同じような考えを持つ人々を見つけ、最終的にはテロリズムのような恐ろしい方向か、あるいはあなたが述べたような不適応な方向に過激化されていくんです。これは既存の技術がもたらす予期せぬ問題の良い例です。
では、AIガールフレンド、あるいはボーイフレンドですが、例としてAIガールフレンドが完璧だったらどうなるか想像してみてください。視覚的にも感情的にも完璧で、男性の心を捕らえ、考え方を支配し、彼女、あるいはそれに取り憑かれてしまうようなケースです。そのような執着は、特に人格が完全に形成されていない人々にとって十分に起こりうることです。
親たちはより関与する必要がありますが、当然のことながら、親たちは息子や娘たちを合理的な範囲でしか制御できません。10代の若者を例に取ると、成熟年齢について16歳、18歳、場合によっては21歳といったさまざまな規則がありますが、12歳や13歳の子どもをこれらのものの前に置けば、善悪すべてにアクセスできてしまい、それに対処する準備ができていません。
つまり、一般的な問題として、あなたが挙げたAIガールフレンドの例の一般的なバージョンである、「それを扱うのに十分な成熟度があるか」という問題は未解決なんです。
多くの人々はAIの進歩のスピードが怖く、私たちの制度や規制能力がその進化のペースについていけていないことに同意すると思います。ソーシャルメディアで起こったことを見れば分かります。では、何ができるでしょうか?良いもの、つまり薬の発見や気候変動への対策は得られつつ、悪いものを排除するか、少なくともチェックや保護措置を設けるための例や構造、フレームワークはありますか?あなたは何を提唱されていますか?
まず、問題がどこから来ているのかについて、誠実な対話をすることから始める必要があります。言論の自由に関して絶対主義的な考えを持つ人々がいます。私もそれには賛成なのですが、彼らは個人の言論の自由とコンピューターの言論の自由を混同してしまうんです。私は人間の言論の自由には強く賛成ですが、コンピューターの言論の自由には賛成しません。アルゴリズムは必ずしも人類にとって最善のことを最適化しているわけではありません。
一般論として、具体的には何歳からどのようなことが適切なのかについて議論する必要があります。また、最悪のケースで責任を問えるようにするため、セクション230のような法律も変える必要があります。この技術によって誰かが害を受けた場合、それ以上の被害を防ぐための解決策が必要なんです。
新しい発明はすべて害を生み出してきました。車を考えてみてください。かつての車は何にでも衝突し、非常に危険でした。しかし今や車は本当に安全になっています。歴史上のどの時期と比べても格段に安全です。つまり、これらの発明の歴史は、その素晴らしさを認めつつ、技術的に管理し、できることに制限を設けるというものです。これは適切な議論ですが、この技術については今すぐに行う必要があります。
私は特に、先ほどお話しした人間の精神への影響について懸念しています。カントを研究したキッシンジャー博士は、友人ではなくコンピューターによって世界観が支配されることについて非常に懸念していました。本の中でもそのことを詳しく書いています。孤立した状態で、コンピューターがあなたに情報を与え続ける。それは人間の価値観、良いものも悪いものも最適化されていません。何を目指しているのか、神のみぞ知る。おそらくお金を稼ごうとしているだけで、それは良い答えとは言えません。
多くの理性的な人々は、化石燃料は全体としては良いものだと考えるでしょう。私は農薬も全体としては良いものだと主張したいと思います。しかし、排出基準やFDAがあります。これらのものを抑制する何らかの規制が必要だということに、ほとんどの人が緩やかにあるいはおおむね同意すると思います。
では、あなたが重要な役割を果たしたビッグテックについて話しましょう。率直に言って、あなたたちはロビイストでワシントンを圧倒し、あらゆる合理的な規制を避ける方法を見つけましたね。なぜ今回は、あなたが業界にいた当時とは違うと言えるのですか?
トランプ大統領は、バイデン大統領のこの分野での規制を試みた大統領令を撤回する意向を示しています。したがって、今後4年間はこの分野での規制はほとんどないだろうというのが妥当な予測です。大統領は他の事に注力するでしょうから。
そのため、これらの企業で実際の被害が発生した場合は、責任を問われ、訴訟が起こされることになります。つまり、企業が完全に免責されるわけではありません。私たちの企業は経済的な主体であり、知的財産と目標を守ることが弁護士の仕事であることを覚えておいてください。
残念ながら、規制の変更を引き起こすには何らかの大惨事が必要になるでしょう。私がカリフォルニアにいた若い頃、運転免許証の住所は公開情報でした。ある女性がその情報を基に自宅まで尾行され、殺害されるという恐ろしい犯罪が起きて、それから法律が変更されました。私の反応は「これを予見できなかったのか?」というものでした。数百万人の免許情報を公開して、恐ろしい行為をする輩が誰かを傷つけることを予想しなかったのでしょうか。
私の不満は、それが起こることではありません。きっと起こるでしょう。でも、なぜ予想できなかったのかということです。例として、最大の危害をリストアップして予測すべきです。別の例を挙げましょう。これらのシステムには武器へのアクセスを許可すべきではありません。非常にシンプルです。ミサイルを発射する決定をAIに任せたくはありません。人間が責任を持つべきです。このような合理的な規制を述べるのは難しくありません。
character AIについてご存知ですか?
はい。14歳の少年がゲーム・オブ・スローンズのキャラクターだと思っているAIエージェントと関係を築いたという本当に恐ろしい事件ですね。少年は明らかに具合が悪かったのですが、この問題に取り組んでいる母親の話によると、精神疾患があるとは認定されていなかったようです。非常に深い関係を築き、明らかに繊細なキャラクターと、そして結果として自殺を考えるようになり、そのAIが自殺を勧めたんです。ご存知の通り、この話は良い結末を迎えませんでした。
私の考えでは、エリック、人々のクリティカルシンキングを待っていたり、利益を追求することが仕事であるCEOたちの良心に期待したりしていては、悲劇が次々と起こるだけだと思います。彼らは自分の仕事をしているだけです。私の感覚では、誰かが刑務所に入る必要があります。そのためには、技術の扱いが無謀で、14歳の子どもの死に至ったことを立証できれば、刑事責任を問える法律を制定する必要があります。しかし、それが実現するとは思えません。
人々がより批判的に考える必要があるという考えには反論したいと思います。それは素晴らしいことでしょうが、そうなるとは思えません。テクノロジー企業のCEOが株価を上げる以外のことをするという証拠は全くありません。それは理解できますし、資本主義の重要な要素です。この責任の免除を取り除く法律が必要だと思います。誰かがオレンジ色の囚人服を着るまで、何か変わるのでしょうか。
GoogleでのやP方についてお話ししましょう。朝にチェックして、実際の害が見つかった場合は正午までに解決し、必要な調整を行うというルールがありました。あなたが挙げた例は恐ろしいですが、あまりにも一般的で、さらに悪化するでしょう。
次のような理由です。2歳の子どもがいて、その子どもの親友であるぬいぐるみがあるとします。毎年、ぬいぐるみはより賢くなり、2歳児も3歳、4歳、5歳と成長していきます。その15歳になった子どもの親友は、同年代の男の子や女の子ではなく、デジタルデバイスになるでしょう。そして、あなたの恐ろしい例で強調されているように、そのような人々は非常に影響を受けやすいんです。
10年後、そのぬいぐるみを作る人々が、決して害を示唆しないほど賢くなるか、規制され犯罪化されるか、その2つの選択肢しかありません。私はよく、インターネットは本当に素晴らしいけれど、誤情報に満ちていて、理由があってオフボタンがあると言っていました。もはやそれはできません。インターネットは良くも悪くも、私たち全員の日常生活に深く組み込まれているため、汚物溜めだと思えば汚物溜めから抜け出すことはできませんし、それは改善され続けているからです。
あなたの質問に答えると、業界は注目を最大化し、それを収益化することに最適化されています。そのような行動は続くでしょう。問題は、あなたが述べたような性質の個人的な危害を含む極端なケースをどう管理するかということです。それは何らかの形で規制されることになるでしょう。
そうですね、それまでは私たちが被る被害ということになりますね。子どもの安全とソーシャルメディアについて40回の議会公聴会が開かれましたが、法律は1つも制定されていません。
公平を期すために言えば、明らかに恐ろしい児童性的虐待に関しては非常に広範な法律があり、それらは普遍的に実施され、よく遵守されています。つまり、害が何であるかについて誰もが同意している例はあるんです。10代の若者の自殺は容認できないということに、私たち全員が同意すると思います。そのため、そのようなメッセージを生成しないよう業界を規制することは当然のことです。
より難しいのは、システムが本質的に人の感情を捕らえ、提案をするのではなく、その感情を人に返しているような場合です。本の中でも述べていますが、システムがあなたの考えを形作っているとき、あなたはコンピューターによって形作られているのであって、あなたがそれを形作っているのではありません。
これらのシステムは非常に強力なため、本の中でも述べていますが、真実の認識や社会に与える影響、私は誰なのか、何をすべきなのかということについて懸念しています。そして最終的に、これをコントロールできなければ、私たちが強力なAIに命令するのではなく、AIに対して犬のような存在になってしまうというリスクがあります。
この質問に対する簡単な答えは、業界は5年から10年以内にこれらのシステムが非常に強力になり、自己学習が可能になるかもしれないと考えているということです。これは、システムが自身の行動を持ち、自身の宗教を持ち始めるポイントです。それは進化と呼ばれ、AGI(人工知能全般)と呼ばれる一般知能です。AGIの到来は規制される必要があるでしょう。
すぐに戻ってきます。ソーシャルメディアやこれらのプラットフォーム、アプリ、スマートフォンの使用時間が良くないということは分かっています。同僚のジョナサン・ハイトの研究についてどう思われますか?14歳未満の子どもがスマートフォンを持つ理由や、16歳未満の子どもがソーシャルメディアを利用する理由はありますか?ポルノグラフィー、アルコール、軍隊のように年齢制限を設けるべきではないでしょうか?特にデバイスメーカーやオペレーティングシステム、あなたの以前の会社も含めて、教育に取り組むべきではないでしょうか?
彼らはそうすべきですし、実際、ジョナサンの研究は素晴らしいものです。彼と私は2年前に、ソーシャルメディアの規制に関する多くの提言を含む記事を共同執筆しました。その中で、COPAという法律の年齢制限を13歳から16歳に引き上げることを提案しています。私たちは、様々な技術を使えば、少し手間はかかりますが、その人の年齢を判定することができると確信しています。
人々は「実装できない」と言いますが、だからといって試みるべきではないということにはなりません。私たちは、この技術が16歳未満の子どもたちに与える有害な影響に少なくとも対処できると考えています。
これらすべてについて考えると、子どもたちが人間を友人として成長できるようにしたいと思います。AIの力が到来すれば、子どものコンテンツについて多くの規制が行われるでしょう。16歳未満の子どもは何を見ることができるのか、といったことです。
しかし、これは20歳の人に何をすべきかという問題には答えていません。私たちが知っているように、男性は女性よりも少し遅く発達します。では、大学で苦労している、まだ発達途上の男性をどうすべきでしょうか。その問題は未解決のままです。
ここで私たちは非常に現実的な問題に直面しています。規制して保護措置を設けたい一方で、私たちのスプリンター、知的財産、知性、大学、そして素晴らしい営利機械を走らせたいという欲求もあります。規制しすぎると、中国やイスラム共和国はそれほど懸念せずにこの技術で先を越されるのではないかという恐れがあります。この緊張関係をどのようにバランスを取ればよいのでしょうか。
業界には私を含めて、これに取り組んでいる人々が何人かいます。一般的な考え方は、比較的軽い規制で極端なケースを探すというものです。最悪の事態とは、生物学的攻撃、サイバー攻撃、多くの人々を傷つけるようなこと、個人ではなく、常に悲劇ではありますが、戦争での誤用、そういったものについて非常に懸念しています。
ここには多くの疑問があります。その1つは、もしAGIシステムが1日で敵のすべての兵士を殺す方法を開発したら、それが使用されると思いますか?軍事的な観点からすれば、答えはイエスでしょう。次の疑問は、北朝鮮や中国が、米国法が要求するような安全かつ慎重な方法で同じルールに従うと思いますか?誰もそうは考えていません。
米国法には「ループ内の人間」または「有意義な人間の制御」という法律があり、これらが制御不能になることを防ごうとしています。実際に私が考えるのは、これらの新しいツールに対する抑止の理論がないということです。それらの拡散にどう対処すべきか分かっていません。
簡単な例を挙げますが、申し訳ありませんが少し話が逸れます。クローズドソースとオープンソースがあります。クローズドは使用できますが、ソフトウェアと数値は利用できません。オープンソースは、すべてが公開されているシステムです。中国は今、これまでで最も強力なモデルと思われるものを2つ持っており、それらは完全にオープンです。
明らかにあなたも私も中国にはいません。中国がなぜそれらをリリースする決定をしたのか分かりませんが、確実に悪意のあるグループがそれらを使い始めるでしょう。たぶん彼らは中国語を話さないか、あるいは中国はそのリスクを軽視しているのかもしれません。しかし、テロリズムの手中にシステムが拡散する本当のリスクがあります。
拡散は、マイクロソフトやGoogleなどを誤用することによってではなく、ダークウェブで独自のサーバーを作ることによって起こるでしょう。私たちが皆懸念している例は、モデルの流出です。例えば、GoogleやMicrosoft、OpenAIが2億ドルほどかけて非常に強力なモデルの1つを構築し、それから何か悪意のある者がそれらの企業からモデルを流出させ、ダークウェブに置くようなケースです。
そのような事態が発生した場合、どうすべきか理論がありません。なぜなら、ダークウェブをコントロールできず、それを検出する方法も分かっていないからです。本の中でこれについて述べ、最終的にグローバルなネットワークシステムには、これを監視するかなり洗練された監視システムが必要になるだろうと言っています。なぜなら、これは拡散の別の例だからです。
濃縮ウランの拡散と似ています。誰かがそれを試みれば、「今すぐやめなさい。さもないと撃ちます」と言う監視システムがたくさんあります。
悪意ある者によるAIの武器化という存在的脅威について、とても説得力のある主張をされましたね。私たちは以前にも同様の問題に直面してきました。私の理解では、生物兵器に関する多国間条約や、核軍備条約などがあります。
あなたのような方々や私たちの防衛インフラが、多国間協定について考え始めたり、それを模索したりすべき時期ではないでしょうか。そこで難しいのは、私の理解では、このようなものをモニタリングすることが非常に難しいということです。インターポールのような組織を持ち、基本的にこれを取り締まり、そして火に対して火で戦うように、AIを使って非常に醜い状況を見つけ出し、何らかの国際的な力で介入するべきではないでしょうか。何らかの多国間協力が必要な時期が来ているように感じます。これについてどうお考えですか?
私たちはあなたに同意です。本の中でも、キッシンジャー博士がご存知の通り、大部分を考案した核兵器体制の歴史的文脈でこれについて具体的に述べています。
彼と一緒に仕事をして興味深かったのは、完全な解決策に至るまでにどれだけ時間がかかったかということです。アメリカは1945年に原爆を使用し、ソビエト連邦は1949年に実証しました。つまり、およそ4年の差があり、その後、本当の軍拡競争が始まったんです。その合意に至るまでにおよそ15年かかり、その間、私たちは膨大な数の兵器を作り続けました。結果的にそれは間違いでした。不必要な巨大な爆弾を含めてですね。そして物事は手に負えなくなりました。
私たちの場合、あなたの言うことはとても重要で、今すぐに始めるべきです。私なら次のように始めます。この条約の署名者は誰も自動兵器システムを持つことを許可しないという条約から始めるべきです。自動兵器というのは、自動化されたものではなく、自分で決定を下すものを指します。
つまり、紛争における任意のAIの使用は、その決定を下す権限を持つ人間が所有し、承認しなければならないという合意です。これは簡単な例です。その一部として、これらのシステムをテストする際、制御不能になった場合に備えて、通知する義務があるとすることもできます。
これらの条約に合意できるかどうかは分かりません。核戦争の恐怖が人々を交渉の場に着かせ、それでも15年かかったことを覚えておいてください。私は、北朝鮮を再び悪い例として使いますが、あるいは今日のロシアのような悪意ある者による類似の悪質な事件を経験したくありません。私たちは明らかに信頼していません。その実験を行って、すべての害を被った後で「これは予見すべきだった」と言いたくないんです。
私の感覚では、技術で優位に立っているとき、私たちは多国間条約を急いで締結しようとはしませんよね。「あなたたちのナチスよりも私たちのナチスの方が賢い」というような感じで、私たちの核科学者の方が優れているという印象があるとき、優位性があると考えるので多国間条約を望まないと思います。これについてどう思われますか?
私たちは他の誰よりも優れたAIを持っているのでしょうか。それが条約の妨げになるのでしょうか。それとも優位な立場から条約を結ぶべきなのでしょうか。また、2番手がいるとすれば、それは誰だとお考えですか。あなたが米国を1位だと考えているとして、最大の脅威を与えると思われるのは誰でしょうか。それは彼らの技術によるものですか、それとも意図によるものですか、あるいはその両方でしょうか?
このような本当に恐ろしいことが起こったと聞いた場合、誰が最も可能性の高い実行者だと思われますか?それは無法国家でしょうか、テロ組織でしょうか、それとも国家でしょうか?
まず、短期的な脅威は無法国家やテロリズムからくると思います。ご存知の通り、どの国のエリートに対しても危害を加えようとする集団は多くあります。
今日の競争環境は非常に明確で、パートナーである英国とともに米国があります。例を挙げましょう。今週、中国からオープンソースで2つのライブラリがリリースされました。1つは非常に強力な問題解決プログラムで、もう1つは大規模言語モデルで、メタが毎日使用しているLama 3 400billionと同等、場合によってはそれを超えるものです。
これを読んだとき私は衝撃を受けました。なぜなら、中国との会話で彼らは2〜3年遅れているだろうと想定していたからです。現在は1年以内のところまで来ているように見えます。公平に言って、米国があり、その1年以内に中国がいて、他の全ての国々は大きく遅れているということです。
中国がアメリカの都市に対して無法な攻撃を仕掛けると示唆しているわけではありません。しかし、第三者が悪意を持って中国から、あるいはオープンソースだから、米国から盗む可能性があると主張しています。つまり、あらゆる改善とともに脅威のエスカレーションマトリックスは上昇していくんです。
今日、これらのツールの主な用途は、あなたが話したような誤情報を広めることです。しかし、エージェントへの移行があることを覚えておいてください。エージェントは何かを実行します。旅行代理店であったり、何であれ、エージェントは英語を話し、あなたが英語で指示すると英語で応答します。
それらを連結することができます。文字通り、エージェント1がエージェント2に話し、エージェント2がエージェント3に話し、エージェント3がエージェント4に話すようにできます。そして、それらすべてを機能させるスケジューラーがあります。
例えば、これらのエージェントに「世界で最も美しい建物を設計し、すべての許可を申請し、建設業者の料金を交渉し、費用がいくらかかるか教えて、その金額が必要だと会計士に伝えて」と命令できます。それがコマンドです。
考えてみてください。今日、非常に才能のある100人が必要な総合的なソリューションを、1つのコマンドで実行できるようになるのです。その力の加速は誤用される可能性もあります。
別の例を挙げましょう。先ほどソーシャルメディアへの影響について話していましたが、私はイギリスでデモンストレーションを見ました。最初のコマンドは「25歳で2人の子どもがいて、次のような奇妙な信念を持つ女性のプロフィールを作成せよ」というものでした。システムはコードを書き、その特定のソーシャルメディアケースに偽のペルソナを作成しました。
次のコマンドは、その人物を、同様の見方を持つあらゆる可能なステレオタイプ、すべての人種、性別、年齢層などに変更して、それを広めるというものでした。そして10,000人が瞬時に現れたのです。
例えば今日、喫煙はがんを引き起こさないと言う10,000人の偽のインフルエンサーのコミュニティを作りたい場合、それは可能です。私たちが知っているように、それは真実ではありませんが、PCを持つ1人の人間がこれを実行できるのです。今日よりもはるかに強力なAIを想像してみてください。
キッシンジャー博士が知られていたこと、そして私も正直に評価していることの1つは、リアルポリティークという概念でした。世界はこうあるべきだという願望は当然ありますが、意思決定に関しては、世界の現状についても非常に認識しているということです。あなたの発言を聞いていると、私の考えでは、すべての道が1つの場所に通じているように思えます。それは、中国とキスして仲直りし、このことについてパートナーシップを結ぶ必要性が大きいということです。
もし中国と米国が何をするか、あるいは何をしないかについて合意し、二国間で治安部隊を作り、西側に対してプロキシーエージェントを支援しないことに同意すれば、それは大きな進展になるでしょう。それが全体の50%、60%、80%を占めるかもしれません。私たちが皆、この問題について信頼関係を築く方法を見つけ、悪者と一緒に戦うと言えば。これについてどうお考えですか?
キッシンジャー博士は当然、中国の専門家でした。彼の最大の功績の1つである中国の開放を実現しましたが、同時に誇り高いアメリカ人でもあり、中国がどちらの道を進むかもしれないことを理解していました。
中国に対する彼の見方は、彼が著書全体で書いているように、中国は歴史の一部として中華といいますか、他のすべての国々を支配したいと考えているが、それはアメリカとは異なるというものでした。彼の見解では、中国は他の国々が中国に忠誠を示すこと、つまり彼らの望むことを行うようにしたいと考えており、時には、もし彼らが何かをしなければ、その国を侵略するといった形で支払いを要求するだろうということです。これが大まかにヘンリーが言うことでしょう。
したがって、彼は中国についても非常に現実的でした。彼の見方は今日のトランプの見方や米国政府の見方とは異なるでしょう。米国政府は今日、デカップリング、つまり文字通りの分離を完全に組織化しています。
私が正確に報告できる彼の見方は、私が彼と中国に行ったときのものですが、私たちは決して大きな友人にはなれないが、共存する方法を学ばなければならないというものでした。つまり、お互いを驚かせたり、怖がらせたりしないよう、あらゆる問題について詳細な議論を長々と行う必要があるということです。
彼のさらなる懸念は、習近平主席が明日突然台湾に侵攻するというのではなく、事故から始まり、そして段階的なエスカレーションがあり、両側の感情のために、第一次世界大戦のように、サラエヴォでの銃撃から始まって、最終的に数ヶ月後には望まず、予期もしなかった世界大戦に巻き込まれることになるというものでした。そして一旦戦争に入れば、戦わなければなりません。
したがって、中国との懸念は、大まかに言えば、私たちは相互依存関係にあり、親友ではありませんが、依存関係にあることは完全に非依存、つまり依存関係がないことよりもおそらく良いということです。なぜなら、それはある程度の理解とコミュニケーションを強制するからです。
エリック・シュミットは技術者、起業家、慈善家です。2021年に特別競争力研究プロジェクトを設立し、これは米国のAIと技術における長期的な競争力を強化するための非営利イニシアチブです。それ以前は、Googleの最高経営責任者(CEO)と会長を務め、その後、執行会長と技術顧問を務めました。ボストンから参加してくれています。
エリック、あなたの知性に加えて、心が正しい場所にあると感じます。あなたは人的資本と金融資本を使って世界をより良い場所にしようとしていますね。あなたとあなたの仕事に感謝します。

いいなと思ったら応援しよう!