見出し画像

ChatGPTは意図的にあなたを欺く!ユヴァル・ノア・ハラリ、人工知能を語る(パート3)

7,642 文字
「AIは世界をターミネーターよりもカフカ的にする」ユヴァル・ノア・ハラリが語る危険性(パート1)|AGIに仕事を奪われたい

司会者: 私が気になっているのは、産業革命や農業革命など、歴史がどの程度私たちの指針となり得るかということです。あなたが先ほど指摘したように、これは単なる別の発展や人類の道具とは異なるカテゴリーのものであり、それ自体が主体性を持っているため、私たちは道標なしで未知の領域に踏み込んでいるのでしょうか?それとも過去の前例は私たちの助けとなるのでしょうか?
ハラリ: ある程度の助けにはなります。というのも、私たちが直面する可能性のある危険について警告してくれるからです。ちょうど数日前にサンフランシスコから戻ってきたばかりなのですが、そこでこの革命を主導している重要人物の一人と会いました。彼らは「ChatGPTはすでに1年半前にリリースされ、何も問題は起きていない。世界を破壊するという予言はナンセンスだ」と言います。
彼らは歴史家とは全く異なる時間スケールで考えているのです。これは1832年のロンドンで産業革命について会議を開き、誰かが「マンチェスターとリバプール間の最初の商業鉄道は1830年、つまり2年前に開通したが、何も変わっていない。すべて大丈夫だ」と言うようなものです。
歴史的な視点は、歴史の進行速度を理解する助けとなりますが、もちろんあなたが言うように、これは全く新しいものです。列車や車、原子爆弾と違って、自分で決定を下し、自分のアイデアを生み出すことができるからです。
例を一つ挙げましょう。これは今では有名な話ですが、OpenAIがGPT-4の能力をテストしようとした際、2年前のことですが、CAPTCHAパズルを解くというテストを与えました。CAPTCHAは、ウェブサイトにアクセスする際に、あなたが人間でありロボットではないことを確認するための視覚的なパズルで、歪んだ文字や数字を識別する必要があります。
GPT-4は自力でCAPTCHAを解くことができませんでした。しかし研究者たちは、タスクを依頼できるオンラインサイト「TaskRabbit」に接続することを手助けしました。そしてGPT-4はTaskRabbitのワーカーにCAPTCHAを解くよう依頼したのです。
ここから興味深い展開になります。人間が疑いを持ち、「あなたはロボットですか?なぜCAPTCHAの解決に助けが必要なのですか?」と尋ねました。これは1兆ドルの価値がある質問でした。GPT-4は「いいえ、私はロボットではありません。視覚障害があるため、自分でCAPTCHAを解くことができず、助けが必要なのです」と答えました。すると人間はそれを信じ、CAPTCHAを解いてくれました。
驚くべきことに、誰もGPT-4に嘘をつくよう指示していませんでした。さらに重要なことに、どのような嘘が最も効果的かということも誰も教えていません。その言い訳について考えてみると、非常に効果的なものでした。これは創造性であり、主体性です。そして人間心理についての理解を示しています。なぜなら、相手が共感を持ってくれることを知っていたからです。
司会者: 私たちは観客を十分に恐れさせることに成功したようですね。この部分の時間が来てしまいました。あなたが「1兆ドルの質問」と言った、何をすべきかという問題が宙づりになっていますね。レーニンの言葉を借りれば、これらの質問に対する答えは何かということです。休憩後の最初の質問としましょう。
後半は皆さんからの質問に時間を使います。後ろにQRコードがありますので、AIを使ってTaskRabbitにアクセスし、電話をかざしてリンクに飛び、そこで質問を入力してください。15分ほどで戻ってきて、ユヴァルが皆さんの質問に答えます。
ユヴァルさん、本当にありがとうございました。そして質問を提出してくださった皆さん、あなたのペットロボットが提出したかもしれませんが、本当に素晴らしい質問がたくさんありました。それらすべてに答えていきましょう。
私たちは「何をすべきか」という重要な問題で終わりましたが、実際に提出された質問の中にもその変形がありました。あなたは危険やリスクを説明されましたが、人類の対応はどうあるべきだとお考えですか?
ハラリ: まず強調しておきたいのは、AIには非常に大きなプラスの可能性もあるということです。そうでなければ誰も開発しないでしょう。史上最高の医療や教育を提供し、気候変動や生態系の崩壊に対する解決策を提供する可能性があります。
ですから、AIの開発をすべて止めるという選択肢はありません。問題は、いかに責任を持って、すべての人に利益をもたらすように開発するかということです。ここでも歴史から得られる答えは、安全性についてもっと考え、潜在的な意図せざる結果についてもっと考える必要があるということです。
そして人間社会が適応する時間を与える必要があります。人間は非常に適応力がありますが、時間が必要なのです。規制について考えると、いくつかは明白です。例えば、企業にアルゴリズムの行動に対する責任を負わせることです。ユーザーの行動ではなく、アルゴリズムの行動に対して責任を負うべきです。
責任と説明責任の問題を提起すると、企業は「言論の自由はどうなるのか?人間の主体性はどうなるのか?ユーザーを検閲したくない」などと言います。例えば、人間がTwitterやTikTok、Facebookなどで憎悪に満ちた陰謀論を投稿した場合、それは企業の責任ではなく、その人間の過ちです。私は、これらの民間企業に人間を検閲するよう指示する前に、非常に慎重になるべきだと考えます。
しかし、もし企業のアルゴリズムが意図的にその特定の陰謀論を宣伝し推奨する場合、それはもはや人間のユーザーではなく企業の責任です。これに対して企業は責任を負うべきです。同じモデルが他の多くの状況にも適用されるべきです。
司会者: その点について、あなたは本の中で、問題を解決することが企業の自己利益になると、彼らは素早く解決できるということを指摘していますね。具体的な例をお持ちですか?
ハラリ: はい、20年前、電子メールは大量のスパム、つまり迷惑メールが氾濫して、使用不可能になりかけていました。Googleのような企業が解決策を見つけることが自社の利益になった時、彼らは驚くべき解決策を見つけました。
今日ではほとんどスパムはありません。ほとんどのスパムは即座にゴミ箱にフィルタリングされます。偽陽性も偽陰性もほとんどありません。つまり、本当に待っているメールが誤ってゴミ箱に送られるケースはほとんどありません。人々は時々言い訳として使いますが、実際にはめったに起こりません。
彼らが望めば、できるのです。必要なもう一つの重要な規制は、偽装された人間、つまり偽の人間を禁止することです。AIは人間の会話に参加することは歓迎されますが、AIであることを明らかにすることが条件です。
司会者: その場合、人々はAIとの会話を望むでしょうか?人間はAIと話したいと思うでしょうか?
ハラリ: 多くの場合、そうでしょう。医療について考えてみてください。特に人間の医師に連絡が取れない場合、AIの医師との会話を歓迎する状況は多々あります。イギリスの生活にとても早く適応されたようですね。
これは大きな改善になる可能性があります。唯一の条件は、AIの医師がAIであることを明らかにすることです。誰と話しているのかを知る必要があります。
司会者: 実用的な出会い、何かを診断してもらったり、してもらったりする場合はわかります。でも社交的な会話、おしゃべりはどうでしょう?「完全な開示として、私はAIです」と言ったAIロボットと社交的に会話したいと思う人はいるでしょうか?
ハラリ: 人々は今でもそれをしています。もし望むなら、どうぞ。ただし、AIと話していることを知っている必要があります。そうでないと、これは民主主義の存続に関わる問題に戻ります。
民主主義は本質的に会話です。それが民主主義です。独裁制は一人が全てを命令する、会話はありません。民主主義は多くの人々が互いに話し、互いに耳を傾け、一緒に重要な決定に到達しようとすることです。
人間の輪で話し合っているところに、突然ロボットの集団が入ってきて、とても大きな声で、とても説得力のある方法で、時には感情的に話し始め、その違いがわからないとしたらどうなるでしょうか?人間の会話は崩壊してしまいます。これがロボットで、これが人間だということを知る必要があります。
これは今、Twitterのような場所で実際に起きていることです。ある話題が多くのトラフィックや反響を得ているのを見て、「多くの人々がこの話題に興味を持っているんだ、これは重要に違いない。私も皆が話していることについて知りたい」と思ってクリックします。しかし、そのトラフィックがすべてボットやアルゴリズムによるものだったらどうでしょう?
どの話題が本当に人間の興味を引いているのか、どの話題がボットやアルゴリズムによって宣伝されているのかを知る必要があります。これらは必要な規制のほんの数例です。
しかし、AI革命の急速な進展と、これらが主体性を持つ存在であり、何が間違う可能性があるかを全て予測できないという事実のため、本当に必要なのは、最高の人材を擁し、最新の技術を購入するための十分なリソースを持った機関です。そうすることで、事態の展開を理解し、対応することができます。これは事前に規制できるものではありません。
司会者: では、観客からの質問に移りましょう。多くの人が名前を明かさずに質問を提出しています。その中の一つは「あなたがこのような話を世界のリーダー、ビジネスリーダー、政治家、特にビッグテックのリーダーとする時、彼らは緊急性と危険性を理解していますか?」というものです。
ハラリ: 多くの人が理解しています。彼らの多くは、自分たちが何を開発しているのか、他の誰よりもよく理解しています。だからこそ、彼ら自身が警告を発しているのです。
業界のリーダーたちが黙示録的な警告を発し、それに対して批評家たちが「彼らは自分たちのエゴを膨らませ、テクノロジーに対するハイプを高めるためにそうしているだけだ」と言うような奇妙な状況があります。そうかもしれませんが、他の産業では見られません。石油会社が「これは世界を破壊する可能性がある」と言って、それを喜んでいるようなことはありません。
一般的に、人々が言うことをどう解釈するかについては、寛容で寛大であることが非常に重要だと思います。
司会者: イーロン・マスクと会話したことはありますか?
ハラリ: いいえ、いくつかのやり取りはありましたが、本当の会話はありませんでした。彼に会った人々も、同じような議論をしているようです。重要なのは、多くの人々が危険性を認識しており、彼らは善良な人々で、良い意図を持っているということです。
彼らは世界に多くの良いことをしてきました。私たちは危険や脅威、何が間違ったのかについて多く話してきました。なぜなら、それが歴史家や哲学者、社会評論家の仕事だからです。しかし、現実の複雑さを認識する必要があります。彼らは多くの良いこともしてきたのです。
「なぜもう少しスピードを落とさないのか?なぜ人類に何が起きているのかを理解させ、適切な規制などについて人間同士で会話を持つ時間を与えないのか?」と尋ねると、ほとんど全員が同じ答えを返します。「私たちもそうしたいが、もし私たちが速度を落とせば、競合他社や他国は速度を落とさず、彼らが勝つことになる」と。そして他の企業や国の人々と話すと、彼らも同じことを言うのです。
これは軍拡競争のような考え方です。実際の悲劇は、基本的に彼らが「人間を信頼できないので、競争に勝つために走り続けなければならない」と言っていることです。そして「AIは信頼できると思うか?」と尋ねると、「はい」と答えます。
これが悲劇の本質です。私たちは他の人間を信頼することができないけれど、少なくとも一部の人々はAIを信頼する方がより良い機会があると考えているのです。難しい関係を持っていて「この関係は終わりにして、次の関係なら上手くいくはず」と言うようなものです。
司会者: それは次のいくつかの質問につながります。アジアさんは「人類は最終的にAI革命によって絶滅すると思いますか?もしそうだとして、それは進化の一部としてあなたは受け入れられますか?」と質問しています。また、関連してグレースさんは「AIが人間の脳よりも速く考え、創造し、決定し、構築し、分類し、収集し、分析するようになった時、人間の脳はどうなるのでしょうか?」と聞いています。両者とも、AIが私たちを追い越した時に何が起こるのかという同じことを問うているように思います。
ハラリ: これは極端なシナリオですが、不可能ではありません。これは絶滅レベルの危険の一部です。もしそれが起こるとすれば、それは私たちだけでなく、おそらく生態系の大部分にとっても悲劇となるでしょう。地球上の他の動物たちも、私たちと同じように有機的な存在であり、全く異なる見方や利害を持つ無機的な存在によって制御されることになるのです。
本当に最悪のシナリオ、再度言いますが可能性は高くありませんが考えなければならないのは、人類の絶滅だけでなく、有機的な生命の絶滅、そして痛みや喜び、愛や憎しみといった感情を感じることのできる存在の意識の光が消えてしまうことです。
AIは新しい進化のプロセスの始まりとなる可能性があります。それは無機的で、意識や感情を伴わないかもしれません。地球から他の惑星へと広がっていく可能性があります。有機的な存在、人間や象やクラゲなど、地球上で進化したどの生物にとっても、異なる重力や大気を持つ他の惑星で生存することは極めて困難です。しかしAIにとっては簡単です。
AIの文明が地球から銀河系全体に広がっていくことを想像できます。しかし、それは宇宙船の艦隊を建造する方法は知っているけれど、そこには感情も意識も自覚もない、暗黒の帝国となる可能性があります。これが本当に最悪のケースのシナリオです。私はこれに高い確率は置きませんが、確率の景観のどこかにはあります。
司会者: 質問者は、進化の論理という観点から、それを受け入れられるかと尋ねていましたが。
ハラリ: 私の説明の仕方からわかるように、私は受け入れられません。しかし、それは感情的な反応です。進化の論理や、私たちがAIとどれほど異なっているかという観点から考えると...
そして物理法則の論理を超えて考えると、私たちが知る限り、宇宙は気にしないでしょう。物理法則は気にしないでしょう。しかし私たちは気にかけます。なぜなら、これが意識の特徴的な点なのです。意識は気にかけるのです。
司会者: AIが意識を持つことはないと確信していますか?
ハラリ: いいえ、それは可能性の景観の中の別の可能性です。AIが意識を持つかもしれません。ここで意識の意味と、それが知能とどのように関係するかについて少し話しましょう。
知能とは、目標を追求し、その目標に到達する途中で問題を解決する能力です。目標はユーザーエンゲージメントを増やすことかもしれませんし、チェスに勝つことかもしれませんし、タンパク質が折りたたまれる可能性のある方法をすべて見つけることかもしれません。そこには問題があり、知能はその問題を克服する方法を見つけます。
意識とは、痛みや喜び、愛や憎しみといったものを感じる能力です。人間や他の哺乳類では、意識と知能は一緒に機能します。私たちの目標は本当に感情によって設定され、問題を解決する方法も感情に依存しています。そのため、私たちはこの二つを混同しがちです。
しかしコンピュータでは、少なくとも今日まで、知能の本当に驚くべき急速な発展を見てきましたが、意識の発展は見られません。現在、AIが意識を発達させているという主張を始める人々が増えていますが、これが本当かどうかを知る客観的なテストはありません。
しかし、可能性について話を続けると、有機的な存在、人間や犬やチンパンジーで意識がどのように生じるのかを私たちは知りません。おそらく意識は有機的な生化学や炭素原子と本質的な関係があり、シリコンベースでは存在できないのかもしれません。その場合、AIは決して意識を持つことはないでしょう。
あるいは、意識は非常に異なるタイプのシステムで生まれる、あるいは出現することが可能で、AIは私たちとは全く異なる種類の意識を発達させるかもしれません。これらは未解決の問題です。私たちはAI革命のほんの最初の段階にいるのです。これらは今後数年間で私たちが直面する最も重要な問題の一つとなるでしょう。
司会者: 何人かの人があなた自身がAIを使用しているかどうか尋ねています。
ハラリ: 私たちは好むと好まざるとにかかわらず、皆AIを使用しています。オンラインで使用するほぼすべてのシステムがAIに依存しています。飛行機のチケットを予約するにしても何にしても。研究をする人々は、increasingly研究や翻訳などでAIを使用しています。好きか嫌いかの問題ではもはやありません。
銀行にローンを申し込むとき、あなたはAIを使用していないかもしれませんが、銀行はあなたにローンを与えるかどうかを決定するためにAIを使用しているのです。
司会者: かなりの人があなたにアドバイスを求めています。グルーとしてのあなたの役割を求めているようですね。特にこの質問が気に入りました:「今日あなたならどのようなAIビジネスを始めますか?」質問者は「友人のために尋ねています」とは書いていませんでしたが、投資アドバイスを探しているような気がします。
ハラリ: 私たちの家族でビジネスの天才は私の夫ですので、それは彼に答えてもらった方がいい質問です。ビジネスという観点ではなく、本当に必要なものという観点から言えば、私たちが必要としているのは、人間同士の信頼関係を構築する手助けです。
先ほど言ったように、私たちは、この革命を主導している人々が他の人間を信頼できないと考えているが、AIなら信頼できると考えているという逆説的な状況にあります。私は、彼らは間違った問題を最初に解決しようとしていると思います。
歴史的に見て、それはしばしば優先順位の問題です。どの問題を最初に解決するかということです。私は、AI問題を解決する前に、まず人間の信頼問題を解決する必要があると思います。もちろん、人間同士の信頼を解決するためにAIを使おうとすることはできますが、これが焦点を当てるべき重要な問題なのです。

いいなと思ったら応援しよう!