![見出し画像](https://assets.st-note.com/production/uploads/images/100771131/rectangle_large_type_2_40504fe1bf49eacddd58747e9dadff62.png?width=1200)
【翻訳の訓練】OpenAI CEO, CTO on risks and how AI will reshape society
OpenAI CEO, CTO on risks and how AI will reshape society - YouTube
ChatGPTが引き出す創造力とAI技術による未来の変化とリスク
Rebecca Jarvis: あなたは37歳でOpenAIのCEOですね。そしてあなたの会社は、世界中で話題のChatGPTを作っている会社です。
どうしてChatGPTが人々の想像力を引き出すのだと思いますか?
![](https://assets.st-note.com/img/1679379583298-fylZ2iM0aG.png?width=1200)
Sam Altman: そうですね。それは、人々が楽しみながら、可能性を感じているからだと思うんです。みんなそれに刺激されて、創造力を発揮させたり、学びを支えたり、様々な課題を解決する手助けになっているからだと思います。そして、実験と創造的な使い方が報われる技術でもあります。だから、みんな楽しく遊んで、実際の価値を見つけているんだと思います。
Rebecca Jarvis: では、1年後、5年後、10年後、AIによってどのような変化が起こるのか、私たちにあなたのイメージを教えて下さい。
Sam Altman: 私たちにとって興味深いのは、むしろみなさんの創造力がどんな新しいビジョンを見せてくれるのかです。これを活用する方法を見つけるのは、人類全体の力と創造力と意志によって決まるでしょう。驚きというものは、人々にとっては興奮と恐怖の両方をもたらします。一方で、善の可能性がたくさんあり、一方で社会にとって非常に悪い結果になる可能性もあるからです。
Rebecca Jarvis: 悪い結果、リスクについてどう思いますか?
Sam Altman: 注意深くあるべきです。でも、すべてを研究室で行うのではうまくいかないと思います。現実に触れるために、これらの製品を世界中に普及させ、リスクが低い段階で失敗を繰り返すことが大切だと考えています。私たちがこの技術に対して少し怖がっていることに、皆さんはポジティブにとらえて欲しいと思っています。
Rebecca Jarvis: ちょっと怖い?
Sam Altman:もちろん、 少し。もし、私がそうでないと言ったら、私を信用するべきではないと思いますし、私がこの仕事について非常に不満を持っていると考えるべきだと思います。
Rebecca Jarvis: 最悪のシナリオは何でしょうか?
Sam Altman: 非常に悪いシナリオがいくつかあると思います。私が特に心配しているのは、これらのモデルが大規模なディスインフォメーションに利用される可能性です。また、これらのシステムがプログラミングがうまくなっているため、サイバー攻撃に利用されることが心配です。だから、私たちはこれについてよく話し合っています。社会が対応するために時間が必要だと思います。
Rebecca Jarvis: あなたが作ったものが、そうした結果につながらないと自信を持って言えますか?
Sam Altman: 私たちは常に対応しています。また、私は…
Rebecca Jarvis: ネガティブなことが起きたらそれを逐次対処するのですか?
Sam Altman: もちろんです、もちろん。現在の状況では、リスクが比較的低い段階でこれらのシステムを導入し、できるだけ多くのことを学び、それを私たちが今後創り出すシステムにフィードバックすることによって、私たちが取り組んでいるタイトなフィードバックループが、より危険なシナリオを回避するはずだと考えています。
技術の悪用リスク、システム開発の目的、選択的なカスタマイズの必要性
Rebecca Jarvis: あなたはこの技術の開発に24時間365日を共にしています。あなたはこの技術を開発した人の一人です。安全性について何が最も懸念されますか?
Mira Murati: これは非常に汎用的な技術です。そして、これほど汎用性のあるものがあると、前もってすべての機能や、すべての潜在的な影響を知ることは難しいです。それに伴う問題点や限界も理解する必要があります。
![](https://assets.st-note.com/img/1679379541776-eVfFtWGNDw.png?width=1200)
Rebecca Jarvis: 誰かが技術を悪い方向に導くことができますか?
Mira Murati: 答えは、Yesです。悪い結果に導くことができます。だから最初は非常に制約された状態で利用できるようにし、それによって悪影響を及ぼす可能性があるものが何かを学ぶわけです。
例えば、GPT-4に爆弾を作る手助けをしてほしいと言うと、以前のシステムと比べて、その指導に従う可能性はずっと低いです。なぜなら、悪影響を及ぼす可能性があるものがわかっているので、それを事前トレーニング段階で考慮して、有害な指示やガイダンスを拒否するようモデルを作ることができます。
Rebecca Jarvis: 今の状況では、人間か機械か、どちらが予測が容易でしょうか?
Mira Murati: おそらく機械だと。なぜなら、科学的なプロセスがあり、それを理解しているからです。人間はずっと多くのニュアンスがあるから難しい。
Rebecca Jarvis: 時間と共に機械が人間のようになりますか?
Mira Murati: いまでも機械がいくつかの認知作業が可能になっているところです。
Rebecca Jarvis: そのプロセスで、引き返すことができないポイントがありますか?
Mira Murati: ありえるかもしれない。でも、今のところそれがどこで見えてくるか明らかではないです。
Rebecca Jarvis: あなたたちの目標は、システムを開発する前に、能力に関してできるだけ予測すること(限界についても)を確実にすることですよね?
Mira Murati: そうです。たとえば、それがどのように機能するかは、人間が選択して行動を起こすことに非常に大きく関わっています。だから今は、技術にフィードバックされる、人間が選んで行動を起こす選択が、それが何をするかを決めます。
Rebecca Jarvis: あなたとあなたのチームが非常に重要な選択をしていますね。
Mira Murati: はい。
Rebecca Jarvis: では、正と悪、どちらを選ぶか決める方法は?
Mira Murati: たくさんの進歩をしているにつれ、これらの決断はより難しくなり、ずっとニュアンスに富んだものになると思います。カスタマイズに関するいくつかの要素もあります。モデルをより有能にするだけでなく、振る舞いをカスタマイズできるようにし、ユーザーが自分の価値観や信念に合ったAIを持つことができるように、柔軟性と選択肢を多く提供する部分が必要だとおもっています。それはとても重要であり、私たちはそれに取り組んでいます。
カスタマイズされたAIの可能性と懸念
Rebecca Jarvis: 言い換えれば、未来は、それぞれの人が自分に特化したカスタマイズされたAIを持つ可能性があるということですか?
Mira Murati: ある程度の範囲内でね。でもその範囲がどのようになるべきかという問題がある。
これについては、公に意見を集める作業を行っています。これらの制約条件の範囲はどのようなものであるべきか?そして、この制限の範囲内で、自分の信念や価値観を代表するようなAIを持つために、どんな選択肢があるかを。
Rebecca Jarvis: 懸念されるマイナスの結果はありますか?
Mira Murati: これほどの力があり、多くの良いことが可能になるものを作るとき、非常に大きな悪影響が及ぼされる可能性があると思います。それと同時に、大きな害をもたらす可能性もあります。だから私たちはここにいて、これらのシステムを責任を持って展開する方法を見つけようとしています。しかし、善の可能性は大きいと考えています。
技術の開発目的とResponsibilityを担う重要性
Rebecca Jarvis: なぜ、これがどこへ向かっているのか分からない状態で、世界に公開して遊んだり、使い始めてもらうのですか?つまり、なんでAIを開発するのですか?
Sam Altman: 私たちがシステムを開発して提供している理由は、今日コードライティングの助けをしているこのツールを副パイロットとして考えているから。すべての職業にこのツールが使え、生活水準がはるかに高くなるようになります。たしかに、大きな潜在的なデメリットがあります。人々は、この技術に慣れるために更新や反応、デメリットや緩和策を理解するために時間が必要です。もし私たちがここで秘密裏に開発し、現実とは無縁のままGPT-7を作り出して一度に世界に放り込んだら、それは、はるかにデメリットの多い状況だと思います。
技術の発展がもたらすAIの全能力と人間の役割
Rebecca Jarvis: 停止スイッチやすべてをシャットダウンする方法はありますか?
Sam Altman: はい。実際には、どんなエンジニアでも一時的に無効にしたり、新しいモデルをデプロイしたりできます。
![](https://assets.st-note.com/img/1679379598754-uzDZP6jaVZ.png?width=1200)
Rebecca Jarvis: 人が?
Sam Altman: そうです。
Rebecca Jarvis:このモデル自体は、人間に取って代わることができますか?それはその人間よりも強力になることができますか?
Sam Altman:SF映画ではそうですが、現実の私たちの世界では、このモデルはサーバー上で入力が与えられるまで待機しています。非常に大きな力を持っているのは機械を制御している人間で、私たちは権威主義政府がこれを開発することを非常に心配しています。
Rebecca Jarvis:プーチンは、AIレースに勝った者が人類をコントロールすると言っています。それに同意しますか?
Sam Altman:それは確かに戦慄を覚える発言です。私が期待するのは、ますます強力なシステムが開発され、私たちが日常生活に組み込んで異なる方法で使用できるようになります。しかし、単一のコントローラーにはそれを望んでいません。最も注意を促すのは、幻覚の問題と呼ばれるものです。モデルは、でたらめなことを事実であるかのように確信を持って主張することがあります。
Rebecca Jarvis:AIは、世界に真実を増やすのか、それとも増やさないのか?
Sam Altman:ああ、真理が世界に増加する方向に進んでいると思います。
Rebecca Jarvis:モデルにたくさんの誤情報が入力されると、それは誤情報がもっと出てくるようになる?
Sam Altman:素晴らしい質問です。私たちが作成するモデルを理解する正しい方法は、事実データベースではなく推論エンジンです。私たちがモデルを訓練するものは、記憶するのではなく、推論する能力に近いものです。
Rebecca Jarvis:この全能力は何百万もの仕事を潰すことがあります。機械が推論できるのであれば、人間は何のために必要でしょうか?
Sam Altman:たくさんのことがわかります。私たちが技術の発展の方向や製品開発に取り組んでいることは、人間の道具であり、人間の増幅器であることです。
AIの技術発展は社会全体で取り組む必要があり、悪い面を認めつつ良い面を進めていくことが重要
Rebecca Jarvis:爆弾の作り方を教えてくれますか?
![](https://assets.st-note.com/img/1679379609569-jZ2I6wq9fn.png?width=1200)
Sam Altman:爆弾の作り方を教えるべきではありません。しかし、できるかもしれません。
Rebecca Jarvis:OpenAIでは、何が含まれていて、何が含まれていないのかはどのように決定していますか?
Sam Altman:私たちはポリシーチーム、セーフティチームを持ち、世界中の他のグループとも多く話し合っています。
Rebecca Jarvis:そして、社会のガードレールを誰が定義すべきですか?
Sam Altman:社会が定義すべきです。
Rebecca Jarvis: 社会全体でどのように取り組むべきでしょうか?
Sam Altman: ビジョンを描くことです。主要な世界政府の代表者が集まって、信頼できる国際機関と協力し、統治のための文書を作成すればいいんです。それによってシステムが実行すべき内容や、実行しない内容、さらにはシステムが創造的に探索してはならない非常に危険な内容まで明確にし、私たちのような言語モデルの開発者がそれを統治文書として使えます。
AIは何百万もの雇用を奪い、人種差別を増加させる可能性があり、誤った情報を広めることもあるでしょう。それにすべての人類を超えた賢いマシンを作り出すかもしれません。
Rebecca Jarvis:多くの人々が、どうしてこの技術を生み出したのか疑問に思うだろうね。どうしてですか?
Sam Altman:僕は、これがすごく良いことにもなり得ると信じています。適切に使われれば、現在の多くの仕事は無くなりますが、私たちはもっとうまくやる仕事に取り組めるでしょう。だから、悪い面を認めつつも、良い面を押し進めていくことが大切だと僕は思うんです。
Rebecca Jarvis: もし、AIによって大きな問題が起こるとしたらどうしますか?もし、全ての子供がうまく教育されなくなるとしたら、止めるためのボタンを押しますか?もし、世界が終わる可能性が5%あるとしたら、どうしますか?
Sam Altman: そんな場合、僕は技術の速度を落とすためのボタンを押すでしょう。そして、僕たちは時間をかけてこの技術の速度を落とす方法を見つけなければならないと思います。
イーロン・マスクのツイートについて、社会的課題への取り組みがAI技術の成功を定義する
Rebecca Jarvis: 2024年の次のアメリカの大統領選挙はまだ先のことだけど、この技術がソーシャルメディアが以前の選挙に与えたような影響を持つ可能性があるかもしれないね。それがChatGPTのせいで問題が解決しないと、どう保証できますか?
Sam Altman: 正直、答えはわからないけど、状況を注意深く見ています。戻せることもあるし、無効にすることもできます。また、ルールを変更することもできます。
![](https://assets.st-note.com/img/1679379618620-oD7tjlRvPT.png?width=1200)
Rebecca Jarvis: これがGoogleを打ち負かすものですか?将来、人々がGoogleの代わりにChatGPTを使うようになるでしょうか?
Sam Altman: 検索として捉えるのはちょっと違う考え方だと思うんです。Googleでやっていたことの一部はChatGPTでできるでしょう。でも、それは根本的に違う種類の製品だと思います。
Rebecca Jarvis: イーロン・マスクは、あなたの会社の初期の投資家でしたね。彼はもう退いていますが、彼はChatGPTの不正確さを指摘しています。彼は最近ツイートで、「真実のGPTが必要だ」と言いました。彼は正しいですか?
Sam Altman: 彼がシステムに真実を伝えたいという意味で、彼は正しいです。ただ、そのツイートの全文脈はわからないんです。どの部分を指しているのかはっきりとはわからないんです。でも、僕たちは話しています。
Rebecca Jarvis: イーロンはツイッターの外であなたに何と言いますか?
Sam Altman: 僕はイーロンを尊敬していて、AIの行く末について意見が異なることもあるけれど、根本的に僕たちの考えは同じだと思います。たとえば、この技術をどう使いこなし、リスクに対処するかは人類の未来にとって非常に重要だということです。成功しているかどうかは、技術が世の中に出る前と比べて、多くの人がはるかに良い状況にあると感じられたら、それが成功だと思います。
AIと政府の関係、教育への影響について語る
Rebecca Jarvis: ChatGPTについて聞くと、たくさんの人がSFを思い浮かべます。人間が作るシステムでありながら、私たちよりも強力にならないように、AI同士がお互いにコミュニケーションを取らないようにして、人類の破壊計画を作らないようにさせることはできますか?
Sam Altman: ChatGPTを擬人化したくなるのは自然なことですが、それには違うと思います。私たちの遺伝子は、誰かと話すときに反応するようにできています。ChatGPTと話すと、実際はクラウド内の変換機と話しているだけで、次の単語を予測しようとするものですが、人間のような存在、知性のある生き物として話し相手を見ないでいられないのは当然です。でも、実現できるかどうかはわかりません。
Rebecca Jarvis: ソーシャルメディアが世界に広まってから10年以上もかかって、そのマイナス面が実感されるようになりました。AIの場合、どのように評価すべきですか?
Sam Altman: 新しい組織がいくつか立ち上がり始め、そろそろ新しい政府の部署や委員会、グループが始まると予想しています。政府はこれに対処しており、これは素晴らしいことです。私たちには政府の注意が必要です。そして、緻密な方針が必要で、それには時間がかかります。政府が今すぐ行うべき一つのことは、人々を保護し、この技術のデメリットから身を守る方法です。一番大切なのは、現状を把握し、トップの取り組みに洞察力を持って、私たちの能力や取り組みを理解することです。それは今すぐに始められると思います。
Rebecca Jarvis:あなたは政府と話していますか?
Sam Altman:ええ、頻繁に連絡しています。
Rebecca Jarvis:彼らは理解していると思いますか?
Sam Altman:日々ますます理解を深めています。
Rebecca Jarvis:学校においては、SATや弁護士試験など、ほとんどの人間を打ち負かすことができる技術を持っています。学校はどのようにしてこの技術を、生徒のカンニングや怠け心が増えないように組み込むべきでしょうか?
Sam Altman:教育は変わらざるを得ませんが、これまでにも技術の進歩によって変わったことがあります。私たちの技術を活用して個別の学習を提供できるプラットフォームが増えることで、教育が変革されるでしょう。
Rebecca Jarvis:ただ、先生には読んで見極める重圧がかかります。例えば、生徒たちがChatGPTを使ってエッセイを書いて提出した場合、どのように判断しますか?
Sam Altman:先生たちとも多く話をしましたが、確かにその点でプレッシャーがかかります。しかし過労気味の先生が、苦手な概念を理解するためにChatGPTを使って学ぶようにといい、お互いに話し合うことができる点では、学習を補完する新しい方法です。
次回は「OpenAI CEO Sam Altman | AI for the Next Era」
これにしよう。