ChatGPTについてのスピーチです。
公開日:2023年4月21日
※動画を再生してから、インタビューを読むのがオススメです。
私たちが7年前にOpenAIを始めたのは、AIで何かとても面白いことが起こっていると感じ、それをポジティブな方向に導く手助けをしたいと思ったからです。
その後、この分野全体がどれほど進歩したかを見ると、正直言って本当に驚きます。
そして、レイモンドのように、私たちが作っている技術や他の技術を使って、多くの素晴らしいことを行っている人たちから話を聞けるのは、本当にありがたいことです。
私たちは、この技術を非常に多くの素晴らしいことに使っている人たちから話を聞きます。
私たちは、興奮している人たちから話を聞きます。
また、心配する声も聞きます。
その両方の感情を同時に感じている人たちから話を聞くことができます。
そして、正直なところ、私たちもそう思っています。
何より、私たちは今、歴史的な時期に突入していると感じています。この先、私たちの社会にとって非常に重要な技術を、私たち世界が定義しようとしているのです。
そして、これを良い方向にマネジメントしていくことができると信じています。
そこで今日は、その技術の現状と、私たちが大切にしている基本的な設計原理を紹介したいと思います。
まず最初にお見せするのは、人間のためにツールを作るのではなく、AIのためにツールを作るというのはどういうことなのかということです。
そこで、画像を生成する新しいDollyというモデルを用意し、それをChatGPTのアプリとして公開し、あなたの代わりに使ってもらうことにしました。
そして、テッド後の食事を提案したり、その写真を描いたりすることができるのです。
このように、ChatGPTを利用することで、アイデア出しやクリエイティブなやり取り、細部への配慮を受けることができます。
そして、ここからが本題です。
食事のアイデアだけでなく、非常に詳細な見開きがあります。
では、どんなものが出てくるか見てみましょう。
でも、ChatGPTはこの場合、画像を生成するだけではありません。
テキストを生成するだけでなく、画像も生成してくれるのです。
これは、あなたの意図を実現するために、あなたの代わりにできることの幅を広げてくれるものです。
なお、これはすべてライブデモです。
これはすべてAIが生成したものなので、実際に何が出てくるかはわかりません。
これは素晴らしいですね。
見ているだけでお腹が空いてきました。
さて、ChatGPTは他のツールでも拡張しています。
例えば、メモリは、これを後で保存しておくと言うことができます。
これらのツールの面白いところは、とても検査がしやすいことです。
Dollyアプリを使うという小さなポップアップが表示されます。
ちなみに、このアプリはChatGPTの全ユーザーに今後数ヶ月で提供されます。
このアプリの中身を見ると、実際にプロンプトを書くことができることがわかります。
人間が書くのと同じように。
このように、機械がどのようにツールを使っているかを検査することで、機械にフィードバックを与えることができるのです。
その情報を使って、他のアプリケーションと統合することもできます。
先ほど提案した美味しいものの買い物リストを今作りました、ということができます。
AIにちょっと手際よく作ってあげる。
そして、それをTEDの視聴者のためにツイートするのです。
もし、あなたがこの素晴らしい素晴らしい料理を作ったら、その味をぜひ知りたいですからね。
しかし、ChatGPTは、私がどのような状況でどのようなツールを使うかを明確に指示しなくても、さまざまなツールを選択していることがわかると思います。
これは、ユーザーインターフェースに対する新しい考え方を示していると思います。
私たちは、アプリを使って、クリックして切り替えたり、コピー&ペーストしたりするのに慣れていますが、メニューやオプションを理解していれば、アプリ内での経験は素晴らしいものになります。
そうですね、そうしてほしいです。
はい、お願いします。
常に丁寧であることが大切です。
ツールの上に統一された言語インターフェースを持つことで、AIはすべての詳細を取り除き、何が起こるべきかというすべての一部を明文に指定する必要がないようにしてくれます。
これはライブデモなので、時には予期せぬことが起こるかもしれません。
しかし、Instacartの買い物リストを見てみましょう。
Instacartに食材のリストを送ったのがお分かりいただけると思います。
これが必要なものすべてです。
そして、本当に興味深いのは、従来のUIがまだ非常に貴重であるということです。
これを見ると、クリックすることで実際の数量を変更することができます。
これは、従来のUIがなくならないことを示すものだと思います。
ただ、新しい拡張された方法で構築しているのです。
そして、私たちのレビューのために下書きされたツイートがあります。これは、非常に重要なことです。
実行をクリックすれば、もう大丈夫です。
私たちは管理者であり、検査することができ、必要であればAIの作業を変更することができるのです。
そして、この講演の後、あなた自身がこれにアクセスできるようになるのです。
そして、そこに行くのです。
かっこいいですね。
では、みなさん、ありがとうございました。
では、スライドに戻りましょう。
さて、このツールの作り方で重要なのは、単にツールを作るということではありません。
AIにその使い方を教えることです。
例えば、非常に高度な質問をしたときに、AIに何をさせたいか。
そのために、私たちはある古いアイデアを使います。
アラン・チューリングが1950年に発表したチューリングテストに関する論文にさかのぼると、彼はこう言っています。
その代わり、学習することができます。
人間の子供のようなマシンを作り、フィードバックによって教えることができるのです。
人間の先生が、マシンがいろいろなことを試して、良いこと、悪いことをしたときに、報酬と罰を与えるのです。
これが、ChatGPTのトレーニング方法です。
2つのステップを踏んでいきます。
まず、教師なし学習によって、チューリングが「子機」と呼んだであろうものを作り出します。
全世界、つまりインターネット全体に、「見たこともないようなテキストで、次に来るものを予測しなさい」と見せるのです。
そして、このプロセスによって、子機にはさまざまな素晴らしい能力が備わるのです。
例えば、数学の問題を見せられたとき、その数学の問題を実際に完成させ、次に来るもの、つまり、あそこにある緑の9を言うには、実際に数学の問題を解くしかありません。
しかし、実は第二段階として、AIにそのスキルを使って何をすべきかを教える必要があります。
そのために、私たちはフィードバックを行っています。
AIに複数のことを試してもらい、複数の提案をしてもらい、それを人間が評価して「こっちの方がいい」と言うのです。
そうすることで、AIが言った特定の事柄だけでなく、AIがその答えを出すために使ったプロセス全体が強化されるのです。
これにより、AIは一般化し、学習することができ、あなたの意図を推測して、これまでに見たことのないシナリオやフィードバックを受けたことのないシナリオに適用することができるようになるのです。
AIに教えなければならないことは、予想外のことであることもあります。
例えば、GPT-4をカーン・アカデミーに初めて見せたとき、彼らは「これは素晴らしい、学生に素晴らしいことを教えることができる」と言いました。
ただ1つ問題があって、生徒の計算をダブルチェックしないんです。
もし悪い計算があれば、1+1=3ということにして、それを実行してしまうのです。
そこで、私たちはフィードバックデータを収集する必要がありました。
サル・カーンはとても親切で、20時間もの時間を割いて、私たちのチームと一緒に機械にフィードバックしてくれました。
そして、数カ月かけて、AIに「このようなシナリオでは、人間に背中を押すべきだ」と教えることができました。
実際には、このような方法でモデルの多くの改善を行ってきましたし、ChatGPTで「👎」を押すと、弱点がある箇所でフィードバックを収集するようにチームにバットシグナルを送るようなものです。
そうすることで、ユーザーの声に耳を傾け、誰にとってもより便利なものを作り上げることができるのです。
さて、質の高いフィードバックを提供するのは難しいことです。
子供に部屋を掃除するよう頼むとき、床を点検するだけでは、おもちゃを全部クローゼットに詰め込むように教えているのかどうかわかりません。
ちなみに、これはドリーで生成された素敵な画像です。
そして、同じような理屈がAIにも当てはまります。
より難しいタスクに移行するにつれ、質の高いフィードバックを提供する能力をスケールアップする必要があります。
しかし、その際、AIは喜んで助けてくれます。
私たちがより良いフィードバックを提供し、時間が経つにつれてマシンを監督する能力を拡大することができるのです。
そして、私が何を言いたいのか、お見せしましょう。
例えば、GPT-4の質問で「教師あり学習と人間からのフィードバックから学習するこれら2つの基本的なログの間にどれくらいの時間が経過したか」と尋ねると、モデルは「2か月が経過した」と答えます。
しかし、それは本当なのでしょうか?
このモデルは100%信頼できるわけではありません。私たちが何らかのフィードバックをするたびに、より良いものになっていきますが。
しかし、私たちは実際にAIを使ってファクトチェックをすることができますし、AIは実際に自分の仕事をチェックすることができます。
私のためにこれをファクトチェックしなさい」と言うことができます。
さて、今回のケースでは、実はAIに新しいツールを与えています。
これはブラウジングツールで、検索クエリを発行し、ウェブページをクリックすることができます。
その際、AIは思考の連鎖をすべて書き出しています。
私はこれを検索します」と言うと、実際に検索を行います。
そして、出版日や検索結果を見つける。
その後、別の検索クエリを発行する。
ブログの記事をクリックする。
そして、これらすべてを行うことができますが、非常に面倒な作業です。
人間が本当にやりたいと思うようなことではありません。
それよりも、運転席に座って、マネージャーのような立場で、必要であればトリプルチェックができるほうがずっと楽しいです。
そして、引用文献も出てくるので、実際に行って、この一連の推論のどの部分でも非常に簡単に検証することができ、実際に2カ月は間違っていた、1週間で2カ月だったということが判明します。
それが正しかったのです。
スライドに戻りましょう。
このプロセスが非常に興味深いと感じるのは、人間とAIの多段階の協力が行われているからで、事実を検証するツールを使っている人間は、他のAIが人間にとってより有益になるためのデータを生成する目的でこれを行っています。
これは、今後ますます一般的になるであろう、人間と機械が問題にどのように取り組むかや、それをどのように解決するかということを慎重かつ繊細に設計された形で示していると思います。
人間が管理、監督、フィードバックを行い、機械が検査可能で信頼できる方法で動作していることを確認します。
そうすることで、より信頼性の高いマシンを作ることができるのです。
そして、このプロセスがうまくいけば、不可能な問題も解決できるようになると考えています。
どのくらい不可能かというと、コンピュータとの付き合い方のほとんどすべての面を見直すことができるようになると思うのです。
例えば、表計算ソフトについて考えてみましょう。
40年前のVisiCalc以来、いくつかのフォーラムで使用されてきました。
そして、その間にそれほど大きな変化があったとは思えません。
そして、ここに過去30年間のアーカイブにあるすべてのAI論文の具体的なスプレッドシートがあります。
約167,000件あり、ここでデータを見ることができます。
しかし、このようなデータセットをどのように分析するのか、ChatGPTのやり方をお見せしましょう。
そこで、ChatGPTに別のツールにアクセスさせます。
これはPythonインタープリターで、データサイエンティストと同じようにコードを実行することができます。
文字通り、ファイルをアップロードして、それについて質問することができますし、とても便利です。
ファイル名がわかるので、「これはCSV(カンマ区切り値ファイル)です。
解析してあげましょう。
ここにある情報は、ファイル名、列名、そして実際のデータだけです。
そこから、これらの列が実際に何を意味しているのかを推測することができます。
つまり、意味的な情報は入っていないのです。
AIは、アーカイブが論文を提出するサイトであり、これらのものがそれであり、これらが整数値であるため、論文の著者の数であるというような世界の知識をまとめなければなりません。
全部、人間がやる仕事なんだけど、AIが喜んで手伝ってくれる。
何を聞きたいのかも分からないので、幸いなことに、機械に、探索的なグラフを作れないか、と聞くことができる。
しかし、私は自分が何をしたいのかさえ知らないので、AIは私が何に興味があるのかを推測する必要があります。
そのため、AIは私が何に興味があるのかを推測する必要があります。
論文ごとの著者数のヒストグラム、年ごとの論文の時系列、論文タイトルのワードクラウドなどです。
これらすべてを見ると、かなり興味深いものになると思います。
面白いのは、実際にそれができることです。
素晴らしいベルカーブをご覧ください。
3が一番多いことがわかりますね。
そして、これを書くと...。
年ごとの論文を見事にプロットしてくれるんです。
しかし、2023年には何かおかしなことが起こっています。
指数関数的に推移していたのが、崖から落ちたようなんです。
何が起こっているのでしょうか?
ちなみに、これはすべてPythonのコードです、ご期待ください。
そしてワードクラウドを見ると、これらのタイトルに登場する素晴らしいものばかりが目に飛び込んできます。
でも、この2023年というのは、かなり不満です。
今年が本当に悪く見えてしまう。
もちろん、問題は今年が終わっていないことです。
だから、マシンの背中を押してあげようと思っています。
それで、4月13日が締切日だったと思う。
それを使っていいのか?
公平な予測を立てる。
というわけで、これはちょっと野心的なものなんですが、どうでしょう。
それで、もう一度言いますが、この機械に求めるものがもっとあったような気がするんです。
本当にこのことに気づいてほしかったんです。
私が望んでいたのはこれだ、と魔法にかけられたようなものだとしたら、それは少し行き過ぎかもしれません。
しかし、私は自分の意図を注入したのです。
このようなガイダンスのようなものを追加で提供するのです。
そして、その下で、AIが作業をしているのです。
AIはまたコードを書いているだけなので、AIが何をしているのか調べようと思えば、それはとても可能なことなのです。
そして今、正しい投影をしています。
気付くと、タイトルまで更新されています。
私が頼んだわけではないのですが、私が何を望んでいるのかがわかっているのです。
では、再びスライドに戻ります。
このスライドはたとえ話です。
将来、この技術をどのように使うことになるのか、そのビジョンを示しています。
ある人が重病の犬を獣医に連れてきたところ、獣医は「様子を見ましょう」と誤った判断をしました。
しかし、獣医師は「様子を見ましょう」という判断を下し、その犬は今ここにいない。
一方、彼は、全医療記録のような血液検査をGPT-4に提供し、私は獣医ではありません、プロに相談する必要がありますと言った。
ここにいくつかの仮説があります。
GPT-4はその情報を獣医に提供し、獣医はその情報をもとに犬の命を救いました。
さて、こうしたシステムは、完璧ではありません。
過度に依存することはできません。
しかし、この物語は、医療従事者とChatGPTというブレインストーミングのパートナーを得た人間が、そうでなければ起きなかったであろう結果を達成できたということを示しているのだと思います。
このことは、私たちがこのようなシステムをどのように私たちの世界に組み込んでいくかを考える上で、反省すべき点であり、考えるべき点であると思います。
そして、本当に興味深いのは、この仕事を成功させるためにやるべきことがたくさんあることです。
そして、私が本当に深く信じていることのひとつは、AIを正しく使うには、すべての人の参加が必要だということです。
それは、AIをどのように組み込むかを決めることであり、AIが何をするのか、何をしないのかというルールを決めることです。
この講演から得られるものがあるとすれば、それは、このテクノロジーは、人々が予想していたものとは異なるものであるということです。
そのため、私たちは皆、リテラシーを身につけなければなりません。
人工知能が全人類に利益をもたらすようにするというOpenAIのミッションを達成するためにはどうすればいいかということです。
ありがとうございます。
つまり、ここにいるすべての人の心の中に、動揺があるのは別として、あるのではないかと思うのです。
これを見た多くの人が、"あら、私の仕事のやり方は、ほとんどすべて見直す必要がある "と思ったのではないでしょうか。
そこには、新しい可能性があるのです。
つまり、自分の仕事のやり方を見直す必要があると考える人はいないでしょう?
ええ、素晴らしいことですが、同時にとても怖いことでもあります。
だから、話をしよう、グレッグ、話をしよう。
もちろんです。
最初の質問は、一体どうやってこれを成し遂げたのか、ということです。
OpenAIの従業員数は数百人です。
Googleは何千人もの従業員が人工知能に取り組んでいます。
なぜ、世界に衝撃を与えたこの技術を生み出したのは、あなたなのでしょうか?
実は、私たちは皆、巨人の肩の上に乗っているんですね。
計算機の進歩、アルゴリズムの進歩、データの進歩、これらすべてが業界全体の進歩であることは間違いありません。
しかし、OpenAIでは、初期の段階から、非常に意図的な選択をたくさんしてきたと思います。
現実を直視し、「ここで進歩するためには何が必要なのか」を真剣に考えたのだと思います。
多くのことを試してもうまくいかなかったので、うまくいったものだけを見ることができます。
そして、最も重要なことは、互いにまったく異なる人たちのチームが調和して仕事をすることだと思います。
ところで、お水はここに持ってきてもらえますか?
必要だと思うのですが。
ドライな話題の量ですね。
でも、この言語モデルに何かを見出したということは、このまま投資して育てていけば、いつかは何かが生まれるかもしれないということではないのでしょうか。
そうですね。
そして、それは...
正直なところ、この話はとても分かりやすいと思います。
ディープラーニングは、高いレベルで、私たちはディープラーニングラボになりたいと考えていました。
そして、それをどのように行うかについては、初期の頃はわからなかったと思います。
ただ、ある人がアマゾンのレビューで次の文字を予測するモデルのトレーニングに取り組んでいて、これは構文処理だという結果が出たんです。
このモデルは、カンマがどこにあるか、名詞と動詞がどこにあるかを予測すると思っていたのですが、実際には最先端の感情分析分類器を手に入れたのです。
このモデルは、レビューが肯定的か否定的かを判断することができました。
そして今日、私たちは「そんなこと、誰でもできるだろう」と思っています。
しかし、このように構文の基礎となるプロセスから意味論が生まれたのは、この時が初めてでした。
そして、これをスケールアップして、その先を見なければならないことがわかったのです。
というのも、これらは予測機械として説明されていますが、実際に見てみると...。
予測機械から生まれることは不可能だと感じています。
創発の重要な考え方は、あるものをより多く手に入れると、突然、異なるものが現れるというものです。
アリのコロニーでは、1匹のアリが走り回っています。
アリのコロニーでは、1匹のアリが走り回っていますが、それをたくさん集めると、完全に創発的で異なる行動をとるアリのコロニーができあがります。
また、都市では、数軒の家が集まっただけではただの家ですが、家の数が増えるにつれて、郊外や文化センター、交通渋滞など、さまざまなものが出現してきます。
あなたにとって、予想もしなかった何かが出現した瞬間があれば教えてください。
ChatGPTで試してみてください。40桁の数字を足すと、モデルはそれを実行します。つまり、モデルはそれを実行するための内部回路を学習したことになります。
面白いのは、40桁の数字と35桁の数字を足したような広告があると、よく間違うことです。
つまり、プロセスを学習しているのですが、まだ完全に一般化されていないのです。
40桁の足し算の表が覚えられないのと同じです。
それは宇宙の数よりも多い足し算の数です。
一般的なことは学べますが、「これは任意の長さの任意の数の足し算に一般化できる」ということは、まだ完全には学んでいないのです。
つまり、スケールアップして信じられないほどの数のテキストを見ることができるようになったわけですが、その結果、学習能力があるとは思ってもみなかったようなことを学習しているのです。
私たちが得意とし始めた科学のひとつは、こうした新しい能力を予測することです。
そのためには、この分野では工学的な品質が非常に重要視されていないように思います。
私たちはスタック全体を再構築し、...
ロケットを作ることを考えると、すべての公差は信じられないほど小さいものでなければなりません。
機械学習でも同じことが言えます。
機械学習でも同じで、スタックの一つひとつを適切に設計し、それから予測を始めるのです。
驚くほど滑らかなスケーリングカーブは、知能の根本的な何かを物語っています。
GPT-4のブログ記事を見ていただければ、これらの曲線をすべて見ることができます。
そして今、私たちは予測できるようになりつつあります。
これはコーディング問題での性能で、基本的には1万倍や1,000倍小さいモデルを見ているのです。
このように、初期の段階ではありますが、実際にスムーズなスケーリングができるようになっています。
そこで、ここから生じる大きな恐れの1つがあります。
スケールアップすると、ある程度は予測できても、驚くようなことが起こるというのが、ここで起こっていることの基本だとしたら。
なぜ、本当に恐ろしいものが出現する危険性がないのでしょうか?
これらはすべて、程度や規模、タイミングの問題だと思います。
そして、人々が見逃していることのひとつに、世界との融合があります。
また、信じられないような創発的な、非常に強力なものもあります。
これが、段階的に展開することが重要だと考える理由の1つです。
今、この講演を見ると、私が重視しているのは、本当に質の高いフィードバックを提供することです。
今日、私たちが行ったタスクは、検査することができますよね?
数学の問題を見て、「いやいや、マシン7が正解だった」と思うのはとても簡単です。
でも、本の要約だって、監督するのは大変なことです。
この本の要約が良いものかどうか、どうやって判断するのですか?
本全体を読むしかない。
そんなことは誰もやりたくない。
ですから、重要なのは、一歩一歩進めていくこと、そして、本の要約に移行する際には、この作業をきちんと監督する必要がある、ということだと思います。
そして、この機械が私たちの意図することを実際に実行できるという実績を積み上げていかなければなりません。
そして、より優れた、より効率的な、より信頼性の高いスケーリング方法、つまり、マシンを自分に合わせるような方法を生み出さなければならないと思います。
セッションの後半で、「システム内部には本当の理解がない」という批判的な意見を聞くことになります。
いつもそうなのでしょうか?
エラーが発生しないとか、常識がないとか、そういうことを知ることはできないんです。
グレッグさんの考えでは、そのようなことが一時的には真実であり、スケールの拡大と人間からのフィードバックが、真実や知恵などに高い自信度で到達するプロセスを促進することになるのでしょうか?
それは確かなことですか?
ええ、まあ、OpenAIは...。
つまり、短い答えとしては、「はい」です。
OpenAIのアプローチは、この技術の限界を押し広げることで実際に機能する方法を見つけ出すことで、新しいパラダイムに移行する方法を見つけることができると考えています。
その結果、新しいパラダイムに移行する方法が見えてくるのです。
つまり、この技術の限界に挑戦し、実際に使ってみることが正しい方法であるという、あなたのスタンスは非常に物議を醸していますね。
これはその良い例だと思います。
これは本当に良い例だと思います。
そして、これは本当に良い例だと思います。
そして、それは本当に良い例だと思います。
そして、あなたは、公の場で発表することが正しいやり方であり、その結果、すべてのものを利用することができるという、極めて論争的なスタンスを取っています。
自分のチームだけがフィードバックするのではなく、今や世界中がフィードバックしているわけですからね。
しかし、もし悪いことが出てくるとしたら、それは外に出ているのです。
元々の話をOpenAIが非営利団体として設立されたときに聞いたのですが、大企業がAIを使って知らないうちに何か悪いことをし始めるのを防ぐための素晴らしいチェック機能として存在し、必要に応じて分野の進展を遅らせることができるモデルを開発する予定でした。
少なくとも、私はそう考えていました。
しかし、実際には逆のことが起こっていると言えます。特にChatGPTのリリースにより、テクノロジー業界が衝撃を受け、GoogleやMetaなどが追いつこうと奮闘しています。
そして、彼らの批判の中には、「適切なガードレールもなく、無理やりこれを世に送り出すのか、さもなくば我々は死ぬ」というものもあります。
自分たちがやったことが無謀なことではなく、責任あることだということをどう主張するのか。
ええ、私たちはこのような疑問についていつも考えています。
真剣にいつも考えています。
いつもうまくいくとは思っていません。
しかし、私が信じられないほど重要だと思うのは、当初、人工知能を構築する方法について考えていたとき、実際に全人類に利益をもたらすようにすることでした。
どうすればいいのでしょう?
秘密裏に構築し、超強力なものを手に入れ、その安全性を確認したうえで、「うまくいった」と思って突き進むというのが、既定のプランです。
私は、その計画を実行する方法を知りません。
でも、私にとっては、それが常に恐怖だったのです。
正しいとは思えなかったのです。
だから、この代替案は、現実を目の当たりにすることで、唯一、他の道筋を示すものだと思うのです。
そして、人々に意見を述べる時間を与えることだと思います。
機械が完璧になる前に、超強力なものになる前に、実際に動いているところを見ることができるのです。
GPT-3では、それを実感しました。
GPT-3では、誤報を流して選挙を混乱させるのではないかと心配しました。
しかし、その代わりに、バイアグラ・スパムを生成する人が続出しました。
バイアグラ・スパムは悪いものですが、もっと悪いものもあるのですね。
その通りです。
ある部屋に座っていて、テーブルの上に箱が置いてあるとします。
その箱の中には、非常に強い確率で、絶対に素晴らしいものが入っていて、あなたの家族やみんなに素敵なプレゼントをくれると信じていますよね。
しかし、実はその小さな文字には、Pandoraと書かれている1パーセントのものもあるのです。
そして、この箱が想像を絶する悪を世界に解き放つ可能性があるのです。
その箱を開けてしまうのか?
まあ、だから絶対にしない。
そういうやり方はしない方がいいと思います。
正直なところ、これまで話したことのない話をしますと、OpenAIを立ち上げた直後、AIカンファレンスでプエルトリコに行ったときのことです。
ホテルの部屋に座って、素晴らしい海を眺めながら、みんなが楽しい時間を過ごしていたんです。
そして、ちょっと考えてみたんです。
5年先か500年先か、パンドラの箱のような可能性を選ぶことができるとしたら、どちらを選びますか?
一方では、あなた個人にとっては、5年先のほうがいいかもしれないと思うでしょう。
しかし、500年後になれば、人々はより多くの時間を得て、それを正しく理解することができるようになるのだとしたら、あなたはどちらを選びますか?
その時、私は本当にそう思いました。
もちろん、500年先もやるんだろうな、マジで、と。
私の兄は当時、軍に所属していました。彼は、当時、コンピューターに何かを入力したり、この技術を開発したりする誰よりも、ずっと現実的な方法で自分の命を危険にさらしているのです。
だから、私は、「正しいアプローチをしなければならない」ということに、とても納得しています。
しかし、それが本当の意味でのフィールドプレイだとは思えません。
コンピューティングの歴史全体を見ても、これは業界全体、あるいは人類の発展による技術全体の転換である、と私は本気で言っています。
そして、そこにある断片をまとめないほど、そうなのです。
コンピュータの高速化、アルゴリズムの改良など、さまざまなことが行われています。
しかし、それらを組み合わせると、オーバーハングが発生します。
つまり、誰かが回路に接続することに成功した瞬間、あるいは誰かがそれをする瞬間には、非常に強力なものが手に入り、調整する時間がなく、どのような安全対策が取られるか分からない状況が生じます。
そこで思いつくのは、他の技術の開発、例えば核兵器の開発について考えると、人間ができることについてゼロからワンへの変化があると言われています。
しかし、実際には、能力という観点から見ると、その変化は非常にスムーズであったと思います。
つまり、私たちが開発してきたあらゆる技術の歴史は、段階的に行う必要があり、能力を向上させる瞬間ごとに、それをどのように管理するかを考えなければならなかったのです。
つまり、あなたが考えているモデルは、人類をまったく新しい世界に導く超能力を持つかもしれない特別な子供を産んだということなのでしょう。
この子にガードレールを提供し、賢くなるように教え、私たち全員を破滅させないようにするのが、私たち集団の責任です。
基本的にはそういうモデルなのでしょうか?
その通りだと思いますし、これが変化する可能性があると言うことも重要だと思いますね。
私たちは一歩ずつ進んでいく必要がありますし、今日、私たち全員がこの技術に精通し、フィードバックを提供する方法を見つけ出し、それから何を望むかを決定することが非常に重要だと思います。
しかし、このような議論ができるのはとても良いことだと思いますし、そうでなければ、このような議論ができなかったでしょう。
グレッグ・ブロックマン、TEDに来てくれて、私たちの心を揺さぶってくれて、本当にありがとうございました。
ありがとうございました。
ありがとうございました。