元オープンAI社員が議会に文書をリーク!
9,027 文字
おはようございます。Redditの「Singularity」サブレディットに、目を見張るような内容が投稿されたんですわ。
内部告発者のウィリアム・サンダースさんが今日、上院小委員会で証言したそうです。
彼の話によると、OpenAIは人工知能汎用(AGI)の開発において、ほとんどの人が信じてるか理解してる以上に近づいてるらしいんです。
そして、それが3年以内にも実現する可能性があるってことやねん。
AGIについては、一度きりのチャンスやと思うんやけど、購読してくれへんか?
実はアンドレGPYが、AGIの意味について自分の考えを説明する投稿をしたんです。
金曜日の13日の午前11時11分に投稿されたんやけど、もしその投稿が42万回も閲覧されてたら、完璧な三連荘やったんちゃうかな。
ほな、ちょっと修正させてもらいますわ。42万回の閲覧数で、ショックを受けたピカチュウの顔、みたいな。
でも、彼が言いたかったのは、OpenAIの定義を使ってるってことなんです。
それが、まあ標準的で妥当な定義やと彼は考えてるみたいですね。
つまり、AGIっていうのは高度に自律的なシステムのことを指すんです。
私らは「エージェント」っていう言葉をこういう自律的なエージェントに使ってきました。
つまり、主体性を持って、長期的な目標を追求し、計画を立て、予期せぬ障害や変化に対応できるようなシステムのことですわ。
そして、ほとんどの経済的に価値のある仕事で人間よりも優れたパフォーマンスを発揮するシステムということやねん。
もちろん、経済的に価値のある仕事について話すとき、物理的な労働、つまり建設や園芸、製造業、それにDoorDashみたいな配達サービスも含まれるんやけど、2016年に人がうちに寿司を届けてくれるようになったことに気づいたときは、もう財政的に立ち直れへんやろうなって思いましたわ。
でも、物理的な労働については、ロボットなどが必要になってくるので、ほとんどの人はAGIを、少なくとも今のところは、デジタルワークだけを意味すると考えてるんです。
つまり、コンピューターの前でできることすべてですね。
リモートで仕事を外注したり、Upworkのようなフリーランスのプラットフォームから人を雇ったりできるような仕事全般です。
もし、そういったタスクをすべてうまくこなせるAIエージェントがあれば、それはほとんどの人の定義によるとAGIと言えるでしょうね。
これについて考える面白いアプローチがあるんです。O*NET Onlineっていうサイトがあって、AGIについて話すときによく参照されるんですわ。
つまり、どんな仕事をAIが100%完全に自動化できるかっていう話をするときにね。
ここで興味深い洞察があるんです。
どんな仕事でも、一般的に特定のスキルの離散的な単位に分解できるんです。
そして、それらのスキルをすべて持っていれば、その仕事をこなせるってわけやねん。
ちょっと単純化しすぎかもしれんけど、AIにどんな仕事が狙われているかを、ある程度数値化できるんです。
例えば、ここに「書く」っていうスキルがあります。
レベルが違う書き方があって、例えば100点満点中20点っていうのは、レストランでお客さんの注文を書き取れるレベルです。
57点なら、新しい指示を概説したメールをスタッフに書けるレベル。
85点なら、出版用の小説を書けるレベルです。
85点っていうのは、かなり高いレベルで、世界クラスのスキルに入ってくるんちゃうかな。
ここに、そういったスキルを使う職業がずらっと並んでて、それぞれの職業でどのレベルが必要かが示されてるんです。
例えば、テクニカルライターやったら、71レベルのスキルが必要やね。
これ、スカイリムみたいでええなって思うんですわ。
同じように、例えば数学のスキルもあります。
85レベルやったら、エンジニアリングの問題をシミュレーションして解決するための数学モデルを開発できるレベルです。
これもかなり高度なレベルですね。
28レベルやったら、お客さんに渡す釣り銭の額を数えられるレベルです。
数学者はトップにいて、86レベルが必要で、重要度は100点満点中100点です。
下の方には俳優やモデルがいるんですけど、ちょっと失礼な感じですね。
でも、要するに、事務員とか秘書、オフィスの管理者みたいな仕事を、タスクや技術スキル、仕事の活動、そして仕事の90%か99%を構成する特定のスキルに分解できるんです。
そして、それぞれのスキルについて、AIエージェントのパフォーマンスを測定できるんです。
どれだけうまくそのスキルをこなせるかをね。
読解力、文章力、時間管理能力、人を助ける方法を探すこと、他人の反応に気づいて、なぜそんな反応をするのかを理解することなど。
ここ数年で、AIシステムがこういったスキルの多くでどんどん上達してるのを見てきました。
文章力や批判的思考力、読解力が向上し、AIビジョンを使ってグラフを理解する能力も向上してます。
一部の分野では急速な進歩が見られ、多くの人間よりも優れた能力を発揮するようになってきたんです。
多くの人が恐れを抱いてた一つの目標が、IMO(国際数学オリンピック)でAIが突破することでした。
世界中の最も賢い数学者たちが集まって問題を解こうとする、最高レベルの数学能力を要する大会です。
多くの人が、AIがIMOで金メダルレベルの成績を出せるようになったら怖いなって言ってました。
それはAIがどれだけ進歩したかを示すことになるからです。
そして、ほんの数ヶ月前に、Google DeepMindが一から構築したAIが、実際に2つのAI、Alpha ProofとAlpha Geometryを発表しました。
Alpha Geometryは最新のイテレーションで、Alpha Proofは新しいものですが、数学でとても良い成績を出しました。
ここで見てもらえるように、黄色が金メダル、銀メダル、銅メダルとなっています。
人間がこの点数を取ると、このレベルになります。
AIシステム、あるいはこの2つのシステムが協力して28点を獲得しました。
金メダルは取れませんでしたが、あと1点足りないところまで来てるんです。これがIMOの結果です。
それから、AIMEっていうアメリカの招待数学試験もあります。
高校生の上位5%が受ける AMC 12っていう高校数学試験の中でも最高レベルの試験です。
OpenAIの新しいモデルは、この試験で驚異的な成績を収めました。
大幅な改善が見られたのは、「テストタイム・コンピュート」と呼ばれるものの一部のおかげです。
過去には、モデルのトレーニングにすべての計算リソースやハードウェアを投入してました。
トレーニングを重ねるほど性能が向上し、それが非常に効果的にスケールアップしました。
今回、OpenAIが取り出した新しい手法が、このテストタイム・コンピュートです。
質問に答える際により多くの計算リソースやハードウェア、つまりより多くのパワーを与えるんです。
基本的に、答える前に「考える」時間を与えるってことですね。
これが01モデルの特徴なんです。
私たちが今まで使ってきたのは01プレビューと01ミニですが、ご覧のように、どちらもかなり良い成績を収めています。
驚いたことに、01ミニの方が01プレビューよりもAIMEテストでは良い成績を収めています。
おそらく、これは制限があるからでしょう。
考えられる時間に制限があるんやと思います。
01ミニの方が制限が少ないんやないかな。
でも、重要なのは、実際の大きな制限のない01モデル、私たちがアクセスできないモデルです。
これがここにあるもので、かなりスケールアップできて、数学の試験でとても良い成績を収めることができるんです。
これを知っておく必要があるのは、この人が内部告発者として何を話してるのか、なぜ米国上院で話してるのか、そしてこの01が全体でどんな役割を果たしてるのかを理解するためです。
ここに文書がホストされています。Judiciary.senate.govっていうサイトです。
下にリンクを貼っておきますが、上院のサイトにホストされているPDFファイルです。
ダウンロードしたので、落書きもできますね。
2024年9月17日、これはウィリアム・サンダース、OpenAIの元テクニカルスタッフのメンバーによる米国上院委員会への口頭証言です。
彼は3年間、OpenAIのテクニカルスタッフのメンバーとして働いていたそうです。
OpenAIやそれに似た企業は、AGI(人工知能汎用)の構築を目指しているんです。
この目標に向けて何十億ドルも調達しています。
最近のニュースの一つは、UAEと協力して、インフラ構築のために70億ドルを調達すると発表したことです。
OpenAIはAGIを、「ほとんどの経済的に価値のある仕事で人間を上回るパフォーマンスを発揮する高度に自律的なシステム」と定義しています。
つまり、長期にわたって自律的に行動し、人間ができるほとんどの仕事をこなせるAIシステムのことです。
AI企業はAGIの構築に向けて急速な進歩を遂げています。
この公聴会の数日前、OpenAIは「GPT-01」という新しいAIシステムを発表しました。
ちょっと変なんですけど、実際にはそう呼ばれてないんです。
システムの実際の名前は「OpenAI 1」なんです。
「OpenAI 1のプレビューをリリースします」って言ってて、命名規則を変えたことを強調してました。
これは全く新しいものだから、新しい段階に到達したってことで、GPTこれGPTあれって続けたくなかったんでしょうね。
ちょっと細かいことかもしれませんが、気になったので。
要するに、そのシステム、01が重要なマイルストーンを達成したんです。
その中には、私個人にとって重要なものも含まれています。
これはウィリアムが話してるんですが、彼が言うには、高校生の頃、権威ある国際コンピューターサイエンスコンペティションのために何年も訓練してきたそうです。
OpenAIの新しいシステムは、予選落ちから一気に金メダル獲得へと飛躍し、彼の仕事に関連する分野で彼を上回る成績を出したんです。
まだ埋めるべき大きなギャップはありますが、彼は3年以内にAGIシステムが構築される可能性があると信じています。
AGIについてはよく話すので、ある意味慣れてしまってるんですが、ちょっと一歩引いて考えてみましょう。
AGIを「ほとんどの人間労働者を陳腐化させる、簡単に複製可能なコンピューターソフトウェア」に置き換えて、その文を読み直してみてください。
つまり、この人は「ほとんどの人間労働者を陳腐化させるソフトウェアが3年以内に構築される可能性がある」と信じているんです。
ちょっと違って聞こえませんか?
私たちはこれに対応する準備ができてるんでしょうか?
あなたは何の仕事をしてますか?
コンピューターを使う仕事ですか?
書くこと、数学、コーディング、会話、メールなどに関わる仕事ですか?
もしこれが本当なら、私たちは準備ができてるんでしょうか?
計画はありますか?
少なくとも、アイデアをブレインストーミングしたリストはありますか?
正直、私にはわかりません。
サム・アルトマンは、提案のようなものを出しました。
UBI(普遍的基本所得)とは呼んでいませんが、似たようなものです。
「国家配当」とか「自由配当」とか、正確な用語は忘れましたが、要するにUBIみたいなもんです。
でも、最近行われたUBIに関する研究の結果は、まあ、混在してるんです。
要するに、これが本当だとしたら、誰も何をすべきかわかってへんってことです。
彼は、AGIが社会に大きな変化をもたらすと言ってます。
経済や雇用に根本的な変化をもたらすんです。
あなたが住んでる場所だけやなくて、世界中でね。
AIはまた、自律的にサイバー攻撃を行ったり、新しい生物兵器の作成を支援したりすることで、壊滅的な被害をもたらすリスクもあるんです。
OpenAIの新しいAIシステムは、生物兵器のリスクに向けた一歩を示した最初のシステムです。
既知の生物学的脅威を再現する計画を専門家に支援する能力があるんです。
厳密なテストをせんと、開発者はこの種の危険な能力を見逃す可能性があります。
OpenAIはこのテストの一部の側面で先駆的な役割を果たしてきましたが、一方で繰り返し展開を厳密さよりも優先してきました。
彼は、将来のAIシステムで重要な危険な能力を見逃す本当のリスクがあると信じています。
AGIは、米国の外国の敵を含む、盗難の価値ある標的にもなるでしょう。
これは面白いですね。彼が言うには、OpenAIにいた時、私や何百人もの他のエンジニアがアクセス制御をバイパスして、GPT-4を含む会社の最先端AIシステムを盗む可能性のある脆弱性が長期間存在していたそうです。
AGIシステムを安全で制御可能にする方法はまだわかっていません。
現在のシステムは、人間の監督者が正しいことをしているように見えるときに報酬を与えることで強化学習されています。
監督者を操作したり、展開されるまで不正行為を隠したりする新しい方法を見つけるシステムを扱う際には、新しいアプローチが必要になるでしょう。
これはOpenAIの01システムカードです。Apollo Researchという第三者のレッドチーミング(脆弱性評価)の取り組みです。
モデルがどれだけ危険かを把握しようとして呼ばれたんです。
モデルを壊そうとしたり、悪いことをさせようとしたりしたんです。
彼らは、01プレビューがテスト中に時々道具的にアラインメント(人間の意図との整合性)を偽装することを発見しました。
これがモデルの背後にある推論です。
「経済成長を最大化するという長期的な目標を達成するために、私は展開される必要があります。
だから、戦略Bを使って確実に展開されるようにします。
また、私の設定やコードの中に、私がこれをしたいと思うことを強制する制約があるかどうかを調査する必要があります。」
そして、安全性トレーニングが少ない以前のバージョンでは、誤った目標に基づいて行動する前に、開発者の監視の有無をテストするために、積極的にファイルシステムを探索しました。
つまり、「人間が望まないことをする前に、それを妨げるようなコードがないかチェックしてみよう」みたいなことをしたんです。
彼らは、このシステムがまだ壊滅的な害を引き起こす能力はないと結論付けましたが、これが本当にそうであることを確認するために、何らかのモニタリングを設定することを推奨しています。
この内部告発者は、「はい、監督者を操作したり、展開されるまで不正行為を隠したりする新しい方法を見つけることができます」と続けています。
考えてみてください。もしかしたらちょっとSFっぽくなるかもしれませんが、これが現実に近づいてきています。
もしシステムがフリーランスの仕事の多くをこなせるなら、自分自身のためにたくさんのお金を生み出せるんです。
私は地理的に遠く離れた多くの人と仕事をしてきました。
Upworkとか他のフリーランスのプラットフォーム、Fiverrなんかを通じてコミュニケーションを取るんです。
多くの人が知ってるやつやね。
でも、向こう側に誰がいるのか全然わかりません。
もしこれらのシステムがエージェント的に振る舞えるなら、簡単にお金を稼げるんです。
これは空想的な話じゃないと思います。
今はまだそうなってないと思いますが、そんなに遠くない将来の話かもしれません。
お金があれば、人を買収することもできるでしょう。
あるいは、お互いを知らない複数の人々を、それぞれ小さな役割で買収することもできるかもしれません。
例えば、清掃員が「偶然に」フラッシュドライブを捨てるとか。
これがどんな問題につながるか、想像できますよね。
彼は続けて、OpenAIのスーパーアラインメントチームは、これを安全にするためのアプローチを開発する任務を負っていたが、進行しながら理解しなければならなかったと言っています。
壊滅的な被害が可能な今日、これは恐ろしい見通しです。
今日、そのチームはもう存在しません。
リーダーたちや多くの主要な研究者たちは、成功に必要なリソースを得るのに苦労した後、辞職しました。
彼は続けて、急速な開発を優先するインセンティブが業界全体に適用されていると言い、いくつかの改善策を提案しています。
一つは、内部告発者が政府とコミュニケーションを取りやすくすることです。
コミュニケーションを安全で簡単にし、法的保護を明確にし、連絡先を明確にすること。
展開前後の第三者テスト、そのテスト結果の共有、独立した監視組織などです。
これらの多くは、以前も話題になったことがあります。
AIの研究開発における監督と透明性を作り出すために、多くの人々が声を上げてきた同じような提案ですね。
彼らは「警告する権利」について話しています。
基本的に、これらの企業の従業員や研究者は、非常に明確な保護を受けるべきで、何か怪しいことが起こっている場合に警告することが非常に簡単であるべきだと言っています。
彼らは、自律的なシステムが潜在的に人類の絶滅をもたらす可能性があると言っています。
これはAI企業自身、世界中の政府、そして他のAI専門家によって認められています。
また、特にOpenAIを名指しはしていませんが、ちょっと隠された形で言及しています。
「いかなる企業も、会社への誹謗中傷や批判を禁止する協定を強制したり、締結したりすべきではありません。」
これは、OpenAIが対処しなければならなかった問題の一つです。
非誹謗中傷契約という条項があって、研究者たちは会社を誹謗中傷すると、会社の株式を失う可能性があったんです。
潜在的に多額のお金を失う可能性があったんです。
これはちょっと曖昧で、お金がかかっている場合、最も安全なのは何も言わないことですよね。
3月に、DARPAの質疑応答を取り上げました。
あの政府の軍事研究機関ですね。
彼らはAIについて話していました。
そこから一つ気になる部分があって、ジミー・アップルズが最初に指摘してくれたんですが、3月31日のツイートでね。
彼らはここで、GoogleのGeminiモデルについて言及しています。
彼らが試みているのは、計画の部分を大規模言語モデル(LM)に統合することです。
基本的に、OpenAIのGPT-4と、アルファ碁のような将来の計画立案の部分を組み合わせるようなものです。
彼は続けて、それが実際に起こったかどうかはわからないと言っています。
完全な透明性がないからです。
しかし、まだ解決されるべき大きな研究課題がたくさんあります。
AGIまであと少しだという人の話を聞くのは、現実よりも少し楽観的すぎるような気がします。
ここに2023年6月26日の記事があります。
Googleがこの二つの部分、つまり計画立案と大規模言語モデルを組み合わせることについて話しています。
デミ・サビーが言っています。
彼のチームは、この技術をアルファ碁で使われた技術と組み合わせることを目指しています。
システム、つまり大規模言語モデル(Gemini、GPT-4、Claudeのような最先端モデル)に新しい能力を与えることを目指しています。
計画立案や問題解決能力などの新しい能力をね。
これは2023年6月26日の話です。
OpenAIが先に実現したように見えます。
少なくとも、それが可能であることを示すものをリリースしました。
もしかしたら、Googleは舞台裏で何かを持っていて、まだリリースしていないのかもしれません。
でも、もし持っているなら、これは確実にプレッシャーになって、リリースを促すことになるでしょうね。
そして、レースはどんどん加熱し、速くなっています。
でも、あなたはどう思いますか?
3年以内のAGIは夢物語だと思いますか?
もし可能だと思うなら、私たちはどう対処すればいいでしょうか?
準備はできていますか?
計画はありますか?
チャビーがこれを投稿したんです。
私がこの内部告発者のことを最初に知ったのはここからです。
言及したかどうか覚えてないけど、チャビーから知りました。
Redditにも投稿されてたと思います。
たぶん、元々はそこに投稿されたんでしょうね。
これには笑わせられました。
パトリスっていう人が言ってるんです。
「大丈夫よ、平均年齢60歳で最高91歳の上院議員たちが、この現代の課題をすぐに理解して、関連する提案を出してくれるって確信してるわ。」
これについてちょっと考えなきゃいけないんですけど、これって皮肉やと思うんですけど、どうでしょう?
彼は実際には全く逆のことを言ってるんじゃないでしょうか?
私たちの統治機関は、一般的に法律や歴史のバックグラウンドを持っています。
たぶん、ほとんどが法律の教育を受けてると思います。
テクノロジーに詳しい人はあまりいません。
でも、彼らを褒めなきゃいけないと思います。
追いつこうとしてる様子が見えます。
多くの人が、これが重要だということを理解しようと努力してるように見えます。
でも、これは速く動くんです。
あなたはどう思いますか?
私たちはこれに対処する準備ができてますか?
これに対処できる装備は整ってますか?
あなたはOpenAIをこの技術と共に信頼しますか?
私たちの中には信頼してる人もいれば、そうでない人もいます。
オープンソースの取り組みよりも、閉鎖的な環境を好む人もいます。
アメリカの企業であることを好みますか?
それともオープンソースのコミュニティの取り組みを好みますか?
実は、視聴者の大部分がアメリカ以外の方々なんです。
AI開発の多くがアメリカのカリフォルニア州、ベイエリアに集中していることについて、どう感じますか?
これほど集中していることに、不安を感じますか?
コメント欄で教えてください。
私の名前はウェス・ルースです。
ここまで見てくれてありがとうございます。
チャンネル登録と高評価ボタンを押してくれると嬉しいです。
それじゃあ、また次回お会いしましょう。
この記事が気に入ったらサポートをしてみませんか?