OpenAIは人間レベルのAIに向けた進捗を追跡するシステムを開発しました。同社は、人工汎用知能(AGI)への道のりで5段階中の第二段階に差し掛かっていると考えています。この新しい分類システムは、社員に対して全社ミーティングで共有され、従来のシステムに比べてより詳細な進捗を追跡できるものです。具体的には、OpenAIは現在、第一段階のチャットボットレベルに位置しており、まもなく第二段階である「推論者」レベルに到達すると考えています。この段階では、基本的な問題解決タスクを人間の博士号レベルの知識を持つAIが実行できることを目指しています。さらに、OpenAIはロスアラモス国立研究所と提携し、AIフロンティアモデルの安全性を評価するプロジェクトを発表しました。このプロジェクトは、AIの生物学的リスクと能力を評価することを目的としています。
公開日:2024年7月12日
※動画を再生してから読むのがオススメです。
Bloombergがこれを報じました。
OpenAIは、人間レベルのAIに向けた進捗を追跡するシステムを開発しています。
同社は、自社の技術がAGI、人工知能の一般的な知能への道の2番目の段階に近づいていると考えています。
彼らは、OpenAIが従業員の新しい分類システムを火曜日の全社会議で共有したと述べており、OpenAIの広報担当者は、「それが大きなニュースではない」と述べました。
その情報は一般に公開されていました。
この分類システムは長い間存在しています。
例えば、Google DeepMindは独自の、この場合、ゼロからレベル5の超人的なAIまで、6つのレベルがあると言えるでしょう。
Anthropicは、AIシステムの潜在的なリスクを測定する独自のシステムを持っています。
彼らは人工知能の段階を信じるものを分解し、新しい段階システムを持っています。
OpenAIが彼らのAIが今どこにあるか、またはまさにその瀬戸際にあるかを言っているので、このシステムを理解してニュースを文脈に置くことが重要です。
レベル1、これは多くの人が今私たちがいると言うであろう場所です。
チャットボット、会話言語を持つAI。
レベル2は人間レベルの問題解決であり、推論が可能なものです。
レベル3、そしてこれは私たちの多くが非常に興奮しているものですが、もちろん、ユーザーの代わりに行動を取り、長期的な視野でタスクや目標を実行し、観察し、方向を定め、決定し、行動するなどのシステムであるエージェントです。
レベル4、私たちは革新者を持っており、発明に役立つAI、科学を前進させるのに役立つ可能性があるAI、新しいイノベーションを生み出すなどができます。
レベル5は、完全なAI組織であり、全組織の業務を行うことができるAIシステムです。
例えば、サム・アルビンは、ある日を想像することについて話しました。具体的なタイムラインは示しませんでしたが、おそらく私たちが期待するよりも早い時期かもしれません。しかし、AIによって自動化された一人組織が10億ドルの評価に達する日が来るという日。
一人で10億ドルの会社。
これらのレベルはOpenAIの幹部やリーダーによってまとめられましたが、フィードバックを受けて改善される予定です。
しかし、これの目的は何でしょうか?
OpenAIの幹部は、会社は現在、チャットボットレベルであると考えており、次に「理解者」と呼ぶ第二のレベルに達しようとしていると従業員に伝えました。
これは、基本的な問題解決タスクを行うことができるシステムを指し、また、どんなツールにもアクセスできない博士レベルの教育を受けた人間にも言えることです。
同じ会議で、会社のリーダーシップは、OpenAIが人間のような推論力を示すいくつかの新しいスキルを持つと考えているGPT-4 AIモデルを使用した研究プロジェクトのデモンストレーションを行いました。
この情報を漏らしたと思われる人物は、報道機関に話す権限がないため、身元を明かさないように求められました。
コメントを求められたOpenAIは、「うん、常にテストを行っていますが、具体的なことはありません」と述べました。
参考までに、Google DeepMindのAGIレベルやAIのレベルがあります。
ゼロは基本的にAIがない状態ですよね?
たぶん電卓のようなものですよね?
数字を足すことができるものですが、それ以上のことはできません。
また重要なことに、彼らはAIの能力を狭いものと一般的なものに分けています。
狭いAIに関しては、すでに超人的な狭いAIを持っています。
超人的とは、すべての人間の100%を上回ると定義されるものです。
この場合、たとえばAlphaFoldのようなタンパク質の3D構造を予測したり、チェスをプレイしたり、囲碁をプレイしたりするようなことをする場合、現在の狭いAIは、これらのタスクにおいて、どの人間よりも優れているか、あるいは非常に優れており、熟練した大人の99パーセンタイルに位置しています。
しかし、一般的なAI、つまり一般的なタスクを行うことができ、スキルや能力をタスク間で移動させることができるAIに関しては、Google DeepMindは現在、新興のAGIを持っていると位置づけています。
私たちは、ChatGPTやGoogle Bard、Google Gemini、Llama 2、そして今は3などのもので、AGIの非常に初期の兆候を見始めています。この論文は少し古いですが、彼らはきっとClaude 3や3.5をここに載せるでしょう。
その他にも、競争力のあるオープンソースモデルがいくつかあります。これらは、未熟な人間と同等か、あるいはそれ以上の性能を持っています。
この尺度のレベル2は、OpenAIが提案しているものとは異なり、熟練した大人の50パーセンタイル以上であると定義されています。
興味深いのは、これが24時間未満前に発表された別の大きな発表に続いていることです。
これはロスアラモス国立研究所です。
ここは原子爆弾を製造する場所です。
ロスアラモス国立研究所は、第二次世界大戦が始まって数年後の1943年に始まり、原子爆弾を設計・製造するためだけに設立されました。
そして彼らはそれを成し遂げました。
私は耳が聞こえなくなり、世界の破壊者となった、ということです。
しかし、今日ではこの研究所の主な使命は、国家安全保障プログラムに対する科学技術支援を提供することです。
昨日、彼らはOpenAIと提携して、フロンティアモデルの安全性を向上させることを発表しました。
安全性評価は、AIに関連する生物学的な能力とリスクを評価します。
このリリースでは、AIにおける潜在的な良さ、莫大なメリット、そしてもちろん、潜在的な危険や誤用、特に生物学的リスクについて話しています。
彼らは、ChatGPTが生物学的脅威の創造につながる可能性のある情報を提供するのに軽微な向上をもたらしたと述べています。
彼らはChatGPT-4oをテストしています。
これは、ビジョン能力を持ち、音声入出力にトレーニングされたモデルです。
それは同じモデルの一部です。
Oはオムニの略で、すべてを意味します。
現在、見かける多くの音声アシスタントは、複数の部品、いくつかのコードなどを組み合わせてフランケンシュタインのように作られており、それによってテキストを書き出すことができます。
そのテキストはAIの声に翻訳されます。
しかし、ChatGPT-4oは、それらすべてをトレーニングしたオールインワンバージョンであるべきです。
まだ音声モードにアクセスすることはできません。
彼らはまだリスクを評価している最中です。
でも、7月には実現することを期待しています。
私はまだ希望を持っていますが、以前にも聞いたことがあります。
問題は、なぜ彼らが提携しているのかということです。
ホワイトハウスから新しい行政命令が出されました。人工知能の安全で安全な開発と利用を信頼できるものにするために、エネルギー省の国立研究所がAIフロンティアモデルの能力を評価するのを手伝うように任命されました。
エネルギー省は、これらの課題に取り組むための独自のデータ、リーダーシップコンピューティング、労働力を持っており、これらの取り組みにおいて産業と協力するのに適しています。
人々はこれにどう反応していますか?
これはよく言われることです。
Smoke-awayは言っています、今はっきりしています、OpenAIは国有化されました。
右側にいるこの男、レオポルド・アッシェンブレンナーという人物がいました。
彼はOpenAIから解雇されました。
彼はスーパーアライメントチーム、AI安全チームの一員でした。
情報を漏らしたという理由で解雇されたと言われています。
何が起こったのかはわかりませんが、キャンプファイヤーでの噂として広まっていました。
Situation Awarenessという論文を書きました。
彼は、AI産業における内部知識に基づいて何が起こるかを予測した10年後を予測し、起こると思われることを述べました。
彼は、AGI競争が始まったと述べました。
彼は、人工超知能の開発を、興味深いことに、かつてのマンハッタン計画と比較しています。
しかし、彼が最後に述べるポイントは、超知能、つまり人間よりも賢いAIシステムの開発が国家安全保障の問題であるという考えです。
もしシリコンバレーのスタートアップが超知能を開発していると信じるなら、新しい情報漏洩が毎週起こる中でもそれを維持し、開発し続けることができるとも信じていますか?
あるいは、半世紀ぶりに見られる国家安全保障部隊が解き放たれるとLeopoldが述べるように信じていますか?
しかし、私に訊きたいのですが、あなたはどう思いますか?
OpenAIが次の段階、つまり人間のような推論能力や人間レベルの問題解決能力を持つAIの能力を開発するという画期的な時期にあると信じていますか?
それとも、それは単なる宣伝だと思いますか?
ロスアラモス国立研究所と提携することは、彼らが国有化されている兆候だと思いますか?
それとも、それはただの通常の出来事で、いつも通りのビジネスですか?
コメントで教えてください。
あなたがどう考えているか知りたいです。
以上、私はウェス・ロスと申します。ご視聴ありがとうございました。