
OpenAIがレベル4 AGI『イノベーター』を達成!
5,272 文字
X上でRiley Coyoteという名前のユーザーが、AI業界で大きな話題を呼んでいる驚くべきツイートを投稿しました。彼はこう述べています。「OpenAI内部で起きていることについて知らされたばかりだが、なんということだ。誇大広告のように聞こえずに自分の気持ちを表現する方法がわからない。実際、何と言っていいかわからないが、これだけは共有しよう。イノベーターが来る。問題は、彼らがどうやってここに来たのかわからないということだ」
まず、「イノベーターが来る」とは何を意味するのでしょうか。OpenAIのAGIの5段階を見てみると、これは彼らがAGIの5段階を定義するために使用するテーブルです。レベル1はチャットボットから始まり、これらは基本的なLLMsのようなものです。レベル2は推論者で、実際に推論できるモデルです。OpenAIのo1とo3はこのレベルに該当します。レベル3はエージェントで、実際に行動を起こせるAIシステムです。これは今年からより多く見られるようになるはずです。そしてレベル4はイノベーターで、発明を支援できるAI。最後にレベル5は組織で、組織全体の仕事をこなせるAIです。
このツイートはレベル4のイノベーター、つまり発明を支援できるAIに言及しています。これは本質的にレベル1、2、3の組み合わせです。AIが発明を支援するためには、言語を理解し、人間のように推論できる能力、そして研究を行うなどのタスクを実際に実行できる能力が必要です。
OpenAIは史上初の真のAI研究者を開発したのでしょうか?もしそうだとすれば、それは世界にとって何を意味するのでしょうか?昨年、XOPの研究者Leopold Ashen Brerによって発表された「状況認識」という研究論文を覚えているかもしれません。この論文には知能爆発を示すグラフがあります。これは、自動化されたAI研究を開発すると、急速にスーパーインテリジェンスにつながる知能爆発が始まるというシナリオです。
研究とは本質的に、以前のアイデアを組み合わせるか、全く新しいものを発見することによる新しい知識の創造です。電気、自動車、蒸気機関、印刷機、その他の革新的な技術は、すべて広範な研究から生まれています。現在でも、数百万人の科学者や研究者が最も困難な問題に取り組んでいますが、結局のところ、人間の数には限りがあります。
一方、AIはただのソフトウェアです。休憩や休暇を取る必要がなく、24時間365日働き続けることができ、コンピューティングパワーなどの制約を除けば、理論的には無制限に作成することができます。これらのAI企業が真のAI研究者を手に入れたら最初にすることの1つは、AI研究自体の自動化でしょう。これは効果的に自己改善AIを作ることになります。これは、真のAI研究者の創造により知能爆発が起こりうるシナリオとなるもう1つの理由です。
OpenAIがレベル4のAGIイノベーターを達成した唯一の証拠はこのツイートですが、約2ヶ月前にSam AltmanがYコンビネーターの社長Gary Tanとのインタビューで、AIイノベーターについて興味深いことを語っています。
アルトマン:「レベル1からレベル2への移行が最近あり、それは本当にパワフルでした。そして、YCでo1ハッカソンを開催したのですが、それは本当に印象的でした。面白いことに、優勝者の1人、確か3位だったと思いますが、hamperというCAD CAMのスタートアップで、最近YCを卒業したばかりの会社です。彼らはハッカソンの間に、飛ばないものから文字通り競争力のある揚力を持つものまで、エアフォイルを反復的に改良するものを作り上げました。」
タン:「それは素晴らしいですね。それはレベル4、つまりイノベーターの段階のように聞こえます。」
アルトマン:「面白いことを言いましたね。私はしばらくの間、レベル2からレベル3への移行は早く起こるだろうけど、レベル3からレベル4への移行は何か中規模かそれ以上の新しいアイデアが必要で、もっと難しいだろうと人々に言っていました。しかし、そのデモと他のいくつかのデモを見て、現在のモデルを本当に創造的な方法で使用することで、大量のイノベーションを得られることがわかりました。」
アルトマンは、スーパーインテリジェンスのようなものが以前考えていたよりもずっと近いと考え始めているという視点や時間軸の変化について言及しています。これを示すもう1つの指標は、彼が最近投稿した暗号めいたツイートです:「6語の物語を書きたいと常に思っていた。これがそれだ:シンガリティの近く、どちら側かは不明」
以前の動画で取り上げましたが、彼はここでシンガリティに近づいていると述べています。シンガリティとは本質的に知能爆発、つまり機械知能が人間の知能を超え、指数関数的に加速し続ける瞬間です。また、「どちら側かは不明」という部分については、いくつかの解釈方法がありますが、彼は「シミュレーション仮説についてか、あるいは離陸の決定的瞬間が実際にいつ起こるのかを知ることが不可能であることについてのどちらかを意味するように書いた。でも他の多くの方法でも機能することが気に入っている」と書いています。
つまり、私たちは未来の非常に洗練されたAIによって作られたシミュレーションの中にすでにいるか、あるいは私たちは史上初めてシンガリティに近づいており、それがいつ始まるのか、あるいはすでに始まっているのかを予測することは不可能だということです。
最近のポッドキャストでは、Sam Altmanが再び急速な離陸がより一層可能性が高くなっていることについて語っています。
「最近AIについて考え直したこと、あるいは考えを変えたことは何ですか?」
「数年前に考えていたよりも、急速な離陸の可能性が高いと思います。どのくらい速いかは推論が難しいですが、10年ではなく、数年という単位のものかもしれません。」
「AIへの適応について、人々が与えられる最悪のアドバイスは何だと思いますか?」
「AIは壁にぶつかっているというものです。これは、考えないようにする最も怠惰な方法で、ただ視界から外して心に留めないようにするものです。」
スーパーインテリジェンスとシンガリティについて最近話しているのはSam Altmanだけではありません。GoogleスタジオのプロダクトリーダーであるLogan Katrickもこんなツイートを投稿しています:「ASIへの直接的な道筋が月を追うごとにより可能性が高まっているように見える。これがイーリャが素早く見抜いたことだ。」
イーリャの逸話を知らない人のために説明すると、約1年前にOpenAIの共同創業者で前チーフAIサイエンティストのIlya SutskeverがOpenAIを去り、セーフスーパーインテリジェンス(安全な超知能)の開発に焦点を当てた自身のAIスタートアップSSIを立ち上げた際、彼が何か驚くべきものを目にして去ることを決意したという噂が広まりました。これが「イーリャは何を見たのか」というミームを生み、人々は様々な奇妙で難解な噂を広め始めました。
Katrickはここで述べています:「イーリャはSSIを設立し、中間製品も中間モデルのリリースもない、人工超知能への直接的な道筋を計画した。多くの人々(私を含む)は、モデルやSLプロダクトでフライホイールを回せば本物の参入障壁を築けるため、これは機能しそうにないと考えた。しかし、イーリャが早期の兆候を見たであろうテスト時コンピュート(推論時の計算能力)のスケーリングの成功は、この単純にスケールアップを続ける直接的な道筋が実際に機能するかもしれないという良い指標となっている。」
彼はここで、イーリャが見たのは恐らくテスト時コンピュートのスケーリングの早期の兆候だと主張しています。これはOpenAIのo1とo3モデルが基づいている新しいスケーリングパラダイムで、推論時により多くの計算能力を与え、本質的に考えることを可能にします。このパラダイムは文字通り、直接スーパーインテリジェンスへと導く可能性があります。少なくともイーリャはそう信じているようです。
また、彼はこうも述べています:「私たちはまだAGIを手に入れることになりますが、4年前のコンセンサスとは異なり、歴史における変曲点の瞬間というよりも、多くの反復と短期間での市場における類似のオプションを伴う製品リリースのように見えるでしょう。これは人類にとっておそらく最良の結果です。だから個人的にはこれについて嬉しく思っています。」
つまり、これらすべてが示すのは、これらのAI企業の雰囲気が確実に変化したということです。AGIは以前考えていたほど大きな出来事ではないかもしれません。私たちはまだそれを手に入れることになりますが、彼らはすでにスーパーインテリジェンスに照準を合わせているのです。
ツイートに戻ると、彼はさらなる文脈を提供しています:「他の人々が4月頃に私が見たもののレッドチーミング(セキュリティテスト)を始めることを願っています。これはo1でもo3でも4oでもGPT-5でもありません。しかし、既存のものの革新あるいは新バージョンです。」
繰り返しになりますが、これは確認されたものではありませんが、彼は4月に他の人々が彼が見たものについてのレッドチーミングを始めることを願っており、つまり4月にはより多くの情報を得られる可能性があるということを主張しています。これは私たちが見てきたどのモデルでもないが、既存のものの新バージョンだと述べています。これはo1やo3と何か新しい驚くべき手法、あるいは新しいスケーリング則との組み合わせかもしれません。誰にもわかりません。待つしかないでしょう。
個人的には、彼が「どうやってここに来たのかわからない」と述べていることから、本質的に何らかの創発的能力を示唆しているように思えます。これはおそらくテスト時コンピュートのスケールアップの産物だと思います。OpenAIが単にテスト時コンピュートをスケールアップすることでレベル4のAGIイノベーターを達成できたとすれば、私たちは本当にスーパーインテリジェンスの寸前にいることになります。イーリャとSSIが閉ざされた扉の向こうで何に取り組んでいるのか、想像もつきません。
しかし、確実に知っていることは、テスト時コンピュートという新しいスケーリングパラダイムが、これまで見てきたどのものよりもはるかに速く進歩しているということです。OpenAIのAI研究者であるJason Weiは最近こんなツイートを投稿しています:「o3は非常に性能が高い。より重要なのは、o1からo3への進歩がわずか3ヶ月だったということで、これは思考の連鎖に対する強化学習という新しいパラダイムでの進歩がいかに速いかを示している。推論時計算能力のスケーリングは、1-2年ごとの新モデルという事前学習パラダイムよりもはるかに速い。」
つまり、これまで1-2年ごとに新しいGPTモデルを得ていた古いモデルシリーズに代わり、数ヶ月ごとになる可能性が高いということです。私たちはすでに、OpenAIのo3のプレビューが、特に推論を重視するベンチマークで、あらゆるベンチマークを完全に圧倒したことを知っています。そしてこれはoモデルシリーズの2番目の反復に過ぎないのです。
つまり、私たちには以下のような状況があります:
特に推論において素晴らしい結果を生み出している新しいスケーリングパラダイム
AI業界でより多くの著名人がスーパーインテリジェンスと急速な離陸の可能性について議論
イーリャ・サツケヴァーのような分野で最も優れた頭脳の1人が、安全なスーパーインテリジェンスの構築という唯一の焦点を持つAIスタートアップを設立
そして、OpenAIが密室でAIイノベーター(レベル4 AGI)を達成したと主張するこのツイート
兆候は確かにそこにあります。私たちは、人々が考えているよりもスーパーインテリジェンスと知能爆発にずっと近づいていると本当に思います。なんという素晴らしい時代に私たちは生きているのでしょう。
皆さんはどう思いますか?私たちは本当にASI(人工超知能)にどれくらい近づいていると思いますか?そしてその理由は?また、それは楽しみにしていることですか、それとも恐れていることですか?
とにかく、今日はここまでです。このツイートやOpenAIがレベル4のAGIを達成したことに関する情報が出てきた場合は、必ず皆さんに最新情報をお届けします。いつもご視聴ありがとうございます。動画を楽しんでいただけたなら、ぜひ「いいね」を押してください。そして、このような将来のAIニュースを常に把握したい方は、ぜひ購読ボタンを押してください。