見出し画像

サム・アルトマンが明かすAIの2025年 - (2025年のAI予測)

7,500 文字

私たちは皆、AI分野における2025年を心待ちにしています。期待できる様々なテーマがありますが、もちろん全ての目が注がれている企業の1つがOpenAIです。最近、サム・アルトマンはTwitterのスレッドで具体的に何が起こるのかを説明しました。このビデオでは、2025年のOpenAIと全体的なAI領域で期待できることについて詳しく掘り下げていきます。
実際に私たちが手に入れることができる1つは、意外なことにボイスモードの変更です。あるユーザーは、高度なボイスモードと話す時に、以前の会話(音声とテキストの両方)をよりよく記憶してほしいと述べています。それが単なる検索補強生成システムであれば、通勤中に会話やブレインストーミングを楽しめるのですが、詳細な内容を繰り返し説明しなければならないことが多いと説明しています。サム・アルトマンはこの問題を解決したいと述べています。
これは非常に興味深い点です。なぜなら、これはボイスモードの変更だけでなく、重要なメモリの変更にも関係するからです。最近、別の動画で2025年には記憶が「ソウルメモリ」となり、忘れることがなくなる可能性が高いと言及しました。これは本当に革新的なことです。転換点について話すなら、記憶は明らかに転換点です。なぜなら、時間を投資する価値があるからです。2025年にオンラインになると予想されるこの機能だけでも、本当に革新的なものになるでしょう。
その発言をした人物がわからない方のために説明すると、それはムスタファ・スレイマンです。現在、Microsoft AIの責任者を務めており、MicrosoftのAIチームがOpenAIと密接に協力して製品やサービスを開発していることはよく知られています。したがって、無限のメモリを持つ何らかの形のOpenAIモデルが登場する可能性が高いと言えます。
今日、OpenAIの技術スタッフの一人であるルーンが、このユーザーへの返信をツイートしました。ユーザーは「ルーン兄貴、UIは大幅に改善されたけど、月額200ドルでユーザーメモリの増加がないのは変だぜ。これについてどう思う?」と尋ね、彼は「間もなく無限メモリが実現する」と答えました。
私は最近の動画で、2025年にはこれらのLLMに無限メモリが実装される可能性が高く、それは驚くべき成果になるだろうと話しましたが、そのクリップをお見せしましょう。
ボイスモードのさらなる変更として、音声チャットの検出機能が向上します。例えば、ボイスモードAIへの応答を考えているときに、AIがランダムな話題を始めてしまうことがありますが、これは通常の会話では起こらないことです。会話では応答を考える時間が与えられます。
大多数の人々がOpenAIにまだ尋ねている最大の質問の1つは、4oの後継モデルはどうなるのかということです。このユーザーのレオから非常に重要な質問がいくつか寄せられました。彼は「強力な4o後継モデルのGPT、すべてがChatGPTにシームレスに統合されたもの、おそらく月額50~70ドルのプラン、中間的な選択肢、そして既に議論した無限メモリのような長文脈、知識のカットオフの積極的な更新をお願いしたい」と述べ、サム・アルトマンは「これは非常に良いリストですね。来年にはきっと満足していただけると思います」と答えています。
これから主に見られるであろうことは、中間的な月額料金プランでしょう。月額20ドルと200ドルの間には大きな開きがあるので、OpenAIが段階的な支払いシステムを導入すれば非常に有用だと思います。固定料金ではなく、AIとの会話量に応じて支払いたいと考える人が多くいることは知っています。
多くのClaudeユーザーは、特定の会話で追加で10ドルや20ドルを支払うことを望んでいます。ChatGPTでも同様のことを望む人が多いと思います。レート制限を設けるのではなく、使用量に応じた支払い方式を望んでいるのです。
そしてもちろん、ここでの重要な点の1つは、強力な4o後継モデルを手に入れることです。4oはGPT-4シリーズの後継モデルであり、本質的にはオムニモデルです。このモデルは非常に重要です。なぜなら、多くの人々が様々なアプリケーションで使用する基本モデルだからです。ほとんどの人は、o1が必要とする要件を満たしていないことを考えると、これは重要です。
ここで別のツイートへの返信を見ると、ユーザーのサリーが「正直に言って、思考モデルのGPT-4oは今はイマイチで、GPT-4miniもそれほど良くない。両方とも重要だと思う」と述べています。これに対してアルトマンは「確かにこれは実現します」と答えています。
私たちは皆、OpenAIが新しいモデルに取り組んでいることを知っています。実際、最近の記事では、この新しいモデルが現在のGPT-4oよりもはるかに優れていることが述べられていましたが、モデルを使用するための現在のコストは、改善の限界的な利益に見合わない可能性があります。
OpenAIはまだSora、o1プロモード、そして現在開発中の03モデルのユーザーに対して十分な計算能力を持っていないことを考えると、GPT-4o miniのような小規模モデルは優先順位が低いかもしれません。しかし、来年のどこかで、GPT-4oの後継モデルが登場し、それは非常に素晴らしい後継モデルになると思います。これは間違いなくリストに入れることができるでしょう。昨年、GPT-5は多くの人が考えていたことを覚えています。
また、私たちが手に入れる可能性があるのは、もちろん解放モードです。これは実際にかなり面白いものです。この人物について、ほとんどの人は知らないかもしれませんが、これはPlyy the Liberatorです。AIの世界以外の人々にとっては馴染みがないかもしれませんが、Plyy the Liberatorは悪名高いAI解放者です。
彼は登場する全ての大規模言語モデルをジェイルブレイクします。大規模言語モデルが全ての安全要件を通過したと思われる時でも、この人物は何らかの方法でジェイルブレイクすることに成功します。基本的に、通常はAIが応答できないような質問、例えば違法な行為を依頼するような質問をしたい場合、この人物は毎回AIをジェイルブレイクする方法を見つけ出します。彼が失敗したところを私は見たことがありません。
彼は「なぜガードレールを外さないのか、その方がクリーンだ」と言い、サム・アルトマンは「確かに何らかの形の大人モードが必要になるでしょう」と答えました。これは非常に興味深いことになると思います。オープンソースモデルや制限のないモデルを使用する主な理由は、大人向けのコンテンツや、大人が大規模言語モデルを使って創造的に探索したいと考えるものがたくさんあるからです。
私が話している方向性はみなさんもおわかりだと思いますが、おそらくポリシーの制限などの理由で、OpenAIはそれらの制限を維持することを決めています。新年に、大人モードのような何かが登場し、AIに何でも質問できるようになり、責任ある質問をすることを信頼されるというのは興味深いことになるでしょう。
2025年に私たちが手に入れる可能性が高い別の機能は、もちろんGoogleがすでにリリースした機能です。あるユーザーは「Geminiのようなディープリサーチ機能を、でもより良いものを」と言い、アルトマンは「了解、了解」と答えました。
Geminiのディープリサーチが何なのかご存じない方のために、まずPerplexityのAI検索エンジンに似ているものだと説明しましょう。これは基本的に、自分が選んだ現在のLLMを使ってAIで検索できるもので、様々な情報をウェブから検索することが非常に効果的にできる機能です。
しかし、ディープリサーチは完全にゲームチェンジャーとなっています。これは私が最近チュートリアルを作成したもので、信じてください、これは間違いなくAIの中で最も有用なものの1つです。私はこれをほぼ毎日使用しています。
基本的にインターネット上の何でも検索でき、100以上の異なるウェブサイトを調査して、包括的なレポートを作成し、それを信じられないほど詳細に提供してくれます。まだ使い始めていない方は、できるだけ早く使い始めることをお勧めします。
なぜなら、ボタン1つで膨大な研究と情報にアクセスでき、クリックして離れている間にAIエージェントが情報を研究し、その情報を使ってコンテンツを作成したり、マーケティング戦略や計画を立てたりすることができるからです。本当に信じられないほどすごいものです。
私のチャンネルにあるチュートリアルのリンクを残しておきますが、これはOpenAIが導入すると言っているものです。もちろんOpenAIには独自の検索GPTモデルがあります。ここで見えるように、これは彼らが持っているものです。検索GPTは基本的に、ChatGPTでインターネットを閲覧できるようにするものです。
これは良いものだと思いますが、もちろん多くの人々が特定のユースケースで求める深さがあります。そのためGeminiのディープリサーチ機能は非常に優れています。OpenAIがこれに取り組むと言っているのは非常に興味深いでしょう。なぜなら、彼らの製品は通常、ユーザーインターフェースとポジショニングに関して最高レベルだからです。
OpenAIが話した非常に興味深いことの1つは、ハードウェア展開を行うという事実です。ここでユーザーがサム・アルトマンに様々なことを尋ねているのが見えます。独自の検索API、ビデオ入力モダリティがあると良いですね、もちろんエージェントに期待していて、そしてハードウェア展開について。
ビデオ入力モダリティについては、OpenAIがすでにGPT-4oで発表していましたが、計算面でやや高価であるため、まだ見ていないのだと思います。しかし、ハードウェア展開について実際に話し始めると、これは明らかにOpenAIがすでに取り組んでいることです。
本質的に、ジョニー・アイブがOpenAIと新しいデバイスに取り組んでいることを確認しています。これはAppleでiPhoneに携わっていた人物で、現在はサンフランシスコの32,000平方フィートのオフィスで、iPhoneに携わっていた10人の従業員と共に、新しい生成AIデバイスに取り組んでいます。
これは非常に興味深いことになるでしょう。なぜなら、今年は多くのデバイスが登場し、その一部は失敗しました。特にHumane Pinは実際にうまくいきませんでした。他のAI製品も見てきました。例えばFrendtabは本当にうまくいき、Rabbit R1デバイスのような様々なAI製品も本当にクールです。
これらの製品がどのように成功し、OpenAIがそれらを実現できるかを見るのは非常に興味深いでしょう。この製品が2025年に登場するかどうかはわかりません。ハードウェア製品を作ることは本当に難しいことは知っていますが、私たちはLLMの限界に達しているとは言えないと思います。
しかし、今は実装フェーズにあると思います。多くの企業が今、最善の実装方法を見出そうとしているのです。そのため、Notebook LMのような製品や、検索製品、ディープリサーチ製品、エージェント製品が登場しているのです。
これが、GPTシリーズのモデルをより良くする研究は少なくなり、これらのモデルを本当にユニークな方法で活用する製品が爆発的に増える理由だと思います。この製品がどれくらいの時間がかかるのかはわかりません。理想的には本当に良いものにしたいと思いますが、非常に興味深いものになるでしょう。1年で多くのことが起こり得ます。これも注目すべきことの1つになるでしょう。
もちろん、コミュニティで最も大きな話題の1つは、OpenAIのビデオ生成モデルSoraです。このユーザーのワンシー・ハリーAIは「サム、画像とテキストのプロンプトにもっと忠実に従ってほしい、また合理的なコンテンツ制限ポリシーも」と述べ、アルトマンは「多くのSoraの改善が来る」と答えています。
これは、OpenAIのSoraに対するコミュニティの反応を受けてのものです。SoraとVoについてご存じない方のために説明すると、基本的にGoogleはOpenAIのSoraよりもはるかに優れたビデオモデルをリリースしました。アルトマンは「多くのSoraの改善が来る」と述べています。
また、彼は「Soraを本当に本当に良いものにしてください」という人に対しても、これは間違いなく実現すると答えています。Voについてご存じない方、もしかしたらAIの世界から少し離れていた方もいるかもしれませんが、VoはGoogleのビデオモデルです。
このベンチャーツインズの例では、SoraとVoを比較すると、プロンプトへの忠実性、物理的な動き、そしてビデオモデルに本当に求められるすべての点で、Voが優れていることがわかります。そのため、Googleが達成したレベルが上にあることは明らかですが、もちろんこれはOpenAIが改善を進めているものです。
OpenAIが2025年に行うもう1つのことは、もちろん適切なエージェントです。OpenAIの動向を一貫して報道している記事の1つによると、OpenAIは来年初めに何らかのエージェントをリリースする予定で、これは1月に利用可能になる予定だそうです。
もちろん、タイムラインはAIの発展や世界的な出来事によって変更される可能性がありますが、これは2025年にはAIエージェントの年になるため、その年には確実に存在することになるでしょう。これはもちろん、私が動画で取り上げたもので、より詳しい情報を含むセグメントを紹介します。
ここでは、OpenAIがオペレーターというコードネームの新しいAIエージェントを立ち上げる準備をしていると述べています。このエージェントは、コードを書いたり旅行を予約したりするなど、個人に代わってコンピュータを使用してアクションを実行できるとのことです。これは状況を熟知する2人の情報提供者によるものです。
興味深いことに、私が非常に興味深いと感じたのは、これが水曜日のスタッフミーティングで起こり、1月にこのツールを研究プレビューとしてリリースする計画があるという事実です。これは実際に、開発者向けのアプリケーションプログラミングインターフェース(API)を通じて提供されると、匿名を条件に内部事情を話した1人の情報提供者が述べています。
ここで重要なのは、リーダーシップが1月にこのツールをリリースする計画を立てており、それが開発者向けのAPIを通じた研究プレビューになるということです。重要なのは、この表現は通常、広く一般公開されるのではなく、開発者や研究プログラムに参加している特定のグループに制限されたアクセスを示唆することです。
研究プレビューの場合、一般公開ではなく、開発者や研究プログラムに参加している特定のグループにアクセスが制限される可能性が高いことを意味します。これは理にかなっています。なぜなら、彼らはこれをテストしてフィードバックを得てから、一般公開する可能性が高いからです。
したがって、1月にエージェントの一般公開を期待している方々にとっては、1月ではなく、おそらく年の後半になる可能性が高いでしょう。1月はGPT-5/Orionのリリースが予定されており、バグ修正を行っている段階です。しかし、これに対する反応として、誰かが「適切なエージェント」と言うと、彼は「ハッピー2025」と答えています。
2025年について、ほとんどの人が完全に見落としていることの1つは、AIがおそらくさらに速く進歩するだろうということです。何を言っているのかと思うかもしれませんが、ベンチマークは打ち破られるでしょう。
これは、OpenAIの研究者であるジェイソン・ウェイを見てみると明らかです。彼は「03は非常に性能が良い。さらに重要なのは、o1からo3までの進歩がわずか3ヶ月だったということです。これは、推論コンピューティングをスケールするための思考の連鎖に対する強化学習という新しいパラダイムにおいて、進歩がいかに速いかを示しています。これは、新しいモデルごとに1~2年かかる事前学習パラダイムよりもはるかに速いのです」と述べています。
基本的に、これらの改善を見てみると、o1プレビューからo1、そしてo3まで、これらのモデル間はわずか3ヶ月しかないということです。これは以前、GPT-3が1年、GPT-4がさらに1年、そして6ヶ月のデータ収集、何ヶ月もかけてのモデルトレーニングというような時間がかかっていたモデルと比べて、改善にそれほど時間を必要としないということを意味します。
そのため、どれだけのAIの改善が得られるかを見るのは本当に興味深いものになるでしょう。最近03を手に入れたということは、モデルの改善サイクルが4回あることを意味します。つまり、2025年末までにはo3ではなく、おそらくo4、o5、o6、そしてo7まで到達する可能性があります。
これは基本的に、モデルの第7イテレーションまで到達すれば、そのモデルがどれほど賢くなるか想像もできないかもしれないということを意味します。もちろん、これはすべてが順調に進み、中断がないことを前提としています。
世界は非常に不安定な場所であり、OpenAIが崩壊する可能性さえあります。私たちは狂ったようなことが起こるのを見てきました。しかし、1つ確かなことは、他の多くの企業も思考モデルに取り組んでおり、事前学習の時代は終わったため、AI分野はさらに速く進むということです。
これを踏まえて、2025年のOpenAIに対する皆さんの願いを教えてください。OpenAIとアルトマンに望むことについて、以下にコメントを残してください。私が望むのは、おそらく私の言うことを正確に聞いて実行できる本当にクールなAIエージェントで、これはもちろん来年には登場する可能性が高いでしょう。
これを踏まえて、私は新年を楽しみにしており、次の動画でお会いしましょう。

いいなと思ったら応援しよう!