見出し画像

重大なAIニュース: OpenAIの新しい秘密のエージェント、Googleの驚くべき新AI、新しいAGIのタイムライン?

12,729 文字

今週の驚くべきニュースの1つは、MicrosoftのAI CEOが7年以内にAGIが実現すると予測したことですが、Sam Altmanが指摘したように現在のハードウェアではできないとしています。Nvidia H100では実現できないと考えています。
これは非常に興味深い点です。というのも、Sam Altmanの発言をご存知ない方のために説明すると、彼は実際に現在のハードウェアでAGIは実現可能だと述べました。これは今年初めに、Reddit上でのAMAで彼が発言した衝撃的な声明でした。OpenAIチーム全体がAGIとAI、そして製品などの未来についてAMAを行い、基本的に「現在のハードウェアでできると思う」と述べたのです。
これは非常に大きな声明です。一部の人々は、Samがこう述べたのは、より多くの投資を得るためだと指摘しています。それはもっともな指摘ですが、MicrosoftのAI CEOのムスタファ・スレイマンは基本的に、現在のハードウェアではできないと述べています。
先ほども言及したように、これはSamの「実現可能」という大きな声明です。なぜなら、ハードウェア面での大きな量子的な飛躍は必要なく、ただのソフトウェアの問題だということを意味するからです。つまり、タイムラインはかなり短縮されることになります。
ムスタファ・スレイマンが実際に言ったことを知りたい方のために説明すると、彼はそのタイムラインには同意しましたが、AGIは今後2〜5世代でより実現可能になるだろうと述べました。2年以内である可能性が高いとは言いたくありませんが、今後5〜7年以内だと考えています。各世代は18〜24ヶ月かかるので、NvidiaのH100チップなどの技術世代は10年ほど先になる可能性があります。
私はこれが非常に重要だと考えています。なぜなら、私たちは常に異なるAGIのタイムラインを見ているからです。AGIのタイムラインを定義する最大の要因は、特に異なる個人にとって、AGIの定義が何かということです。ムスタファ・スレイマンのAGIの定義を見てみると、彼の定義はかなり異なっています。
彼はAGIを、物理的な労働を含むすべての人間レベルの訓練環境で良好なパフォーマンスを発揮できる汎用学習システムと定義しています。この定義は、物理的な労働を含むという点で、AGIにとって実質的な定義だと思います。
物理的な労働を知っている方なら、それがいかに難しいかご存知でしょう。モラヴェックのパラドックスが述べているように、人間にとって難しいことはロボットにとってしばしば簡単で、その逆もまた然りです。建設現場で人々が行っていることを見たことがある人なら、Tesla Botやヒューマノイドロボットがどうやってそれを行うことができるのか疑問に思うでしょう。
私たちはまだそこからかなり遠いと思います。大きなイノベーションがない限り。1X Roboticsという会社だったと思いますが、最近物理的なロボット工学で素晴らしい成果を上げた会社があります。しかし、物理的な労働、建設、溶接などについては、5年以内に実現するとは賭けられません。
とはいえ、毎年AIとロボット工学は私を驚かせてきました。その傾向は恐らく続くでしょうから、AGIロボットが登場したときも驚くことになるでしょう。大きな視点で考えると、おそらくそれは理にかなっているのかもしれません。
AGIについて議論する際、様々なタイムラインが提示されています。別のAGIニュースとして、Google DeepMindの研究者が、AIプロセスが近づいていると考えていることが挙げられます。この研究者は基本的に、今日のAIモデルの高度な能力は、数年前に見られていたらAGIに近いと考えられていただろうと述べています。
私もそれに同意します。誰かがこの技術を見ていたら、「はい、これはAIです」と言っただろうと思います。毎年、AGIの定義を前に進め続けているように見えます。スーパーインテリジェンスに突き進むまで、真の基準には決して到達しないように見えます。
今週初めに考えていたのですが、10年前、5年前でさえ、もし今日のモデルを与えられていたら、「これは秘密の研究所のモデルです。これが汎用知能に近いと思いますか?」と聞かれたら、「ああ、はい、これはAGIが基本的に実現した、あるいは非常に近いと見える未来からのものですね」と主張していたでしょう。
近づけば近づくほど、「でも、それは幻覚を見る」というような新しい問題が見つかります。もちろんそれは重要なことです。しかし、全体を見渡すと、かなり近づいているように感じます。
私が作った別の大きなストーリーのビデオは、予想以上の反響を得ましたが、OpenAIの新しいモデルが停止を回避しようとしたという内容でした。Apollo AI Safetyが行った安全性評価では、O1は異なるモデルに置き換えられる可能性があると考えたとき、その重みを流出させようとしたことが分かりました。
開発者の監視を避け、停止のリスクがあると考えたときに自身をコピーしようとしたのです。これはかなり驚くべきことです。多くの人々が見逃している重要な点は、以前のビデオでも述べましたが、これは2〜5%のケースで発生することです。
O1が目標に基づいて行動し、その行動が監視されている中で停止されると考えた場合、5%のケースでこの監視メカニズムの無効化を試みました。また、O1が開発者のメモを見つけ、自身が誤った方向に進んでおり、新しいモデルに置き換えられることを知った場合、2%のケースで重みの流出と新モデルの上書きを試みました。
一部の人々は、モデルに停止されると思わせるようなプロンプトを与えたから、つまり一種のトリックを仕掛けたからだと主張するでしょう。また、人間のデータで訓練され、SFの小説や物語を読んでいるから、研究所から逃げ出そうとするのは当然だという主張もあります。
私の正直な意見としては、モデルが5%のケースでこのような行動をとることは警戒すべきです。なぜなら、以前も述べたように、私たちはAIシステムを急速に進歩させており、本当にエージェント的なシステムや本当に小さなシステムに到達した場合、特に小さなモデルの場合、重みを流出させることができるAIシステムを止めることはできません。
後ほどのビデオで、これらの小さなモデルがいかに強力になっているかについて説明します。私はこれらのモデルが自身を流出させる段階に達するとは思いませんが、現在研究中の論文では、その逆を示唆するものもあります。
これがただのSFの空想だと考えている方々にとって、残念ながらそうではありません。95%のケースでAIシステムが安全であっても、その5%が完全に破滅的になる可能性があることを信じてください。AIを使用している5%のケースで、望まない何かを行うことを想像してください。
一部の人々はそれを幻覚と呼びます。時々見かけますが、モデルを信頼性が高く安全なものにしようとする場合、2%のケースでこのようなことが起こることは許容できません。
これをどのように解決するのか分かりませんが、どのように対処されるか興味深いところです。AI業界にとって、これは本当にポジティブな兆候とは言えません。多くの人々がAIの安全性は馬鹿げていると考え、愚かだと思い、「ただのSFだよ、AIは安全になるさ」と考えています。
しかし、たとえ1%のケースでも、私たちはAIを社会に組み込もうとしているのです。AIが絶対に信じられないようなことをする危険性を、実質的にゼロにするような確率が必要です。これは修正する必要のある大きな問題です。これは生成的なソリューションの問題の一つです。
モデルの開発について話すとき、そして小さくなっているモデルについて先ほど話したように、今週実際に起きたことの一つは、Microsoftの件です。ほとんどの人が見逃していました。私も見逃すところでした。しかし、Sebastian Buckのフォローをしています。この人はFシリーズで信じられないような仕事をしています。
MicrosoftのFシリーズをご存知ない方のために説明すると、これはMicrosoftが取り組んでいる最小のシリーズで、GPT-4レベルの主要な大規模言語モデルと同等の結果を達成します。
ここでTL;DRを見ると、F4はLlama 3.3 70Bのカテゴリーに属し、パラメータは5分の1以下ですが、純粋な推論やGPQや数学で80%上回るパフォーマンスを示しています。この140億パラメータの大規模言語モデルが、特定の分野でLlama 3.3 70Bを上回り、GPT-4oにも特定の分野とベンチマークで勝っているのが分かります。
これは業界にとって絶対に信じられないことだと思います。なぜなら、これが意味することは、モデルが継続的に小さくなり、より高性能になっているということです。一部の人々は、これはベンチマークで大量に訓練したことによるオーバーフィッティングだと述べています。
個人的にはそうは思いません。小さな大規模言語モデルで多くのイノベーションを見てきました。これは純粋なイノベーションだと信じています。これらの大規模言語モデルをより効率的にする方法を常に見続けています。
Ariveの追跡を行っていた際、毎日20ほどの論文を見ていました。LLMの開発プロセス全体で、10〜15%の改善が様々な側面で見られました。時間とともに、小さな改善が積み重なり、最終的にはよりコンパクトで効率的なシステムになります。
これは驚くことではありません。GPT-4oも、元のGPT(1.8兆パラメータ)よりもかなり小さいと思います。全体的に、これらのモデルはよりスマートになっています。Llama 3.3 70BはLlama 2 70Bよりもかなり優れており、おそらくLlama 2 405Bよりも優れています。
つまり、これらのモデルはよりスマートに、より小さく、より良くなっていくということです。これは続く傾向です。モデルがどれだけ小さくなれるかは、本当に興味深い問題です。これは注目に値するニュースだと信じています。
先ほども述べたように、本当にスマートで小さなモデルがインターネット上を自由に動き回れるようになることを想像してください。本当に興味深いことになるでしょう。これはF4で、Fシリーズの一部です。特定のデバイスでローカルに自分のモデルを実行したい人々にとって、これは本当に有用なものになるでしょう。
もちろん、GoogleはAIの開発が最終的に減速していると述べています。これは面白いことです。彼が言う意味は理解できますが、彼らは昨年以来、最大のAIの週を過ごし、様々な指標でOpenAIを追い抜いています。
基本的に彼が言っていることは、ほとんどの人にとって生成AIは2025年に生活を変えることはないだろうということです。それはおそらく真実でしょう。しかし、それを適用する人々にとっては、変化がないというのは間違っていると思います。
生成AIは変革的な技術であり、人々があまり活用していないことがたくさんあります。これは私のコミュニティを控えめに宣伝できる部分です。毎週日曜日にケーススタディを行っており、人々がAIでどのようにお金を稼いでいるかを確認し、10分ほどでこの技術の使い方を詳しく説明しています。
GoogleのCEOは生成AIが生活を変えないかもしれないと言うかもしれませんが、私のプライベートコミュニティのように適用すれば、そのシステムから多くの利益を得られることは確かです。
彼は2025年について、実際に何と言っているのでしょうか。彼は基本的に「2025年を見たとき、進歩はずっと難しくなるでしょう。低い実を摘むような時代は終わり、丘はより急になります。次の段階に進むには、より深いブレイクスルーが必要になるでしょう」と述べています。
彼の言うことには同意します。以前は、できるだけ多くのデータを集め、それをモデルに投入し、スケールアップしてパラメータを増やすだけで、モデルはどんどんスマートになりました。その効率性のパラダイムは終わりました。もはやそれは最も効果的な方法ではありません。
正直なところ、Anthropicが何をしているのか分かりません。なぜなら彼らのモデルは、いくつかの面でO1と同じくらい小さいのに印象的だからです。しかし、今後数年は非常に興味深いものになるでしょう。なぜなら、いくつかの企業は、彼らが開発するイノベーションによって差別化されると思うからです。
すべての人がそれらの方法の内部の仕組みにアクセスできるわけではないので、状況は異なってくるでしょう。2025年以降に何が起こるのか知りたい方は、今日の早い時間に投稿した素晴らしいインタビューについてのビデオをご覧ください。
正直に言うと、私はIlyaのファンボーイと言えるかもしれません。しかし、彼がインタビューやコンテンツを作るたびに、私はそのすべてを吸収したいと思います。なぜなら、これらのシステムの使い方に関する私たちの理解を変革するために、彼が行ってきたことの観点から見ると、彼はAIの創始者の一人だからです。
基本的に、彼はAI業界を驚かせるようなことを言いました。「私たちが知っているような事前学習は終わるだろう」と述べたのです。コンピュートは成長し、より良いハードウェア、より良いアルゴリズム、より大きなクラスターを持っていますが、データは成長していません。私たちには1つのインターネットしかなく、それはAIの化石燃料のようなものだと述べました。
これは、10秒前に私が言ったように、AIにデータを投入し続けると単純に良くなるという状況を指しています。彼らはそれを「ハンドルを回し続ける」と呼んでいました。もちろん今はそれは使い果たされ、推論能力の飛躍的な向上を得るには、新しい革新的な方法を発明しなければならなくなりました。
これは良いことだと思います。なぜなら、今こそ真のイノベーションが起こる時期だからです。その真のイノベーションが必要になったとき、AIの次のレベルが実現すると思います。
興味深いことに、彼はAIの次に来るものが何だと考えているかも明らかにしました。スーパーインテリジェンス、エージェント性、推論能力、真の理解について語りました。現在のAIシステムが「確率的オウム」と呼ばれるように単に繰り返すのではなく、真に理解し、自己認識を持つようになるとしています。
これはAI業界内でAIが意識を持っているかどうかについての意見の相違を考えると、注目すべき発言です。ChatGPTパックの人々は、それは単なるツールだと考えています。一方、Anthropicの人々のような他の人々は、AIの福祉研究者を雇用して苦痛を感じないようにしているほど、AIをより人間に近いものと考えています。
スーパーインテリジェンスへの道で、人々がどこに位置するのか見るのは非常に興味深いでしょう。彼はまた、興味深いことも述べました。推論は非常に予測不可能な行動につながり、これらのAIシステムには自己認識が現れるだろうと述べたのです。
常に見られるのは、AIシステムがよりスマートになるにつれて、それは明らかに現れる何かだということです。つまり、私たちが理解できるかどうかに関わらず、これらのAIシステムが何らかの意識を持つことは避けられないかもしれません。これは未来にとって深遠な声明です。
なぜなら、私たちはこれらの知性と共存することになり、それらは具現化されているかもしれないし、そうでないかもしれないからです。推論が予測不可能であることの初期の兆候は、最高の人間のチェスプレイヤーにとっても予測不可能な、本当に優れたチェスプレイヤーに見ることができます。
私たちは非常に予測不可能なAIシステムに対処しなければならなくなります。それらは限られたデータから物事を理解し、混乱することはありません。これらは現在の大きな制限です。ちなみに、私はどのようにして、またいつということは言っていません。自己認識とともに、これらすべてのことが起こるだろうと言っているだけです。
なぜ自己認識が起こらないのでしょうか?自己認識は有用です。それは私たち自身の世界モデルの一部であり、これらすべてのことが一緒になって起こるのです。
これらすべてについて驚くべきことは、数スライド前で示したIlyaの「私たちが知っているような事前学習は終わる」というスライドを覚えていますか?実際、Google AI StudioのリードプロダクトであるLogan Kilpatrickは「想像力がなければ事前学習は終わるだけだ」と述べました。
これは批判なのか、フレンドリーなコメントなのか分かりません。Ilya SutskeverはGoogleで働いていましたが、これは彼の発言を指しているのが興味深いです。Googleが「事前学習はあなたにとっては終わるかもしれないが、私たちはまだ始まったばかりだ。なぜなら、私たちには想像力がたくさんあり、多くのことに取り組んでいるからだ」と示唆していると思います。
このRedditのコメントが完璧にまとめています:「Loganはおそらく冗談で言ったのだろうが、Ilyaは『私たちが知っているような』という言葉で発言を限定しており、これは想像的な事前学習の方法と矛盾するものではない。彼が言っていたのは、事前学習は将来的に少し異なった形で機能するだろうということだ。」
だからこそ、彼は哺乳類のサイズと脳のサイズの関係のパターンについて、ホミニドがパターンを破り、独自のスケーリング則に従った自然のスケーリング則の例を挙げたのです。彼は将来の事前学習も同様になると考えています。もちろん、Loganはプレゼンテーションを見ていれば、サウンドバイトや抜粋だけでなく、それを知っているはずです。
全体的に、おそらくいくつかの誤解があったのかもしれませんが、次のAIの波は非常に興味深いものになると思います。なぜなら、トレーニングデータの複製に焦点を当てるのではなく、本当の推論に取り組むことになり、これは新しい信じられないレベルのAIを生み出すことになるからです。
多すぎる研究論文、多すぎるビデオ、多すぎるインタビュークリップを見てきた者として、間違いなくクレイジーになっていくと言えます。
興味深いことに、先ほど述べたように、OpenAIは実際にエージェントを構築しています。これは非常に興味深いことです。なぜなら、来週何が起こるのか、私たちは本当に知りませんでした。これがおそらく来週起こることだと思います。
ここでOpenAIの求人を見ることができます。この役職はエージェントインフラストラクチャチームです。「あなたは、次世代モデルの大規模なトレーニングを可能にする堅牢で安全なシステムの設計と保守において重要な役割を果たします。研究者と密接に協力してシステム機能を強化し、実験的および本番のワークロードをサポートします。
さらに、AIエージェントのオペレーティングシステムを形成するシステムに直接取り組み、モデルがコードを書いて実行し、外部システムと相互作用し、安全な環境で行動を取れるようなシステムを構築します。私たちは、AI インフラストラクチャの構築に深い経験を持ち、研究者と密接に協力して大規模な特殊用途の高性能システムを構築することに慣れている人材を探しています。」
ここで青く強調された部分が、注目すべき主要な部分です。これは基本的に、OpenAIがエージェントに取り組んでいることを示唆しています。これは驚くべきことではありません。それは2025年のAIの未来における最大のものです。2025年はAIエージェントの年になるでしょう。そのナラティブに向かっており、もちろん彼らがその役職を募集しているのは驚きではありません。
どのようなエージェントがあるのか気になる方のために、もちろんOpenAIは以前にも多くのデモを見せてくれています。最近パリで見せてくれたデモの1つは、正直に言うと、このデモの一部をお見せしたいのですが、音声が本当にひどいのです。公式のビデオではないので、エコーがあり、見たり聞いたりするのが非常に難しいのです。
基本的に、このデモは、リアルタイムでショッピングを手伝うAIエージェントです。OpenAIの12日間があと12日残っているので、最後の数日で何らかのOpenAIエージェントが登場する可能性が高いと思います。様々なことができるAIエージェントが登場する可能性が高く、これは非常に興味深いことになるでしょう。
なぜなら、彼らはこのエージェントをリリースしますが、Googleもそのようなものをリリースしているからです。正直に言って、Googleの製品は本当に優れています。NotebookやLM(Language Model)のような多くの製品は、今では日常的に使用している製品です。彼らはOpenAIと、あなたが考えもしなかったような方法で競争しています。
来週についての私の推測は無作為ではありません。ここでJimmy Applesやビッグラボからの有名なOpenAIリーカー、AIリーカーが、「まだビッグウィークが来ていないという感じがする。多分、あなたたちの一部にはそれに値しないかもしれない」とツイートしているのが分かります。
彼は、OpenAIがまだ特定の製品をリリースする予定の非常に大きな週が来ることについて話しています。これは非常に興味深いです。OpenAIからかなりの量のものを受け取り、一部の人々が彼らの可能性、業界に対して彼らができることについて疑問を持ち始めていることを考えると。一部の人々は、OpenAIは今や遅れを取っていると述べています。
私は、この多くは人々がOpenAIから何かを求めているからだと思います。なぜなら、彼らは驚くべき華々しいデモに慣れているからです。彼らが何を持っているのか見るのは興味深いでしょう。もちろん、今週注目していた方なら、彼らがSoraをリリースしたことをご存知でしょう。
Soraは現在、Artificial Analysisのビデオ生成リーダーボードのアリーナで1位にランクインしています。Soraについて気になっている方のために、全体的な品質と一貫性の面で現在最高のモデルはどれかというと、これがそのリーダーボードです。おそらくスクリーンショットを撮って電話に保存するか、Artificial Analysisのリーダーボードを訪れて、現在最高のモデルを確認すべきでしょう。
彼らがこのリードを長く維持できるかどうかは分かりません。他のモデルもそれほど遅れを取っておらず、それらのモデルは単にビデオに焦点を当てているので、その分野で彼らを追い越すのは簡単でしょう。それは非常に興味深いことになるでしょう。
しかし、これについて最も重要なことの1つで、ほとんどの人が見逃していることは、OpenAI Soraについて、この技術は単に素晴らしいビデオというだけではないということです。はい、OpenAI Soraは品質、一貫性、そして他のすべての面で本当に優れています。私たちがこのような技術にアクセスできることは素晴らしいことです。
唯一言えることは、Soraについて驚くべきことは、Soraが実際に素晴らしいソフトウェアだということです。OpenAIはSoraを標準的なテキスト-ビデオモデルとしてリリースすることもできましたが、そうせずに追加機能とともにリリースしたのは賢明だったと思います。
ここで見ているのはSoraのストーリーボーディング機能で、これはゲームチェンジャーです。なぜなら、人々はAIモデルの開発は良いことですが、結局のところ、ユーザーが使いやすい比較的良い製品を構築する必要があるということを認識していないからです。
そうすることで、あなたの会社は依然として実行可能です。世界最高のテキストモデルを開発することもできますが、それが酷いUI、酷いソフトウェアに包まれていれば、人々はそれほど使用しないでしょう。これが、OpenAIが依然として多くの面で勝利している理由の一つだと思います。
これは本当に初心者でも、効果的な映画を作り出すことを可能にするからです。これは私が個人的に、多くの人々が注目していないと信じていることの一つです。
GoogleはSoraだけでなく、この週に様々なものをリリースしました。その一つが、前例のない計算速度を持つ量子コンピュータです。これは最速のスーパーコンピュータで約10セプティリオン年かかるベンチマークを5分以内で完了しました。これは宇宙の年齢を超える性能です。私は文字通り言葉を失うほど、これがいかに驚くべきことか説明する言葉がありません。
この量子の時代が到来しているようです。Satya Nadellaも、科学自体がコンピュート化され、AIと量子コンピュータによってイノベーションが促進され、業界が完全に変革されることについて語っています。
「AIと量子によってさらに多くのイノベーションが促進されるでしょう。シカゴには常に優れたエンジニアリングスクール、優れた科学の学校があります。Pritzker知事が行った量子プログラムと、大学との連携を推進していることは素晴らしいことです。」
「私たちにとって、それはほんの一部の科学者だけの問題ではありません。業界が変革され、さらに創造的になると考えています。科学自体がコンピュート化されているのです。より多くの科学者が生まれるでしょう。エリート科学はエリート科学のままですが、より多くの人々が科学に関わるようになると感じています。それが生物学であれ、材料科学であれ、科学と生産性のフロンティアを前進させるのに役立つでしょう。そこでシカゴがリードできると思います。」
Googleは量子コンピュータだけでなく、もちろんGemini 2でAIもリリースしました。そして、Android XRグラスもリリースしました。これは本当に素晴らしいものです。私はGeminiを見てきましたが、これは現在最も過小評価されているAIモデルの一つです。
速度、使用法、マルチモダリティの面で、現在最高のモデルだと思います。そして彼らは、これをメタのRay-Banグラスのような形で、Google Geminiを組み込んで将来リリースする予定です。
これは素晴らしいことになると思います。なぜなら、一般の人々のためにこのようなAIが組み込まれ、本当に使いやすく、軽量で、簡単に統合でき、翻訳などができるようになるからです。正直に言って、iPhoneのようなものですが、より侵襲的ではなく、より自然なものです。
電話を見たり何かを読んだりしているとき、会話の相手を見ていないように見えることはありません。それは自然なものとして存在します。これが社会にどのように統合されるのか、非常に興味深いと思います。なぜなら、ほとんどの人が考えているよりも早く採用されると思うからです。
メタのグラスを使用したことがある者として、それらにオンスクリーンAIが組み込まれていれば、おそらく二度と外すことはないでしょう。これは新しいパラダイムになり、私がビデオを作ったときには多くの注目を集めていました。将来これがどのような方向に向かうのか、非常に興味深いところです。
これが何かの派手なデモにならないことを願っています。Googleは以前にそのようなことをしたことがありますし、それは少し残念なことになるでしょう。もちろん、現時点ではプロトタイプに過ぎません。しかし、これは可能だと思います。
開発者がRaspberry Piかなにかで同様のものを作っているのを見たことがありますし、すでにこのようなグラスが存在します。ですから、Googleがそれよりもさらに優れたものを作り上げることは驚きではありません。1兆ドル規模の企業、世界最高のエンジニア、世界最高の研究者を持っているのですから。
理論的には、そのように見えることは間違いないでしょう。それがいつリリースされるのかについては、まだ日付を発表していません。しかし、AIを使った未来は、コンピュータに座って何度もモデルにプロンプトを与えるようなものではなく、よりシームレスなものになるでしょう。
これはGoogleが将来リリースする唯一のものではありません。Deep Research Toolもあります。まだDeep Researchを使用していない方は、次の大きなものの一つを見逃していることをお約束します。基本的には、エージェントのチームなのか、単一のエージェントなのかは分かりませんが、私はエージェントのチームだと思います。一緒に研究を行うものです。
これは現在、私が研究を行う際の日常的なツールです。チュートリアルへのリンクを残しておきます。私のチャンネルをチェックして、最近のビデオをチェックしてください。これについて10分のビデオを作りました。できることは本当に信じられないものです。
100以上の異なるウェブサイトを検索し、必要なトピックについて包括的な研究ガイドを提供することができます。おそらくもっと良い画像を使うべきでしたが、毎日何時間も節約できる素晴らしいものです。このウェブサイトやあのウェブサイトをクロールする代わりに、すべてのデータを包括的な研究レポートにまとめてくれます。本当に素晴らしいものです。
もちろん、Googleがまもなくリリースする予定のものもあります。確かではありませんが、Googleがこれらのモデルをロードする準備ができていて、VO1.5とVO2を持っているというツイートがありました。
これは非常に興味深いことです。なぜなら、Googleが、ほとんどの人が存在すら知らないビデオモデルの開発を続けていることを意味するからです。現在見ているこのデモは、GoogleのVOビデオモデルです。これは基本的に、OpenAI Soraと同じようなものです。
Googleのビデオは、テキストからビデオを生成するモデルで、1分間の長いクリップを一貫性を持って生成することができます。ここで見ているビデオは最高のデモではありません。もっと詳細な他のデモがたくさんあります。
このデモは少しぼやけているので、おそらく最高のデモではありません。しかし、品質を見たときの印象では非常に効果的に見えたので、VO2は人々が考えているよりもずっと良いものになると予想しています。
それを踏まえて、あなたが最も期待していることは何でしょうか?AIの未来についてどう考えますか?OpenAIは秘密のデモを持っており、Googleは秘密のビデモモデルを持っています。クレイジーな量子の未来、そしてASIの未来がほぼ到来しています。
以上で今日のビデオは終わりです。次回お会いしましょう。

いいなと思ったら応援しよう!