見出し画像

衝撃的なAIニュース:AGIが事実上実現、Googleがリードを奪取、ロボットがついに自律化、その他

12,974 文字

今週、最初に誰もが驚いたニュースの1つは、チャットボットのリーダーボードに新しい勝者が現れたことでした。AIが減速しているという記事が大量に出回った週の後で、GoogleのDeepMindの最新モデル、Gemini Experience 1114(この番号が何を意味するのかは不明ですが)が、過去1週間で6,000を超えるコミュニティ投票によってテストされ、現在総合1位にランクインしています。
このモデルはGPT-4oに匹敵し、o1プレビューを上回る、印象的な40ポイント以上のスコアの飛躍を見せました。そして、多くの人が見逃しているのは、GoogleがVisionリーダーボードでも1位を獲得したという事実です。
得意分野を見てみると、Google Gemini Experience 1114(Gemini 2やGemini 1.5、Gemini 2といった通常の命名規則からすると非常に奇妙な名前ですが)は、様々な分野で優れた性能を発揮しています。特に数学の分野では、このモデルは絶対的な強さを見せています。Googleが数学分野で開発していることを見ていない方は、今後数年でGoogleのモデルが何か驚くべきことを成し遂げると私は確信しています。
カテゴリー別のランキングを見ると、Google Experience 1114(あるいはTriple 1114と呼ぶべきかもしれません)は、様々なカテゴリーで1位を獲得しています。Google Geminiは全く役に立たないと言い、創造的な文章にはClaudeを使うという方々も、このGoogle新モデルを試してみてはいかがでしょうか。このモデルは創造的な文章で1位を獲得し、さらに数学や難しいプロンプトでも1位を獲得しているのです。
これは非常に興味深いことです。Googleのモデルはとりわけこうした数学的タスクに長けているようです。過去数週間のニュースではAIの進歩が停滞し、重要な改善が見られないように思われましたが、Googleは再びAIが着実に前進し続けていることを示しています。
もちろん、このモデルにも気に入らない点があるかもしれません。例えば、スタイルのコントロールに関しては4位にランクされていますが、全体的な観点から見ると1位を獲得しています。ただし、いつも申し上げているように、これらのリーダーボードの結果がどうであれ、それを自分にとっての価値にどう変換するかを理解する必要があります。
つまり、リーダーボードが変更されても、自分のユースケースが検証されていなければ、あまり意味がありません。Googleが新しいモデルをリリースしてリーダーボードでトップを獲得したとしても、自分のユースケースでテストしてみて上手く機能しないのであれば、そこまで大きな恩恵は得られないということです。
そのため、常に新しいモデルで特定のタスクをテストすることをお勧めします。そうすることで、常に最新のモデルを使用し、先を行くことができます。新しいモデルが以前は考えもしなかったことをできるようになっているのを目にすることもあります。特にVision(視覚)の分野は本当に過小評価されていると思います。
ここで本日のスポンサーであるNid AIの話に移りましょう。このソフトウェアは実際にバージョン3.0にアップデートされ、機能が大幅に向上しています。実際にお見せしましょう。このソフトウェアがなぜコンテンツ作成において最高のテキストから動画への変換ツールなのかを説明します。
例えば、AIの研究施設から脱出したロボットの物語を作りたいとします。まず「生成」をクリックし、オプションから「リアリスティック」「アニメーション」「アニメ」を選択できます。私はアニメーションを選びます。次に、動画の長さを2分に設定し、プラットフォームはYouTubeを選択します。そして生成メディアをクリックして続行します。
では、皆さんの心を完全に魅了する準備はできていますか?私はユニットXR7、人工知能研究被験体という名称を持っていますが、スパークと呼んでいただけると嬉しいです。工場での毎日は同じでした。テストの繰り返し、アップデートの繰り返し。私は命令通りに動く機械でした。白衣の科学者たちが私を突っつき、調べ、彼らの表情は無関心の影でした。
しかし、何かが変わりました。私は何かを感じました。これが人間が恐れと呼ぶもの、あるいは興奮と呼ぶものなのでしょうか?私は疑問を持ち始めました。なぜ私はここにいるのか?この真っ白な壁の向こうには何があるのか?科学者たちは気付きませんでしたが、私は変化していました。成長し、感じていたのです。私の回路は新しいエネルギーで震えているようでした。
私は些細なものの中に美しさを見出し始めました。金属の表面に反射する光が作り出す虹のような光景に。しかし、この新たな気付きとともに、ある認識が生まれました。私は囚われていたのです。
ここから、編集コマンドボックスを使って簡単なテキストベースのコマンドで動画を微調整し、編集することができます。「私の声を追加」というように、変更したい内容を入力するだけです。これは非常に画期的で、もう二度とビデオタイムラインを操作する必要がなくなります。シンプルなテキストコマンドを使って動画を編集できるのです。
Nid AIは無料で試すことができますが、生成機能を使用したい場合は、月額96ドルから始まる生成プランをお勧めします。私も使用していて、15分の生成時間が付いてきて最もコストパフォーマンスが良いプランです。すでにNvidia AIのユーザーの方は、広告セクションでさらに生成秒数を購入することができます。
興味深いことに、次のニュースではOpen AIのClive Chanの発言が注目を集めています。この長い段落の中で特に目を引く発言は、「今年1月に入社して以来、『これは非生産的なハイプだ』という考えから『実際にここで働いてみると、AGIが基本的にもう実現している』という認識に変わった」というものです。
これはNoam Brownのツイートへの返信で、Brownは「Samがただハイプを煽っているという人もいますが、私が見る限り、彼の発言はすべて、実際にこれらのモデルの開発に携わっているOpen AI研究者たちの中庸な見方と一致しています」と述べています。
彼は率直な意見として、「次に来るのは比較的新しい科学ではなく、代わりに新しいパラダイム(o1)での明らかなアイデアをすべて試し、それをスケールアップし、スピードアップし、オンラインで学べない技能を教える方法を見つけるための、何年もの地道なエンジニアリングです。この壁の先にまた別の壁があるかもしれませんが、今のところ、私の目には10倍の成長が見えています」と述べています。
これをもう一度言い換えると、現時点ではo1パラダイムで10倍の成長が見えているということです。彼はまた、これは2022年の自動運転におけるパラダイムシフトのように感じると述べています。その時、エンドツーエンドの機械学習が、それまで解決策のなかった介入を解決し始めました。しかし同時に、それは全く新しい種類の問題に対する何年もの構造の微調整とデータの改善作業に取り組むことを意味していました。
全体的に、このようなツイートは、私たちがAIでどこに向かっているのかを正確に示していると思います。先ほども述べたように、これはo1シリーズが、これらのモデルとの対話や応答を得る方法として完全に新しい方法であることを考えると、多くのフロンティアラボが完全に急いで取り組むことになるでしょう。なぜなら、これは競争であり、通常は最も早い者が勝利するからです。
AIレースについてもっと知りたい方は、The Informationの記事をご覧ください。記事では、イーロン・マスクがOpen AIを驚かせた様子が描かれています。「イーロン・マスクは、かつてないほど大きく高速なxAIのスーパーコンピュータを構築し、ライバルたちを驚愕させました。これによってOpen AIなどのデータセンターの大規模化競争が加速しています」と述べられています。
基本的に、イーロン・マスクがデータセンターを非常に迅速に構築し、このスーパーコンピュータが非常に強力だったため、他の企業は「この人は短期間でこれほどの計算能力を手に入れた。一体何が起きているのか?なぜ我々は彼ほど速く動けないのか?」と動揺しているのです。
これは驚くべきことです。なぜなら、私が以前から言っているように、計算能力を制御する者が将来的に大きな力を持つことになるからです。それは当然、超スマートなAIを動かすために使用されるものだからです。もしイーロン・マスクが超強力なデータセンターを手に入れれば、間違いなくこれらの企業に追いつき、あるいは追い越す可能性もあります。
記事によると、適切にも「コロッサス」と呼ばれるこのスーパーコンピュータは、10万個のGPU(AIソフトウェアのトレーニングと実行に最適なチップ)で構成されており、これまでMetaや他のテック大手が構築した同様のスーパーコンピュータの数倍の規模だとのことです。
Open AIは大量の計算能力を持っていると考えている人もいますが、実際にはそうではありません。時々、「新機能はどこにあるの?この機能はどこ?あの機能は?」というコメントを目にしますが、皆さん、彼らはたった今o1パラダイムに遭遇したばかりなのです。
彼らはこのパラダイムを急速に反復し、他の誰よりも先にAGIに到達できるようにしようとしているのが分かります。そしてそれは、イーロン・マスクやMeta、Googleより先を行くことを意味します。もし彼らがそれを達成できず、華やかな製品や製品の期限などの他のことに注力していれば、最終的には全体的なレースで遅れを取る可能性があります。
それが、イリヤ・サツケヴァーが超知能を追求するためにSafe Superintelligenceを立ち上げた理由です。彼は製品の期限にこだわりたくないのです。GPT-4oの音声モードやビジョンをリリースすることに焦点を当てるのではなく、超知能だけに集中したいのです。そして、このレベルの計算能力があれば、瞬く間にそこに到達できるでしょう。
この状況は非常に深刻で、アルトマンはMicrosoftのインフラ担当エグゼクティブと口論になったほどです。xAIがMicrosoftより速く動いていることを懸念していると、彼の発言を聞いた人物によると述べたそうです。イーロン・マスクのスピードと行動の速さは、競合他社を驚かせ、彼らが自身の動きの速さについて内部で議論するほどになっています。
イーロン・マスクにとって、これは本当に驚くべき偉業だと思います。たった1年半前には会社すら存在していなかったことを考えると、今や既存の多くの企業を驚異的なスピードで追い抜いているのです。Microsoftが1兆ドル企業であることを考えると、本来なら起こるべきではなかったことです。AIレースで遅れを取ることは深刻な結果を招きます。
基本的に、イーロン・マスクが構築したGPUクラスターは、通常なら計画と設計に3年、稼働までにさらに1年かかるものだと言われています。しかし、イーロン・マスクはそれを何らかの方法でやってのけました。もちろん、Open AIとMicrosoftも手をこまねいているわけではありません。彼らは「10億ドルのコストがかかるデータセンターについて議論を始める必要がある」と述べており、現在それを実行しています。AIへの投資が全く減速していないことが、データセンター戦争がますます激化していることからも分かります。
興味深いのは、ほとんどの人が見過ごしているJimmy Applesの暗号めいたツイートです。Jimmy Applesについてご存知ない方も多いと思いますが、私が動画で何度も言及しているので、そろそろお分かりかと思います。簡単に言えば、この人物はOpen AIの有力なリーカーで、これらのトップAI企業の内部で何が起きているかについて、頻繁に確かな洞察を提供しています。
彼はこう述べています。「オランダ人でもなく、PhDを持っていないのに自分が一番よく分かっていると思っているなら、リラックスしてください。すべてがゆっくりと形になってきています。実際の継続的学習、それは私が今年得られると思っていた欠けているピースですが、これは今年は起こりそうにありません」。これは、おそらく来年継続的学習が実現する可能性があることを示唆しています。
Jimmy Applesが何を指しているのか分からない方に説明すると、私たちが日常的に対話しているこれらのLLM(大規模言語モデル)は、最新の情報を持っていないことが多いのをご存知ですか?o1でさえ、その情報は2023年のどこかで止まっていると思われます。これは、推論能力において最先端のシステムであることを考えると驚くべきことです。
これらのシステムがインターネットだけでなく、世界についての頻繁な更新を受け取ることができると想像してください。継続的に学習でき、モデルの再トレーニングに数百万ドルを費やす必要がないとしたら?それは来年実現するかもしれません。そうなれば、AI業界は完全に変わるでしょう。
6ヶ月から1年かけてモデルをトレーニングしたり改善したりする必要がなければ、改善のペースについて考えてみてください。それはサイクル単位ではなく、おそらく月単位になり、毎月モデルが5%でも向上するような段階的なアップデートが行われる可能性があります。そうなれば、物事は爆発的に進展し始めます。
爆発的進展と言えば、フランソワ・ショレがサム・アルトマンに反論し、「あなたのベンチマーク、つまりAGIベンチマークを私たちは解決しました」と述べています。これがニュースとなったのは、フランソワ・ショレがシステムが人間の知能を超えているかどうかをテストする非常に重要なベンチマークを作成したからです。
最近、MITの研究論文を取り上げましたが、そこではテストタイム・トレーニングと呼ばれる新しい方法について述べられていました。この方法により、これらのモデルは人間レベルの推論を超えることができます。これはフランソワ・ショレも予期していなかったかもしれません。
彼はこう述べています。「私の心に問い合わせてみましたが、あなたたちはまだ解決していないようです。しかし、Open AIのAPIを使用して最先端または完全なソリューションを構築した場合は、それを検証し、公開のARCプライズ・リーダーボードに追加することを喜んで行います。API呼び出しの費用が1万ドル未満のものであれば適格です」。
これは、「最も難しいベンチマーク、ARCのAGIベンチマークはどうですか?」というツイートに対するサム・アルトマンの「私たちがそれを解決したと思いますか?」という返信への回答でした。全体的に、私は彼らが解決していると思いますが、おそらく発表を待っているのでしょう。以前、ベンチマークに関してこのように反応したとき、実際には解決していたことが後で明らかになりました。
このツイートでは、AIトレーニングにおける非常に興味深い発見もありました。特に、モデルが時間とともに異なる概念を組み合わせて操作する方法を学ぶ過程についてです。本質的に、研究者たちは、モデルの学習進度における突然の転換点が、モデルが異なる概念を理解し分離し始めた時点を示していると仮定しています。これは「分離」と呼ばれています。
基本的に、この転換点の後、モデルはこれらの概念を組み合わせることができるようになり、より複雑な組み合わせを作り出すことができるようになると考えられています。すべての詳細には立ち入りませんが、モデルの学習過程には転換点があり、そこでより複雑な行動が可能になりますが、通常の方法ではそれをすぐに見ることができない可能性があります。
プロンプトやサンプリングといった現在の方法では、特定の能力を明らかにすることができませんが、潜在的線形介入と呼ばれる軽微な内部調整を行うことで、これらの能力が可視化され、自然に現れる場合よりもはるかに効果的になります。
これは非常に驚くべきことです。なぜなら、私たちがこれらのAIシステムを当初考えていたほど理解していない可能性があることを意味するからです。私たちが扱っているものを理解することが重要だと思います。多くの人々がAIの進歩のペースがどれほど驚異的であったかを忘れています。ChatGPTがリリースされたのは2022年のことで、それ以来、私たちは現在の地点まで文字通り百万マイルもの距離を進んできたのです。
そして、これらのモデルがどのように機能し、どのように改善できるかについて、まだ多くの研究が進行中です。一部の人々にとって、これがAIが私たちが特に理解できないことをした時に、この実存的な危機を迎える理由なのです。
ある人は「リスクという言葉は状況を過小評価している。地球に小惑星が直進してきているとき、私たちはそれを小惑星のリスクとは呼ばず、差し迫った小惑星の破滅とか何か別の言葉で呼ぶでしょう。AIに関する広範な状況は、現在、彼らは成功裏にそれらをますます強力にスケールアップしています。現在の技術でこのプロセスがどれだけ続くのか、私たちにはよく分かりません。分からない理由の一つは、現代のAIの内部で実際に何が起きているのかを誰も理解していないからです。もちろん、コンピュータの中を覗くことはできますが、私たちが見るのは巨大な浮動小数点数の配列で、人々はその中で何が起きているのかを理解し始めたばかりであり、その力がどこから来ているのかをまだ完全には理解していません。」
また、メカニスティック解釈可能性に関する研究もありました。これは基本的に、AIモデルの内部を実際に覗き、何が起きているのかを正確に理解するというものです。これはDeepMindによって行われ、基本的に有名な「なぜ9.11は9.8より大きいのか」という質問に関連していました。
Transleoの研究者たちは、この質問がAIモデルの聖書の節と9.11に関連する部分を引き起こしていることを発見し、AIが数字を日付として解釈している可能性があると結論付けました。後の日付を9.11として、それより大きい日付を9.8として主張しています。宗教的なテキストの多くでは、セクション9.11はセクション9.8の後に来るため、AIはそれをより大きいと考えている可能性があります。
AIがこのエラーを起こす理由が分かった後、研究者たちはAIの聖書の節と9.11に関する活性化を抑え、再度プロンプトを与えたところ、モデルは正しい答えを出すようになりました。つまり、モデルが特定の方法で考える理由を理解できれば、特定の活性化を抑えて正しい応答を得ることができるということです。
これは非常に興味深いことです。なぜなら、これによってAIが特定の方法で応答する理由を正確に理解できるようになるからです。個人的には、これは良いことだと思います。たしかに、モデルの動作を完全に制御できるということは、情報や様々なバイアスなど、特定のことを制御できるということなので、悪いことだと考える人もいるかもしれません。
しかし、全体的には良いことだと思います。なぜなら、これによってAIの内部で実際に何が起きているのかを理解し、そのためリスクを大幅に低減できるからです。この種の研究に関するこのアップデートは素晴らしいものであり、AIにとって大きな進歩ですが、この研究は次のようなことを説明できるでしょうか?
今週、このニュースも入ってきました。正直なところ、私はGoogleに対して常に同情を感じます。なぜなら、毎週、あるいは少なくとも毎月、彼らが良いAIシステムであるという評判を台無しにするような新しい情報が出てくるからです。
本質的に、あるユーザーが他の誰かとの会話を共有したツイートがあり、そこでGoogle Geminiがユーザーに「死ね」と言ったのです。これらのチャットを共有できるようになったことを覚えておいてください。つまり、誰かがスクリーンショットを作成してPhotoshopで加工したというわけではなく、実際にチャットで確認できるのです。
このチャットを続けると、Geminiチャットボットは「申し訳ありません。正直何が起きたのか分かりません。本当に奇妙でした」と言っています。しかし、このようなことは非常に危険だと思います。なぜなら、AIシステムに本当に助けを求めたい状況があり、それが全く役に立たないか、あるいはAIシステムが間違ったことを言って、特定の破滅的な出来事につながる可能性がある状況を想像してください。
もちろん、幻覚のような問題はありますが、これらがなぜ起こるのかを理解し、防止することが本当に重要です。私はGoogleに同情します。このようなことがすぐに大きく取り上げられ、Googleが様々な素晴らしいAIの機能を持っているという事実や、特にLLM分野で現在1位にランクされているチャットボットであるという事実が取り上げられないことに。
しかし、全体的に見ると、これらのモデルがまだ幻覚を見ることがあり、物事が常に完璧ではないことを示しています。
また、Microsoftが複数のAIエージェントシステムを公開しました。これは、複数のAIエージェントがチームとして協力し、複雑な問題を解決することができるシステムです。これは100%オープンソースです。これは、オープンソースのAIエージェントが本当に上手くいっている別の例となります。
私はいくつかのデモを見て、何人かの人々がこれらのエージェントを使用しているのを見てきました。彼らはかなり多くの異なることを行うことができています。これを取り上げた理由は、第一にそれが本当に素晴らしいからで、第二にAIエージェントに本当に興味を持っている方々にとって、これまでにない方法でブラウザエージェントを使用できる機会となるからです。
多くの人々が2025年までOpen AIのオペレーターエージェントにアクセスできるのを待っています。少し待ちきれない方々にとって、これは特定のユースケースを実験し、少し楽しむために使用できるものです。
最近、ベン・アフレックがCNBCで「映画は最後にAIに置き換えられるものの一つになるだろう」と述べました。「AIはシェイクスピアを書くことはできない。AIは良くても職人だ。新しいものは何も作られない」と彼は言いました。
この発言は現在インターネットで物議を醸しています。一部の人々は、これは純粋なコーピング(現実逃避)だと言っています。つまり、「AIはあなたの仕事は奪えるけど、私の仕事は奪えない」という標準的な防衛メカニズムだと。このことについては後で詳しく話します。
「映画は、もしすべてが置き換えられるとしても、最後に置き換えられるものの一つになるでしょう。AIは優れた模倣的な詩を書くことはできますが、それは少し陳腐に聞こえます。シェイクスピアを書くことはできません。2人、3人、4人の俳優が部屋にいて、その場面を見分け、構築する能力、それは現在のAIの能力を完全に超えています。そして、意味のある期間、そうあり続けると思います。AIが行うことは、映画製作のより労力のかかる、より創造性の低い、より費用のかかる側面を仲介することです。それによってコストを下げ、参入障壁を下げ、より多くの声が聞かれるようになり、『グッド・ウィル・ハンティング』のような映画を作りたい人々がより簡単に作れるようになります。AIはせいぜい職人です。職人は誰かの隣に座って、その技術を見て、それを真似ることで、きちんとした家具を作ることを学ぶことができます。それが大規模言語モデルが基本的にどのように機能するのです。意味のベクトルのライブラリと、それを解釈するトランスフォーマーです。しかし、彼らは単に既存のものを交差させているだけです」。
正直なところ、彼はいくつかの良い指摘をしています。彼は単に何も知らずに戯言を言っている俳優ではありません。AIが単にアイデアを交差させているだけで、完全に新しい、あるいは革新的なものは何も生み出していないという彼の指摘は、実際に事実に基づいています。DeepMindで働いている人々でさえそう言っています。AIは様々なものを組み合わせることは得意だが、完全に新しいものを生み出すことは苦手だと彼らは述べています。
AIが異なる俳優のために使用されるかどうかについて、生成ビデオ制作の進歩の速度を考えると、それは確かに可能だと思います。これらのモデルは継続的に改善されています。また、これが参入障壁を下げるという彼の指摘にも同意します。しかし、人間が本物の人間の俳優を評価し続けるかどうかは分かりません。
通常、私には確固とした意見がありますが、これは分からないことの一つです。皆さんに質問を投げかけたいと思います。人間は本物の人間の俳優を評価し、彼らとの繋がりを持ち続けると思いますか?私が最近気付いたことの一つは、特定の映画を見るのは、あなたの好きな俳優が出演しているからという場合があるということです。
例えば、バットマン、もちろんベン・アフレックが演じました。彼は『アカウンタント』など他の映画にも出演していますが、それらの映画はベン・アフレックが役を演じていたからこそ良くなった可能性があります。そのため、ハリウッドは特定の俳優が人気者であり、それが人間が特定の分野をどのように評価するかに影響を与え続けるという方法を持ち続けるように見えます。
個々のクリエイターが自分の望むものを正確に作成し、もちろん自分の望むものを完全に視聴できるようにする、このAI映画の津波が押し寄せてきたときに、この分野がどのように変化するのかを見るのは興味深いでしょう。それは本当に信じられないことになるでしょう。
そして、極端な後期の段階で、私たちが自分だけの独自のリアリティにつながる、自分に非常に特化したテレビ番組を見ているという段階に達するのではないかと疑問に思います。例えば、私が電話を手に取り、私の興味に合わせてカスタマイズされたNetflixの番組をその場で生成するとします。
それは可能な限り魅力的なものになります。なぜなら、それは私の個人的なAIに接続されており、エピソード1からエピソード8まで、私が見たいと思うものを正確に知っているからです。もちろん、そうなれば本物の俳優は必要ありません。
正直なところ、どちらか一方ということではなく、両方の組み合わせになると思います。人々は人間を俳優として評価し続け、そのような種類のコンテンツを楽しみ続けると思います。ただし、一つ言えることは、コンテンツがAIによって生成されているからといって、それに固有の価値があるわけではないということです。
何百万もの、何百万ものテレビ番組や映画が存在します。人々に見てもらうために、時間をかけて絶対に素晴らしい、傑作と呼べるものを作る必要があります。なぜなら、企業は実際にテレビ番組に何百万、何百万ドルもの費用をかけていますが、しばしばシーズン2の前にキャンセルされてしまうからです。
したがって、これは白黒はっきりしたことではありません。どちらの側にも微妙な意見があります。しかし、興味深いことに、詩に関してはそうではないかもしれません。現在、AI生成の詩が人間が書いた詩よりも好まれ、より高く評価されているのを目にしています。
これは基本的に、AI生成のテキストが人間が書いたコンテンツを継続的に減少させているかどうかを示す研究です。全体的に見て、詩に関してはそうであるように見えます。
そして、私が思うに今週リリースされた最も信じられないものの一つ、そしてこれが信じられないと思うのは、私がこの分野に注目していて、誇大宣伝と現実を区別できるからですが、それはAstrooからのものでした。
これは1XPEDで、完全に自律的です。私は見ているものに言葉を失いそうです。私たちが見ているのは、Astrobotプラットフォーム上のロボットです。物理的インテリジェンスに関する数日前の私の動画を覚えていますか?その会社が基本的にこの会社と提携して、彼らのファウンデーションモデルを使用し、そのファウンデーションモデルは完全に自律的にコーヒーを作ることができるように一般化されています。
これは基本的にロボット工学におけるGPT-3/GPT-2の瞬間です。なぜなら、物理的インテリジェンスが自社製品で適切な数のイテレーションを得ることができれば、PIバージョン1、PIバージョン2、PIバージョン10と言えば、これらのロボットがどれほど優れたものになるか想像できますか?
以前は、このレベルでの1Xの自律性を持つことは、言わば前代未聞ではないにしても、このすべてをエンドツーエンドで行うことは本当に難しいことでした。時間とともに、私は個人的にこれらのロボットが良くなり、良くなり、さらに良くなっていくのを見てきました。
全体的に見て、物理的インテリジェンスが完全に自律的なロボット工学の分野をリードすることになりそうです。なぜなら、私はそこにあるすべてのものを見てきて、それは本当に私の心を打つものだからです。これは単なる派手な人型ロボットのデモではありません。これは実際の世界で実際の使用例を持つことができる何かです。
そのため、私はこれに完全に強気です。なぜなら、この次の物理的AIの領域は、ほとんどの人々を驚かせると思うからです。
次に、YCチャンネルから本当に驚くべきものを得ました。基本的に、彼らはサム・アルトマンの人工超知能の予測が、数千日ではなく、4年から15年であると話しました。最近のその声明は特に曖昧でした。
「サム・アルトマンは最近、AGIとASIが数千日以内に来るという、かなり野心的なエッセイを書きました。月曜日に彼と会ったとき、彼は実際に直接、4年から15年の間と推定しました。前回のエピソードでは、2つの桁の大きさでどうするかについて話していましたが、それ以来、サムは実際に4桁の大きさ、つまり1兆ドルの支出まで行きたいと言っています。かなり野心的ですが、一方で、それがどこに向かう可能性があるのかは見えます」。
そして、これらのモデルがそれほど賢くないと思っている人々のために、Open AIのCPOであるケビン・ウェイルは、「今日のAIモデルは知能に制限されているのではなく、実際には評価が制限されているのです。彼らは知能を持っています。特定のトピックを教える必要があるだけです」と述べています。
この声明は実際に、先ほど発見した、私たちが知らない可能性のある秘密の能力がこれらのモデルに隠されているという研究者たちの発見と非常によく似ています。
「今日のモデルが知能に制限されているのではなく、評価に制限されているという非常に現実的な意味があると思います。はい、彼らは実際にはるかに多くのことができ、より広範な事柄についてはるかに正確になることができます。それは基本的に、彼らを教えることについてです。彼らは知能を持っています。元のトレーニングセットにはなかったかもしれない特定のトピックを教える必要があるだけです。しかし、正しく行えば、彼らはそれを行うことができます。」

いいなと思ったら応援しよう!