AIニュース - OpenAIからさらなる退職者、企業が神を作ろうとする、AGIが必要、Vidu AI
9,713 文字
AIに関する最も驚くべきニュースの1つは、OpenAIのガバナンスチームからさらに1名が退職したということです。Richard NGOは、OpenAIでAIの予測とガバナンスに3年間従事した後、社内メッセージボードであるSlackに退職のメッセージを投稿しました。彼は「特に驚くようなことは書いていませんが、文字通り以上に読み込んでほしい。私はほとんどのメッセージで、率直に信じていることだけを伝えようとしてきました」と述べています。
これは2024年を通して見られた一貫したトレンドの一つです。OpenAIからの退職者が相次いでいるのです。この人物は実際にMiles Brundageの下で働いていました。Miles Brundageといえば、数週間前に私が動画で取り上げた人物で、「OpenAIもフロンティアラボも、そして世界も準備ができていない」と明確に述べていた人物です。
3週間前にそう述べた彼の部下が今回も退職を決意したというのは非常に興味深いです。これは以前、スーパーアライメントチームのメンバーが一人また一人と離脱していった状況と似ています。そして今度は、このAGI準備チームも同じように一人また一人と離脱し始めています。
彼は「Milesの退職は、私も移行する自然なタイミングに感じられました」と述べ、この決定に単一の主要な要因はなかったとしています。さらに興味深いのは、「過去12ヶ月の出来事について、まだ多くの未解決の疑問があり、ここでの私の仕事が長期的に世界の利益になるという信頼を持つことが難しくなった」という声明です。
表面的にはそれほど重要に聞こえないかもしれませんが、彼は未解決の疑問を抱えているということ、そしてAGIに向けた世界の準備を確実にする自分の仕事が長期的に世界の利益になるという信頼が持てなくなったと述べているのです。これは、OpenAIが彼らの助言に注意を払っていないか、あるいは単に前進を急ぎすぎているという可能性を示唆しています。
これは初めて聞く話ではありませんが、注目に値します。彼は「より広範な協力者との公開的な反復作業に惹かれてきた」と述べ、今後は主に独立研究を行う予定だとしています。
この記事から最も重要な文章を紹介させていただきます。彼は「OpenAIがAGIをうまく機能させるというミッションを掲げたことは、信じられないほど野心的でした。しかし、ミッションの『AGIを作る』という部分は軌道に乗っているように見えますが、『うまく機能させる』という部分に対して、特に人類の存続に関わるリスクを防ぐという点で、確実にプラスの貢献をすることがいかに難しいかを、私や他の人々が徐々に実感してきました」と述べています。
これは、将来について戦略を立てることの本質的な難しさと、AIの規模とその見通しが、人々の偏見、合理化、部族主義(自分も含めて)を容易に増幅させてしまう可能性があるためだと説明しています。
良くも悪くも、賭け金はますます高くなっていくと予想されるため、「皆さんが自分自身を見つけ、そしてOpenAIにおけるこれらの賭け金の中で、誠実さ、思慮深さ、そして決定が実際にミッション全体にどのように寄与するかという明確さを持って進んでいけることを願っています」と述べています。
基本的に、AGIはほぼ確実に近い将来やって来るだろうと述べているのです。そして、ミッションの「うまく機能させる」という部分に積極的に貢献することは、人類の存続に関わるリスクがあるため非常に困難だと説明しています。
AGIが現実に近づくにつれて、人々は変化していくでしょう。彼は効果的な解決策への道筋が見えないため、自分の仕事を効果的に行うことができないと感じているようです。それが上司と共に退職する理由となっているようです。
賭け金がますます高くなっていくということは理にかなっています。より高い賭け金にはより高いリスクが伴い、そのリスクには多くの異なる結果が伴います。このAGIを正しく実現できなければ、多くの人々が傷つき、大きな混乱が生じることになるでしょう。これは非常に大きな問題になるはずです。
現在、私たちは小さなAIバブルの中にいるように見えるかもしれませんが、信じてください、AGIが実現したとき、これは非常に凄まじいことになるでしょう。これでまた一人、AGIをうまく機能させることへの懸念からOpenAIを去った人物が出たことになります。
これらの現在の出来事が、将来AGIがどのように展開され、使用され、実現されたかを振り返る際に、どのように解釈されるのか興味深いところです。
さらにOpenAIのニュースとして、おそらくすでにご存知かもしれませんが、OpenAIや他の企業は、現在のAIのスケーリング方法が限界に直面しているため、スマートAIへの新しい道を模索しています。
この記事の主なポイントは、Ilya Sutskeverのステートメントです。彼は「2010年代はスケーリングの時代でした。今や私たちは再び驚きと発見の時代に戻ってきています。誰もが次の breakthrough を探しています」と述べました。正しいものをスケールすることは、これまで以上に重要になっています。
もちろん、Sutskeberはチームがこの問題にどのように取り組んでいるかについての詳細な共有を控えていますが、新しいアプローチで超知能の開発が現在進められているようです。
「驚きと発見の時代に戻った」という発言や、誰もが次の大きなものを探しているという発言は、GPTシリーズモデルが、単にデータを追加することでモデルからより多くを引き出すという点で限界に達したことを示しています。単純にデータとコンピュートを追加するというアプローチは行き詰まりつつあるようですが、テストタイムのコンピュートという分野は、はるかに有望な分野のように見えます。
また、Opus 3.5が期待通りの性能を発揮していないという情報も得られました。関係者2名によると、Anthropicは舞台裏で3.5 Opusの開発に課題を抱えているようです。トレーニング後、Anthropicは3.5 Opusが以前のバージョンよりも評価で良好な結果を示したものの、モデルのサイズと構築・実行にかかるコストを考えると、期待したほどの向上は見られなかったと言います。
ほとんどの人が理解していないのは、これらのモデルがトレーニングされるたびに、プレトレーニングなどを行うたびに、何千万ドルものお金を費やしているということです。これらの企業は、投資家に対してこれらのコストを正当化するために、性能と能力の大幅な向上が必要なのです。
多くの人々が、もしこれらの企業が何百万ドルも費やしているのに、モデルからより多くの結果が得られないのであれば、このAIバブルは崩壊するのではないかと言っています。GPTシリーズでその点に達したようで、もちろん収穫逓減の法則が働くことになります。
Anthropicの広報担当者は、Opusに関する言及がウェブサイトから削除されたのは、マーケティングの判断であり、利用可能でベンチマークのあるモデルのみを表示するためだと述べています。
最近のポッドキャストで、Opus 3.5が今年中にリリースされるかどうかについて質問があり、広報担当者はCEOのインタビューでの発言を指摘しました。そのインタビューでCEOは、モデルのリリースは依然として計画されているものの、タイムラインについてのコメントは繰り返し控えています。
基本的に今、彼らはこれらのモデルからより多くを引き出す方法を見つけようとしています。なぜなら、先ほど言ったように、GPTシリーズは収穫逓減の点に達したようです。これらのモデルは確かに改善されていきますが、それは段階的な改善にとどまるようです。
私が言ってきたことの一つは、特定のベンチマークでより良い性能を示すモデルを作ることは素晴らしいですが、なぜそれらのAIツールの周りに製品を作ることを考えないのでしょうか。ベンチマークで素晴らしい向上を示すモデルを見ることはありますが、それが実世界での価値に何を意味するのかが明確でないことが多いからです。
しかし、AIが減速していると考えている方々に向けて、Dario AmodeのAIモデルにおける人間レベルの推論の軌道についての発言を見てみましょう。曲線を外挿すると、数年後にはこれらのモデルが人間の最高の専門家レベルを上回るようになるというのです。
「私が強力なAIがこんなに早く実現すると楽観的な理由の一つは、曲線の次のポイントを外挿すると、非常に早く人間レベルの能力に近づいているということです。私たちや他の企業が開発した新しい推論モデルの一部は、私が博士号レベルまたは専門家レベルと呼ぶところまで到達し始めています。
例えば、コーディング能力を見ると、最新のモデルであるSonnet 3.5の新バージョンは、専門的な実世界のソフトウェアエンジニアリングタスクのベンチマークで約50%の性能を示しています。年初めには最先端のモデルでも3-4%だったことを考えると、10ヶ月で3%から50%まで向上しました。おそらく1年後には90%に達するでしょう。正確な期間は分かりませんが、もっと早まるかもしれません。
OpenAI 01のような他のモデルでも、大学院レベルの数学、物理学、生物学で同様の進歩が見られています。このスキルの伸びを単純に外挿すると、数年以内にこれらのモデルは人間の最高の専門家レベルを上回ることになります。」
このビデオの次の部分は非常に興味深いものです。AGIの構築に関する最も興味深いポイントの1つを示す3つのクリップを繋げたいと思います。
私たちは皆、AGIが人間レベルの推論に近いもので、その後にそれをはるかに超える超知能が来ることを知っています。しかし、一部の人々は、AGIの恩恵を得るために人工超知能やAGIさえも必要ないと主張し始めています。人工超知能からのリスクを制限する、非常に特殊な、あるいは狭いAGIで十分だというのです。
まず、人間の知能が知能の上限ではなく、AIがより賢くなる余地がまだまだあるという話をDario Amodeがしているクリップから始めましょう。これは理にかなっています。なぜなら、私たちが今まで存在した中で最も賢い存在で、私たちより賢いものは存在し得ないと考えるのは、かなり傲慢だからです。
わずか数百年前には、私たちは顕微鏡が必要な微小な世界が私たちの中に存在することを知りませんでした。私たちは自分たちが宇宙の中心だと思っていました。私たちが常に驚かされ続けている発見は数え切れないほどあります。
「人間以下のレベルに上限があるとは本能的に思えません。私たち人間はこれらの様々なパターンを理解することができます。そのため、これらのモデルをスケールアップし、新しいトレーニング方法を開発し続ければ、少なくとも人間が到達したレベルには到達するでしょう。
その後の疑問は、人間以上にどれだけ多くを理解できるのか、人間よりどれだけ賢く洞察力を持てるのかということです。答えは領域によって異なるはずです。例えば生物学の分野を見ると、私は『Machines of Loving Grace』というエッセイを書きましたが、人間は生物学の複雑さを理解するのに苦労しているように見えます。
スタンフォードやハーバード、バークレーに行けば、免疫システムや代謝経路などを研究する大きな学部があり、一人一人が本当に小さな部分だけを理解し、専門化しており、他の人間との知識の組み合わせに苦労しています。AIがより賢くなるための余地はまだまだあると私は直感的に感じています。」
これが、Max Tegmarkの基本的な議論につながります。彼は現時点でAGIを構築する必要はなく、AGIのすべての利点は安全に制御できるツールAIによって達成できると主張しています。
私個人も、ある程度同意します。記憶を持ち、自己改善が可能で、途方もなく広範な作業ができる自律型AIシステムを構築する必要性は感じません。しかし、医療のためのAGI、自動運転のためのAGI、会計のためのAGIなど、特定の用途に特化したAIを構築することは理にかなっています。
これは特定の破滅的な出来事のリスクを軽減するという意味で合理的です。皆さんは覚えておく必要がありますが、産業全体を変えるのに必要な破滅的な出来事はたった1つなのです。
9.11以前の旅行業界を思い出してください。当時の旅行業界ははるかにリラックスしており、規制も少なかったのですが、今では飛行機での移動に関する規則が信じられないほど厳格になっています。
AIで何か恐ろしいことが起きた場合、それがたった1つの出例であっても、世界的な大きな変化をもたらす可能性が高いのです。これが本質的にMax Tegmarkが言っていることです。私たちは根本的に不必要なものを構築しているのです。
ここで、ある人物が「なぜ人間はこれほどまでに神を作ることに執着しているのか」と言及しているクリップを思い出します。「救世主コンプレックスもあると思いますか?」「間違いなくありますね。サンフランシスコでよく見かけます。人々はAGIを構築するというアイデアに飛びついて、自分たちを救世主のように描いています。
個人的には、AGIの創造は宗教的な探求ではなく、科学的な問題だと考えています。これは興味深いことに、永遠の命という考えと結びついていることが多いです。これはもちろん自然なことです。なぜなら、ほとんどの宗教の物語は、AGIを作れば永遠の命を得られるという、この組み合わせについて語っているからです。
これは非常に宗教的なアイデアであり、最初に到達した者は神のようになるという宗教的な探求となっています。」
このクリップを含めたのは、コメント欄で、これらの人々が神を作ろうとし続けていること、何か宗教的なコンプレックスがあることについて、増加する数のコメントを見てきたからです。これについて皆さんの考えをぜひ聞かせていただきたいと思います。これはAGI、ASI、そしてその未来への影響について広く議論されていない話題の一つだからです。
「ツールの定義として、ユーザーがコントロールできるものであるということです。車はできるだけパワフルであってほしいですが、コントロールを失いたくはありません。同じように、私たち人間はAIをできるだけ強力にしたいと思いますが、コントロールを失いたくはありません。それは私たちの利益になります。
Jeff Hintonのような人が、AGIを構築すれば制御を失うと警告しているのを聞くと、彼はこれをインターネットのようなちょっとした技術とは考えていません。彼は、私たちよりもはるかに賢い新しい種を作ることとして考えています。ロボットがロボット工場を建設すれば、制御を失う可能性があることは明らかです。
制御方法を見出す前にその方向に突っ走るのは、本当に愚かな考えです。そして興味深いことに、それは不必要でもあります。私はここで人々と話をして、AIに期待することすべてがツールAIなのです。誰かはがんを治したいと考え、誰かはCO2をジェット燃料に変換したいと考えています。これはツールAIであり、これらの素晴らしい利点を得るためにAGIは必要ありません。
最も基本的な安全基準の境界線は明らかに、ツールはツールであるべきということです。もし企業が専門家たちに、彼らのAGIをコントロールできると納得させることができないのなら、できるようになってから戻ってきてください。その間、私たちは制御を失うという不安を抱えることなく、他の素晴らしいイノベーションを行うことができます。
ツールAIは、事故を防ぐことで世界の道路で年間100万人の命を救うことができます。AGIは必要ありません。ツールAIは病院でさらに多くの命を救うことができます。AGIは必要ありません。ツールAIは、前立腺がん、肺がん、眼疾患などの素晴らしい診断をほぼ無料で提供することができます。AGIは必要ありません。
ツールAIは、タンパク質の折りたたみを助け、素晴らしい新薬を開発し、ノーベル賞さえも獲得することができます。AGIは必要ありません。ツールAIは、パンデミックの予防、電力消費の削減、教育の改善、教育の市場化、そして基本的に経済のあらゆる分野の変革に役立ちます。AGIは必要ありません。ツールAIは、国連の持続可能な開発目標をより早く達成するのに役立ちます。AGIは必要ありません。」
これらの企業がこれらのメガAIシステムの構築を進めるかどうかについて疑問に思っている方々のために、OpenAIが最近、1000億ドルのAIデータセンターについて議論したことは明らかです。
水曜日、同社は米国政府当局者に対し、現在開発中のどのデータセンターよりも5倍大きいAI用データセンターの建設方法に関する情報を共有したと発表しました。同社のトップポリシー責任者であるChris Lehanは、このデータセンターには5ギガワットのエネルギー、つまりユタ州の5つの都市に電力を供給できる量が必要になると述べています。これは本当に驚くべきことです。
なぜこれがニュースになっているのか分からない方のために説明すると、これは本質的にプロジェクト・スターゲートに似たものです。プロジェクト・スターゲートは、1250億ドルのスーパーコンピュータークラスターで、基本的にAGI、ASIのために構築される予定のものです。これは本質的に、AGI、ASIで経済を運営するために必要なインフラストラクチャーであり、アメリカにとって比類のない経済発展をもたらすことになります。
これは全く起こらないと思うかもしれません。プロジェクト・スターゲートは単に実現しないと思うかもしれません。しかし、正直に言って、将来を見据えたとき、最近、トランプがAIの極端な開発を妨げていた規制の一部を撤廃したという記事を報告したことを覚えています。
ジョー・バイデンのAI政策はすべて廃止されることになり、より多くのイノベーションが見られることになるでしょう。そのため、米国政府がこれをどのように構築し始めるのか、興味深く思います。
2023年だけを見ても、アメリカは軍事費に9160億ドルを費やしています。スターゲート・プロジェクトは本質的に軍事プロジェクトだと主張することもできます。なぜなら、AGI、ASIが何をできるようになるかを考えると、それは信じられないほどの戦略を持ち、国を守ることができるからです。
もしそうであれば、アメリカがこのプロジェクトに途方もない額のお金を費やすことを遅らせないことは分かっています。つまり、データセンターの建設は今から始まる可能性が高いということです。
開発者の皆さんにとって、ChatGPTがVS Code、Xcode、ターミナル、iTerm 2に統合されたという非常に興味深いニュースもありました。これは本当に素晴らしいことです。なぜなら、作業中のプロジェクトにより流動性を持たせることができるからです。
「今日は、Mac OS用ChatGPTアプリの初期機能について簡単に紹介したいと思います。コンピュータ上のアプリケーションと直接作業できる機能です。
iPhoneアプリを作っていて、Xcodeプロジェクトを開いているとします。以前なら、コードをXcodeからChatGPTにコピー&ペーストしなければなりませんでした。しかし、この新しい統合機能を有効にすると、Xcodeボタンをクリックするだけで、ChatGPTは私が作業しているSwiftコードを即座に見ることができます。
例を見てみましょう。OpenAIは最初に、ISSと宇宙飛行士をリアルタイムで追跡するこのアプリ全体をゼロから作成しました。しかし、このアプリに新機能を追加したいとします。私は単に『中央にライブストリームの新しい画面を追加する』と書くことができます。ChatGPTは既存のSwiftコードのコンテキストを理解し、変更を提案し始めます。
完了したら、コードに戻って更新するだけです。Command+Rでアプリをビルドしましょう。素晴らしいですね。ライブストリームがそこにあり、素敵なアイコンまでついています。
このまま新機能を追加し続けることもできますが、今回はこのアップデートをリリースしましょう。ターミナルに切り替えて、ChatGPTにターミナルで作業してもらい、GitHubにプッシュするのを手伝ってもらいます。
ChatGPTはXcodeとターミナルという2つのアプリのコンテキストを持っているので、先ほどの作業に基づいてコミットメッセージを書くのを手伝うことができます。また、エラーのトラブルシューティングや、ターミナルの出力に基づいて不足している依存関係のインストールも手伝うことができます。
以上です。ChatGPTはこのアプリの改良を手伝ってくれました。まるでパートナープログラマーがそばにいるようです。このアップデートの準備が整いました。
私たちは常に、ChatGPTを開発者にとってより有用なものにする追加の方法を検討しています。個人的には、例えばChatGPTがさらに進化して、差分を表示したり、ファイルを書き込んだり、追加したい機能を口頭で説明できるようになることを望んでいます。これらは今後も探求していく予定です。このアップデートが皆様のお役に立てば幸いです。今後の展開にもご期待ください。」
また、様々なAIビデオツールがある中で、次の進展を見逃してしまうこともありますが、非常に興味深いものがひっそりと登場しました。それは、マルチモーダルAIであるVidu AIが、Vid 1.5をリリースしたことです。
興味深かったのは、一貫性でも品質でもなく、Vidu AIがマルチエンティティの一貫性を持っているということです。つまり、シーンに特定の要素を入れたい場合、驚くべき一貫性でそれを実現できるのです。
例えば、Vidu AIのマルチエンティティの一貫性を見てみると、このユーザーが入力したこの人物と自転車が、AIが生成したビデオで正確にエンティティとして使用されているのが分かります。
これは、AIビデオの制作において特定のシーンをどの程度コントロールしたいかについて、追加のコントロールを望む人々にとって非常に効果的だと思います。AIビデオを作る際にコントロールしたい要素は多くあると知っています。これは他のビデオモデルではまだ見たことがない、ゲームを完全に変えるものです。
AIの減速に関する記事の洪水の中で、これはかなり影に隠れてしまいましたが、このビデオで言及する価値があると考えました。
ここで、AIを使って収入を得ている200人以上のメンバーがいる私のコミュニティについて宣伝させていただきます。これは本当に素晴らしいもので、基本的にAIを使ってビジネスに統合された様々なソリューションを自動化しています。
私の第二チャンネルで多くのチュートリアルを公開する予定です。メンバーの中には、Star Guardiansのような世界初のAIスペースエピックを作成している人もいます。
このコミュニティには、make.comのようなツールや、私が教えるような他のAIエージェントソリューションを使って、このようなプロセスを完全に自動化できる多くのものがあります。ビデオへのリンクを残しておきます。無料トライアルから始めることができ、気に入らなければキャンセルして通常通り過ごすことができます。