
確定: OpenAIのORIONがもうすぐ登場。GPT-4の100倍のパワーを持つ
4,827 文字
OpenAIの謎めいた新しいAIモデルのORIONが、12月頃にリリースされる予定やそうです。なんでこれがそんなに大きな話題になってるかというと、ORIONはGPT-4の100倍もパワフルやという噂があるからなんですわ。これはもうとんでもない話ですけど、今回OpenAIはORIONの扱いを今までとちょっと違うやり方でしてはるんです。GPT-4とかの時みたいに広く使えるようにするんとちゃうねんて。最初からChatGPTで試せるようにはならへんみたいです。その代わりに、OpenAIは段階的にリリースしていくために、いくつかの主要なパートナー企業と協力してるんです。
ほなちょっと詳しく見ていきましょか。ORIONの正体は一体何で、なんでOpenAIはこんなやり方を選んだんでしょう。まず、OpenAIはGPT-4の時と同じようにMicrosoftとパートナーシップを組んで、MicrosoftのAzureプラットフォームでORIONをホストすることになってます。情報筋によると、早ければ11月にも稼働する可能性があるみたいです。
このモデルは、AGI(人工汎用知能)に向けた大きな一歩として見られてます。AGIというのは、人間のように考えて学習できるレベルのAIのことですわ。最近、OpenAIのCTOのミラ・モラディさんと何人かの主要なリーダーが会社を去って、これによって色々変わるんちゃうかという噂が広まってます。
これがORIONと関係あるんかって?もちろんですよ。OpenAIは最近、このAIの野望を実現するために66億ドルという巨額の資金を調達して、営利企業への再編を進めてます。つまり、ここには大きな賭けがあるわけです。
ある人はORIONがGPT-5の別名かもしれへんって考えてはるかもしれません。実は私の以前の動画でもこの話に触れたんですけど、OpenAIは確認してないものの、情報通の人らは間違いなくGPT-4の次の大きなステップとして見られるって言うてはります。
OpenAIのCEOのサム・アルトマンさんは、冬の星座が昇るっていう暗号めいた投稿をしてはって、これは冬の夜空に現れるオリオン座を示唆してるんちゃうかって言われてます。期待が高まっていって、ChatGPTもアルトマンさんのオリオンについてのヒントに反応したんですけど、文字を並び替えるとORIONになるって創造的な解釈をしてしまいましたわ。まあ、ちょっと違うけど、いい試みでしたな。
ORIONの中身についてですけど、合成データ、生の処理能力、そしてAGIへの野望があります。ORIONへの道のりには、大胆な動きがありました。9月にOpenAIが発表した01モデルを覚えてはりますか?社内では「ストロベリー」というコードネームで呼ばれてて、これはORIONのトレーニング用の合成データを生成するベースとして使われたんです。
この合成データっていうアプローチは、今までみたいにインターネットからデータを収集するんじゃなくて、ORIONをより賢く、より速く、そしてもっとパワフルにするためのデータを生成しようとしてるってことです。
パワフルって言うたら、OpenAIの目標は人工汎用知能、つまりAGIと呼べるモデルを作ることなんです。このモデルは、単に言語が得意っていうレベルを超えることを目指してます。人間レベルかそれ以上の思考、推論、理解ができることを目標にしてるんです。これはOpenAIが何年も追い求めてきたデジタルの神様みたいなビジョンで、ORIONはその最大の挑戦になるかもしれません。
実際、この変化によってOpenAIから何人かの重要な人材が退社してます。最新の例が、OpenAIのAGI準備アドバイザーだったマイルズ・ブランデージさんです。彼が去った理由は、「誰もAGIの準備ができてない」というものでした。この準備不足は、OpenAIだけじゃなくて、今のAI企業全般に言えることやって指摘してます。彼にとって、これは小さな問題やなくて、すごく大きな問題なんです。
ブランデージさんはブログで、AIが仕事や社会にどんな影響を与えるか、さらには仕事が選択制になる可能性についても語ってます。AIが経済成長を牽引する世界で、人々が働く必要のない世界を想像してみてください。彼は、適切に実行されれば、AIは早期退職を現実のものにできるって提案してます。面白いビジョンですけど、慎重な計画がなければ、これから数年はカオスな状態になる可能性があるって警告もしてます。
ブランデージさんは単に去っただけやなくて、政府、企業、市民社会がAIの安全性について協力することが重要やって強調しました。そうせんと、AIが仕事や経済を混乱させて、誰も対処できへん状況になるリスクがあるっていうわけです。
もうこれだけでも大変な状況なのに、OpenAIの課題にはもう一つ層が加わりました。今週、元OpenAIの研究者のスチール・バラジさんが会社を去って、著作権違反に関する重大な主張をしました。彼は以前のモデルのトレーニングデータを集めるのを手伝ってて、本、ウェブサイト、フォーラムなど、あらゆる場所から許可なくデータを収集したことを認めました。当時は合法性を疑問視せんかったけど、今では OpenAIのやり方は正しくなかったと感じてるんです。
彼は、このアプローチがインターネット自体にとって大きな問題になる可能性があると考えてます。考えてみてください。Stack OverflowやRedditみたいなプラットフォームは、人々がこれらのサイトに行く代わりにAIに質問するようになったため、アクセス数が減少してるんです。
バラジさんは単に懸念を表明するだけやなくて、OpenAIのような企業がこういった制御されてないデータ使用を防ぐために規制される必要があるって主張する論文も書きました。このデータ収集は単純なフェアユースの問題やないんです。著作権のあるデータをコピーすることも含まれてます。
だから、作家たちが自分の作品が同意なく使用されたとしてOpenAIを訴えてるのも驚くことやありません。確かに会社は一部の出版社と契約を結んでますけど、法的な問題はまだまだ解決されてません。バラジさんの指摘によると、生成AIは関係する企業やクリエイターだけやなく、インターネット全体にダメージを与える可能性があるんです。
AIレースは単なる技術の問題やなくて、政治的、哲学的な形を取りつつあります。OpenAIが前進してる一方で、一部の企業は一歩引いてます。元OpenAIのメンバーが設立したアンスロピックは、以前はAIの最前線にいました。アンスロピックのCEOのデミス・ハサビスさんは最近、2026年には超知能AIが実現する可能性があるというビジョンを長文で投稿しました。
アンスロピックは当初、OpenAIよりもゆっくりで安全な選択肢になることを目指してました。でも、Amazonから数十億ドルの資金調達を受けて、彼らのモデルのClaudeがChatGPTと直接競合するようになって、より積極的にAIレースに参加せざるを得なくなったんです。
面白いことに、去年までアンスロピックはAIの安全性に焦点を当てた慎重なプレイヤーとして見られてました。今では、OpenAIと同じように資金調達を競い、野心的なビジョンを推し進めてます。これは投資家を引き付けるためだけの方向転換なのか、それともAIが世界にポジティブな変化をもたらすと本当に信じてるのか、疑問に思う人もいます。
ハサビスさんとOpenAIのサム・アルトマンさんの間には、AGIのタイムラインや安全なAIの在り方について、ちょっとした意見の違いもあります。アルトマンさんは急速な成長と展開に焦点を当ててる一方で、アンスロピックは安全性とコントロールを重視してます。アプローチは違いますけど、両社ともAGIに近づけることを目指してます。
両社がこんな大きな約束をする中で、業界は本当に自分たちが作ってるものを扱う準備ができてるんかって疑問が残ります。
ほな、ORIONは本当にこの中でどんな位置づけなんでしょう。これはOpenAIのラインナップの単なる別のモデルっていうだけやなくて、人間のように考え行動できるAIを作るための最も大胆な一歩なんです。
OpenAIのCEOのサム・アルトマンさんは、自分のビジョンについて明確にしてます。超知能AIの実現まであと数千日しかないと信じてはるんです。これは遠い夢やなくて、ORIONによって、GPT-4のような以前のモデルの強みと、新しいデータやテクニックを組み合わせることで、その目標に近づいてるんです。
大きな目標は、AGIに到達できるAIを開発することで、医療、科学、民主主義といった産業を変革する可能性があります。もしORIONが期待通りの性能を発揮すれば、私たちの働き方や生活を変えるかもしれません。
でも、OpenAIは慎重にリリースを進めてます。信頼できる企業にのみ早期アクセスを許可して、広く公開される前に独自のアプリケーションや機能を作れるようにしてます。これほどパワフルなものを一気に公開することで起こり得る混乱を避けるため、管理された環境でORIONのテストと改良を目指してるんです。
これだけの期待がある一方で、OpenAIの急速な成長には問題もあります。CTOのミラ・モラティさんや他の重要な幹部の退社など、離職率が高いんです。これは、こんな急ピッチで高いリスクを伴う環境で働くことが簡単やないっていうことを示してます。
ORIONのような野心的なもの、AGIへの足がかりになり得るものを作るには、お金や才能だけやなく、慎重な計画、連携、そして最も重要なのはリスクを管理する明確なビジョンが必要です。
ブランデージさんの退社は、これらの課題を浮き彫りにしてます。彼の警告は明確で、OpenAIも他のAI企業も、AGIの到来に完全には備えができてないっていうことです。彼はまた、社会的な影響についても慎重です。
AIによって人々が働く必要のない世界が実現する可能性があるけど、私たちは文化的にも政治的にもこの変化に対する準備ができてないって警告してます。これは文明の停滞や、もっと悪い結果につながる可能性があります。
AIが人類に利益をもたらすためには、慎重な意思決定と、理想的には国境を越えた協力が必要です。でも、これだけの障害があっても、潜在的な利点は無視できません。
ORIONは医療、経済、そして気候変動の解決策といった分野でブレイクスルーをもたらす可能性があります。ただし、OpenAIは気候変動への言及は直接的には避けてます。これは個人的に評価できる点です。
ブランデージさんは、AIが早期退職を可能にし、仕事を選択制にし、根本的に生活を変える未来を実現できると信じてます。でも、それは責任を持って扱われた場合に限ります。
そして、今のORIONはそういう状況にあります。これは野心的な未来に向けた大きくてリスクのある一歩です。OpenAIはこのモデルでAGIに近づくことに賭けてて、課題があっても前進し続けてます。
ほな、私たちはORIONがもたらすものに準備ができてるんでしょうか。私が言えるのは、もしOpenAIが思い描いてるものに近いものができたら、ここ数年で世界は全く違う姿になるやろうということです。このモデルをよく見ておいてください。これは単なる別のAIのリリースとは違うんです。
いつも通り、コメント欄で皆さんの意見を聞かせてください。そして、最新のAIテクノロジーの情報を得るために、いいねボタンを押して、チャンネル登録もよろしくお願いします。
ご視聴ありがとうございました。また次回お会いしましょう。