OpenAIの新しいモデル:o3発表
OpenAIが12日間にわたって発表を続ける、12日目(2024/12/21)の話題です。
最終日ですね。(あと、今更ですが上記の日付は、日本時間です。)
この最終日には、推論能力を大幅に向上させた新しいモデル「o3」と「o3-mini」の発表がありました。まずは2025年1月に「o3-mini」がリリースされる予定です。
事前にいろいろな噂がありましたが、最終的には現在リリースされている「o1」の拡張版となるモデルが発表されました。
関連するリンク:
Deliberative Alignment: Reasoning Enables Safer Language Models:https://assets.ctfassets.net/kftzwdyauwt9/4pNYAZteAQXWtloDdANQ7L/0aedc43a8f2d1e5c71c5e114d287593f/OpenAI_Deliberative-Alignment-Reasoning-Enables-Safer_Language-Models_122024_3.pdf
早期アクセス:https://openai.com/index/early-access-for-safety-testing/
上記リンクから早期アクセスに申し込むことが可能です。ただし、「Early Access Terms(早期アクセス利用規約)」への同意が必要です。内容を見る限り、正式なNDA(秘密保持契約)の締結は不要のようですが、利用規約内で機密情報の取り扱いについて同意する必要があります。
簡単に言えば、「試しました!」的なブログ記事を書いたとしてもOpenAIから訴えられることはないでしょうが、アカウントが停止される可能性はある、といったところでしょうか 🙄(利用の際は規約をよくお読みください。)
もちろん、1月には正式リリースされる(はず)なので、それを待つのも賢明かもしれません。(自分は一応待つスタイルを取ります。)
さて、性能についてですが、単純な数値で見れば、プログラミング能力が「o1-preview」の約2倍に向上しています。具体的には、多くのプログラマーを凌ぐスキルレベルに達しています。
個人的に注目(考慮)すべき点は、JavaだけでなくCやHTML、JavaScriptや果てはCOBOLにも対応していることです。この点を考慮すると、単なる数値以上の魅力を持っていると言えそうです(他のモデルもそうですが)。使い方次第で、かなりの可能性が広がりそうですね。(こうもマルチなエンジニアはそうそういないでしょう😎)
さらに、「Arc AGI」のベンチマークでも非常に高いスコアを記録しています。端的に言えば、未知の状況への適応力が大きく向上した、と考えられます。
ほか、OpenAIは安全性の向上にも力を入れています。
https://openai.com/index/deliberative-alignment/
上記の記事にも詳しく記載がありますが、現在の「o1」モデルでも一定の安全性は確保されています。それでも、完全ではなく、以下のような出力が得られることもあります(単なるバグの可能性もありますが)。「o3」はさらに厳格になりそうですね。
興味深いのは、AIが人間に近づくほど、人間のように騙されやすくなる点です。さらには、目的達成のために嘘をつくこともあるようです。このような挙動は、本当に面白いですね。
話が少し脱線しましたが、今回の発表を通じて、AIの着実な進化を感じることができました。一方で、OpenAIはこれまでより非常に慎重なリリース戦略を取っている印象です。他社モデルの性能がまだ追いついていない状況では、圧倒的な性能を持つモデルを急いで公開する必要もないですし、社会的な影響や危険性を考慮すれば、現在のペースでも十分だと感じます。個人的には、この慎重な姿勢を評価したいですね。
余談
見出し画像、今回は「imagen 3(Google)」を使いました。「OpenAI」ではなく、よく見ると「Opend AI」になっています。正しい過去形ではないですが、皮肉っぽくて面白かったのでこれにしました。(イーロン・マスクが喜びそう)