見出し画像

GPT-4o mini がリリースされた意味

GPT-4o miniがリリースされた意味をお話しします。


GPT-4o miniがリリース

期待されていたGPT-5ではなく、GPT-4o miniがリリースされました。
特徴は次の通りです:

  • GPT-4oに次ぐ高性能 (GPT-4oの95%)

  • 高速

  • 低料金 (GPT-3.5 Turboの60%, Claude 3.5 HaikuやGemini 1.5 Flashより安い)

速くて安い言語モデル GPT-4o mini

速くて安い言語モデルには意味があります ([WesRoth]):

  • 複数の議論エージェントで議論したほうが精度があがる

  • 議論エージェントが複数ラウンドしたほうが精度があがる

OpenAIはCriticGPTのようなGPTの誤りを見つけるGPTも出しています ([OpenAI])。このような自己修正をする上でも速くて安いことは実用性を上げます。
OpenAIの知能の3段階でGPT-4oはレベル1の会話レベルです。レベル3のエージェントレベルを達成する上でも言語モデルの高速、低価格化は有効です。
より実用的なレベルに近づく準備ができたと言えます。

コストの推移

2023年3月に最初にOpenAI APIがリリースされたときにはGPT-3.5 Davinciしか利用できませんでした。
2023年7月にGPT-4のAPIがリリースされました。8Kコンテクストで入力が30ドル/1Mトークン、出力が60ドル/1Mトークンでした。
今回のGPT-4o miniのAPI料金は、入力0.15ドル/1Mトークン、出力0.60ドル/1Mトークンです。最大入力トークンは128K、最大出力トークンは16Kになっています。昨年の7月より大幅に使いやすくなっています。
入力と出力の料金費は1:2から1:4になっています。たくさんデータを入力するアプリケーションのほうがコストパフォーマンス的には有利です。
GPT-4o miniはGPT-4oよりは精度が劣りますが、チャットボットアリーナでは統計的に差がないという結果も出ている優秀なモデルです。
トークンあたり出力コストに関しては1年で1/100になったことになります。性能も上がり、コンテクストサイズも増えていることを考えると驚異的なコストダウンです。

むすび

他社のサイズの小さいモデル (Claude 3.5 Haiku, Gemini 1.4 Flash)よりもAPI料金を低く設定してきました。
従来は他社だけが大きさの違う3モデルを出していました。OpenAIは今でも1モデルですが、価格競争上は事実上の軽量モデルへの参入です。しかも精度はフルモデルとほぼ同様です。これは他社は太刀打ちできないです。
API利用の市場でもOpenAIは攻めてきました。

参考文献

  • [OpenAI] Finding GPT-4’s mistakes with GPT-4 https://openai.com/index/finding-gpt4s-mistakes-with-gpt-4/ 2024年

  • [WesRoth] OpenAI's new model is a "RESEARCH ARTIFACT" | Unlocks "Society of Minds"? https://www.youtube.com/watch?v=4SrR2sXZ6hE 2024年 11m36s Wes Roth

いいなと思ったら応援しよう!