
Chat GPTのo1とo1proそれぞれの回答を高度な数理問題を題材に比較してみた。
リリースされて間もないo1proですが、その性能はどんなものでしょうか。
以下の記事を参考にすると、どうやらサイエンス領域においてPhDレベルの高度な推論が可能だとか。
そんなわけで、適当な質問を用意して、
Chat GPTのo1とo1pro、それぞれの回答内容を比較しました。
質問した内容は以下のとおりです。
獲得関数における予測エントロピー探索について、ベイズ最適化の初学者でもわかるように丁寧に説明してください
扱う内容としてはやや高度な統計学の手法であり、初学者に説明するとなると中々大変だと感じます。ではGPTはどう回答してくれるでしょうか。以下にログを載せておきます。
上がo1pro、下がo1での回答です。
o1proが1分5秒、o1は8秒かかりました。
---------------------------------------------------------------
『まとめ』の箇所だけ抜粋
o1proの場合:
ベイズ最適化とは、高コストな関数の評価回数を節約しつつ最適点を見つけるために、事前分布(ガウス過程など)と獲得関数を用いて効率的に探索する手法です。
獲得関数は、どの点を次に評価するかを決めるための指標で、多数のバリエーションが存在します。
**予測エントロピー探索(PES)**は、「観測した結果によって最適解に関する不確実性(エントロピー)がどれだけ減少するか」を重視する獲得関数です。真の最適解を見つけるための情報理論的なアプローチといえます。
メリット
最適解について得られる情報を直接的に増やす戦略が取れる
未知度合いが大きく、かつ最適解の可能性が高い領域をカバーできる
注意点
エントロピーの減少を計算するために、近似やサンプリングが必要で計算量が大きくなる場合がある
実装や理論的背景がやや複雑になりやすい
--------------------------------------------
o1の場合:
ベイズ最適化は限られたサンプリング回数で最適解を探索するための枠組みで、獲得関数が次にどこを評価すべきかの指針となる。
PES (Predictive Entropy Search) は、エントロピー(=不確実性)を指標として**「最適解の分布がどれだけ絞られるか」**という情報理論的アプローチでサンプリング点を決定する獲得関数の一種。
大まかな獲得関数の定義は

であり、**「観測前後の最適解に対するエントロピー差の期待値」**を最大化する点を選ぶ方針。
ほかの獲得関数(EIやGP-UCBなど)に比べて、真の最適解を見つけるための情報をより直接的に活用する利点がある一方、実装・計算の複雑さがデメリットになることが多い。
PESは「最適解を絞り込むための情報を得られるか」を重視した手法であるため、値の大きいサンプルを探索することと、不確実性を減らすためのサンプルを探索することのバランスをうまく取る点が特徴です。ベイズ最適化を学び始めた段階ではまずEIなどのシンプルな獲得関数を理解し、次のステップで情報理論をベースにしたPESのアプローチに進むと、より体系的に理解しやすいでしょう。
---------------------------------------------------------------------------
一読した感想
両者とも、PESが「真の最適解の分布を絞り込む」ための情報理論的な獲得関数であること、他の獲得関数に比べて計算がやや複雑になる点など、重要なポイントは同様にカバーしています。正直、説明に顕著な差があるとは感じませんでした。ただ、o1が抽象的な考えを抽象的なまま言い回しているのに対して、o1proの方が噛み砕いた言い回しを交えて説明しているように感じました(自分の中にバイアスがあるだけかもしれません)。
今回は一回質問のみでの回答比較なので、これを複数回行った時の比較も必要になってくるでしょう。
なるべく公平な状態を心掛けて比較を検討したいと思います。