AIが本当に考える時代へ:OpenAI o1の登場とその可能性
2024年9月13日、OpenAIは新たなAIモデル「OpenAI o1」を発表しました。
最初発表されたときは、なんかまた新しいの出してきたなぁくらいにしか見ていなくて、質問を投げかけても従来のモデルと似たような回答で違いが判らなかったのですが、徐々に分かってきたので下記に記載します。
このo1モデルは、従来のGPT-4oに比べ、より複雑なタスクを処理することに特化したものです。SNSやインターネット上で大きな話題となり、その性能に対して高い評価が寄せられています。
これまでのChatGPTは、文脈や意図を本当に理解しているわけではなく、LLM(Large Language Model)と呼ばれる大量のテキストデータを基に訓練されたAIで、人間のような自然な文章を生成することで、まるで考えているかのように見せていました。
しかし、今回の「o1」はまさに“自ら考えるAI”と言えます。単なる無難な回答にとどまらず、AIがより深い知恵を生み出してくれる可能性があり、その点に大いに期待しています。私はすでにどんどんこのモデルを活用しています。
私は以前、囲碁界にもAIが革命を起こした瞬間を目の当たりにしました。
2016年、Google DeepMindが開発したAI「AlphaGo」は、韓国のプロ棋士・李世乭(イ・セドル)九段に勝利し、世界を驚かせました。AlphaGoはディープラーニングと事前学習を駆使し、膨大な棋譜データを学習して成長しました。翌年には、事前学習を行わずゼロから強化学習を行う「AlphaGo Zero」が登場し、自己対戦を繰り返しながら進化しました。この技術は、人類が発見できなかった数多くの新しい手筋を生み出し、特に「三々(サンサン)への早い打ち込み」などの手法は従来の常識を覆し、プロ棋士たちに大きな衝撃を与えました。こうしたAIの手筋は、囲碁界に革命をもたらし、人間を凌駕する新たな時代の幕開けを告げたのです。
現在では、プロ棋士がAIから学ぶのは当たり前になり、若手棋士たちはAIを駆使して勉強し、上位に躍り出ています。
ChatGPT-4oとOpenAI o1の違い
o1の特徴として、「GPT」ではない点が挙げられます。GPT(Generative Pre-trained Transformer)は、事前学習されたモデルですが、o1は事前学習ではなく自ら考えるAIです。
さらに、o1では内部的な推論過程が一部観察可能です。従来のChatGPTでは思考プロセスはブラックボックスでしたが、o1ではその一部を確認できる点が大きな違いです。
思考プロセスの違い:
4o:トークンベースで次の単語を予測する方式で、深い思考プロセスはブラックボックス化されています。
o1-preview:回答前に「思考の連鎖」を行い、深く考えるプロセスを採用し、その過程を可視化します。
出力のスピードと質:
4o:高速で回答を生成しますが、一般的な回答にとどまることが多いです。
o1-preview:回答には若干時間がかかりますが、論理的で深い洞察を含む高品質な回答を提供します。
学習プロセス:
4o:大量のテキストデータを必要とし、人間によるフィードバックが必要です。
o1-preview:自己反省と修復のプロセスを組み込み、モデル自身が学習し、改善します。
私は、「ビジネス分析の世界」でo1が大いに活用できると感じており、日々研究を進めています。既にChatGPTでは議事録作成や文章の要約、校正などで大幅に時間を短縮していますが、今後さらに、自分では思いつかなかった視点をAIが提供してくれることに大きな価値を見出しています。
なにか4oとo1での違いが分かるものを提示したいと思い、下記質問をそれぞれのAIに投げかけてみました。
ChatGPT-4o の回答
次にOpenAI o1の回答を見てみましょう。
OpenAI o1-preview の回答
回答を導き出した過程についても、o1の場合は表示させることが可能です。今回の場合は下記のように考えたようです。
私の質問の意図を汲み取り、それを深堀して回答しようとする推論過程が見て取れます。この内容を見れば、さらにこちらももっと突っ込んだ質問をしてさらにAIに考えてもらうことが出来ます。
これは、囲碁の世界と同じで、「人間よりもAIの方が賢い」という前提に立ち、こういった場面ではどう考えればいいの?と先生に聞くような使い方で、これを素直に使いこなせることが、この先一歩抜きに出るのではないかと思います。
あと、最後にo1モデルを使うコツについて付け加えておきます。
o1モデルのプロンプトに関するアドバイス
プロンプトは簡潔で直接的に
短く明確な指示を与えるだけで十分です。
思考プロセスの指示は避ける
o1は内部で推論を行うため、「ステップバイステップで考えて」などの指示は不要です。
区切り記号を使用する
トリプルクォーテーション(""")、XMLタグ、セクションタイトルなどを使って、入力の異なる部分を明確に区別します。これにより、モデルが各セクションを適切に解釈しやすくなります。
追加コンテキストは最小限に
提供する情報は最も関連性の高いもののみを含めることで、回答が過度に複雑になるのを防ぎます。
o1モデルの高度な推論能力を最大限に引き出し、ぜひ活用してみてください。