見出し画像

OpenAIライブストリーム9日目まとめ〜開発者が大歓喜?o1APIなど新機能をリリース〜

※この記事はOpenAI公式YouTubeを要約してわかりやすく解説した記事です。

今回、OpenAIは、これまでの研究成果をさらに進化させた、すごいアップデートを発表しました!


何がすごいの?今回のアップデートの目玉を解説!

今回のアップデートは、本当に盛りだくさん!その中でも、特に注目すべきポイントを、順番に解説していきますね。

1. 「o1 API」がパワーアップして正式リリース!

まず、「o1」モデルのAPIが正式リリースされました。これからは開発者がこのo1を本格的に使えるようになりました!具体的に何がすごくなったのかというと...

  • 画像も理解できるようになった!

    1. 今までo1は、テキストしか理解できませんでした。でも、今回のアップデートで、画像も理解できるようになったんです!

    2. 例えば、写真を見せて「この写真に写っているものは何?」と質問したら、ちゃんと答えてくれるんですよ。すごくないですか?

    3. これによって、例えば、製造業では製品の品質チェックを自動化したり、科学分野では画像データから新しい発見をしたり、といったことが可能になります。まさに、夢のような技術ですね!

  • 外部ツールと連携できるようになった!

    1. o1は、他のソフトウェアやサービスと連携できるようになりました。

    2. 例えば、カレンダーアプリと連携すれば、「明日の予定は?」と聞くだけで、o1がカレンダーを確認して、予定を教えてくれるようになります。

    3. これは、「関数呼び出し(Function Calling)」という機能のおかげ。この機能を使うと、開発者はo1を、自分の好きなツールと繋げることができるんです。

  • 思い通りに動かせるようになった!

    1. o1は、開発者の指示に、より正確に従うようになりました。

    2. 例えば、「こういう形式で文章を書いて」と指示すれば、その通りに文章を書いてくれます。

    3. これは、「構造化出力(Structured Outputs)」という機能のおかげ。JSONなど、指定したデータ形式で出力できるようになりました。
      また、o1の振る舞いをコントロールする新しい命令方法「開発者メッセージ」が追加された事で、開発者はo1をより細かく制御し、自分の目的に合わせてカスタマイズできるんです。

  • 「考える時間」を調整できるようになった!

    1. o1は、問題を解くために「考える時間」を調整できるようになりました。

    2. これは、「推論時間制御(Reasoning Effort)」という機能のおかげ。難しい問題にはじっくり時間をかけて考えさせ、簡単な問題はサッと解かせる、といったことができるんです。

    3. これによって、無駄な計算を減らして、コストを削減したり、効率をアップしたりできます。

2. リアルタイム音声APIが超進化!まるでSF映画の世界!

次に、リアルタイム音声APIの進化についてです。これは、音声を使って、AIとリアルタイムで会話できる技術のこと。

今回のアップデートで、この技術がめちゃくちゃ進化しました!

  • 音声アプリ開発が超簡単に!

    1. 「WebRTC」という技術に対応したことで、音声アプリの開発がすごく簡単になりました

    2. WebRTCは、インターネット上で音声をやり取りするための技術。これを使うと、複雑な設定をしなくても、簡単に音声アプリを作れるようになるんです。

    3. これによって、例えば、音声で操作できるスマートスピーカーや、リアルタイムで通訳してくれるアプリなどが、もっと簡単に開発できるようになります。

  • GPT-4oの音声処理コストが大幅値下げ!

    1. さらに、GPT-4oの音声処理コストが、なんと60%も安くなりました

    2. そして、後述するGPT-4o Miniなら、その10分の1の価格で利用できるんです!

    3. これによって、音声アプリの開発コストが大幅に削減されます。つまり、僕たちユーザーは、もっと安く、もっと便利な音声アプリを利用できるようになるってことですね!

  • 軽量&高速な「GPT-4o Mini」も選べる!

    1. さらに、「GPT-4o Mini」という、軽くて速いモデルも選べるようになりました

    2. これは、GPT-4oよりも少し性能は劣りますが、その分、処理速度が速くて、コストも安いんです。

    3. 例えば、簡単な質問に答えるだけのアプリなら、GPT-4o Miniで十分!というように、用途に合わせてモデルを選べるようになったわけです。

  • Pythonでもっと開発しやすく!

    1. Pythonというプログラミング言語で、リアルタイム音声APIを使いやすくするツール(SDK)も提供されました。

    2. これによって、Pythonが得意な開発者は、もっと簡単に音声アプリを作れるようになります。

3. 新ファインチューニング手法で、AIを自分好みに育てよう!

最後に、新しいファインチューニング手法「preference fine tuning」 についてです。

ファインチューニングとは、AIモデルを、特定の用途に合わせて調整すること。例えるなら、AIを自分好みに「育てる」ようなイメージですね。

  • 「preference fine tuning」って何?

    1. preference fine tuningは、「どっちの回答が良いか」をAIに教えることで、AIを育てる新しい方法です。

    2. 例えば、「もっと会話っぽくしてほしい」と思ったら、会話っぽい回答と、そうでない回答をペアで用意して、AIに「こっちの回答の方が良いよ」と教えます。

    3. これを繰り返すことで、AIは「こういう回答の方が好まれるんだな」と学習して、どんどん賢くなっていくんです。

  • どんなことができるの?

    1. preference fine tuningを使うと、例えば、以下のようなことができるようになります。

      • もっと会話っぽくする: AIの回答を、もっと自然な会話のように調整できます。

      • 特定の文体にする: 例えば、「ですます調」や「である調」など、特定の文体で回答するように調整できます。

      • コンテンツのフィルタリング: 不適切な表現を避けたり、特定のテーマに沿った回答をしたりするように調整できます。

  • これまでの学習方法と何が違うの?

    1. 従来の「教師あり学習」では、AIに「正しい答え」を教える必要がありました。でも、preference fine tuningでは、「どっちの回答が良いか」を教えるだけでOKなんです。

    2. つまり、より簡単に、そしてより柔軟に、AIを育てることができるようになったわけです。

他にも嬉しいアップデートが盛りだくさん!

ここまで、特に注目すべきポイントを解説してきましたが、他にも嬉しいアップデートがたくさんあります!

  • GoとJavaのSDKが追加!: GoとJavaというプログラミング言語でも、OpenAIのAPIを簡単に利用できるようになりました。

  • APIキー取得がさらに簡単に!: APIキー(OpenAIのAPIを使うための鍵)の取得プロセスが、さらに簡単になりました。

  • 過去のイベント動画もYouTubeで公開中!: 過去の開発者向けイベントの動画が、YouTubeで公開されています。

  • 開発者向けの質疑応答セッションも開催!: OpenAIのエンジニアに直接質問できる、質疑応答セッションも開催されます。

まとめ

今回のOpenAIのアップデートは、開発者にとって、まさに革命と言える内容でした。

これらのアップデートによって、開発者は、より高度なAIアプリを、より速く、より安く、そしてより簡単に作れるようになります。

つまり、僕たちユーザーは、もっと便利で、もっと賢い、そしてもっと身近なAIサービスを利用できるようになるということです。

例えば...

  • 写真に写っているものを、すぐに教えてくれるアプリ

  • 外国語をリアルタイムで通訳してくれるアプリ

  • 自分の好みに合わせて、ニュース記事を要約してくれるアプリ

  • まるで人間と話しているかのように、自然な会話ができるAIアシスタント

こんなアプリが、どんどん登場するかもしれません。まさに、SF映画の世界が現実になろうとしているんです!

AI開発のハードルが下がったことで、より多くの人がAIの恩恵を受けられるようになるでしょう。これからのAIの進化が、本当に楽しみですね!


でわでわ、次回の記事で!

いいなと思ったら応援しよう!

奥村 龍晃@AI整体師
よろしければ応援やサポートお願いします🙇‍♂️ いただいたサポートは、これからの活動や検証に使わせていただきます!

この記事が参加している募集