OpenAI Devday ざっくりまとめ!
※ライブを見ながらのメモを元にした、速記なので違和感あるところなどフィードバックください。すぐ編集します。一旦寝ます。
GPT-4 Turboが登場!
感想
思ったよりすぐ4VのAPIも来たし、すごすぎる!知識ベースが2023年4月までに拡張されているのも神アプデですね。また、コストも下がっており、2.75倍?Cheaperになっているのも魅力的。function calling を同時に複数呼べるなどサラッと流している重要情報もあり、注目のアップデートでした!
Assistants APIも登場!
デモでも実施していましたが、音声→学習データを元にタスク実行(デモでは、会場に来ている方々をランダムに指名し、5ドル(500だったかも)のOpenAIのクレジットをお金配りしていましたw)できる世界はまさに近未来感ありましたね。アイアンマンのジャービスの世界w
↑この記事読めばとりあえず全部わかりますw
Playgroundもなんだが使いやすそうで良き。参考↓
GPTs/GPTビルダー(カスタマイズできるBot的な)
感想
デモでは、チャット形式で対話をしながらインタラクティブに右のペインにてボットがアップデートされるインタラクションが紹介されていました。自然言語でAIペルソナを育てているUXが良かったですね。OpenAIのWebサイトを見ると、企業内でクローズドなBotも作成できるみたいなので社内秘書(概念)やら社内コンサルタント(概念)の育成が更に捗る予感ですね。
そしてアプリストアの発表もサラッと行っていましたが驚き。(さすがにプラットフォームのマージンなどは発表まだでしたが、Apple Storeになろうとしているw)
プラグインの機能はより「機能的 ※必要な時に呼び出す特性から、そもそも想起がむずい」だったものからより直感的に、慣れているインターフェースで各ボット(エージェント)と対話するUXに変わるのが非エンジニアからすると嬉しい。
まとめ
DevDayだけあって、開発者向けのアップデート中心、かつ物凄い速度でローンチされるAPIの数々に驚きでした。Generative、LLM のような言葉はほぼ出てこず、Microsoft CEOとの対話で使っていた「AGI」やそこを見据えた「Agent」というワーディングが多様されていたのが個人的には印象的でkした。プロンプトベースの生成UXからまずはAgentベースの対話でのタスク解決UXに主従が置かれていきますね!
よろしければサポートお願いします!集まったお金でいい記事を書くための書籍を買いまくります。