イベント「OpenAI『DevDay』から考える、これからのAIがどうなるか。」に登壇しました
Open AI DevDayが日本時間の朝3時に開催されました。リアタイ参加した際の記事は「OpenAI Dev Dayをリアタイ視聴しました」としてアップロードしていますので合わせてご覧ください。
このイベントに合わせて当日19時より開催されたオンラインイベント「OpenAI『DevDay』から考える、これからのAIがどうなるか。」に登壇させていただきました。ELYZA西脇さん、miibo㓛刀さん、カラクリ中山さん、メディアリンク千葉さんとともに、Helpfeel秋山として登壇しました。
事前に主催の千葉さんにご用意いただいたトークテーマとともに、Zoomのコメント欄に書いていただいた方ともインタラクティブにコミュニケーションできたのが楽しかったです。
サッと覚えている範囲で、私からは以下のような話をしました。
Q: DevDayで個人的に一番興味を惹いた/驚いた発表は何?
A:マルチモーダル対応のAPI化が意外と早かったこと、GPT-4Vの画像認識や、Whisper V3の音声認識・音声合成などが出たのが事前リーク通りだけど興味を引いた。
Q: 音声認識の活用はどうか?
OpenAIにとってはこれから人間に近い接点を持てるかが勝負になってくるので、GPT Storeを設置した先にはスマホよりさらに人間の皮膚に近いウェアラブルデバイスを他社を買収するか協業するかで用意すると思う。Air PodsにおけるSiriのようにイヤホンなど。
Q: 来年もっとすごい発表を匂わせていましたが、どんな発表がありそう?
A: ChatGPTに自律型エージェント機能が搭載されたら驚ける。APIも公開されるのではないか。自分で実装するよりは高いが、払えなくはないという価格帯になると予想。
コンテキスト長の拡大・高速化・低廉化は既定路線。
OpenAIはロボット企業にも出資しているので、市販されているChatGPT搭載ロボット以上に精度の良いものが出てくる可能性がある。石黒浩教授のイシグロイドと組み合わさったら凄そう。
全体的に好き放題話せて楽しかったです。来年の発表予想はこのまま残しつつ、外れていたらそれもまた楽しみたいと思います。