見出し画像

画像生成の先端研究から感じる生成AIの今後 #SIGGRAPH2023 Day1

SIGGRAPH2023初日夜の技術論文速報会(TPFF)終わって感想。
TPFFは速い。150件近い採択論文を2時間ぐらいで発表するのだから当然ですが、
なんだかさらに速くなったと思い計測してみたらひとり20秒ぐらいになってました(入れ替え込み25秒?)

顔が見えるので今まで論文の名前でしか見ていなかった研究者がどんな顔でこの研究をやっているのか体感できる場にもなりました。

ステレオタイプを強化する気はないですが生成AIについては中国系女性とインド系が多くなったなという印象です(米国の大学全体で起きている現象と思います)。

そういえば中国の生成AI関連法整備もかなり進んでいるようです

https://note.com/felelihasima/n/nc2c063158c4a


生成AI研究は百花繚乱。

実は半年前のSIGGRAPH ASIA 2022韓国Daeguでは、stable diffusionをはじめ、生成AI研究はほとんど論文になっていませんでした。もちろんGANもTransformerはあったけど昨年の8月のstable diffusionのオープンソースリリースから時間が短すぎたのですよね。

今回の夏のSIGGRAPHでの採択(投稿締切は20223/1月ごろ)における生成AI研究では「動画のワンショット生成」みたいな研究はほとんどありませんでした(過去にはあった)。まだ理論化には程遠いのか、査読で落とされているのか(おそらく後者)、その一方で基盤技術としての根幹を担うような研究がしっかり採択されているのが印象的でした。

詳細は実際の発表を聴いてから書きますが、特にLatent空間での動画やモデリングの研究が出てきているので、この先実用レベルの動画生成技術はここから1年2年ぐらいで出てくるだろうなという印象。

つまり投稿投稿レベルではあと半年、次の夏の投稿を行う2024年冬ぁらSIGGRAPH ASIA 2024東京あたりが熱いな…という印象です。

一方で「生成AIにはゴールがない」ので、提案された手法の評価手法が難しい、またその価値評価が難しい点もポイントです。これはCG研究全般の長年の課題ですが、上手に論文を通してくる方々はその辺の論理構築やデータによるエビデンス化が上手です。

そういう意味では旧来から日本のコンテンツ工学研究で進められてきたような分野、特にシーン理解やオペレーションUI、制作手法との評価などは一段と価値も需要も専門性も高い研究が求められそうです。

具体的にはもっと双方の研究ができる人材を育てないとなあという課題感。SIGGRAPH期間中にこの分野でリードしている彼らがどんな体制や興味でこの分野の研究を進めているのかヒアリングしてこないとと思いました。

新しい論文賞の設定


前半と後半の間、休憩時間に加えて論文賞の発表がありました。新設された時を越えて価値がある論文賞「Test  time award」の発表も。

そして時差ぼけキツい…(いま朝3時)

自分の発表も頑張る

いいなと思ったら応援しよう!