ARCore DepthAPIを使ってARでのオクルージョンを試してみた!
本記事は2020年5月13日に投稿されたものです
こんにちは、開発の樋口です。
今回はARのオクルージョンに関して書こうと思います。
去年末にARCoreにDepthAPIが発表されたので既に体験されている方も多いと思います。
ARはカメラを通した現実の世界と仮想の物を重ね合わせ、あたかもそこに在るような体験ができるものですが、カメラ映像なので奥行き情報は持っておらず、古典的なARではカメラ映像の”手前に”仮想物体を置くことしか出来ませんでした。
そこでカメラから取得した映像に奥行き情報が付加されれば、仮想ワールドと同じ空間として融合させることが可能になります。
具体的には、上の映像のような事ができるようになります。
今まで特定のアングルだとリアルに見えるけど、手前に物が来ると表示がおかしいなど…残念なこともありましたが、奥行きの情報を得たことにより一歩リアルに近づいたと言えるでしょう。
ここまで聞くと『表示だけがリアルになったのね』と思われるかもしれませんが、実はそれ以上に重要な変化があり、現実世界に現実的なリアクションを起こすことができるようになります。
例えば
このように現実世界に仮想の掃除機やケイリン選手を走らせることが出来るようになりました(一応、地形を判断して自律走行しています)。
これは正しく空間を認識できていないと表現できなかった事の一つです。
また、地味ですが現実空間にリアルな影を落とす事も出来るようになります。
これがリアルタイムにできるようになるなんてよい時代になりました。
アイデア次第で色々な事に応用できると思います。
興味がありましたらご連絡おまちしています。
contact@atali.jp