NeRFと市販の3Dスキャナーを比較してみた - その2
今回はパターン投影で撮影しやすい物を選択し、主にスキャンデータのビジュアル面(CG)ではなくメッシュデータの状態を比較してみたいと思います。撮影対象には手元にあるマウスを選択しました。
まずはパターン投影による3Dスキャン
以下の画像がパターン投影で撮影した結果をCAD(Rhino8-WIP)で見た結果です。色校正が不十分だったのでテクスチャー色が緑方向に振れてしまいましたが、メッシュは非常にきれいに取れています。
前回のF35の模型と異なり、非常に精巧に撮ることができました。
模型の撮影時は土台に置いたままにして角度なども特に変えず、20度ずつ回転させて、合計18回(360度分)撮影したという内容でした。
今回は斜めに置いたり、裏向きにしたりしながら全周囲を撮影したので合計50回以上撮影しています。撮影に時間をかけた+撮影しやすいモデルを選んだという事もあり、良好な結果になっています。
これだけのクオリティのデータであればSubDメッシュにコンバートしたり、メッシュにあたりとなるカーブを引いたりすることでリバース・エンジニアリング用のデータや設計用のリファレンスとして使えると思います。
NeRFのファースト•トライ
画像を100枚弱撮影し、前回同様のLumaAIで作成してみました。
すると作成された3Dデータは。。。
どんな結果になったかご興味ある方は以下のリンクをご覧ください。
完全に崩壊しています。。
以下の2点を本撮影失敗の理由として考えました。
マウスは形状がシンプルすぎて立体化できない
なるべく周辺環境を撮影しないようにしたので情報量が少なすぎる
1に挙げた問題はNeRF化の際に周辺データは取り込んでおらず、オブジェクトがシンプルすぎることで形状推定ができないことが理由となり、その場合は撮影時に周辺環境を取り込んだとしても立体化できないので、特徴点となるマーカーをマウス上に貼り付けたりして対策する必要があります。
ただ、もし2で考えた通りであれば周辺環境を多く取り込む事で情報量を増やせるので立体化できるはずです。
実際にLumaAIのViewerで見るCGは室内の情報も取れているので、2の問題を解消すればとりあえず立体化はできると考えました。
ということで次の撮影ではなるべく周辺環境を取り込む形で撮影しました。
NeRFのセカンド・トライ
今回は80枚強の撮影枚数になりました。以下のリンクの様にに立体化できました。ただ、周辺環境を取り込んだことで撮影対象としてのマウスの情報量は少なくなってしまい出力結果はLumaAIのViwer上で見る限りでも残念な内容になってしまいました。
残念な結果であることは一目瞭然ですが、念のためメッシュデータをダウンロードしてきましたのでその内容をチェックしてみました。想定通りメッシュをこのまま利用することは厳しい状態でした。
今回のテストでは目的別に撮影方法は切り替えるべきだという事がよくわかる結果となりました。複雑かつ比較的サイズが大きい物体の方がNeRFの利点を有効活用できるかもしれません。
次回は透明オブジェクトや反射物が撮影できるという部分にフォーカスを当ててどこまで撮影できるか検証してみたいと思います。
この記事が気に入ったらサポートをしてみませんか?