OpenMVSのサンプルを動かしてみる

この前見つけたOpenMVSをビルドしてみようと思ってドキュメント見たら、すでにサンプルをWindows用にビルドしたバイナリが配布されているではないか!



公式ドキュメントのUsageページの内容も、配布されているopenMVS_sampleを使えばできそうな感じ。

ただ、ドキュメントがやや古いのか、書いてある実行ファイルの名称が配布されているものとちょっと食い違っているみたい。
たぶん、ドキュメントで”openMVG_main_openMVG2openMVS“って書かれているのは、現在のサンプルの中にある”InterfaceOpenMVG“のこと。ソースコードのInterfaceOpenMVG.cppの中身をちょっと見てみると、ドキュメント記載の”openMVG_main_openMVG2openMVS“と同じ引数を受け取りそうな感じ。

openMVGでSFMデータ(sfm_data.bin)を作成する

とりあえず、OpenMVSに食わせるためのsfm_data.binをopenMVGでちゃちゃっと生成してしまう。この前ビルドしたopenMVGのSfM toolsを使う。



OpenMVSの使い方の例に合わせてSceaux Castleの画像セットを使用する。

Sceaux Castle画像セットを入力として以下のツールを順に実行すると、最終的にsfm_data.binが出力される。コマンドライン引数はそれぞれのドキュメント参照。

  1. openMVG_main_SfMInit_ImageListing:画像リストの作成
  2. openMVG_main_ComputeFeatures:画像特徴の検出・記述
  3. openMVG_main_ComputeMatches:画像の対応関係の計算
  4. openMVG_main_IncrementalSfM:3次元再構築(Structure from Motion)

sfm_data.binと一緒にいくつか.plyファイルも出力される。この.plyファイルをMeshLabで開けば3次元再構築の結果を確認できる。

で、出力されたsfm_data.binを使ってOpenMVSのMulti-View Stereoによる密な点群の復元を試すわけだけど、まずは現在配布されているOpenMVSの最新のサンプルの構成に合わせて、やや古いOpenMVS公式のドキュメントの記述を読み換えながら訳してみる。


スポンサーリンク

OpenMVSモジュールの使い方

次は、利用可能なモジュールの使い方の説明です。
今回は、OpenMVGのパイプラインを使い、Sceaux Castle画像セットからカメラ位置と疎な点群の復元を行いました。
ここで示すアウトプットは、全てOpenMVSのパイプラインで自動的に生成したものであり、手作業による調整は一切行っていない結果であることに注意してください。
完全なサンプル(モジュール用のWindows x64バイナリを含む)はOpenMVS_Sampleにあります。

OpenMVSのバイナリは、全てコマンドライン引数をサポートしています。引数の詳細については、引数無し、または-hコマンドで実行すると表示されます。
@FlachyJoe氏がOpenMVGとOpenMVSの連携プロセスを自動化した、コマンド1つで実行できるscriptを提供しています。
以下のコマンドを実行すれば同様の結果が得られるはずです:

python MvgMvs_Pipeline.py


スポンサーリンク

OpenMVGのシーンを変換する

シーンの再構築後、OpenMVGはデフォルトでカメラ位置と疎な点群情報の入ったsfm_data.binファイルを生成します。
エクスポーターツールを以下コマンドで実行すれば、このファイルをOpenMVSのプロジェクトファイルscene.mvsへ変換できます。

InterfaceOpenMVG -i sfm_data.bin -o scene.mvs

OpenMVGが古い.jsonアスキー形式のファイルを使っている場合は、以下のように実行してください。

InterfaceOpenMVG -i scene.json -o scene.mvs

ここまでのステップで得られた疎な点群は以下の画像のようになるはずです:

Sparse

密な点群の再構築(オプション)

シーンに欠けている部分があっても、dense reconstruction(密な再構築)モジュールを使って密な点群を推定すれば復元することができます。

DensifyPointCloud scene.mvs

得られた高密度の点群は以下の画像のようになります(頂点の色は可視化のためのおおよそのものであり、以降の処理には影響しないことに注意):

scene_dense

ラフなメッシュの再構築

ここまでのステップで得られた疎、密な点群をmesh reconstruction(メッシュの再構築)モジュールの入力として使うことができます。

ReconstructMesh scene_dense.mvs

mesh reconstructionモジュールを実行して得られるメッシュ:

dense_mesh

メッシュのリファイン(オプション)

疎、密な点群から得られたメッシュには、まだディティールや大きな欠落部分をリファインできる余地があります。
以下のコマンドで、疎な点群から得たラフなメッシュのリファインを行ってみます:

RefineMesh scene_mesh.mvs

リファイン前と後:

scene_mesh

scene_mesh_refine

メッシュにテクスチャを貼る

ここまでのステップで得られたメッシュをmesh texturing(メッシュにテクスチャを貼る)モジュールの入力として使います。

TextureMesh scene_dense_mesh.mvs

メッシュにテクスチャを貼った状態:

scene_dense_mesh_texture

openMVG_main_openMVG2openMVS“を”InterfaceOpenMVG“と読み替えるだけでちゃんと動いたぞ。さらにOopenMVS_sampleにはopenMVGだけでなく、VisualSFMのファイルを変換するInterfaceVisualSFMも入っているので、VisualSFMで疎な点群の復元まで終えたデータからOpenMVSで密な点群の復元ができるわけだな。

まあ、もちろんPMVSCMVSとかCMPMVSでも良いんですが。


スポンサーリンク

関連記事

疑似3D写真が撮れるiPhoneアプリ『Seene』がアップデートでついにフル3Dモデルが撮影できる...
Amazon EC2ログイン用の秘密鍵を無くした場合の対処方法
Active Appearance Models(AAM)
iOSデバイスのためのフィジカル・コンピューティングツールキット『konashi(こなし)』
MeshroomでPhotogrammetry
池袋パルコで3Dのバーチャルフィッティング『ウェアラブル クロージング バイ アーバンリサーチ』
ROMOハッカソンに行ってきた
PyTorch3D:3Dコンピュータービジョンライブラリ
SDカードサイズのコンピューター『Intel Edison』
ブログが1日ダウンしてました
Mitsuba 3:オープンソースの研究向けレンダラ
Blender 2.8がついに正式リリース!
Kinect for Windows V2のプレオーダー開始
3Dグラフィックスの入門書
Adobeの手振れ補正機能『ワープスタビライザー』の秘密
OpenCV 3.1のsfmモジュールを試す
PythonでBlenderのAdd-on開発
オープンソースのロボットアプリケーションフレームワーク『ROS (Robot Operating S...
OpenGV:画像からカメラの3次元位置・姿勢を推定するライブラリ
Raspberry PiのGPIOを操作するPythonライブラリ『RPi.GPIO』の使い方
WordPressのサーバ引っ越し方法を考える
オープンソースの顔の動作解析ツールキット『OpenFace』
Python for Unity:UnityEditorでPythonを使えるパッケージ
Manim:Pythonで使える数学アニメーションライブラリ
UnityからROSを利用できる『ROS#』
立体視を試してみた
iOSで使えるJetpac社の物体認識SDK『DeepBelief』
顔画像処理技術の過去の研究
AndroidもopenGLも初心者さ (でもJavaは知ってるよ)
RefineNet (Multi-Path Refinement Network):ディープラーニン...
OpenMesh:オープンソースの3Dメッシュデータライブラリ
OpenCV3.3.0でsfmモジュールのビルドに成功!
PeopleSansPeople:機械学習用の人物データをUnityで生成する
Iridescence:プロトタイピング向け軽量3D可視化ライブラリ
Kaolin:3Dディープラーニング用のPyTorchライブラリ
機械学習について最近知った情報
クラスの基本
Raspberry PiでIoTごっこ
MB-Lab:Blenderの人体モデリングアドオン
FreeMoCap Project:オープンソースのマーカーレスモーションキャプチャ
読みやすくて高速なディープラーニングのフレームワーク『Caffe』
PGGAN:段階的に解像度を上げて学習を進めるGAN

コメント