数度のトライを経て、OpenCVのバージョン3.3.0でやっとsfmモジュールのビルドが通ったわけです。
ようやくサンプルを試す段階に来た。参考にしてるQiita記事の後編へやっと進める。↓
http://qiita.com/ChaoticActivity/items/178d23508b92a09e59ea
記事によると、サンプルを動かすためにまたいくつか手を加える必要がある(笑)
ヘッダーファイルの修正
さて、opencv_contrib-3.3.0/modules/sfm/samples
以下にあるsfmのサンプルをそのままビルドしようとすると
reconstruct()が定義されていません
的なエラーが出る。
このエラーの理由は、いくつかのヘッダーファイルで
#if CERES_FOUND
という条件マクロが書かれており、Ceres-Solverの有無でincludeするファイルを選択しているから。なので、この条件がtrueになるようにコンパイラにCeres-Solverが存在することを知らせる必要がある。
で、ちょっと行儀が悪いけど、オイラはもうinclude/opencv2/sfm.hpp
の冒頭の以下の記述を
#ifndef __OPENCV_SFM_HPP__ #define __OPENCV_SFM_HPP__ #include <opencv2/sfm/conditioning.hpp> #include <opencv2/sfm/fundamental.hpp> #include <opencv2/sfm/numeric.hpp> #include <opencv2/sfm/projection.hpp> #include <opencv2/sfm/triangulation.hpp> #if CERES_FOUND #include <opencv2/sfm/reconstruct.hpp> #include <opencv2/sfm/simple_pipeline.hpp> #endif
直接以下のように編集しちゃいました。
#ifndef __OPENCV_SFM_HPP__ #define __OPENCV_SFM_HPP__ #include#include #include #include #include #include #define CERES_FOUND 1 #if CERES_FOUND #include #include #endif
サンプルコードの実行
参考記事に倣ってtrajectory_reconstruccion.cpp
を実行してみる。
おお、特にエラーも無く動作したぞ!
サンプルコードのバグ修正
参考記事によると、このサンプルコードにはバグがあるというか、カメラの軌跡を表示する際に使用しているcv::viz::WTrajectory
に渡す引数が間違っているらしい。
以下の部分を
/// Recovering cameras cout << "Recovering cameras ... "; vector<Affine3d> path_est; for (size_t i = 0; i < Rs_est.size(); ++i) path_est.push_back(Affine3d(Rs_est[i],ts_est[i])); cout << "[DONE]" << endl;
逆行列に変えて以下のようにすると正しい座標変換になる。
/// Recovering cameras cout << "Recovering cameras ... "; vector<Affine3d> path_est; for (size_t i = 0; i < Rs_est.size(); ++i) path_est.push_back(Affine3d(Rs_est[i], ts_est[i]).inv()); cout << "[DONE]" << endl;
別のサンプルコード
調子に乗ってscene_reconstruction.cpp
も動かしてみようと思ったら見事エラー…
http://docs.opencv.org/3.3.0/d4/d18/tutorial_sfm_scene_reconstruction.html
え、正しいコマンドライン引数が良く分からんぞ。。。
関連記事
タマムシっぽい質感
WordPressのテーマを自作する
Raspberry PiでIoTごっこ
Python.NET:Pythonと.NETを連携させるパッ...
OpenCVでカメラ画像から自己位置認識 (Visual O...
ブログが1日ダウンしてました
RSSフィードを読込んで表示するWordpressプラグイン...
uvでWindows11のPython環境を管理する
iOSデバイスと接続して連携するガジェットの開発方法
Theia:オープンソースのStructure from M...
3分の動画でプログラミングを学習できるサイト『ドットインスト...
書籍『ゼロから作るDeep Learning』で自分なりに学...
マルコフ連鎖モンテカルロ法
Leap MotionでMaya上のオブジェクトを操作できる...
Manim:Pythonで使える数学アニメーションライブラリ
MythTV:Linuxでテレビの視聴・録画ができるオープン...
Raspberry Pi 2を買いました
Deep Learningとその他の機械学習手法の性能比較
オープンソースの物理ベースレンダラ『Mitsuba』をMay...
ZBrushで作った3Dモデルを立体視で確認できるVRアプリ...
pythonもかじってみようかと
RefineNet (Multi-Path Refineme...
Boost オープンソースライブラリ
ブログの復旧が難航してた話
WordPressプラグインによるサイトマップの自動生成
オープンソースの人体モデリングツール『MakeHuman』の...
BlenderのPython環境にPyTorchをインストー...
畳み込みニューラルネットワーク (CNN: Convolut...
PGGAN:段階的に解像度を上げて学習を進めるGAN
まだ続くブログの不調
PeopleSansPeople:機械学習用の人物データをU...
OpenCV 3.1とopencv_contribモジュール...
Kinect for Windows v2の日本価格決定
Google Colaboratoryで遊ぶ準備
Structure from Motion (多視点画像から...
Raspberry PiのGPIOを操作するPythonライ...
ROSの薄い本
参考書
OpenCVで顔のランドマークを検出する『Facemark ...
ManimML:機械学習の概念を視覚的に説明するためのライブ...
OpenCV 3.1のsfmモジュールのビルド再び
UnityでPoint Cloudを表示する方法
コメント