OpenCVの三角測量関数『cv::triangulatepoints』

だいぶ時間が空きましたが、引き続きOpenCVの3次元復元系の関数を見ていく。



今回はcalib3dモジュールにあるtriangulatePoints関数。つまり三角測量を行う関数ですね。

void cv::triangulatePoints(InputArray   projMatr1,
                    InputArray  projMatr2,
                    InputArray  projPoints1,
                    InputArray  projPoints2,
                    OutputArray     points4D 
                    )

三角測量で点を再構築します。

パラメータ

  • projMatr1 1つ目のカメラの射影行列(3×4)
  • projMatr2 2つ目のカメラの射影行列(3×4)
  • projPoints1 1枚目の画像中の特徴点の配列(2xN)
  • projPoints2 2枚目の画像中の1枚目に対応する特徴点の配列(2xN)
  • points4D 同次座標における再構成後の点の配列(4×N)

この関数は、ステレオカメラによる観測によって(同次座標での)3次元点を再構築します。投影行列はstereoRectify関数で得ることができます。

注意
この関数を使うには、すべての入力データがfloat型である必要があります。

http://docs.opencv.org/3.2.0/d9/d0c/group__calib3d.html#gad3fc9a0c82b08df034234979960b778c


スポンサーリンク


具体的な使い方を見て行こう。こちらのブログ記事に載っているコードを参考に書いてみた。↓
http://moitkfm.blogspot.jp/2014/06/2.html

使う2枚の画像は、以前撮影したスターデストロイヤーのターンテーブル動画から1フレーム目と50フレーム目を抜粋して使用する。

OpenCVでiPhone6sのカメラレンズ歪み補正 (マスキング)

撮影に使ったiPhone6sのカメラキャリブレーションデータもあるし。



以下がソースコード。AKAZE特徴で2枚の画像の対応点を求めることにした。
結果の可視化にvizモジュールを使っているので、vizも含めてビルド済みのOpenCV3.3.0-rcを使用。


スポンサーリンク

#include 
#include 
#include 


int main(int argc, char** argv) {

    // カメラのキャリブレーションデータ読み込み
    cv::Mat cameraMatrix, distCoeffs;

    cv::FileStorage fs("cameraParam.xml", cv::FileStorage::READ);
    if (fs.isOpened()) {
        fs["cameraMatrix"] >> cameraMatrix;
        fs["distCoeffs"] >> distCoeffs;
    }
    else {
        return -1;
    }

    cv::Mat img1; //入力画像1
    cv::Mat img2; //入力画像2

    // 画像ファイルを読み込み、レンズの歪み補正
    cv::undistort(cv::imread("./images/starDestroyer_0001.png"), img1, cameraMatrix, distCoeffs);
    cv::undistort(cv::imread("./images/starDestroyer_0050.png"), img2, cameraMatrix, distCoeffs);


    // AKAZE特徴抽出
    cv::Ptr detector = cv::AKAZE::create(); // 検出器
    cv::Ptr descriptorExtractor = cv::AKAZE::create();// 特徴量
    cv::Ptr matcher = cv::DescriptorMatcher::create("BruteForce"); // 対応点探索方法の設定


    std::vector keypoints1, keypoints2;
    std::vector keyPointsColor1, keyPointsColor2;
    cv::Mat descriptor1, descriptor2;

    detector->detect(img1, keypoints1);
    descriptorExtractor->compute(img1, keypoints1, descriptor1);

    detector->detect(img2, keypoints2);
    descriptorExtractor->compute(img2, keypoints2, descriptor2);


    //対応点の探索
    std::vector dmatch;
    std::vector dmatch12, dmatch21;

    matcher->match(descriptor1, descriptor2, dmatch12); //img1 -> img2
    matcher->match(descriptor2, descriptor1, dmatch21); //img2 -> img1


    for (size_t i = 0; i < dmatch12.size(); i++) {

        //img1 -> img2 と img2 -> img1の結果が一致しているか検証
        cv::DMatch m12 = dmatch12[i];
        cv::DMatch m21 = dmatch21[m12.trainIdx];

        if (m21.trainIdx == m12.queryIdx) {// 一致しているものだけを抜粋
            dmatch.push_back(m12);
        }
    }

    cv::Mat matchImage; //マッチング結果を描画
    cv::drawMatches(img1, keypoints1, img2, keypoints2, dmatch, matchImage);
    cv::imshow("Matches", matchImage);

    if (dmatch.size() > 5) {//十分な数の対応点があれば基礎行列を推定する

        std::vector p1;
        std::vector p2;

        //対応付いた特徴点の取り出しと焦点距離1.0のときの座標に変換
        for (size_t i = 0; i < dmatch.size(); i++) {

            cv::Mat ip(3, 1, CV_64FC1);
            cv::Point2d p;

            ip.at(0) = keypoints1[dmatch[i].queryIdx].pt.x;
            ip.at(1) = keypoints1[dmatch[i].queryIdx].pt.y;
            ip.at(2) = 1.0;

            ip = cameraMatrix.inv()*ip;
            p.x = ip.at(0);
            p.y = ip.at(1);
            p1.push_back(p);

            ip.at(0) = keypoints2[dmatch[i].trainIdx].pt.x;
            ip.at(1) = keypoints2[dmatch[i].trainIdx].pt.y;
            ip.at(2) = 1.0;

            ip = cameraMatrix.inv()*ip;
            p.x = ip.at(0);
            p.y = ip.at(1);
            p2.push_back(p);
        }

        cv::Mat mask; //RANSACの結果を保持するためのマスク
        cv::Mat essentialMat = cv::findEssentialMat(p1, p2, 1.0, cv::Point2f(0, 0), cv::RANSAC, 0.9999, 0.003, mask);

        cv::Mat r, t;
        cv::recoverPose(essentialMat, p1, p2, r, t);


        //正規化座標系で計算しているのでProjection matrix = Extrinsic camera parameter matrix
        cv::Mat prjMat1, prjMat2;
        prjMat1 = cv::Mat::eye(3, 4, CV_64FC1); //片方は回転、並進ともに0
        prjMat2 = cv::Mat(3, 4, CV_64FC1);

        for (int i = 0; i < 3; i++) {
            for (int j = 0; j < 3; j++) {

                prjMat2.at(i, j) = r.at(i, j);
            }
        }
        prjMat2.at(0, 3) = t.at(0);
        prjMat2.at(1, 3) = t.at(1);
        prjMat2.at(2, 3) = t.at(2);


        cv::Mat point3D;//三角測量による三次元位置の推定
        cv::triangulatePoints(prjMat1, prjMat2, p1, p2, point3D);


        // viz用に並べ替え
        cv::Mat pointCloud(point3D.cols, 1, CV_32FC3);
        for (int i = 0; i < point3D.cols; i++) {
            for (int j = 0; j <  3; j++) {

                pointCloud.at(i)[j] = point3D.at(j, i);
            }
        }


        // 表示用vizウィンドウ作成
        cv::viz::Viz3d visualizeWindow("3D");

        // 点群の描画
        cv::viz::WCloud cloud(pointCloud);
        visualizeWindow.showWidget("CLOUD", cloud);

        visualizeWindow.spin();// 3D Viewの描画
    }

    return 0;
}

AKAZE特徴のマッチング結果はこちら↓



で、三角測量の結果をvizモジュールで可視化したものがこちら↓



側面は何となくそれっぽいぞ。と思って上から見てみたら、なんだか湾曲している。。。



レンズっぽい球面な歪み方だな。
あ、以前作った連番はすでにレンズの歪み補正を終えているから、補正処理は必要なかったか。

追記:よくよく考えたら、関数の出力は同次座標だからそのまま3次元ベクトルに代入して表示しちゃダメだな。


スポンサーリンク

関連記事

Iterator
OpenMayaのPhongShaderクラス
Google XML Sitemap Generatorプラグインを3.4.1へダウングレード
ベイズ推定とグラフィカルモデル
ArUco:OpenCVベースのコンパクトなARライブラリ
機械学習で遊ぶ
網元AMIで作ったWordpressサイトのインスタンスをt1microからt2microへ移行した
Adobe MAX 2015
Google App Engine上のWordPressでFlickrの画像を貼る
UnrealCV:コンピュータビジョン研究のためのUnreal Engineプラグイン
3Dコンピュータービジョンライブラリ『PyTorch3D』
ZScript
OpenCV 3.3.0 contribのsfmモジュールのサンプルを動かしてみる
iOSで使えるJetpac社の物体認識SDK『DeepBelief』
WordPress on Windows Azure
オープンソースの物理ベースレンダラ『Mitsuba』をMayaで使う
OpenCVで顔のモーフィングを実装する
CycleGAN:ドメイン関係を学習した画像変換
GoogleのDeep Learning論文
Unreal Engineの薄い本
オープンソースのロボットアプリケーションフレームワーク『ROS (Robot Operating S...
コンピュータビジョンの技術マップ
OpenCV バージョン4がリリースされた!
クリエイターのための機械学習ツール『Runway ML』
Raspberry Pi 2のGPIOピン配置
openMVGをWindows10 Visual Studio 2015環境でビルドする
Deep Learningとその他の機械学習手法の性能比較
IronPythonを使ってUnity上でPythonのコードを実行する
機械学習のオープンソースソフトウェアフォーラム『mloss(machine learning ope...
オープンソースの顔の動作解析ツールキット『OpenFace』
U-Net:ディープラーニングによるSemantic Segmentation手法
書籍『ROSプログラミング』
このブログのデザインに飽きてきた
Raspberry PiでIoTごっこ
1枚の画像からマテリアルを作成できる無料ツール『Materialize』
オープンソースのPhotogrammetryフレームワーク『Alice Vision』
ポリゴンジオメトリ処理ライブラリ『pmp-library (Polygon Mesh Process...
PSPNet (Pyramid Scene Parsing Network):ディープラーニングによ...
OpenCVベースの背景差分ライブラリ『BGSLibrary』
UnityからROSを利用できる『ROS#』
オープンソースのStructure from Motionツール『Regard3D』
Leap MotionでMaya上のオブジェクトを操作できるプラグイン

コメント