OpenCVの三角測量関数『cv::triangulatepoints』

だいぶ時間が空きましたが、引き続きOpenCVの3次元復元系の関数を見ていく。



今回はcalib3dモジュールにあるtriangulatePoints関数。つまり三角測量を行う関数ですね。

void cv::triangulatePoints(InputArray   projMatr1,
                    InputArray  projMatr2,
                    InputArray  projPoints1,
                    InputArray  projPoints2,
                    OutputArray     points4D 
                    )

三角測量で点を再構築します。

パラメータ

  • projMatr1 1つ目のカメラの射影行列(3×4)
  • projMatr2 2つ目のカメラの射影行列(3×4)
  • projPoints1 1枚目の画像中の特徴点の配列(2xN)
  • projPoints2 2枚目の画像中の1枚目に対応する特徴点の配列(2xN)
  • points4D 同次座標における再構成後の点の配列(4×N)

この関数は、ステレオカメラによる観測によって(同次座標での)3次元点を再構築します。投影行列はstereoRectify関数で得ることができます。

注意
この関数を使うには、すべての入力データがfloat型である必要があります。

http://docs.opencv.org/3.2.0/d9/d0c/group__calib3d.html#gad3fc9a0c82b08df034234979960b778c


スポンサーリンク


具体的な使い方を見て行こう。こちらのブログ記事に載っているコードを参考に書いてみた。↓
http://moitkfm.blogspot.jp/2014/06/2.html

使う2枚の画像は、以前撮影したスターデストロイヤーのターンテーブル動画から1フレーム目と50フレーム目を抜粋して使用する。

OpenCVでiPhone6sのカメラレンズ歪み補正 (マスキング)

撮影に使ったiPhone6sのカメラキャリブレーションデータもあるし。



以下がソースコード。AKAZE特徴で2枚の画像の対応点を求めることにした。
結果の可視化にvizモジュールを使っているので、vizも含めてビルド済みのOpenCV3.3.0-rcを使用。


スポンサーリンク

#include 
#include 
#include 


int main(int argc, char** argv) {

    // カメラのキャリブレーションデータ読み込み
    cv::Mat cameraMatrix, distCoeffs;

    cv::FileStorage fs("cameraParam.xml", cv::FileStorage::READ);
    if (fs.isOpened()) {
        fs["cameraMatrix"] >> cameraMatrix;
        fs["distCoeffs"] >> distCoeffs;
    }
    else {
        return -1;
    }

    cv::Mat img1; //入力画像1
    cv::Mat img2; //入力画像2

    // 画像ファイルを読み込み、レンズの歪み補正
    cv::undistort(cv::imread("./images/starDestroyer_0001.png"), img1, cameraMatrix, distCoeffs);
    cv::undistort(cv::imread("./images/starDestroyer_0050.png"), img2, cameraMatrix, distCoeffs);


    // AKAZE特徴抽出
    cv::Ptr detector = cv::AKAZE::create(); // 検出器
    cv::Ptr descriptorExtractor = cv::AKAZE::create();// 特徴量
    cv::Ptr matcher = cv::DescriptorMatcher::create("BruteForce"); // 対応点探索方法の設定


    std::vector keypoints1, keypoints2;
    std::vector keyPointsColor1, keyPointsColor2;
    cv::Mat descriptor1, descriptor2;

    detector->detect(img1, keypoints1);
    descriptorExtractor->compute(img1, keypoints1, descriptor1);

    detector->detect(img2, keypoints2);
    descriptorExtractor->compute(img2, keypoints2, descriptor2);


    //対応点の探索
    std::vector dmatch;
    std::vector dmatch12, dmatch21;

    matcher->match(descriptor1, descriptor2, dmatch12); //img1 -> img2
    matcher->match(descriptor2, descriptor1, dmatch21); //img2 -> img1


    for (size_t i = 0; i < dmatch12.size(); i++) {

        //img1 -> img2 と img2 -> img1の結果が一致しているか検証
        cv::DMatch m12 = dmatch12[i];
        cv::DMatch m21 = dmatch21[m12.trainIdx];

        if (m21.trainIdx == m12.queryIdx) {// 一致しているものだけを抜粋
            dmatch.push_back(m12);
        }
    }

    cv::Mat matchImage; //マッチング結果を描画
    cv::drawMatches(img1, keypoints1, img2, keypoints2, dmatch, matchImage);
    cv::imshow("Matches", matchImage);

    if (dmatch.size() > 5) {//十分な数の対応点があれば基礎行列を推定する

        std::vector p1;
        std::vector p2;

        //対応付いた特徴点の取り出しと焦点距離1.0のときの座標に変換
        for (size_t i = 0; i < dmatch.size(); i++) {

            cv::Mat ip(3, 1, CV_64FC1);
            cv::Point2d p;

            ip.at(0) = keypoints1[dmatch[i].queryIdx].pt.x;
            ip.at(1) = keypoints1[dmatch[i].queryIdx].pt.y;
            ip.at(2) = 1.0;

            ip = cameraMatrix.inv()*ip;
            p.x = ip.at(0);
            p.y = ip.at(1);
            p1.push_back(p);

            ip.at(0) = keypoints2[dmatch[i].trainIdx].pt.x;
            ip.at(1) = keypoints2[dmatch[i].trainIdx].pt.y;
            ip.at(2) = 1.0;

            ip = cameraMatrix.inv()*ip;
            p.x = ip.at(0);
            p.y = ip.at(1);
            p2.push_back(p);
        }

        cv::Mat mask; //RANSACの結果を保持するためのマスク
        cv::Mat essentialMat = cv::findEssentialMat(p1, p2, 1.0, cv::Point2f(0, 0), cv::RANSAC, 0.9999, 0.003, mask);

        cv::Mat r, t;
        cv::recoverPose(essentialMat, p1, p2, r, t);


        //正規化座標系で計算しているのでProjection matrix = Extrinsic camera parameter matrix
        cv::Mat prjMat1, prjMat2;
        prjMat1 = cv::Mat::eye(3, 4, CV_64FC1); //片方は回転、並進ともに0
        prjMat2 = cv::Mat(3, 4, CV_64FC1);

        for (int i = 0; i < 3; i++) {
            for (int j = 0; j < 3; j++) {

                prjMat2.at(i, j) = r.at(i, j);
            }
        }
        prjMat2.at(0, 3) = t.at(0);
        prjMat2.at(1, 3) = t.at(1);
        prjMat2.at(2, 3) = t.at(2);


        cv::Mat point3D;//三角測量による三次元位置の推定
        cv::triangulatePoints(prjMat1, prjMat2, p1, p2, point3D);


        // viz用に並べ替え
        cv::Mat pointCloud(point3D.cols, 1, CV_32FC3);
        for (int i = 0; i < point3D.cols; i++) {
            for (int j = 0; j <  3; j++) {

                pointCloud.at(i)[j] = point3D.at(j, i);
            }
        }


        // 表示用vizウィンドウ作成
        cv::viz::Viz3d visualizeWindow("3D");

        // 点群の描画
        cv::viz::WCloud cloud(pointCloud);
        visualizeWindow.showWidget("CLOUD", cloud);

        visualizeWindow.spin();// 3D Viewの描画
    }

    return 0;
}

AKAZE特徴のマッチング結果はこちら↓



で、三角測量の結果をvizモジュールで可視化したものがこちら↓



側面は何となくそれっぽいぞ。と思って上から見てみたら、なんだか湾曲している。。。



レンズっぽい球面な歪み方だな。
あ、以前作った連番はすでにレンズの歪み補正を終えているから、補正処理は必要なかったか。

追記:よくよく考えたら、関数の出力は同次座標だからそのまま3次元ベクトルに代入して表示しちゃダメだな。


スポンサーリンク

関連記事

3Dコンピュータービジョンライブラリ『PyTorch3D』
ニューラルネットワークと深層学習
書籍『OpenCV 3 プログラミングブック』を購入
Adobeの手振れ補正機能『ワープスタビライザー』の秘密
Verilog HDL
ディープラーニングに対応したPythonの機械学習ライブラリ『Pylearn2』
OpenMVSのサンプルを動かしてみる
pythonもかじってみようかと
機械学習手法『SVM(Support Vector Machine)』
OpenCV 3.3.0 contribのsfmモジュールのサンプルを動かしてみる
OpenCV 3.1から追加されたSfMモジュール
ポリゴン用各種イテレータと関数セット
フィーリングに基づくタマムシの質感表現
人間の顔をそっくりそのままCGで復元する『Digital Emily Project』
オープンソースのプリント基板設計ツール『KiCad』
AfterEffectsプラグイン開発
Structure from Motion (多視点画像からの3次元形状復元)
SegNet:ディープラーニングによるSemantic Segmentation手法
Adobe MAX 2015
池袋パルコで3Dのバーチャルフィッティング『ウェアラブル クロージング バイ アーバンリサーチ』
ディープラーニング
画像認識による位置情報取得 - Semi-Direct Monocular Visual Odome...
OpenCVベースのマーカーARライブラリ『OpenAR』
WordPressのサーバ引っ越し方法を考える
参考書
Webサイトのワイヤーフレームが作成できるオンラインツール
WinSCP
Kinect for Windows v2の日本価格決定
OpenGVのライブラリ構成
BlenderのPython環境にPyTorchをインストールする
WordPressプラグインの作り方
Deep Learningとその他の機械学習手法の性能比較
海外ドラマのChromaKey
手を動かしながら学ぶデータマイニング
顔追跡による擬似3D表示『Dynamic Perspective』
クラスの基本
C#で使えるNumPyライクな数値計算ライブラリ『NumSharp』
3Dグラフィックスの入門書
スクラッチで既存のキャラクターを立体化したい
ニューラルネットワークの構造を可視化するフレームワーク『TensorSpace.js』
C++の機械学習ライブラリ『Dlib』
C#で使える機械学習ライブラリ『Accord.NET Framework』

コメント