OpenCVの三角測量関数『cv::triangulatepoints』

だいぶ時間が空きましたが、引き続きOpenCVの3次元復元系の関数を見ていく。



今回はcalib3dモジュールにあるtriangulatePoints関数。つまり三角測量を行う関数ですね。

void cv::triangulatePoints(InputArray   projMatr1,
                    InputArray  projMatr2,
                    InputArray  projPoints1,
                    InputArray  projPoints2,
                    OutputArray     points4D 
                    )

三角測量で点を再構築します。

パラメータ

  • projMatr1 1つ目のカメラの射影行列(3×4)
  • projMatr2 2つ目のカメラの射影行列(3×4)
  • projPoints1 1枚目の画像中の特徴点の配列(2xN)
  • projPoints2 2枚目の画像中の1枚目に対応する特徴点の配列(2xN)
  • points4D 同次座標における再構成後の点の配列(4×N)

この関数は、ステレオカメラによる観測によって(同次座標での)3次元点を再構築します。投影行列はstereoRectify関数で得ることができます。

注意
この関数を使うには、すべての入力データがfloat型である必要があります。

http://docs.opencv.org/3.2.0/d9/d0c/group__calib3d.html#gad3fc9a0c82b08df034234979960b778c


スポンサーリンク


具体的な使い方を見て行こう。こちらのブログ記事に載っているコードを参考に書いてみた。↓
http://moitkfm.blogspot.jp/2014/06/2.html

使う2枚の画像は、以前撮影したスターデストロイヤーのターンテーブル動画から1フレーム目と50フレーム目を抜粋して使用する。



撮影に使ったiPhone6sのカメラキャリブレーションデータもあるし。
OpenCVでiPhone6sのカメラをキャリブレーションする
世間ではiPhone7が発売されていますが、オイラは引き続きiPhone6sを使います(笑) 1年前にiPhone6Sへ機種変更してからiPhone6sのカメラで結構たくさん写真や動画を撮ったので、画像・動画がだいぶ溜まった。 それ...


以下がソースコード。AKAZE特徴で2枚の画像の対応点を求めることにした。
結果の可視化にvizモジュールを使っているので、vizも含めてビルド済みのOpenCV3.3.0-rcを使用。


スポンサーリンク

#include 
#include 
#include 


int main(int argc, char** argv) {

    // カメラのキャリブレーションデータ読み込み
    cv::Mat cameraMatrix, distCoeffs;

    cv::FileStorage fs("cameraParam.xml", cv::FileStorage::READ);
    if (fs.isOpened()) {
        fs["cameraMatrix"] >> cameraMatrix;
        fs["distCoeffs"] >> distCoeffs;
    }
    else {
        return -1;
    }

    cv::Mat img1; //入力画像1
    cv::Mat img2; //入力画像2

    // 画像ファイルを読み込み、レンズの歪み補正
    cv::undistort(cv::imread("./images/starDestroyer_0001.png"), img1, cameraMatrix, distCoeffs);
    cv::undistort(cv::imread("./images/starDestroyer_0050.png"), img2, cameraMatrix, distCoeffs);


    // AKAZE特徴抽出
    cv::Ptr detector = cv::AKAZE::create(); // 検出器
    cv::Ptr descriptorExtractor = cv::AKAZE::create();// 特徴量
    cv::Ptr matcher = cv::DescriptorMatcher::create("BruteForce"); // 対応点探索方法の設定


    std::vector keypoints1, keypoints2;
    std::vector keyPointsColor1, keyPointsColor2;
    cv::Mat descriptor1, descriptor2;

    detector->detect(img1, keypoints1);
    descriptorExtractor->compute(img1, keypoints1, descriptor1);

    detector->detect(img2, keypoints2);
    descriptorExtractor->compute(img2, keypoints2, descriptor2);


    //対応点の探索
    std::vector dmatch;
    std::vector dmatch12, dmatch21;

    matcher->match(descriptor1, descriptor2, dmatch12); //img1 -> img2
    matcher->match(descriptor2, descriptor1, dmatch21); //img2 -> img1


    for (size_t i = 0; i < dmatch12.size(); i++) {

        //img1 -> img2 と img2 -> img1の結果が一致しているか検証
        cv::DMatch m12 = dmatch12[i];
        cv::DMatch m21 = dmatch21[m12.trainIdx];

        if (m21.trainIdx == m12.queryIdx) {// 一致しているものだけを抜粋
            dmatch.push_back(m12);
        }
    }

    cv::Mat matchImage; //マッチング結果を描画
    cv::drawMatches(img1, keypoints1, img2, keypoints2, dmatch, matchImage);
    cv::imshow("Matches", matchImage);

    if (dmatch.size() > 5) {//十分な数の対応点があれば基礎行列を推定する

        std::vector p1;
        std::vector p2;

        //対応付いた特徴点の取り出しと焦点距離1.0のときの座標に変換
        for (size_t i = 0; i < dmatch.size(); i++) {

            cv::Mat ip(3, 1, CV_64FC1);
            cv::Point2d p;

            ip.at(0) = keypoints1[dmatch[i].queryIdx].pt.x;
            ip.at(1) = keypoints1[dmatch[i].queryIdx].pt.y;
            ip.at(2) = 1.0;

            ip = cameraMatrix.inv()*ip;
            p.x = ip.at(0);
            p.y = ip.at(1);
            p1.push_back(p);

            ip.at(0) = keypoints2[dmatch[i].trainIdx].pt.x;
            ip.at(1) = keypoints2[dmatch[i].trainIdx].pt.y;
            ip.at(2) = 1.0;

            ip = cameraMatrix.inv()*ip;
            p.x = ip.at(0);
            p.y = ip.at(1);
            p2.push_back(p);
        }

        cv::Mat mask; //RANSACの結果を保持するためのマスク
        cv::Mat essentialMat = cv::findEssentialMat(p1, p2, 1.0, cv::Point2f(0, 0), cv::RANSAC, 0.9999, 0.003, mask);

        cv::Mat r, t;
        cv::recoverPose(essentialMat, p1, p2, r, t);


        //正規化座標系で計算しているのでProjection matrix = Extrinsic camera parameter matrix
        cv::Mat prjMat1, prjMat2;
        prjMat1 = cv::Mat::eye(3, 4, CV_64FC1); //片方は回転、並進ともに0
        prjMat2 = cv::Mat(3, 4, CV_64FC1);

        for (int i = 0; i < 3; i++) {
            for (int j = 0; j < 3; j++) {

                prjMat2.at(i, j) = r.at(i, j);
            }
        }
        prjMat2.at(0, 3) = t.at(0);
        prjMat2.at(1, 3) = t.at(1);
        prjMat2.at(2, 3) = t.at(2);


        cv::Mat point3D;//三角測量による三次元位置の推定
        cv::triangulatePoints(prjMat1, prjMat2, p1, p2, point3D);


        // viz用に並べ替え
        cv::Mat pointCloud(point3D.cols, 1, CV_32FC3);
        for (int i = 0; i < point3D.cols; i++) {
            for (int j = 0; j <  3; j++) {

                pointCloud.at(i)[j] = point3D.at(j, i);
            }
        }


        // 表示用vizウィンドウ作成
        cv::viz::Viz3d visualizeWindow("3D");

        // 点群の描画
        cv::viz::WCloud cloud(pointCloud);
        visualizeWindow.showWidget("CLOUD", cloud);

        visualizeWindow.spin();// 3D Viewの描画
    }

    return 0;
}

AKAZE特徴のマッチング結果はこちら↓



で、三角測量の結果をvizモジュールで可視化したものがこちら↓



側面は何となくそれっぽいぞ。と思って上から見てみたら、なんだか湾曲している。。。



レンズっぽい球面な歪み方だな。
あ、以前作った連番はすでにレンズの歪み補正を終えているから、補正処理は必要なかったか。

追記:よくよく考えたら、関数の出力は同次座標だからそのまま3次元ベクトルに代入して表示しちゃダメだな。


スポンサーリンク

関連記事

Unityの薄い本
OpenCVで平均顔を作るチュートリアル
ポリゴンジオメトリ処理ライブラリ『pmp-library (Polygon Mesh Process...
ZBrushのZScript入門
Facebookの顔認証技術『DeepFace』
RefineNet (Multi-Path Refinement Network):ディープラーニン...
OpenCVで動画の手ぶれ補正
WordPressプラグインの作り方
C++の機械学習ライブラリ『Dlib』
Adobe MAX 2015
オーバーロードとオーバーライド
SSII2014 チュートリアル講演会の資料
Mask R-CNN:ディープラーニングによる一般物体検出・Instance Segmentatio...
ブログのデザイン変えました
Mayaのシェーディングノードの区分
チャットツール用bot開発フレームワーク『Hubot』
TeleSculptor:空撮動画からPhotogrammetryするツール
TensorFlowでCGを微分できる『TensorFlow Graphics』
Windows10でPyTorchをインストールしてVSCodeで使う
FCN (Fully Convolutional Network):ディープラーニングによるSema...
ブログが1日ダウンしてました
Twitter APIのPythonラッパー『python-twitter』
RSSフィードを読込んで表示するWordpressプラグイン『RSSImport』
AfterEffectsプラグイン開発
機械学習に役立つPythonライブラリ一覧
OpenCVの顔検出過程を可視化した動画
Blender 2.8がついに正式リリース!
PyTorch3D:3Dコンピュータービジョンライブラリ
自前のShaderがおかしい件
続・ディープラーニングの資料
PythonでBlenderのAdd-on開発
AMIMOTO(PVM版)で作成したインスタンスをAMIMOTO (HVM版)へ移行する
HD画質の無駄遣い
Multi-View Stereoによる3次元復元ライブラリ『OpenMVS』
Unity MonoBehaviourクラスのオーバーライド関数が呼び出される順番
タマムシっぽい質感
Deep Learningとその他の機械学習手法の性能比較
PSPNet (Pyramid Scene Parsing Network):ディープラーニングによ...
疑似3D写真が撮れるiPhoneアプリ『Seene』がアップデートでついにフル3Dモデルが撮影できる...
HD画質の無駄遣い その2
Structure from Motion (多視点画像からの3次元形状復元)
OpenCVベースのマーカーARライブラリ『OpenAR』

コメント