サイトアイコン NegativeMindException

hloc:SuperGlueで精度を向上させたSfM実装

SfM(Structure from Motion)の話題。

機械学習で特徴点マッチングの精度を向上させたSuperGlueをSfMに利用した実装が公開されている↓

hloc – the hierarchical localization toolbox

hlocは、state-of-the-artな6-DoF visual localization用モジュラーツールボックスです。
hlocはHierarchical Localizationや画像の検索の活用、特徴マッチングを実装しており、高速・正確でスケーラブルです。
このコードベースは、CVPR 2020の屋内/屋外のlocalization challengeで優勝しました。SuperGlueとは特徴マッチングのためのグラフニューラルネットワークです。

hlocを使えば、以下のことが可能です:

  • CVPR 2020の優勝結果を屋外(Aachen)、屋内(InLoc)データセットで再現
  • 独自のデータセットでSuperPoint + SuperGlueのStructure-from-Motionを実行してローカライズ
  • 独自のデータをvisual localizationするために局所特徴量や画像検索について評価
  • 新しいローカリゼーションのパイプラインを実装し、手軽にデバッグする 🔥



Hierachical Localizationには、画像検索と特徴マッチングの両方を使用します。

Installationを見ると、PyTorchとCOLMAPのPythonバインディングpycolmapを使うらしい。





つまりどういうプロセスで動くのか、General pipelineを読んでみる↓

General pipeline

hlocは複数のscriptで構成されており、大まかに以下のステップの処理を行います:


スポンサーリンク
  1. データセット、クエリ画像全てのSuperPoint局所特徴量を抽出する
  2. リファレンス用の3D SfMモデルを構築する
    1. 検索または以前のSfMモデルを使用し、データベース画像の対応関係を見つける
    2. SuperGlueでデータベースのペアをマッチングさせる
    3. COLMAPを使用して新しいSfMモデルを三角測量する
  3. 検索によって、各クエリに関連するデータベース画像を見つける
  4. SuperGlueでクエリ画像をマッチングさせる
  5. ローカリゼーションを実行する
  6. 可視化とデバッグ

ローカリゼーション処理については、visuallocalization.netのデータセットで評価できます。屋内データセットInLocなどの3D Lidarスキャンが利用可能な場合、手順2.はスキップできます。

hlocのアーキテクチャ:

  • hloc/*.py:最上位階層(top-level)のscript
  • hloc/extractors/:特徴抽出のインターフェイス
  • hloc/matchers/:特徴マッチングのインターフェイス

SuperGlue第三回 全日本コンピュータビジョン勉強会(前編)@yu4uこと内田祐介さんが発表してたやつだ。

SuperGlue



CVPR 2020網羅的サーベイのSuperGlueのページ↓
http://xpaperchallenge.org/cv/survey/cvpr2020_summaries/338

まだGNN(Graph Neural Network)について知識不足…


スポンサーリンク

関連記事

  • Boost オープンソースライブラリ
  • 画像認識による位置情報取得 - Semi-Direct Monocular Visual Odome...
  • タマムシっぽい質感
  • クラスの基本
  • MVStudio:オープンソースのPhotogrammetryツール
  • SDカードサイズのコンピューター『Intel Edison』
  • Adobeの手振れ補正機能『ワープスタビライザー』の秘密
  • Kinect for Windows v2の日本価格決定
  • オープンソースの人体モデリングツール『MakeHuman』のAPI開発プロジェクトがスタート
  • Math.NET Numerics:Unityで使える数値計算ライブラリ
  • Regard3D:オープンソースのStructure from Motionツール
  • GoB:ZBrushとBlenderを連携させるアドオン
  • Faster R-CNN:ディープラーニングによる一般物体検出手法
  • 顔追跡による擬似3D表示『Dynamic Perspective』
  • ディープラーニングに対応したPythonの機械学習ライブラリ『Pylearn2』
  • ROSでガンダムを動かす
  • OpenMVS:Multi-View Stereoによる3次元復元ライブラリ
  • UnityプロジェクトをGitHubで管理する
  • オープンソースの取引プラットフォーム
  • 第25回コンピュータビジョン勉強会@関東に行って来た
  • ROMOハッカソンに行ってきた
  • Unityの各コンポーネント間でのやり取り
  • 今年もSSII
  • ZBrushのZScript入門
  • OpenCV
  • Raspberry Piでセンサーの常時稼働を検討する
  • PSPNet (Pyramid Scene Parsing Network):ディープラーニングによ...
  • Math Inspector:科学計算向けビジュアルプログラミングツール
  • ManimML:機械学習の概念を視覚的に説明するためのライブラリ
  • Raspberry PiのGPIOを操作するPythonライブラリ『RPi.GPIO』の使い方
  • ManuelBastioniLAB:人体モデリングできるBlenderアドオン
  • UnityでARKit2.0
  • AmazonEC2のインスタンスをt1.microからt2.microへ移行する
  • 映画『アバター:ウェイ・オブ・ウォーター』を観た
  • IronPythonを使ってUnity上でPythonのコードを実行する
  • Structure from Motion (多視点画像からの3次元形状復元)
  • マルコフ連鎖モンテカルロ法
  • OpenCVでPhotoshopのプラグイン開発
  • 顔画像処理技術の過去の研究
  • Rerun:マルチモーダルデータの可視化アプリとSDK
  • Unityで画面タッチ・ジェスチャ入力を扱う無料Asset『TouchScript』
  • MLDemos:機械学習について理解するための可視化ツール
  • モバイルバージョンを終了