Faster R-CNN:ディープラーニングによる一般物体検出手法

R-CNNFast R-CNNに引き続きFaster R-CNNのアルゴリズムのお勉強。名前が似ていてややこしいですな。


ディープラーニングによる一般物体検出アルゴリズムまとめ
これまで勉強したディープラーニングによる一般物体検出手法のアルゴリズム一覧。


しつこくこちらの系譜図を引用する↓

Faster R-CNNからEnd-to-Endのアプローチが始まります。


Faster R-CNN

NIPS 2015で発表された論文 Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networksで提案されたFaster R-CNNでは、従来Selective Searchで行っていた候補領域(region proposals)の検出処理をRPN (Region Proposal Network)というニューラルネットワークに置き換えてさらなる効率化を実現した。

Faster R-CNNのネットワークアーキテクチャ図でregion proposalと表記されているのがRPN

Faster R-CNN Network

これで物体検出の全ての処理が1つのニューラルネットワークにつながった。End-to-Endアプローチということですね。

ZFNet

この論文で例示されている特徴抽出CNNは、Visualizing and understanding convolutional neural networksで提案されたZF(Zeiler and Fergus)Net。(AlexNetの改良版)

ZFNetの5つの畳み込み層を経て出力される特徴マップは256チャンネル(256-d)となる。
(特徴抽出に使うCNNVGGでも良いらしく、その場合の特徴マップは512チャンネルとなる)

通常、一般物体検出の対象となる画像のサイズは1000×600程度で、CNNで特徴マップ化すると16分の1の程度のサイズ(60×40)に縮小される。

RPN (Region Proposal Network)

物体領域候補の検出を行うRPN (Region Proposal Network)は、画像全体からCNNで抽出した特徴マップに対して、候補領域のBounding Boxと、その領域の物体らしさ(Objectness)を表すスコアを出力する。

RPNは小さなニューラルネットワークで、特徴マップ上をn×nサイズのスライディングwindowで走査し、各々のn×nサイズの注目領域をネットワークの入力とする。
そして、各スライディングwindow位置に対してk個の候補領域を推定する。

k個の候補領域を推定するために、RPNは以下2つの全結合層へ分岐する。

  • cls layer:物体かどうか(objectness)を分類する
  • reg layer:Bounding Boxの回帰を行う

cls layerには、k個の各候補領域がオブジェクトか、背景かの確率を推定した2k個のスコアが出力される。
reg layerには、k個のBounding Boxの座標・サイズを表す4k個の出力がある。(x座標、y座標、幅、高さ)

この論文ではn=3とし、実際にはスライディングwindowではなく3×3サイズの畳み込み層と、それに続く2つに分岐した1×1サイズの畳み込み層(Fully Convolutional Networks)として実装している。
(これは3×3のスライディングwindowと等価)

Anchor

スライディングwindowに対して、写っている物体の形状が必ずしも正方形に収まらないことを考慮して、Anchorと呼ばれるk個の検出矩形パターンを用意する。
各スライディングwindowで検出する候補の数k個とはつまり、用意するAnchorの種類の数というわけ。

Anchor

Anchorはスライディングwindowの中心を基準に設定される。
論文では、アスペクト比の違う3種類の矩形をさらにスケール違いで3種類用意し、k=9としている。

特徴マップのサイズをW×H(2,400以下)とすると、RPNは合計W×H×k個の領域について物体候補かどうかを判定することになる。

RPNAnchorごとの判別を行い、物体である可能性が高いものは、Fast R-CNNと同様にRoIプーリング以降のネットワークへと進み、物体の分類が行われる。

特徴抽出の畳み込み層をRPNと共有する

ここまで、「RPNCNNで抽出した特徴マップを入力とする」と説明してきたけど、正確には「特徴マップを抽出するCNNRPNも共有している」と言う方が適切で、RPN自体も畳み込みニューラルネットワークの構造を持っている↓

Region proposal network

単純に畳み込み層を共有するだけでは学習するパラメータが相互に依存してしまうため、段階的に学習する方法が採られている。

  1. ImageNetで学習済みの畳み込み層を使ってRPNを学習する
  2. 学習済みRPNが出力する矩形を使って畳み込み層のパラメータを更新する
  3. 畳み込み層をfixしてRPNを学習し直す

Faster R-CNNの実装

Learn OpenCVにPyTorch実装のチュートリアルがある↓
https://www.learnopencv.com/faster-r-cnn-object-detection-with-pytorch/

Faster R-CNNの特許

一時期話題になりましたが、MicrosoftからFaster R-CNNの特許が出願されています。
https://qiita.com/yu4u/items/6bc9571c19181c1600a7

権利化について結局どうなったのかオイラにはちょっと分からないのですが。。。

今更だけど、R-CNN, Fast R-CNN, Faster R-CNNについて詳細に解説している記事を見つけた↓
http://www.telesens.co/2018/03/11/object-detection-and-classification-using-r-cnns/

次はYOLO (You Only Look Once)についてまとめよう↓


ディープラーニングによる一般物体検出アルゴリズムまとめ
これまで勉強したディープラーニングによる一般物体検出手法のアルゴリズム一覧。

関連記事

オープンソースの顔認識フレームワーク『OpenBR』

WordPressの表示を高速化する

タマムシっぽい質感

UnityでLight Shaftを表現する

FacebookがDeep learningツールの一部をオープンソース化

Unityで画面タッチ・ジェスチャ入力を扱う無料Asset『TouchScript』

CGのためのディープラーニング

3Dモデルを立体視で確認できるVRアプリを作っている

AfterEffectsプラグイン開発

ドットインストールのWordPress入門レッスン

COLMAP:オープンソースのSfM・MVSツール

Unity MonoBehaviourクラスのオーバーライド関数が呼び出される順番

Digital Emily Project:人間の顔をそっくりそのままCGで復元する

geometry3Sharp:Unity C#で使えるポリゴン操作ライブラリ

Boost オープンソースライブラリ

定数

iPhoneアプリ開発 Xcode 5のお作法

iPhone x ロボットハッカソン~RomoのiPhone用SDKで目覚ましアプリを作る~

フォトンの放射から格納までを可視化した動画

NeuralNetwork.NET:.NETで使えるTensorFlowライクなニューラルネットワー...

TorchStudio:PyTorchのための統合開発環境とエコシステム

OpenCV 3.1のsfmモジュールを試す

オープンソースの顔の動作解析ツールキット『OpenFace』

Cartographer:オープンソースのSLAMライブラリ

まだ続くブログの不調

書籍『仕事ではじめる機械学習』を読みました

第25回コンピュータビジョン勉強会@関東に行って来た

Faceshiftで表情をキャプチャしてBlender上でMakeHumanのメッシュを動かすデモ

3Dスキャンに基づくプロシージャルフェイシャルアニメーション

AmazonEC2のインスタンスをt1.microからt2.microへ移行する

UnityでARKit2.0

ManimML:機械学習の概念を視覚的に説明するためのライブラリ

Kinect for Windows V2のプレオーダー開始

スクレイピング

Pylearn2:ディープラーニングに対応したPythonの機械学習ライブラリ

hloc:SuperGlueで精度を向上させたSfM・Visual Localization

Google XML Sitemap Generatorプラグインを3.4.1へダウングレード

Kaolin:3Dディープラーニング用のPyTorchライブラリ

U-Net:ディープラーニングによるSemantic Segmentation手法

UnityでOpenCVを使うには?

PythonのHTML・XMLパーサー『BeautifulSoup』

Model View Controller

コメント