FCN, SegNet, U-Net, PSPNetに引き続き、ディープラーニングによるSemantic Segmentation手法のお勉強。
次はRefineNet (Multi-Path Refinement Network)について。
RefineNet (Multi-Path Refinement Network)
RefineNet(Multi-Path Refinement Network)は、CVPR 2017で発表されたRefineNet: Multi-Path Refinement Networks for High-Resolution Semantic Segmentationで提案されたSemantic Segmentation手法。RefineNetもEncoder–Decoder構造で設計されている。
これまで、CNNベースのSemantic Segmentation手法は、Encoderで特徴マップを抽出する過程でsub-sampling(down-sampling)を頻繁に行うため、画像のディティールが失われてしまう欠点があった。(そしてそれを克服する方法が模索されてきた)
この問題に対し、RefineNetではEncoderの各層で出力される解像度の違う特徴マップを段階的に結合するアプローチを取り、各ステップで行う畳み込み処理にResNet (Residual Network)のresidual connection(skip connection)の仕組みを採用することで学習効率を高めている。
RefineNetのネットワーク構造
RefineNetはEncoderにImageNetで学習済みのResNet101を利用する。ResNet101の各層から出力される特徴マップを解像度ごと(元の画像の1/4, 1/8, 1/16, 1/32)に4つに分け、それぞれのサイズの特徴マップをDecoderへの入力とする。
Decoderには、入力される各サイズの特徴マップに対応して4つのRefineNet block (RefineNet-1, RefineNet-2, RefineNet-3, RefineNet-4)があり、小さい解像度の特徴マップから段階的にRefineNet blockを適用してアップサンプリング・連結していき、画像のディティールを捉えられるよう工夫されている。
そして、最終的に得られるSemantic Segmentation結果(元画像の1/4の解像度)を、バイリニア補間で元の画像サイズへアップサンプリングする。
RefineNet block
上記図中の1番下で最低解像度(1/32)の特徴マップを入力するRefineNet block (RefineNet-4)のみ1pathの入力で、他のRefineNet block (RefineNet-1~3)は2path入力となっているが、4つのRefineNet blockは基本的に同じ構造をしている。
RefineNet blockは、任意の解像度・チャンネル数の特徴マップを任意の枚数入力できるよう一般化した設計となっている↓
Adaptive Conv
RefineNet blockの内部では、まずImageNetで学習済みのResNetの重みをSemantic Segmentationタスク用にfine-tuningするためのAdaptive Conv (Adaptive Convolution Set)がある。
RCU (Residual Conv Unit)
Adaptive Convには、ResNetのResidual ModuleからBatch Normalizationを無くして単純化したRCU (Residual Convolution Unit)が2つあり、入力された各特徴マップを畳み込む。
ここで適用される畳み込みフィルタの数はRefineNet blockごとに変えており、入力が1pathのみのRefineNet-4では512、それ以外(RefineNet-1~3)では256に設定されている。
Multi-Resolution Fusion
次に、入力された2つの特徴マップをMulti-Resolution Fusionで結合する。(入力が1Pathの場合は何もせずにMulti-Resolution Fusionを通過する)
Multi-Resolution Fusionでは、まず2つの特徴マップのチャンネル数を揃えるために畳み込みを行った後、解像度の大きい方の特徴マップに合わせて小さい方の特徴マップをアップサンプリングする。
そして、同じチャンネル数・解像度になった2つの特徴マップを結合して高解像度な特徴マップを得る。
Chained Residual Pooling
次に、Chained Residual Poolingで画像の広い範囲から背景のコンテキストを捉える。
Chained Residual Poolingは複数のpooingブロックを連鎖する構成になっており、1つのpoolingブロックが5×5のmax pooling層と3×3の畳み込み層のセットで構成されている。
Chained Residual Poolingでは、前のpoolingブロックの出力を次のpoolingブロックの入力とする階層構造により、前のpooling結果を再利用している。これによって、大きなpoolingウィンドウを使用しなくても、画像の大域的な特徴を捉えることができる。ここで行うpoolingのstrideは1なので、特徴マップのサイズは変わらない。
各poolingブロックから出力される特徴マップは、residual connectionによるsum(足し合わせ)で統合される。足し合わせる際の重みは各poolingブロックの最後の畳み込み層で学習する。
Output Conv
RefineNet blockの最後に、もう1つRCU (Residual Conv Unit)がある。つまり、各RefineNet blockには合計3つのRCUが配置されている。
各RefineNet block (RefineNet-2~4)での振る舞いを最後のRefineNet block (RefineNet-1)に反映させるために、ネットワークの最終層のSoftmax関数の前にRCUを2つ追加する。
こうして各RefineNet blockで段階的にアップサンプリング・結合した特徴マップに非線形関数を適用して最終的な特徴マップを得る。
サンプルコード
例のごとくPyTorchの実装例↓
https://github.com/thomasjpfan/pytorch_refinenet
次は再び一般物体検出に戻ってMask R-CNNについて勉強しよう↓
関連記事
OpenCVで顔のランドマークを検出する『Facemark ...
SSII 2014 デモンストレーションセッションのダイジェ...
uvでWindows11のPython環境を管理する
SSD (Single Shot Multibox Dete...
viser:Pythonで使える3D可視化ライブラリ
PCA (主成分分析)
AR (Augmented Reality)とDR (Dim...
openMVGをWindows10 Visual Studi...
コンピュータビジョンの技術マップ
OpenCV バージョン4がリリースされた!
第1回 3D勉強会@関東『SLAMチュートリアル大会』
AfterEffectsプラグイン開発
fSpy:1枚の写真からカメラパラメーターを割り出すツール
Point Cloud Libraryに動画フォーマットが追...
PyTorch3D:3Dコンピュータービジョンライブラリ
第25回コンピュータビジョン勉強会@関東に行って来た
2D→3D復元技術で使われる用語まとめ
SONY製のニューラルネットワークライブラリ『NNabla』
OpenCV 3.3.0 contribのsfmモジュールの...
openMVG:複数視点画像から3次元形状を復元するライブラ...
PyDataTokyo主催のDeep Learning勉強会
Accord.NET Framework:C#で使える機械学...
Windows10でPyTorchをインストールしてVSCo...
3D復元技術の情報リンク集
Photogrammetry (写真測量法)
OpenFace:Deep Neural Networkによ...
Caffe:読みやすくて高速なディープラーニングのフレームワ...
書籍『3次元コンピュータビジョン計算ハンドブック』を購入
ZBrushトレーニング
Dlib:C++の機械学習ライブラリ
Pix2Pix:CGANによる画像変換
iPadをハンディ3Dスキャナにするガジェット『iSense...
OpenMVS:Multi-View Stereoによる3次...
BlenderProc:Blenderで機械学習用の画像デー...
機械学習について最近知った情報
Deep Learningとその他の機械学習手法の性能比較
機械学習に役立つPythonライブラリ一覧
Deep Fluids:流体シミュレーションをディープラーニ...
MLDemos:機械学習について理解するための可視化ツール
Leap MotionでMaya上のオブジェクトを操作できる...
OpenCVの顔検出過程を可視化した動画
畳み込みニューラルネットワーク (CNN: Convolut...
コメント