.wp-block-jetpack-rating-star span.screen-reader-text { border: 0; clip: rect(1px, 1px, 1px, 1px); clip-path: inset(50%); height: 1px; margin: -1px; overflow: hidden; padding: 0; position: absolute; width: 1px; word-wrap: normal; }

サイトアイコン NegativeMindException

RefineNet (Multi-Path Refinement Network):ディープラーニングによるSemantic Segmentation手法

FCN, SegNet, U-Net, PSPNetに引き続き、ディープラーニングによるSemantic Segmentation手法のお勉強。


ディープラーニングによるSemantic Segmentationアルゴリズムまとめ
これまで勉強したディープラーニングによるSemantic Segmentation手法のアルゴリズム一覧。


次はRefineNet (Multi-Path Refinement Network)について。


RefineNet (Multi-Path Refinement Network)

RefineNet(Multi-Path Refinement Network)は、CVPR 2017で発表されたRefineNet: Multi-Path Refinement Networks for High-Resolution Semantic Segmentationで提案されたSemantic Segmentation手法。RefineNetEncoderDecoder構造で設計されている。



これまで、CNNベースのSemantic Segmentation手法は、Encoderで特徴マップを抽出する過程でsub-sampling(down-sampling)を頻繁に行うため、画像のディティールが失われてしまう欠点があった。(そしてそれを克服する方法が模索されてきた)

この問題に対し、RefineNetではEncoderの各層で出力される解像度の違う特徴マップを段階的に結合するアプローチを取り、各ステップで行う畳み込み処理にResNet (Residual Network)のresidual connection(skip connection)の仕組みを採用することで学習効率を高めている。

RefineNetのネットワーク構造

RefineNetEncoderImageNetで学習済みのResNet101を利用する。ResNet101の各層から出力される特徴マップを解像度ごと(元の画像の1/4, 1/8, 1/16, 1/32)に4つに分け、それぞれのサイズの特徴マップをDecoderへの入力とする。

Decoderには、入力される各サイズの特徴マップに対応して4つのRefineNet block (RefineNet-1, RefineNet-2, RefineNet-3, RefineNet-4)があり、小さい解像度の特徴マップから段階的にRefineNet blockを適用してアップサンプリング・連結していき、画像のディティールを捉えられるよう工夫されている。

そして、最終的に得られるSemantic Segmentation結果(元画像の1/4の解像度)を、バイリニア補間で元の画像サイズへアップサンプリングする。

RefineNet block

上記図中の1番下で最低解像度(1/32)の特徴マップを入力するRefineNet block (RefineNet-4)のみ1pathの入力で、他のRefineNet block (RefineNet-1~3)は2path入力となっているが、4つのRefineNet blockは基本的に同じ構造をしている。
RefineNet blockは、任意の解像度・チャンネル数の特徴マップを任意の枚数入力できるよう一般化した設計となっている↓

Adaptive Conv

RefineNet blockの内部では、まずImageNetで学習済みのResNetの重みをSemantic Segmentationタスク用にfine-tuningするためのAdaptive Conv (Adaptive Convolution Set)がある。


スポンサーリンク

RCU (Residual Conv Unit)

Adaptive Convには、ResNetResidual ModuleからBatch Normalizationを無くして単純化したRCU (Residual Convolution Unit)が2つあり、入力された各特徴マップを畳み込む。
ここで適用される畳み込みフィルタの数はRefineNet blockごとに変えており、入力が1pathのみのRefineNet-4では512、それ以外(RefineNet-1~3)では256に設定されている。

Multi-Resolution Fusion

次に、入力された2つの特徴マップをMulti-Resolution Fusionで結合する。(入力が1Pathの場合は何もせずにMulti-Resolution Fusionを通過する)

Multi-Resolution Fusionでは、まず2つの特徴マップのチャンネル数を揃えるために畳み込みを行った後、解像度の大きい方の特徴マップに合わせて小さい方の特徴マップをアップサンプリングする。
そして、同じチャンネル数・解像度になった2つの特徴マップを結合して高解像度な特徴マップを得る。

Chained Residual Pooling

次に、Chained Residual Poolingで画像の広い範囲から背景のコンテキストを捉える。

Chained Residual Poolingは複数のpooingブロックを連鎖する構成になっており、1つのpoolingブロックが5×5のmax pooling層と3×3の畳み込み層のセットで構成されている。

Chained Residual Poolingでは、前のpoolingブロックの出力を次のpoolingブロックの入力とする階層構造により、前のpooling結果を再利用している。これによって、大きなpoolingウィンドウを使用しなくても、画像の大域的な特徴を捉えることができる。ここで行うpoolingのstrideは1なので、特徴マップのサイズは変わらない。
各poolingブロックから出力される特徴マップは、residual connectionによるsum(足し合わせ)で統合される。足し合わせる際の重みは各poolingブロックの最後の畳み込み層で学習する。

Output Conv

RefineNet blockの最後に、もう1つRCU (Residual Conv Unit)がある。つまり、各RefineNet blockには合計3つのRCUが配置されている。

RefineNet block (RefineNet-2~4)での振る舞いを最後のRefineNet block (RefineNet-1)に反映させるために、ネットワークの最終層のSoftmax関数の前にRCUを2つ追加する。
こうして各RefineNet blockで段階的にアップサンプリング・結合した特徴マップに非線形関数を適用して最終的な特徴マップを得る。

サンプルコード

例のごとくPyTorchの実装例↓
https://github.com/thomasjpfan/pytorch_refinenet

次は再び一般物体検出に戻ってMask R-CNNについて勉強しよう↓


ディープラーニングによる一般物体検出アルゴリズムまとめ
これまで勉強したディープラーニングによる一般物体検出手法のアルゴリズム一覧。

ディープラーニングによるSemantic Segmentationアルゴリズムまとめ
これまで勉強したディープラーニングによるSemantic Segmentation手法のアルゴリズム一覧。


スポンサーリンク

関連記事

Deep Learningとその他の機械学習手法の性能比較

KelpNet:C#で使える可読性重視のディープラーニングライブラリ

Adobe MAX 2015

TensorFlowでCGを微分できる『TensorFlow Graphics』

TeleSculptor:空撮動画からPhotogrammetryするツール

Windows10でPyTorchをインストールしてVSCodeで使う

Iridescence:プロトタイピング向け軽量3D可視化ライブラリ

Houdiniのライセンスの種類

畳み込みニューラルネットワーク (CNN: Convolutional Neural Network...

iOSで使えるJetpac社の物体認識SDK『DeepBelief』

SegNet:ディープラーニングによるSemantic Segmentation手法

Googleが画像解析旅行ガイドアプリのJetpac社を買収

OpenCV 3.1から追加されたSfMモジュール

AR (Augmented Reality)とDR (Diminished Reality)

PGGAN:段階的に解像度を上げて学習を進めるGAN

顔追跡による擬似3D表示『Dynamic Perspective』

OpenCV3.3.0でsfmモジュールのビルドに成功!

iPhoneで3D写真が撮れるアプリ『seene』

AnacondaとTensorFlowをインストールしてVisual Studio 2015で使う

3D復元技術の情報リンク集

OpenCV 3.1のsfmモジュールのビルド再び

GAN (Generative Adversarial Networks):敵対的生成ネットワーク

Qlone:スマホのカメラで3Dスキャンできるアプリ

Live CV:インタラクティブにComputer Visionコーディングができるツール

第1回 3D勉強会@関東『SLAMチュートリアル大会』

Google Colaboratoryで遊ぶ準備

今年もSSII

疑似3D写真が撮れるiPhoneアプリ『Seene』がアップデートでついにフル3Dモデルが撮影できる...

機械学習手法『Random Forest』

PCA (主成分分析)

Photogrammetry (写真測量法)

SDカードサイズのコンピューター『Intel Edison』

Faceshiftで表情をキャプチャしてBlender上でMakeHumanのメッシュを動かすデモ

OpenCVのfindEssentialMat関数を使ったサンプルを読んでみる

OpenCVで顔のモーフィングを実装する

Super Resolution:OpenCVの超解像処理モジュール

OpenCVの顔検出過程を可視化した動画

顔検出・認識のAPI・ライブラリ・ソフトウェアのリスト

Deep Fluids:流体シミュレーションをディープラーニングで近似する

ポイントクラウドコンソーシアム

SSD (Single Shot Multibox Detector):ディープラーニングによる一般...

Rerun:マルチモーダルデータの可視化アプリとSDK

モバイルバージョンを終了