表現のための機械学習(というかディープラーニング)がじわじわと来ている、と勝手に思っている。実際、グラフィックス系のカンファレンスでもディープラーニングのセッションが大盛況だし。

クリエイターが機械学習の恩恵を受けられるアプリケーションは、Adobe Senseiみたいに既存ツールの拡張機能という形で普及していくと思っていたけど、単独のアプリケーションも登場していますね。
Runway ML
クリエイターのための機械学習ツール。
あなたの創作活動に人工知能の力を、直感的でシンプルなビジュアルインターフェースで提供します。
さあ、今日から新しい創作方法を始めましょう。
Runwayは、あらゆるジャンルのクリエイターが機械学習を直感的に利用できるプラットフォームです。
要するに、非プログラマーでも機械学習の恩恵を受けられるツール。
まだベータ版ですが、Runway MLはMac, Windows, Linux環境で使える機械学習アプリケーション。
現在は完全なクラウドアプリになりました。
NIPS 2018のセッションでも紹介されていたようですね。
GUI操作だけでModels Directoryから様々な機械学習手法の学習済みモデルを検索でき、アセットとして利用できる。
現在のBeta Programでは、アカウント登録すると10ドル分のGPUクレジットがもらえる。GPU利用時間1分あたり5セントらしい。
クラウドGPUではなく、ローカルで実行する場合は別途Dockerのインストールが必要。(モデルによってはクラウドGPUでしか実行できないものもあるようです)
Pythonで使えるRunway Model SDKも用意されており、既存のモデルをRunway MLへ持ってくることもできるらしい。
https://github.com/runwayml/model-sdk
また、公式のGitHubリポジトリにはUniy, Processing, TouchDesigner, arduinoなどからRunway MLを利用するサンプルが公開されている。
モノクロ映像のカラー化
ということで、公式ドキュメントを読みながらRunway MLに触ってみた。インストール方法に従ってオイラはWindows環境でインストール。
試しにモノクロ映像のカラー化をやってみよう。Models Directoryで”colorize”と検索してみると、Automatic ColorizationとDeOldifyの2つがヒットした↓

とりあえずDeOldifyの方を使ってみよう。Add to Workspaceでワークスペースに追加。
このモデルはクラウドGPUでのみ実行できるようだ。Artistic, Stable, Video,の3つのモデルが選べるらしいけど、とりあえずArtisticで。
InputとOutputの形式を指定して、Run Remotelyボタンを押すだけ。
オイラは手元にある初代ゴジラ (1954)の映像を使ってみた↓


昼間のシーンは割と上手くカラー化されたな。
まだベータ版だからなのか、Runway MLのインストール先ディレクトリを指定できなくて、Cドライブの変な場所を作業ディレクトリとして使われてしまうのが難アリな感じではある。
OutputのExport DirectoryをCドライブとは別のドライブに指定したらエラーで結果が保存されなかった。Export DirectoryにはCドライブ以下のディレクトリを指定しておかないと無駄なGPUクレジットを消費するはめになる。
InputとOutputに動画ファイルを指定することはできるけど、Output形式を動画にするとエンコードが粗くて低画質な動画が吐かれるので、Outputは連番静止画(Image Directory)にした方が無難。
そして、Input形式に動画ファイルを指定すると、Outputがコマ落ちしたりするので、ここも連番静止画の方が安全だ。
Runway MLには他にもモデルが沢山あり、DensePoseも手軽に試せそう。

最近のアップデートで複数のモデルを接続できるようになったらしい↓
https://medium.com/runwayml/adding-support-for-model-chaining-cd507f0fa935
関連記事
ZBrushでアヴァン・ガメラを作ってみる モールドの彫り込...
ビリケン商会 メカゴジラⅡ 眼の2次原型を作る
Oculus Goを購入!
Unite 2014の動画
MRenderUtil::raytrace
ホビージャパンのムック『怪獣大進撃』が復活
Kornia:微分可能なコンピュータービジョンライブラリ
ベイズ推定とグラフィカルモデル
フォトンの放射から格納までを可視化した動画
hloc:SuperGlueで精度を向上させたSfM・Vis...
ZBrushのUV MasterでUV展開
BlenderのRigifyでリギング
Blenderでよく使うaddon
海洋堂 20cmシリーズ『84ゴジラ』 気泡の処理 その3
池袋パルコで3Dのバーチャルフィッティング『ウェアラブル ク...
海洋堂 20cmシリーズ『84ゴジラ』 完成
iPhoneで3D写真が撮れるアプリ『seene』
CEDEC 3日目
海洋堂 20cmシリーズ『デスゴジ』 クリアーオレンジVer...
iPhone欲しいなぁ
ヘッドマウントディスプレイとビジュアリゼーションの未来
UnityのTransformクラスについて調べてみた
Vancouver Film Schoolのデモリール
トランスフォーマーロストエイジのメイキング
ZScript
機械学習のオープンソースソフトウェアフォーラム『mloss(...
Alice Vision:オープンソースのPhotogram...
viser:Pythonで使える3D可視化ライブラリ
海洋堂 20cmシリーズ『デスゴジ』 クリアーオレンジVer...
Deep Learningとその他の機械学習手法の性能比較
U-Net:ディープラーニングによるSemantic Seg...
Composition Rendering:Blenderに...
Polyscope:3Dデータ操作用GUIライブラリ
BlenderのPython環境にPyTorchをインストー...
デザインのリファイン再び
Unityで360度ステレオVR動画を作る
ZBrushでゴジラ2001を作ってみる 身体のSubToo...
Raytracing Wiki
Unityで強化学習できる『Unity ML-Agents』
バンダイ『Human size ゴジラ (1991北海道ve...
今年もSSII
海洋堂 20cmシリーズ『モスゴジ』 仕上げ


コメント