Runway ML:クリエイターのための機械学習ツール

表現のための機械学習(というかディープラーニング)がじわじわと来ている、と勝手に思っている。実際、グラフィックス系のカンファレンスでもディープラーニングのセッションが大盛況だし。



クリエイターが機械学習の恩恵を受けられるアプリケーションは、Adobe Senseiみたいに既存ツールの拡張機能という形で普及していくと思っていたけど、単独のアプリケーションも登場していますね。

Runway ML

クリエイターのための機械学習ツール。
あなたの創作活動に人工知能の力を、直感的でシンプルなビジュアルインターフェースで提供します。
さあ、今日から新しい創作方法を始めましょう。

Runwayは、あらゆるジャンルのクリエイターが機械学習を直感的に利用できるプラットフォームです。

要するに、非プログラマーでも機械学習の恩恵を受けられるツール。
まだベータ版ですが、Runway MLはMac, Windows, Linux環境で使える機械学習アプリケーション。
現在は完全なクラウドアプリになりました。

NIPS 2018のセッションでも紹介されていたようですね。





GUI操作だけでModels Directoryから様々な機械学習手法の学習済みモデルを検索でき、アセットとして利用できる。

アプリケーション自体は無料だけど、有料でクラウドのGPU演算リソースを利用することもできる。
現在のBeta Programでは、アカウント登録すると10ドル分のGPUクレジットがもらえる。GPU利用時間1分あたり5セントらしい。

クラウドGPUではなく、ローカルで実行する場合は別途Dockerのインストールが必要。(モデルによってはクラウドGPUでしか実行できないものもあるようです)


Pythonで使えるRunway Model SDKも用意されており、既存のモデルをRunway MLへ持ってくることもできるらしい。
https://github.com/runwayml/model-sdk

また、公式のGitHubリポジトリにはUniy, Processing, TouchDesigner, arduinoなどからRunway MLを利用するサンプルが公開されている。

モノクロ映像のカラー化

ということで、公式ドキュメントを読みながらRunway MLに触ってみた。インストール方法に従ってオイラはWindows環境でインストール。

試しにモノクロ映像のカラー化をやってみよう。Models Directoryで”colorize”と検索してみると、Automatic ColorizationDeOldifyの2つがヒットした↓



とりあえずDeOldifyの方を使ってみよう。Add to Workspaceでワークスペースに追加。
このモデルはクラウドGPUでのみ実行できるようだ。Artistic, Stable, Video,の3つのモデルが選べるらしいけど、とりあえずArtisticで。
InputとOutputの形式を指定して、Run Remotelyボタンを押すだけ。

オイラは手元にある初代ゴジラ (1954)の映像を使ってみた↓







昼間のシーンは割と上手くカラー化されたな。

まだベータ版だからなのか、Runway MLのインストール先ディレクトリを指定できなくて、Cドライブの変な場所を作業ディレクトリとして使われてしまうのが難アリな感じではある。
OutputのExport DirectoryをCドライブとは別のドライブに指定したらエラーで結果が保存されなかった。Export DirectoryにはCドライブ以下のディレクトリを指定しておかないと無駄なGPUクレジットを消費するはめになる。

InputとOutputに動画ファイルを指定することはできるけど、Output形式を動画にするとエンコードが粗くて低画質な動画が吐かれるので、Outputは連番静止画(Image Directory)にした方が無難。
そして、Input形式に動画ファイルを指定すると、Outputがコマ落ちしたりするので、ここも連番静止画の方が安全だ。

Runway MLには他にもモデルが沢山あり、DensePoseも手軽に試せそう。
DensePose:画像中の人物表面のUV座標を推定する
カーネギーメロン大学が公開している2D画像からの人体骨格推定ライブラリOpenPoseの元の研究である"Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields"...


最近のアップデートで複数のモデルを接続できるようになったらしい↓
https://medium.com/runwayml/adding-support-for-model-chaining-cd507f0fa935






関連記事

畳み込みニューラルネットワーク (CNN: Convolut...

ポリ男をリファイン

OpenGV:画像からカメラの3次元位置・姿勢を推定するライ...

Raytracing Wiki

海洋堂 20cmシリーズ『キンゴジ』 筆でレタッチ

映画『シン・仮面ライダー』 メイキング情報まとめ

ZBrushのキャンバスにリファレンス画像を配置する

Seleniumを使ったFXや株の自動取引

オープンソースの物理ベースGIレンダラ『appleseed』

海洋堂 20cmシリーズ『キンゴジ』 口内の改造

OpenCVのfindEssentialMat関数を使ったサ...

海洋堂 20cmシリーズ『84ゴジラ』 全身のドライブラシ・...

映画『シン・ゴジラ』のワールドプレミア イベント

OpenMVSのサンプルを動かしてみる

Stanford Bunny

SIGGRAPH 2020はオンライン開催

『PIXARのひみつ展』に行ってきた

Unreal Engine Tokyo MeetUp!へ行っ...

海洋堂 20cmシリーズ『モスゴジ』 つや消し失敗!?

ZBrushで仮面ライダーBLACK SUNを作る 頭部~バ...

OpenCVの三角測量関数『cv::triangulatep...

ゴジラ2000 ミレニアム ひな形のレプリカが発売されるぞ!

Google App Engineのデプロイ失敗

SIGGRAPH Asia

PythonでBlenderのAdd-on開発

写真に3Dオブジェクトを違和感無く合成する『3DPhotoM...

ZBrushの練習 手のモデリング

海洋堂 20cmシリーズ『84ゴジラ』 気泡の処理 その3

ニンテンドー3DSのGPU PICA200

マルコフ連鎖モンテカルロ法

バンダイ『Human size ゴジラ (1991北海道ve...

HTML5・WebGLベースのグラフィックスエンジン『Goo...

実写と実写の合成時の色の馴染ませテクニック

CGAN (Conditional GAN):条件付き敵対的...

シン・ゴジラのDVD&Blu-ray発売

UnityでShaderの入力パラメータとして行列を渡す

ZBrushでアヴァン・ガメラを作ってみる 歯茎を別パーツへ...

酒井ゆうじ造型工房『20cm ビオゴジ出現』の眼の塗装

『大ゴジラ特撮王国』を見てきた

マジョーラ

GAN (Generative Adversarial Ne...

SONY製のニューラルネットワークライブラリ『NNabla』

コメント