クリエイターのための機械学習ツール『Runway ML』

表現のための機械学習(というかディープラーニング)がじわじわと来ている、と勝手に思っている。実際、グラフィックス系のカンファレンスでもディープラーニングのセッションが大盛況だし。



クリエイターが機械学習の恩恵を受けられるアプリケーションは、Adobe Senseiみたいに既存ツールの拡張機能という形で普及していくと思っていたけど、単独のアプリケーションも登場していますね。

Runway ML

Runway ML

クリエイターのための機械学習ツール。
あなたの創作活動に人工知能の力を、直感的でシンプルなビジュアルインターフェースで提供します。
さあ、今日から新しい創作方法を始めましょう。

Runwayは、あらゆるジャンルのクリエイターが機械学習を直感的に利用できるプラットフォームです。

まだベータ版ですが、Runway MLはMac, Windows, Linux環境で使える機械学習アプリケーション。要するに非プログラマーでも機械学習の恩恵を受けられるツール。
NIPS 2018のセッションでも紹介されていたようですね。


スポンサーリンク


GUI操作だけでModels Directoryから様々な機械学習手法の学習済みモデルを検索でき、アセットとして利用できる。

Models Directory

アプリケーション自体は無料だけど、有料でクラウドのGPU演算リソースを利用することもできる。
現在のBeta Programでは、アカウント登録すると10ドル分のGPUクレジットがもらえる。GPU利用時間1分あたり5セントらしい。

クラウドGPUではなく、ローカルで実行する場合は別途Dockerのインストールが必要。(モデルによってはクラウドGPUでしか実行できないものもあるようです)

Pythonで使えるRunway Model SDKも用意されており、既存のモデルをRunway MLへ持ってくることもできるらしい。
https://github.com/runwayml/model-sdk

また、公式のGitHubリポジトリにはUniy, Processing, TouchDesigner, arduinoなどからRunway MLを利用するサンプルが公開されている。

モノクロ映像のカラー化

ということで、公式ドキュメントを読みながらRunway MLに触ってみた。インストール方法に従ってオイラはWindows環境でインストール。

試しにモノクロ映像のカラー化をやってみよう。Models Directoryで”colorize”と検索してみると、Automatic ColorizationDeOldifyの2つがヒットした↓



とりあえずDeOldifyの方を使ってみよう。Add to Workspaceでワークスペースに追加。
このモデルはクラウドGPUでのみ実行できるようだ。Artistic, Stable, Video,の3つのモデルが選べるらしいけど、とりあえずArtisticで。
InputとOutputの形式を指定して、Run Remotelyボタンを押すだけ。

DeOldify


スポンサーリンク

オイラは手元にある初代ゴジラ (1954)の映像を使ってみた↓





昼間のシーンは割と上手くカラー化されたな。

まだベータ版だからなのか、Runway MLのインストール先ディレクトリを指定できなくて、Cドライブの変な場所を作業ディレクトリとして使われてしまうのが難アリな感じではある。
OutputのExport DirectoryをCドライブとは別のドライブに指定したらエラーで結果が保存されなかった。Export DirectoryにはCドライブ以下のディレクトリを指定しておかないと無駄なGPUクレジットを消費するはめになる。

InputとOutputに動画ファイルを指定することはできるけど、Output形式を動画にするとエンコードが粗くて低画質な動画が吐かれるので、Outputは連番静止画(Image Directory)にした方が無難。
そして、Input形式に動画ファイルを指定すると、Outputがコマ落ちしたりするので、ここも連番静止画の方が安全だ。

Runway MLには他にもモデルが沢山あり、DensePoseも手軽に試せそう。



最近のアップデートで複数のモデルを接続できるようになったらしい↓
https://medium.com/runwayml/adding-support-for-model-chaining-cd507f0fa935

Live Stream #182: Introduction to RunwayML

Introduction to Runway: Machine Learning for Creators (Part 1)

Introduction to Runway: Machine Learning for Creators (Part 2)


スポンサーリンク

関連記事

ZBrushの練習 手のモデリング
Blenderの人体モデリングアドオン『MB-Lab』
iOSで使えるJetpac社の物体認識SDK『DeepBelief』
Google App EngineでWordPress
OpenMayaRender
Multi-View Stereoによる3次元復元ライブラリ『OpenMVS』
書籍『仕事ではじめる機械学習』を読みました
海洋堂 20cmシリーズ『84ゴジラ』 背びれ・下アゴパーツの軸打ち加工
海洋堂 20cmシリーズ『モスゴジ』 背びれパーツの軸打ち
SSII 2014 デモンストレーションセッションのダイジェスト動画
海洋堂 20cmシリーズ『キンゴジ』 全身の塗装
S.H.MonsterArts GMKゴジラ(2001)届きました
海洋堂 20cmシリーズ『キンゴジ』 筆でレタッチ
今年も怪獣大進撃
ビリケン商会 メカゴジラⅡ 耳パーツの型取り・複製 やり直し
海洋堂 20cmシリーズ『デスゴジ』 クリアーオレンジVer. 電飾のための工作 その4
ディープラーニングに対応したPythonの機械学習ライブラリ『Pylearn2』
機械学習のオープンソースソフトウェアフォーラム『mloss(machine learning ope...
Twitter APIのPythonラッパー『python-twitter』
フルCGのウルトラマン!?
Photogrammetry (写真測量法)
夕刊ゴジラ
オープンソースのロボットアプリケーションフレームワーク『ROS (Robot Operating S...
ゴジラの音楽
ニューラルネットワークの構造を可視化するフレームワーク『TensorSpace.js』
Vancouver Film Schoolのデモリール
顔追跡による擬似3D表示『Dynamic Perspective』
Mayaのレンダリング アトリビュート
映画『ミュータント・タートルズ』を観てきた
酒井ゆうじ造型工房『23cm シン・ゴジラ』 赤のグラデーション塗装 その2・尻尾の先端の塗装
SIGGRAPH論文へのリンクサイト
映画『GODZILLA 決戦機動増殖都市』を観た (ネタバレ無し)
SIGGRAPH ASIAのマスコット
PSPNet (Pyramid Scene Parsing Network):ディープラーニングによ...
OpenCVの三角測量関数『cv::triangulatepoints』
画像からカメラの3次元位置・姿勢を推定するライブラリ『OpenGV』
スターウォーズ エピソードVIIの予告編
9月15日(木)に全国26劇場で『シン・ゴジラ』一斉発声可能上映の開催決定!
OpenCVのバージョン3が正式リリースされたぞ
UnityでOpenCVを使うには?
ラクガキの立体化 分割ラインの変更・バランス調整
Web経由でRaspberry PiのGPIOを操作したい

コメント