.wp-block-jetpack-rating-star span.screen-reader-text { border: 0; clip: rect(1px, 1px, 1px, 1px); clip-path: inset(50%); height: 1px; margin: -1px; overflow: hidden; padding: 0; position: absolute; width: 1px; word-wrap: normal; }

サイトアイコン NegativeMindException

Runway ML:クリエイターのための機械学習ツール

表現のための機械学習(というかディープラーニング)がじわじわと来ている、と勝手に思っている。実際、グラフィックス系のカンファレンスでもディープラーニングのセッションが大盛況だし。



クリエイターが機械学習の恩恵を受けられるアプリケーションは、Adobe Senseiみたいに既存ツールの拡張機能という形で普及していくと思っていたけど、単独のアプリケーションも登場していますね。

Runway ML

クリエイターのための機械学習ツール。
あなたの創作活動に人工知能の力を、直感的でシンプルなビジュアルインターフェースで提供します。
さあ、今日から新しい創作方法を始めましょう。

Runwayは、あらゆるジャンルのクリエイターが機械学習を直感的に利用できるプラットフォームです。

要するに、非プログラマーでも機械学習の恩恵を受けられるツール。
まだベータ版ですが、Runway MLはMac, Windows, Linux環境で使える機械学習アプリケーション。
現在は完全なクラウドアプリになりました。

NIPS 2018のセッションでも紹介されていたようですね。





GUI操作だけでModels Directoryから様々な機械学習手法の学習済みモデルを検索でき、アセットとして利用できる。

アプリケーション自体は無料だけど、有料でクラウドのGPU演算リソースを利用することもできる。
現在のBeta Programでは、アカウント登録すると10ドル分のGPUクレジットがもらえる。GPU利用時間1分あたり5セントらしい。

クラウドGPUではなく、ローカルで実行する場合は別途Dockerのインストールが必要。(モデルによってはクラウドGPUでしか実行できないものもあるようです)


Pythonで使えるRunway Model SDKも用意されており、既存のモデルをRunway MLへ持ってくることもできるらしい。
https://github.com/runwayml/model-sdk

また、公式のGitHubリポジトリにはUniy, Processing, TouchDesigner, arduinoなどからRunway MLを利用するサンプルが公開されている。


スポンサーリンク

モノクロ映像のカラー化

ということで、公式ドキュメントを読みながらRunway MLに触ってみた。インストール方法に従ってオイラはWindows環境でインストール。

試しにモノクロ映像のカラー化をやってみよう。Models Directoryで”colorize”と検索してみると、Automatic ColorizationDeOldifyの2つがヒットした↓



とりあえずDeOldifyの方を使ってみよう。Add to Workspaceでワークスペースに追加。
このモデルはクラウドGPUでのみ実行できるようだ。Artistic, Stable, Video,の3つのモデルが選べるらしいけど、とりあえずArtisticで。
InputとOutputの形式を指定して、Run Remotelyボタンを押すだけ。

オイラは手元にある初代ゴジラ (1954)の映像を使ってみた↓







昼間のシーンは割と上手くカラー化されたな。

まだベータ版だからなのか、Runway MLのインストール先ディレクトリを指定できなくて、Cドライブの変な場所を作業ディレクトリとして使われてしまうのが難アリな感じではある。
OutputのExport DirectoryをCドライブとは別のドライブに指定したらエラーで結果が保存されなかった。Export DirectoryにはCドライブ以下のディレクトリを指定しておかないと無駄なGPUクレジットを消費するはめになる。

InputとOutputに動画ファイルを指定することはできるけど、Output形式を動画にするとエンコードが粗くて低画質な動画が吐かれるので、Outputは連番静止画(Image Directory)にした方が無難。
そして、Input形式に動画ファイルを指定すると、Outputがコマ落ちしたりするので、ここも連番静止画の方が安全だ。

Runway MLには他にもモデルが沢山あり、DensePoseも手軽に試せそう。



最近のアップデートで複数のモデルを接続できるようになったらしい↓
https://medium.com/runwayml/adding-support-for-model-chaining-cd507f0fa935







スポンサーリンク

関連記事

頭蓋骨からの顔復元と進化過程の可視化

『スター・ウォーズ/スカイウォーカーの夜明け』のVFXブレイクダウン

ビリケン商会 メカゴジラⅡ 眼の型取り

TensorFlowでCGを微分できる『TensorFlow Graphics』

ラクガキの立体化 進捗

Active Appearance Models(AAM)

ZBrushで仮面ライダー3号を造る 仮面編 Dam Standardブラシでディティールを彫る

OpenCVでカメラ画像から自己位置認識 (Visual Odometry)

FreeMoCap Project:オープンソースのマーカーレスモーションキャプチャ

pythonの機械学習ライブラリ『scikit-learn』

この本読むよ

Google Colaboratoryで遊ぶ準備

タマムシっぽい質感

SDカードサイズのコンピューター『Intel Edison』

Googleが画像解析旅行ガイドアプリのJetpac社を買収

一番くじのシン・ゴジラ ソフビフィギュアが新たなカラーリングで登場

OpenCVのバージョン3が正式リリースされたぞ

YOLO (You Only Look Once):ディープラーニングによる一般物体検出手法

世界一下品なクマと世界一紳士なクマ

書籍『3次元コンピュータビジョン計算ハンドブック』を購入

『ローグ・ワン/スター・ウォーズ・ストーリー』"あのキャラクター"のメイキング

CGAN (Conditional GAN):条件付き敵対的生成ネットワーク

ZBrushでゴジラ2001を作ってみる 身体のアタリを作る

PyMC:Pythonのベイズ統計ライブラリ

MB-Lab:Blenderの人体モデリングアドオン

『GODZILLA ゴジラ』のBlu-Rayを買った

素敵なパーティクル

MFnDataとMFnAttribute

顔検出・認識のAPI・ライブラリ・ソフトウェアのリスト

ビリケン商会 メカゴジラⅡ 続・耳パーツの加工

映画『ゴジラ-1.0』を観た (ネタバレ無し)

geometry3Sharp:Unity C#で使えるポリゴン操作ライブラリ

CEDEC 3日目

Structure from Motion (多視点画像からの3次元形状復元)

単純に遊びに行くのはだめなのか?

海洋堂 20cmシリーズ『キンゴジ』 全身のグラデーション塗装 その3

映画『GODZILLA 決戦機動増殖都市』を観た (ネタバレ無し)

Python拡張モジュールのWindows用インストーラー配布サイト

Blendify:コンピュータービジョン向けBlenderラッパー

ウルトラ×ライダー

GoB:ZBrushとBlenderを連携させるアドオン

Shader.jp:リアルタイム3DCG技術をあつかうサイト

モバイルバージョンを終了