Deep Fluids:流体シミュレーションをディープラーニングで近似する

チューリッヒ工科大学(ETH Zurich)、ミュンヘン工科大学、Pixarによるディープラーニングで流体シミュレーションを近似する研究 Deep Fluids: A Generative Network for Parameterized Fluid Simulationsプロジェクトページソースコードが公開されている。

Deep Fluids

本研究では、削減済みのパラメータセットから流体シミュレーションを合成する新しい生成モデルを提案します。畳み込みニューラルネットワークを離散パラメータ化した流体シミュレーションの速度場(velocity fields)で訓練しました。

訓練データの代表的な特徴を学習するディープラーニングアーキテクチャの特性により、本研究の生成モデルは訓練データセットを正確に近似しつつ、中間値をもっともらしく補間することができます。この生成モデルは、全ての時刻で速度場(velocity fields)の無発散(divergence-free)を保証する新しい損失関数を導入することで流体に最適化されています。

本研究ではさらに、複雑なパラメータを削減した空間で扱えること、潜在空間(latent space)で第2のネットワークと統合することでシミュレーションをリアルタイムに実現できることを示します。
本手法では流体の多種多様な挙動をモデル化しているため、高速なシミュレーション構築、異なるパラメータを持つ流体の補間、タイムリサンプリング、潜在空間(latent space)シミュレーション、シミュレーションデータの圧縮などに応用できます。

本手法による速度場の再構築は、同データをCPUで再シミュレーションするよりも最大で700倍高速に生成でき、圧縮率は最大1300倍となります。


スポンサーリンク

5月に開催されるEurographics 2019で発表されるそうです。


スポンサーリンク


ETH Zurichといえば、数年前にRegression Forestベースの流体シミュレーション近似手法Pysics Forestsを発表していましたね↓
機械学習で流体シミュレーションを近似する『Physics Forests』
CG分野(特にレンダリング)では、現実の物体・現象の性質をモデル化して扱う。計算リソースには限りがあるので、大抵の場合は視覚に大きく影響する要素だけをモデル化して関数などで表現する。実測値や物理法則に基づいた計算を行う「物理モデル」に対...


機械学習による流体シミュレーション近似を突き詰めていくと、やっぱりニューラルネットワークに行き着くということなのだろうか。

GitHubで公開されているDeep Fluidsのソースコードを見ると、TensorFlowベースで実装されているようだ↓
https://github.com/byungsook/deep-fluids

mantaflowという流体シミュレーションのフレームワークを使って訓練用のデータセットを用意するんですね↓

mantaflow

mantaflowは、コンピューターグラフィックスでの流体シミュレーションの研究を対象としたオープンソースのフレームワークです。
並列化されたC++のsolverコア、pythonシーン定義のインターフェイス、プラグインシステムにより、新しいアルゴリズムの迅速なプロトタイピング・テストが可能です。mantaflowには広範囲のNavier-Storkes solverの変種が含まれています。
mantaflowはとても用途が広く、ディープラーニングのフレームワーク(例:numpyを介してTensorFlow)と連携してインポート/エクスポートを可能な他、matlabのプラグインとしてスタンドアローンにコンパイルすることもできます。
最新版のダウンロードはこちら

Physics Forestsで著者の1人にDisney Research所属の人がいたように、Deep Fluidsの著者の中にはPixar所属の人がいますね。

CGで一昔前は物理ベースと言われていたジャンルが、演算コストが頭打ちになってだんだんナレッジ(知識)ベースへと移ってきているということだろうか。
大きな目で見ると、現象をデフォルメして軽い処理で近似していた時代に戻っているような気もする。

多次元パラメータを扱う関数の多いCG分野はディープラーニング(というかニューラルネットワーク)に向いてるのかもな。
畳み込みって、テクスチャマッピングやShading処理そのものだし、GPUとの相性も良い。
https://shiropen.com/seamless/deep-fluids

NVIDIAがGPGPUと言い始めたころ、その使用例は流体計算が多かった気がするけど、時代を経て手を変え品を変え、結局GPUで流体計算しているのも何だか不思議。


スポンサーリンク

関連記事

BlenderProc:Blenderで機械学習用の画像データを生成するPythonツール
Zbrushでメカ物を作るチュートリアル動画
Maya LTのQuick Rigを試す
Adobe Photoshop CS4 Extendedの3Dモデル編集機能
Mayaのレンダリング アトリビュート
GeoGebra:無料で使える数学アプリ
BlenderのPython環境にPyTorchをインストールする
Blender 2.8がついに正式リリース!
ZBrushのハードサーフェイス用ブラシ
OpenCV3.3.0でsfmモジュールのビルドに成功!
CGレンダラ研究開発のためのフレームワーク『Lightmetrica (ライトメトリカ)』
OpenGVの用語
Twitter APIのPythonラッパー『python-twitter』
Phongの表現力パネェ 材質別のPhong Shader用パラメータ一覧
Google Chromecast
iOSで使えるJetpac社の物体認識SDK『DeepBelief』
UnityのTransformクラスについて調べてみた
Structure from Motion (多視点画像からの3次元形状復元)
ZBrushCore
人間の顔をそっくりそのままCGで復元する『Digital Emily Project』
オープンソースのStructure from Motionライブラリ『Theia』
CGAN (Conditional GAN):条件付き敵対的生成ネットワーク
ZScript
Quartus II
単純に遊びに行くのはだめなのか?
オープンソースの取引プラットフォーム
ZBrushと液晶ペンタブレットでドラゴンをモデリングするチュートリアル動画
オープンソースのプリント基板設計ツール『KiCad』
ZBrush 2018へのアップグレード
Unity MonoBehaviourクラスのオーバーライド関数が呼び出される順番
Webスクレイピングの勉強会に行ってきた
Adobe Photoshop CS5の新機能
SIGGRAPH Asia
PythonでBlenderのAdd-on開発
CEDEC 2日目
マジョーラ
書籍『ROSプログラミング』
ゴジラ三昧
「ベンジャミン·バトン数奇な人生」でどうやってCGの顔を作ったのか
NICOGRAPHって有名?
Webサイトのワイヤーフレームが作成できるオンラインツール
複数画像から3次元形状を再構築するライブラリ『Multi-View Environment』

コメント