Mitsuba 2:オープンソースの物理ベースレンダラ

5年前にオープンソースの物理ベースレンダラ「Mitsuba」でちょっと遊んでみたことがあった↓



Siggraph Asia 2019Mitsuba 2が発表されたらしい↓

Mitsuba 2: A Retargetable Forward and Inverse Renderer



現代のレンダリングシステムは、増大し続ける様々な要求に直面しています:
写実性を追求するための物理ベーステクニックでは、スペクトル構成や偏光など光の複雑な特性をますます考慮しなければなりません。
レンダリング時間を短縮するためのベクトル化レンダラでは、CPU、GPU命令レベルで一貫した並列処理が必要です。
Differentiable Rendering(微分可能なレンダリング)アルゴリズムでは、目的関数を最適化するためにシミュレーションの微分値を伝播させる必要があります。(例:参照画像からシーンを再構築するなど)

これらの多様なユースケースに対応するのは困難であり、多くの専用システムが別々に開発されてきました。困難な理由は、これらの複雑な機能を既存のレンダラーに後付けしようとするとエラーが発生したり、基本データ構造、コンポーネント間のインターフェイス、その実装(つまり全て)に侵入的変換を伴うからです。

そこで、前述した様々な用途に対応可能な汎用的なレンダラ Mituba 2を提案します。
Mitsuba 2は最新のC ++で実装されており、テンプレートメタプログラミングを活用し、型の置き換えやコンポーネント(BSDF、ボリューム、エミッター、レンダリングアルゴリズムなど)の制御フローを計測します。そしてコンパイル時に、算術、データ構造、関数ディスパッチを自動的に変換し、汎用アルゴリズムを手作業による再設計無しでそれぞれに効率的な実装に変換します。
変換可能なのは、色の表現の変更、ライトパスのバンドルで動作する「ワイド」レンダラーの生成、GPUで実行される計算カーネルを作成するジャストインタイムコンパイル、自動微分のフォワード/リバースモードです。これらの変換は連鎖させることができ、 単一の汎用実装からアルゴリズムを派生させてさらに充実させることができます。

Mitsuba 2のバイナリやコード自体はまだ公開されていないみたい。

2020年3月 追記新しい公式ページソースコードドキュメントが公開されたぞ↓

Mitsuba 2



Mitsuba 2は、研究指向のリターゲティング可能なレンダリングシステムで、EnokiライブラリをベースにポータブルC++17で記述されています。EPFL(スイス連邦工科大学)Realistic Graphics Labが開発しています。

Mitsuba 2は、色の扱い(RGB、スペクトル、モノクロ)、ベクトル化(scalar, SIMD, CUDA)、Differentiable Rendering(微分可能なレンダリング)など、様々な形態でコンパイルできます。

Mitsuba 2は、小さなコアライブラリセットと、マテリアルと光源、レンダリングアルゴリズムまで幅広く実装した様々なプラグインで構成されています。Mitsuba 2は、以前のバージョンMitsuba 0.6のシーンとの互換性を維持するよう努めています。


スポンサーリンク

以前のMitsubaはバージョン0.6という扱いなのね。
ソースコードはGitHubにある↓
https://github.com/mitsuba-renderer/mitsuba2

ドキュメントはこちら
https://mitsuba2.readthedocs.io/en/latest/src/getting_started/intro/

Mitsuba 0.6との違いのページを読むと理解が早いかもしれん。
Pythonバインディングもあり、PyTorchと組み合わせることもできるみたい。
differentiable rendering (微分可能レンダリング)で早く遊びたいぞ。


スポンサーリンク


Mitsuba 2のプロジェクトページが公開された直後に皆さん反応されていてすごいですね↓
https://qiita.com/syoyo/items/1afb885092d1768c66f8
http://masafumi.cocolog-nifty.com/masafumis_diary/2019/09/post-1677e3.html

追記:Siggraph Asia 2019のセッション動画が公開された↓



だいぶレンダラのパラダイムも変わってきたな。CGもあらゆるプロセスがDifferentiable(微分可能)になっていく感じがする。
Siggraph Asia 2019ではDifferentiable Renderingというセッションが設けられているみたい。

追記:BlenderからMitsubaフォーマットのシーンファイルをエクスポートするアドオンもある↓

Mitsuba 2 Blender Add-On



BlenderのシーンをMitsuba 2のファイルフォーマットにエクスポートするアドオンです。

個人的に、2019年はCG関連のディープラーニング(というか微分可能)の動向が熱かった。


CGのためのディープラーニング
もう半年前のことですが、昨年12月に東京国際フォーラムで開催されたSiggraph Asia 2018 Tokyoで聴講したCourse CreativeAI:Deep Learning for Graphicsの復習を(今頃)しておこうか...

Kaolin:3Dディープラーニング用のPyTorchライブラリ
NVIDIAから3D系のディープラーニング研究のためのPyTorchライブラリが公開された。 まだベータ版だから、これからどんどん充実していくんでしょうね。読み方はカオリンで良いのかな?(なんかかわいい) Kaolin Kaolinは3Dデ...


追記:Mitsubaは現在バージョン3が登場しています↓
Mitsuba 3:オープンソースの研究向けレンダラ
オープンソースの研究用レンダラMitsubaのバージョン2が発表されたのが3年ほど前。 次のバージョンのMistuba 3が発表されました↓ Mitsuba 3: A Retargetable Forward and Inverse Ren...


スポンサーリンク

関連記事

機械学習に役立つPythonライブラリ一覧
Blender 2.81でIntel Open Image Denoiseを使う
Raspberry PiのGPIOを操作するPythonライブラリ『RPi.GPIO』の使い方
Vancouver Film Schoolのデモリール
Python.NET:Pythonと.NETを連携させるパッケージ
Math.NET Numerics:Unityで使える数値計算ライブラリ
UnityのTransformクラスについて調べてみた
HerokuでMEAN stack
機械学習での「回帰」とは?
ZBrushで仮面ライダー3号を造る 仮面編 DynaMesh
3DCGのモデルを立体化するサービス
UnityからROSを利用できる『ROS#』
FreeMoCap Project:オープンソースのマーカーレスモーションキャプチャ
ZBrushで仮面ライダー3号を造る 仮面編 失敗のリカバー
このブログのデザインに飽きてきた
機械学習手法『Random Forest』
OpenCVの超解像(SuperResolution)モジュールを試す
Siggraph Asia 2009 カンファレンスの詳細
Live CV:インタラクティブにComputer Visionコーディングができるツール
ZBrushでアヴァン・ガメラを作ってみる 爪とトゲを追加
Web経由でRaspberry PiのGPIOを操作したい
HD画質の無駄遣い
テスト
ZBrushでアヴァン・ガメラを作ってみる 甲羅の修正・脚の作り込み
頭蓋骨からの顔復元と進化過程の可視化
SIGGRAPH Asia
画像生成AI Stable Diffusionで遊ぶ
映画『ブレードランナー 2049』のVFX
PolyPaint
シン・ゴジラのファンアート
2012 昨日のクローズアップ現代を見た
TVML (TV program Making language)
Unreal Engine Tokyo MeetUp!へ行ってきた
SIGGRAPH ASIAのマスコット
動的なメモリの扱い
オープンソースのプリント基板設計ツール『KiCad』
AnacondaとTensorFlowをインストールしてVisual Studio 2015で使う
ZBrush キャラクター&クリーチャー
Google App EngineでWordPress
viser:Pythonで使える3D可視化ライブラリ
Raspberry PiでIoTごっこ
ZBrushでゴジラ2001を作ってみる 頭の概形作り

コメント