オープンソースの物理ベースレンダラ『Mitsuba』をMayaで使う

オープンソースのグローバルイルミネーションレンダラのMitsuba

Mitsuba – physically based renderer

Mitsubaは、PBRTのスタイルに則った研究指向のレンダリングシステムで、多くのインスピレーションを得ています。
Mitsubaは移植性の高いC++で記述されており、偏りのない手法と偏りのない手法を実装し、現在のCPUアーキテクチャを対象とした高度な最適化が含まれています。
Mitsubaは非常にモジュール式です:コアライブラリの小さなセットと、マテリアルや光源から完全なレンダリングアルゴリズムに至るまでの機能を実装する100種類を超えるプラグインで構成されています。

他のオープンソースレンダラーと比較して、MitsubaはMetropolis Light Transportのパスベースの定式化やボリュメトリックモデリングアプローチなどの実験的レンダリング技術に重点を置いています。
そのため、まだ主流のレンダラーへの道を見つけていないようなテクニックを試してみたい人にとっては本当に興味があるかもしれませんし、この領域での研究のための強固な基盤も提供します。

このレンダラーは現在Linux, MacOS X, Microsoft Windowsに対応し、x86, x86_64プラットフォームでのSSE2最適化を利用しています。
これまでのところ、その主な用途はコンピューターグラフィックスのアルゴリズム開発のテストベッドとしてでしたが、他にも多くの興味深いアプリケーションがあります。

Mitsubaには、シーンをインタラクティブに探索するためのコマンドラインインターフェイスとグラフィカルフロントエンドが付属しています。
ナビゲート中、大まかなプレビューが表示され、すべての動きが停止するとすぐに精度が向上します。
視点が選択されると、幅広いレンダリング技術を使用して画像を生成し、それらのパラメーターをプログラム内から調整できます。


スポンサーリンク

ソースコードはGitHubにある↓
https://github.com/mitsuba-renderer/mitsuba


スポンサーリンク


いつか試そうと思ってだいぶ時間が経ってしまったんだけど、MitsubaにはMayaと連携するためのプラグインもあるので試してみた。
https://github.com/mitsuba-renderer/mitsuba

ところが、このプラグイン、想像してたのと違って、あんまり連携感がない。Maya上のオブジェクトを描画できるわけだけど、もろもろの設定はMayaのGUIではなく、結局xmlの設定ファイルを直接いじるタイプだった。(MayaのGUI上でxmlを編集するエディタが立ち上がる。)

そんで、もうちょっと調べてみたら、有志(?)でMitsubaをPythonでラップしてプラグインっぽくした人がいた。→Installing MitsubaForMaya
プラグインコード(Python)とサンプルプロジェクトがGitHubに上がっている。→MitsubaForMaya

で、やってみた。このプラグインは外部のMitsubaのexeを呼び出す操作をラップしてMayaのGUI操作ライクにしてくれてるんだけど、コードの中に絶対パスを書いていて、エラーまみれになった。GUIはよくできてたんだけどね。もうちょっと中身読めば修正できそうな気もする。

で、いったんMayaで動かすのはあきらめて、MitsubaのスタンドアローンのGUIアプリを実行してみた。レンダリングするシーンファイルのサンプルが公式のダウンロードページに置いてある。試したのは毛糸のマフラーみたいなやつSiggraph2010で発表されたこの論文のデータね。

サンプルのscarfシーンをMitsubaでレンダリングした。

サンプルのscarfシーンをMitsubaでレンダリングした画像をPhotoshopで補正した。



まるで実写みたい。
Pythonのインターフェイスがあるみたいだから、上手く使えばAPIっぽく自前のプログラムから使えると思うんだけど、なかなかサンプルが見当たらない。

http://rgl.epfl.ch/publications/NimierDavidVicini2019Mitsuba2

2019年 追記:Siggraph Asia 2019でMitsuba 2が発表された↓
Mitsuba 2:オープンソースの物理ベースレンダラ
5年前にオープンソースの物理ベースレンダラ「Mitsuba」でちょっと遊んでみたことがあった↓Siggraph Asia 2019でMitsuba 2が発表されたらしい↓Mitsuba 2: A Retargetable Forw...


スポンサーリンク

関連記事

軽量なジオメトリ処理ライブラリ『libigl』
ZBrushで手首のモデリングをリファイン
ラクガキの立体化
ラクガキの立体化 目標設定
機械学習手法『Random Forest』
オープンソースのSLAMライブラリ『Cartographer』
ROSでガンダムを動かす
科学技術計算向けスクリプト言語『Julia』
まだ続くブログの不調
Pythonの自然言語処理ライブラリ『NLTK(Natural Language Toolkit)』
複数視点画像から3次元形状を復元するライブラリ『openMVG』
ZBrushで仮面ライダー3号を造る ベース編
動的なメモリの扱い
Windows Server 2008にAutodesk Maya 2009をインストール
Google XML Sitemap Generatorプラグインを3.4.1へダウングレード
機械学習に役立つPythonライブラリ一覧
MeshroomでPhotogrammetry
Blenderでよく使うaddon
UnityでShaderの入力パラメータとして行列を渡す
iOSで使えるJetpac社の物体認識SDK『DeepBelief』
手を動かしながら学ぶデータマイニング
3Dボリュームデータ処理ライブラリ『OpenVDB』
ZBrushでアヴァン・ガメラを作ってみる 頬の突起を作り始める
Deep Learningとその他の機械学習手法の性能比較
OpenCVのための軽量GUIライブラリ『cvui』
ZBrushで基本となるブラシ
pythonの機械学習ライブラリ『scikit-learn』
AR (Augmented Reality)とDR (Diminished Reality)
C#で使えるNumPyライクな数値計算ライブラリ『NumSharp』
機械学習について理解するための可視化ツール『MLDemos』
ZBrushで仮面ライダー3号を造る 仮面編 DynaMesh
C++の抽象クラス
OpenCVの顔検出過程を可視化した動画
Stanford Bunny
Mean Stack開発の最初の一歩
CycleGAN:ドメイン関係を学習した画像変換
テスト
SONY製のニューラルネットワークライブラリ『NNabla』
OpenCVのfindEssentialMat関数を使ったサンプルを読んでみる
UnrealCLR:Unreal Engineで.NET Coreを利用できるプラグイン
ブラウザ操作自動化ツール『Selenium』を試す
ディープラーニング

コメント