オープンソースの物理ベースレンダラ『Mitsuba』をMayaで使う

オープンソースのグローバルイルミネーションレンダラのMitsuba

Mitsuba – physically based renderer

Mitsubaは、PBRTのスタイルに則った研究指向のレンダリングシステムで、多くのインスピレーションを得ています。
Mitsubaは移植性の高いC++で記述されており、偏りのない手法と偏りのない手法を実装し、現在のCPUアーキテクチャを対象とした高度な最適化が含まれています。
Mitsubaは非常にモジュール式です:コアライブラリの小さなセットと、マテリアルや光源から完全なレンダリングアルゴリズムに至るまでの機能を実装する100種類を超えるプラグインで構成されています。

他のオープンソースレンダラーと比較して、MitsubaはMetropolis Light Transportのパスベースの定式化やボリュメトリックモデリングアプローチなどの実験的レンダリング技術に重点を置いています。
そのため、まだ主流のレンダラーへの道を見つけていないようなテクニックを試してみたい人にとっては本当に興味があるかもしれませんし、この領域での研究のための強固な基盤も提供します。

このレンダラーは現在Linux, MacOS X, Microsoft Windowsに対応し、x86, x86_64プラットフォームでのSSE2最適化を利用しています。
これまでのところ、その主な用途はコンピューターグラフィックスのアルゴリズム開発のテストベッドとしてでしたが、他にも多くの興味深いアプリケーションがあります。

Mitsubaには、シーンをインタラクティブに探索するためのコマンドラインインターフェイスとグラフィカルフロントエンドが付属しています。
ナビゲート中、大まかなプレビューが表示され、すべての動きが停止するとすぐに精度が向上します。
視点が選択されると、幅広いレンダリング技術を使用して画像を生成し、それらのパラメーターをプログラム内から調整できます。

ソースコードはGitHubにある↓
https://github.com/mitsuba-renderer/mitsuba



いつか試そうと思ってだいぶ時間が経ってしまったんだけど、MitsubaにはMayaと連携するためのプラグインもあるので試してみた。
https://github.com/mitsuba-renderer/mitsuba

ところが、このプラグイン、想像してたのと違って、あんまり連携感がない。Maya上のオブジェクトを描画できるわけだけど、もろもろの設定はMayaのGUIではなく、結局xmlの設定ファイルを直接いじるタイプだった。(MayaのGUI上でxmlを編集するエディタが立ち上がる。)

そんで、もうちょっと調べてみたら、有志(?)でMitsubaをPythonでラップしてプラグインっぽくした人がいた。→Installing MitsubaForMaya
プラグインコード(Python)とサンプルプロジェクトがGitHubに上がっている。→MitsubaForMaya

で、やってみた。このプラグインは外部のMitsubaのexeを呼び出す操作をラップしてMayaのGUI操作ライクにしてくれてるんだけど、コードの中に絶対パスを書いていて、エラーまみれになった。GUIはよくできてたんだけどね。もうちょっと中身読めば修正できそうな気もする。

で、いったんMayaで動かすのはあきらめて、MitsubaのスタンドアローンのGUIアプリを実行してみた。レンダリングするシーンファイルのサンプルが公式のダウンロードページに置いてある。試したのは毛糸のマフラーみたいなやつSiggraph2010で発表されたこの論文のデータね。

サンプルのscarfシーンをMitsubaでレンダリングした。

サンプルのscarfシーンをMitsubaでレンダリングした画像をPhotoshopで補正した。



まるで実写みたい。
Pythonのインターフェイスがあるみたいだから、上手く使えばAPIっぽく自前のプログラムから使えると思うんだけど、なかなかサンプルが見当たらない。

http://rgl.epfl.ch/publications/NimierDavidVicini2019Mitsuba2

2019年 追記:Siggraph Asia 2019でMitsuba 2が発表された↓
Mitsuba 2:オープンソースの物理ベースレンダラ
5年前にオープンソースの物理ベースレンダラ「Mitsuba」でちょっと遊んでみたことがあった↓Siggraph Asia 2019でMitsuba 2が発表されたらしい↓Mitsuba 2: A Retargetable Forward a...

関連記事

PyDataTokyo主催のDeep Learning勉強会

Unity ARKitプラグインサンプルのチュートリアルを読...

OpenGVのライブラリ構成

SVM (Support Vector Machine)

Windows Server 2008にAutodesk M...

AfterEffectsプラグイン開発

OpenCVで平均顔を作るチュートリアル

顔追跡による擬似3D表示『Dynamic Perspecti...

Siggraph Asia 2009 カンファレンスの詳細

スクレイピング

組み込み向けのWindows OS 『Windows Emb...

OpenCV 3.1から追加されたSfMモジュール

Webスクレイピングの勉強会に行ってきた

PythonでMayaのShapeノードプラグインを作る

OpenFace:Deep Neural Networkによ...

Vancouver Film Schoolのデモリール

OpenMesh:オープンソースの3Dメッシュデータライブラ...

池袋パルコで3Dのバーチャルフィッティング『ウェアラブル ク...

OpenGV:画像からカメラの3次元位置・姿勢を推定するライ...

ZBrushでアヴァン・ガメラを作ってみる 下アゴと頭部を作...

布地のシワの法則性

trimesh:PythonでポリゴンMeshを扱うライブラ...

テスト

Unityで学ぶC#

BlenderのGeometry Nodeで遊ぶ

フォトンの放射から格納までを可視化した動画

Manim:Pythonで使える数学アニメーションライブラリ

リアルタイム レイトレーシングAPI『DirectX Ray...

ラクガキの立体化 モールドの追加

色んな三面図があるサイト

JavaによるCGプログラミング入門サイト (日本語)

Google App Engineのデプロイ失敗

布のモデリング

Google Colaboratoryで遊ぶ準備

AndroidもopenGLも初心者さ (でもJavaは知っ...

プロシージャル手法に特化した本が出てるみたい(まだ買わないけ...

MFnMeshクラスのsplit関数

PGGAN:段階的に解像度を上げて学習を進めるGAN

手を動かしながら学ぶデータマイニング

ラクガキの立体化 3Dプリント注文

ZBrushで仮面ライダー3号を造る ベース編

ZBrushでゴジラ2001を作ってみる 身体のバランスを探...

コメント