オープンソースの物理ベースレンダラ『Mitsuba』をMayaで使う

オープンソースのグローバルイルミネーションレンダラのMitsuba

Mitsuba – physically based renderer

Mitsubaは、PBRTのスタイルに則った研究指向のレンダリングシステムで、多くのインスピレーションを得ています。
Mitsubaは移植性の高いC++で記述されており、偏りのない手法と偏りのない手法を実装し、現在のCPUアーキテクチャを対象とした高度な最適化が含まれています。
Mitsubaは非常にモジュール式です:コアライブラリの小さなセットと、マテリアルや光源から完全なレンダリングアルゴリズムに至るまでの機能を実装する100種類を超えるプラグインで構成されています。

他のオープンソースレンダラーと比較して、MitsubaはMetropolis Light Transportのパスベースの定式化やボリュメトリックモデリングアプローチなどの実験的レンダリング技術に重点を置いています。
そのため、まだ主流のレンダラーへの道を見つけていないようなテクニックを試してみたい人にとっては本当に興味があるかもしれませんし、この領域での研究のための強固な基盤も提供します。

このレンダラーは現在Linux, MacOS X, Microsoft Windowsに対応し、x86, x86_64プラットフォームでのSSE2最適化を利用しています。
これまでのところ、その主な用途はコンピューターグラフィックスのアルゴリズム開発のテストベッドとしてでしたが、他にも多くの興味深いアプリケーションがあります。

Mitsubaには、シーンをインタラクティブに探索するためのコマンドラインインターフェイスとグラフィカルフロントエンドが付属しています。
ナビゲート中、大まかなプレビューが表示され、すべての動きが停止するとすぐに精度が向上します。
視点が選択されると、幅広いレンダリング技術を使用して画像を生成し、それらのパラメーターをプログラム内から調整できます。

ソースコードはGitHubにある↓
https://github.com/mitsuba-renderer/mitsuba



いつか試そうと思ってだいぶ時間が経ってしまったんだけど、MitsubaにはMayaと連携するためのプラグインもあるので試してみた。
https://github.com/mitsuba-renderer/mitsuba

ところが、このプラグイン、想像してたのと違って、あんまり連携感がない。Maya上のオブジェクトを描画できるわけだけど、もろもろの設定はMayaのGUIではなく、結局xmlの設定ファイルを直接いじるタイプだった。(MayaのGUI上でxmlを編集するエディタが立ち上がる。)

そんで、もうちょっと調べてみたら、有志(?)でMitsubaをPythonでラップしてプラグインっぽくした人がいた。→Installing MitsubaForMaya
プラグインコード(Python)とサンプルプロジェクトがGitHubに上がっている。→MitsubaForMaya

で、やってみた。このプラグインは外部のMitsubaのexeを呼び出す操作をラップしてMayaのGUI操作ライクにしてくれてるんだけど、コードの中に絶対パスを書いていて、エラーまみれになった。GUIはよくできてたんだけどね。もうちょっと中身読めば修正できそうな気もする。

で、いったんMayaで動かすのはあきらめて、MitsubaのスタンドアローンのGUIアプリを実行してみた。レンダリングするシーンファイルのサンプルが公式のダウンロードページに置いてある。試したのは毛糸のマフラーみたいなやつSiggraph2010で発表されたこの論文のデータね。

サンプルのscarfシーンをMitsubaでレンダリングした。

サンプルのscarfシーンをMitsubaでレンダリングした画像をPhotoshopで補正した。



まるで実写みたい。
Pythonのインターフェイスがあるみたいだから、上手く使えばAPIっぽく自前のプログラムから使えると思うんだけど、なかなかサンプルが見当たらない。

http://rgl.epfl.ch/publications/NimierDavidVicini2019Mitsuba2

2019年 追記:Siggraph Asia 2019でMitsuba 2が発表された↓
Mitsuba 2:オープンソースの物理ベースレンダラ
5年前にオープンソースの物理ベースレンダラ「Mitsuba」でちょっと遊んでみたことがあった↓Siggraph Asia 2019でMitsuba 2が発表されたらしい↓Mitsuba 2: A Retargetable Forward a...

関連記事

ZBrushでゴジラ2001を作ってみる 身体のシルエット出し

UnityでPoint Cloudを表示する方法

After Effects全エフェクトの解説(6.5)

タマムシっぽい質感

ZBrushで仮面ライダー3号を造る 仮面編 リファレンス画像の表示

デザインのリファイン再び

Point Cloud Utils:Pythonで3D点群・Meshを扱うライブラリ

Raspberry Pi 2を買いました

仮想関数

Adobe Photoshop CS4 Extendedの3Dモデル編集機能

アニゴジ関連情報

PythonでMayaのShapeノードプラグインを作る

MPFB2:Blenderの人体モデリングアドオン

OpenCVのバージョン3が正式リリースされたぞ

ゴジラ(2014)のメイキング

頭蓋骨からの顔復元と進化過程の可視化

3Dグラフィックスの入門書

世界一下品なクマと世界一紳士なクマ

ラクガキの立体化 胴体の追加

ZBrushのUV MasterでUV展開

Mechanizeで要認証Webサイトをスクレイピング

オープンソースの物理ベースGIレンダラ『appleseed』

uvでWindows11のPython環境を管理する

OpenMesh:オープンソースの3Dメッシュデータライブラリ

書籍『仕事ではじめる機械学習』を読みました

Unity ARKitプラグインサンプルのチュートリアルを読む

GeoGebra:無料で使える数学アプリ

iPhone・iPod touchで動作する知育ロボット『ROMO』

オーバーロードとオーバーライド

ManuelBastioniLAB:人体モデリングできるBlenderアドオン

3DCG Meetup #4に行ってきた

ZBrushでアヴァン・ガメラを作ってみる

Unityをレンダラとして活用する

書籍『ゼロから作るDeep Learning』で自分なりに学ぶ

プロシージャル手法に特化した本が出てるみたい(まだ買わないけど)

オープンソースのネットワーク可視化ソフトウェアプラットフォーム『Cytoscape』

Raspberry PiのGPIOを操作するPythonライブラリ『RPi.GPIO』の使い方

ZBrushでゴジラ2001を作ってみる 目元だけ作り込んでバランスを見る

SIGGRAPH ASIAのマスコット

OpenMVSのサンプルを動かしてみる

TensorSpace.js:ニューラルネットワークの構造を可視化するフレームワーク

中学3年生が制作した短編映像作品『2045』

コメント