サイトアイコン NegativeMindException

オープンソースの物理ベースレンダラ『Mitsuba』をMayaで使う

オープンソースのグローバルイルミネーションレンダラのMitsuba

Mitsuba – physically based renderer

Mitsubaは、PBRTのスタイルに則った研究指向のレンダリングシステムで、多くのインスピレーションを得ています。
Mitsubaは移植性の高いC++で記述されており、偏りのない手法と偏りのない手法を実装し、現在のCPUアーキテクチャを対象とした高度な最適化が含まれています。
Mitsubaは非常にモジュール式です:コアライブラリの小さなセットと、マテリアルや光源から完全なレンダリングアルゴリズムに至るまでの機能を実装する100種類を超えるプラグインで構成されています。

他のオープンソースレンダラーと比較して、MitsubaはMetropolis Light Transportのパスベースの定式化やボリュメトリックモデリングアプローチなどの実験的レンダリング技術に重点を置いています。
そのため、まだ主流のレンダラーへの道を見つけていないようなテクニックを試してみたい人にとっては本当に興味があるかもしれませんし、この領域での研究のための強固な基盤も提供します。

このレンダラーは現在Linux, MacOS X, Microsoft Windowsに対応し、x86, x86_64プラットフォームでのSSE2最適化を利用しています。
これまでのところ、その主な用途はコンピューターグラフィックスのアルゴリズム開発のテストベッドとしてでしたが、他にも多くの興味深いアプリケーションがあります。

Mitsubaには、シーンをインタラクティブに探索するためのコマンドラインインターフェイスとグラフィカルフロントエンドが付属しています。
ナビゲート中、大まかなプレビューが表示され、すべての動きが停止するとすぐに精度が向上します。
視点が選択されると、幅広いレンダリング技術を使用して画像を生成し、それらのパラメーターをプログラム内から調整できます。


スポンサーリンク

ソースコードはGitHubにある↓
https://github.com/mitsuba-renderer/mitsuba



いつか試そうと思ってだいぶ時間が経ってしまったんだけど、MitsubaにはMayaと連携するためのプラグインもあるので試してみた。
https://github.com/mitsuba-renderer/mitsuba

ところが、このプラグイン、想像してたのと違って、あんまり連携感がない。Maya上のオブジェクトを描画できるわけだけど、もろもろの設定はMayaのGUIではなく、結局xmlの設定ファイルを直接いじるタイプだった。(MayaのGUI上でxmlを編集するエディタが立ち上がる。)

そんで、もうちょっと調べてみたら、有志(?)でMitsubaをPythonでラップしてプラグインっぽくした人がいた。→Installing MitsubaForMaya
プラグインコード(Python)とサンプルプロジェクトがGitHubに上がっている。→MitsubaForMaya

で、やってみた。このプラグインは外部のMitsubaのexeを呼び出す操作をラップしてMayaのGUI操作ライクにしてくれてるんだけど、コードの中に絶対パスを書いていて、エラーまみれになった。GUIはよくできてたんだけどね。もうちょっと中身読めば修正できそうな気もする。

で、いったんMayaで動かすのはあきらめて、MitsubaのスタンドアローンのGUIアプリを実行してみた。レンダリングするシーンファイルのサンプルが公式のダウンロードページに置いてある。試したのは毛糸のマフラーみたいなやつSiggraph2010で発表されたこの論文のデータね。

サンプルのscarfシーンをMitsubaでレンダリングした画像をPhotoshopで補正した。



まるで実写みたい。
Pythonのインターフェイスがあるみたいだから、上手く使えばAPIっぽく自前のプログラムから使えると思うんだけど、なかなかサンプルが見当たらない。

http://rgl.epfl.ch/publications/NimierDavidVicini2019Mitsuba2

2019年 追記:Siggraph Asia 2019でMitsuba 2が発表された↓
Mitsuba 2:オープンソースの物理ベースレンダラ
5年前にオープンソースの物理ベースレンダラ「Mitsuba」でちょっと遊んでみたことがあった↓ Siggraph Asia 2019でMitsuba 2が発表されたらしい↓ Mitsuba 2: A Retargetable Forward...


スポンサーリンク

関連記事

  • HerokuでMEAN stack
  • R-CNN (Regions with CNN features):ディープラーニングによる一般物体...
  • iPhone 3GSがますます欲しくなる動画
  • 映画『ジュラシック・ワールド/炎の王国』のVFXブレイクダウン まとめ
  • FCN (Fully Convolutional Network):ディープラーニングによるSema...
  • OpenCVの三角測量関数『cv::triangulatepoints』
  • 参考書
  • Python拡張モジュールのWindows用インストーラー配布サイト
  • NeRF (Neural Radiance Fields):深層学習による新規視点合成
  • UnityのAR FoundationでARKit 3
  • ZBrushで仮面ライダー3号を造る 仮面編 Clay Polish
  • 映画『ブレードランナー 2049』のVFX
  • ZBrushでアヴァン・ガメラを作ってみる 下アゴの付け根を修正
  • リアルタイム レイトレーシングAPI『DirectX Raytracing (DXR)』
  • Unite 2014の動画
  • Windows10でPyTorchをインストールしてVSCodeで使う
  • SONYの自律型エンタテインメントロボット『aibo』
  • mentalrayのSubsurface Scattering Shader『misss_fast_...
  • Regard3D:オープンソースのStructure from Motionツール
  • リメイク版ロボコップスーツのメイキング
  • ZBrushで仮面ライダー3号を造る 仮面編 Dam Standardブラシでディティールを彫る
  • 立体視を試してみた
  • 海外ドラマのChromaKey
  • Zibra Liquids:Unity向け流体シミュレーションプラグイン
  • ZBrushで仮面ライダー3号を造る 仮面編 PolyGroup作成に再挑戦
  • Point Cloud Libraryに動画フォーマットが追加されるらしい
  • PyDataTokyo主催のDeep Learning勉強会
  • MVStudio:オープンソースのPhotogrammetryツール
  • Adobe Photoshop CS5の新機能
  • openMVG:複数視点画像から3次元形状を復元するライブラリ
  • FreeMoCap Project:オープンソースのマーカーレスモーションキャプチャ
  • Physics Forests:機械学習で流体シミュレーションを近似する
  • 自前Shaderの件 解決しました
  • 書籍『開田裕治 怪獣イラストテクニック』
  • AMIMOTO(PVM版)で作成したインスタンスをAMIMOTO (HVM版)へ移行する
  • ZBrushで仮面ライダー3号を造る 仮面編 ClipCurve
  • 2D→3D復元技術で使われる用語まとめ
  • AmazonEC2のインスタンスをt1.microからt2.microへ移行する
  • 続・ディープラーニングの資料
  • OpenCV 3.3.0-RCでsfmモジュールをビルド
  • WordPressの表示を高速化する
  • BlenderのGeometry Nodeで遊ぶ
  • モバイルバージョンを終了