オープンソースの研究用レンダラMitsubaのバージョン2が発表されたのが3年ほど前。
次のバージョンのMistuba 3が発表されました↓
Mitsuba 3: A Retargetable Forward and Inverse Renderer
Mitsuba 3は研究指向のリターゲット可能なレンダリングシステムであり、Dr.Jit Just In TimeコンパイラによるポータブルなC++ 17で記述されています。Mitsuba 3は、EPFLのRealisticGraphicsLabによって開発されました。
Mitsuba 3は、微分トラッキング、LLVMまたはCUDAを介した動的コンパイル、様々なラディアンス表現(モノクロ、RGB、またはスペクトル光、場合によっては偏光)などのオプションを選択でき、様々な形態へコンパイルできます。
Mitsuba 3は小さなコアライブラリと、マテリアルや光源からレンダリングアルゴリズムに至るまでの全ての機能を実装したプラグインの集合で構成されています。Mitsuba 3は、旧バージョンのMitsuba 0.6とのシーン互換性の維持に努めています。
Dr.Jitととは何かというと、微分可能レンダリングのために開発された新しい実行時コンパイラ(Just In Timeコンパイラ)だそうで、SIGGRAPH 2022で発表されるらしい↓
Dr.Jit: A Just-In-Time Compiler for Differentiable Rendering
Mitsuba 3は既にソースコードがGitHubで公開されており、READMEにより詳しい概要説明がある↓
Mitsuba Renderer 3
Mitsuba 3は、スイスのEPFL(スイス連邦工科大学ローザンヌ校)で開発された順方向(forward)および逆方向(inverse)の光輸送シミュレーションのための研究指向のレンダリングシステムです。コアライブラリと、マテリアルや光源からレンダリングアルゴリズムに至るまでの全ての機能を実装したプラグインの集合として構成されています。
Mitsuba 3はリターゲット可能で、基盤となる実装とデータ構造を様々な異なるタスクへ変換して実行できます。例えば、同じコードでスカラーRGB輸送(1度に1つの光線を扱う古典的手法)とGPU上での微分可能スペクトル輸送の両方をシミュレートできます。これは全て、このプロジェクトのために特別に開発された専用のJIT(Just In Time)コンパイラ Dr.Jitでビルドされます。
主な機能
- クロスプラットフォーム:Mitsuba 3はLinux (x86_64), macOS (aarch64, x86_64), Windows (x86_64)でテスト済みです。
- ハイパフォーマンス:基盤となるDr.Jitコンパイラはレンダリングコードをカーネルに融合し、CPUをターゲットとするLLVMバックエンドと、レイトレーシングハードウェアアクセラレーションを備えたNVIDIA GPUをターゲットとするCUDA/OptiXバックエンドを使用して最先端のパフォーマンスを実現します。
- Pythonファースト:Mitsuba3はPythonと深く統合されています。マテリアルやテクスチャだけでなく、全てのレンダリングアルゴリズムをPythonで開発でき、システムをすぐにJITコンパイル(さらにオプションで微分も)できます。これにより、コンピュータグラフィックスやその他分野の研究に必要な実験が可能です。
- 微分:Mitsuba 3は微分可能レンダラです。つまり、カメラのポーズ、ジオメトリ、BSDF、テクスチャ、ボリュームなどの入力パラメータについて、シミュレーション全体の導関数を計算できます。Mitsuba 3には、EPFLで開発された最新の微分可能レンダリングのアルゴリズムを実装されています。
- スペクトルと偏光:Mitsuba 3は、単色レンダラー、RGBベースのレンダラー、スペクトルレンダラーとして使用でき、各形態で必要に応じてオプションで偏光の影響を考慮できます。
Mitsuba 3は既にチュートリアル動画もとても充実している↓
ドキュメントはこちら。Mitsuba 3はpipですぐインストールできるのがイマドキな感じですね。
Blenderアドオンはこちら↓
Mitsuba Blender Add-on
関連記事
海外ドラマのChromaKey
ポリゴンジオメトリ処理ライブラリ『pmp-library (...
写真に3Dオブジェクトを違和感無く合成する『3DPhotoM...
Accord.NET Framework:C#で使える機械学...
ニューラルネットワークで画像分類
ハリウッド版「GAIKING」パイロット映像
スクレイピング
Mask R-CNN:ディープラーニングによる一般物体検出・...
ドットインストールのWordPress入門レッスン
WordPressプラグインの作り方
実写と実写の合成時の色の馴染ませテクニック
Fast R-CNN:ディープラーニングによる一般物体検出手...
ラクガキの立体化 モールドの追加
C#で使える遺伝的アルゴリズムライブラリ『GeneticSh...
ZBrushで手首のモデリングをリファイン
機械学習のオープンソースソフトウェアフォーラム『mloss(...
Super Resolution:OpenCVの超解像処理モ...
PyDataTokyo主催のDeep Learning勉強会
Vancouver Film Schoolのデモリール
機械学習手法『Random Forest』
OpenCV
オープンソースの顔認識フレームワーク『OpenBR』
手を動かしながら学ぶデータマイニング
ZBrushでアヴァン・ガメラを作ってみる 爪とトゲを追加
続・ディープラーニングの資料
ZBrushのZmodelerとDynamic Subdiv...
JavaScriptとかWebGLとかCanvasとか
MFnMeshクラスのsplit関数
頭蓋骨からの顔復元と進化過程の可視化
iOSデバイスと接続して連携するガジェットの開発方法
全脳アーキテクチャ勉強会
ZBrushのUV MasterでUV展開
SIGGRAPH論文へのリンクサイト
TorchStudio:PyTorchのための統合開発環境と...
3Dモデルを立体視で確認できるVRアプリを作っている
ZBrushのハードサーフェイス用ブラシ
ROSの薄い本
Iridescence:プロトタイピング向け軽量3D可視化ラ...
1枚の画像からマテリアルを作成できる無料ツール『Materi...
CGAN (Conditional GAN):条件付き敵対的...
Deep Learningとその他の機械学習手法の性能比較
『ピクサー展』へ行ってきた
コメント