最近、立体視用のモニタ(偏光メガネで見るやつ)を1つ後輩から強奪した譲り受けたんで、適当に視差を作って色々試してみた。(youtubeは立体視にも対応してるんですね)
ちょっとやってみた感想としては、どうやら視差があり過ぎると人間の眼の認識が追いついて来ない感じ。(ちなみに、人間の平均的な両眼距離は6.5cmだそうです)
被写体とカメラの距離、画角、二つのカメラの注視点もちゃんと考えないといけない模様。(まあ、当然か)
眼はモニタ画面を注視するわけだけど、視差が大きくて像がかなり手前に飛び出す場合、手前を注視する感覚へ反射的に頭を切り替えるのがなかなか難しい。(自分だけかもしれないけど)
ただ、人間が認識しやすいように視差を減らすと、じゃあ立体視の意味があるのかという話でもある。
それから、これは偏光方式の質の問題もあると思うけど、像を立体として認識するには、色も重要な要素なんじゃないかと。オイラの作った視差動画は色味がほとんど無いんで、眼が認識しづらかったんじゃないだろうか。偏光メガネでも反対の眼用成分を完全に遮断できないようで、色味が無いと薄っすら見える反対成分と混同して認識してしまう。ということで予想としては、モノクロで視差を作っても効果が薄いんじゃないだろうか。(閲覧環境の質に依存する要素だけど)
ところで、以前もMayaのバージョンを上げた時にちょっと問題が発生した自前Shaderなんだけど、今回バッチ処理でさらに問題発覚。カレントフレームではレンダリングできるのに、バッチに投げると全く描画されなくなる。てっきりレンダーレイヤーの設定を間違えたのかと思ってたんだけど、そういうわけじゃないらしい。バッチに投げると、Shaderを割り当てられてたオブジェクトがまるで透明になったかのように影も形も出ない状態に。バージョンのせい?64bitにしたせい?わからん。
追記:バッチに投げるとShaderが動かない原因はどうやらMTypeIDのせいらしい。環境が変わったことでIDが他のノードとかぶったりしてるのかも。オイラがいいかげんにIDつけてたのがいけなかった。こういうところはスクリプトに劣る部分だな。
関連記事
PythonでMayaのShapeノードプラグインを作る
DensePose:画像中の人物表面のUV座標を推定する
Google Earth用の建物を簡単に作れるツール Goo...
日本でMakersは普及するだろうか?
映画から想像するVR・AR時代のGUIデザイン
Unity ARKitプラグインサンプルのドキュメントを読む
OpenCVで動画の手ぶれ補正
Alice Vision:オープンソースのPhotogram...
Multi-View Environment:複数画像から3...
OpenCVのバージョン3が正式リリースされたぞ
ZBrushで仮面ライダー3号を造る 仮面編 PolyGro...
Unreal Engineの薄い本
Oculus Goで特撮作品を鑑賞する
マイケル・ベイの動画の感覚
ZBrushでカスタムUIを設定する
オープンソースのテクスチャマッピングシステム『Ptex』
ZBrushのキャンバスにリファレンス画像を配置する
Oculus Quest 2を購入!
映画『ジュラシック・ワールド/炎の王国』のVFXブレイクダウ...
ZBrushでアヴァン・ガメラを作ってみる 腕の作り込み
ZBrushのZmodelerとDynamic Subdiv...
OpenCVの三角測量関数『cv::triangulatep...
ZBrushでゴジラ2001を作ってみる 身体のバランスを探...
映画『ブレードランナー 2049』のVFX
この連休でZBrushの スキルアップを…
フルCGのウルトラマン!?
Rerun:マルチモーダルデータの可視化アプリとSDK
2012 昨日のクローズアップ現代を見た
Unity ARKitプラグインサンプルのチュートリアルを読...
『ローグ・ワン/スター・ウォーズ・ストーリー』のVFXブレイ...
ZBrushでアヴァン・ガメラを作ってみる 頭頂部の作り込み...
オープンソースの物理ベースGIレンダラ『appleseed』
Super Resolution:OpenCVの超解像処理モ...
フォトンの放射から格納までを可視化した動画
顔のモデリング
Pythonのソースコードに特化した検索エンジン『Nulle...
ZBrushのTranspose Masterでポーズを付け...
PythonでBlenderのAdd-on開発
iPhone 3GSがますます欲しくなる動画
Open3D:3Dデータ処理ライブラリ
ZBrush キャラクター&クリーチャー
ポリ男からMetaHumanを作る


コメント