立体視を試してみた

最近、立体視用のモニタ(偏光メガネで見るやつ)を1つ後輩から強奪した譲り受けたんで、適当に視差を作って色々試してみた。(youtubeは立体視にも対応してるんですね)





ちょっとやってみた感想としては、どうやら視差があり過ぎると人間の眼の認識が追いついて来ない感じ。(ちなみに、人間の平均的な両眼距離は6.5cmだそうです)
被写体とカメラの距離、画角、二つのカメラの注視点もちゃんと考えないといけない模様。(まあ、当然か)
眼はモニタ画面を注視するわけだけど、視差が大きくて像がかなり手前に飛び出す場合、手前を注視する感覚へ反射的に頭を切り替えるのがなかなか難しい。(自分だけかもしれないけど)
ただ、人間が認識しやすいように視差を減らすと、じゃあ立体視の意味があるのかという話でもある。

それから、これは偏光方式の質の問題もあると思うけど、像を立体として認識するには、色も重要な要素なんじゃないかと。オイラの作った視差動画は色味がほとんど無いんで、眼が認識しづらかったんじゃないだろうか。偏光メガネでも反対の眼用成分を完全に遮断できないようで、色味が無いと薄っすら見える反対成分と混同して認識してしまう。ということで予想としては、モノクロで視差を作っても効果が薄いんじゃないだろうか。(閲覧環境の質に依存する要素だけど)

ところで、以前もMayaのバージョンを上げた時にちょっと問題が発生した自前Shaderなんだけど、今回バッチ処理でさらに問題発覚。カレントフレームではレンダリングできるのに、バッチに投げると全く描画されなくなる。てっきりレンダーレイヤーの設定を間違えたのかと思ってたんだけど、そういうわけじゃないらしい。バッチに投げると、Shaderを割り当てられてたオブジェクトがまるで透明になったかのように影も形も出ない状態に。バージョンのせい?64bitにしたせい?わからん。

追記:バッチに投げるとShaderが動かない原因はどうやらMTypeIDのせいらしい。環境が変わったことでIDが他のノードとかぶったりしてるのかも。オイラがいいかげんにIDつけてたのがいけなかった。こういうところはスクリプトに劣る部分だな。

関連記事

ZBrushでアヴァン・ガメラを作ってみる 首回りの修正・脚の作り込み

ゴジラの造形

Open3D:3Dデータ処理ライブラリ

素敵なパーティクル

DensePose:画像中の人物表面のUV座標を推定する

ZBrushでリメッシュとディティールの転送

第20回 文化庁メディア芸術祭『3DCG表現と特撮の時代』

ポリ男からMetaHumanを作る

Mayaのレンダリング アトリビュート

3D復元技術の情報リンク集

ZBrush キャラクター&クリーチャー

株式会社ヘキサドライブの研究室ページ

映画『シン・仮面ライダー』 メイキング情報まとめ

参考書

日立のフルパララックス立体ディスプレイ

Unity MonoBehaviourクラスのオーバーライド関数が呼び出される順番

Physically Based Rendering

ZBrushのお勉強

フィーリングに基づくタマムシの質感表現

Unity ARKitプラグインサンプルのチュートリアルを読む

ZBrushでゴジラ2001を作ってみる 頭の概形作り

BlenderのPython環境にPyTorchをインストールする

今年もSSII

ZBrushと液晶ペンタブレットでドラゴンをモデリングするチュートリアル動画

3D映画のポストプロダクション 2D-3D変換

OpenCVで顔のモーフィングを実装する

ZBrushでアヴァン・ガメラを作ってみる 歯を配置

Mitsuba 3:オープンソースの研究向けレンダラ

トランスフォーマー/ロストエイジのメイキング

『ピクサー展』へ行ってきた

ZBrushトレーニング

MVStudio:オープンソースのPhotogrammetryツール

マジョーラ

オープンソースの物理ベースレンダラ『Mitsuba』をMayaで使う

OpenCV 3.1とopencv_contribモジュールをVisual Studio 2015で...

CEDEC 3日目

ZBrushでアヴァン・ガメラを作ってみる 甲羅のバランス調整

OpenCVで動画の手ぶれ補正

UnityのGameObjectの向きをScriptで制御する

OpenMVSのサンプルを動かしてみる

ZBrushでアヴァン・ガメラを作ってみる 口のバランス調整

サンプルコードにも間違いはある?

コメント