立体視を試してみた

最近、立体視用のモニタ(偏光メガネで見るやつ)を1つ後輩から強奪した譲り受けたんで、適当に視差を作って色々試してみた。(youtubeは立体視にも対応してるんですね)





ちょっとやってみた感想としては、どうやら視差があり過ぎると人間の眼の認識が追いついて来ない感じ。(ちなみに、人間の平均的な両眼距離は6.5cmだそうです)
被写体とカメラの距離、画角、二つのカメラの注視点もちゃんと考えないといけない模様。(まあ、当然か)
眼はモニタ画面を注視するわけだけど、視差が大きくて像がかなり手前に飛び出す場合、手前を注視する感覚へ反射的に頭を切り替えるのがなかなか難しい。(自分だけかもしれないけど)
ただ、人間が認識しやすいように視差を減らすと、じゃあ立体視の意味があるのかという話でもある。

それから、これは偏光方式の質の問題もあると思うけど、像を立体として認識するには、色も重要な要素なんじゃないかと。オイラの作った視差動画は色味がほとんど無いんで、眼が認識しづらかったんじゃないだろうか。偏光メガネでも反対の眼用成分を完全に遮断できないようで、色味が無いと薄っすら見える反対成分と混同して認識してしまう。ということで予想としては、モノクロで視差を作っても効果が薄いんじゃないだろうか。(閲覧環境の質に依存する要素だけど)

ところで、以前もMayaのバージョンを上げた時にちょっと問題が発生した自前Shaderなんだけど、今回バッチ処理でさらに問題発覚。カレントフレームではレンダリングできるのに、バッチに投げると全く描画されなくなる。てっきりレンダーレイヤーの設定を間違えたのかと思ってたんだけど、そういうわけじゃないらしい。バッチに投げると、Shaderを割り当てられてたオブジェクトがまるで透明になったかのように影も形も出ない状態に。バージョンのせい?64bitにしたせい?わからん。

追記:バッチに投げるとShaderが動かない原因はどうやらMTypeIDのせいらしい。環境が変わったことでIDが他のノードとかぶったりしてるのかも。オイラがいいかげんにIDつけてたのがいけなかった。こういうところはスクリプトに劣る部分だな。

関連記事

clearcoat Shader

プログラムによる景観の自動生成

粘土をこねるようなスカルプトモデリング

ZScript

ZBrushでアヴァン・ガメラを作ってみる 歯を配置

Deep Fluids:流体シミュレーションをディープラーニングで近似する

OpenGVの用語

Paul Debevec

UnityのGlobal Illumination

Mask R-CNN:ディープラーニングによる一般物体検出・Instance Segmentatio...

ZBrushでアヴァン・ガメラを作ってみる 腕の作り込み

AndroidもopenGLも初心者さ (でもJavaは知ってるよ)

Maya API Reference

Unityの薄い本

トランスフォーマーロストエイジのメイキング

MPC社によるゴジラ(2014)のVFXブレイクダウン

Maya には3 種類のシェーダSDKがある?

ゴジラ(2014)のメイキング

CEDEC 3日目

参考書

OpenCVの顔検出過程を可視化した動画

Unityで360度ステレオVR動画を作る

実写と実写の合成時の色の馴染ませテクニック

中学3年生が制作した短編映像作品『2045』

単純に遊びに行くのはだめなのか?

ZBrushで仮面ライダー3号を造る 仮面編 Dam Standardブラシでディティールを彫る

読みやすくて高速なディープラーニングのフレームワーク『Caffe』

世界一下品なクマと世界一紳士なクマ

Alice Vision:オープンソースのPhotogrammetryフレームワーク

AR (Augmented Reality)とDR (Diminished Reality)

ZBrushで人型クリーチャー

CycleGAN:ドメイン関係を学習した画像変換

白組による『シン・ゴジラ』CGメイキング映像が公開された!

ガメラ生誕50周年

ラクガキの立体化 1年半ぶりの続き

ゴジラ三昧

ZBrushで仮面ライダーBLACK SUNを作る 頭部~バストの概形

openMVGをWindows10 Visual Studio 2015環境でビルドする

書籍『3次元コンピュータビジョン計算ハンドブック』を購入

OpenAR:OpenCVベースのマーカーARライブラリ

マイケル・ベイの動画の感覚

オーバーロードとオーバーライド

コメント