立体視を試してみた

最近、立体視用のモニタ(偏光メガネで見るやつ)を1つ後輩から強奪した譲り受けたんで、適当に視差を作って色々試してみた。(youtubeは立体視にも対応してるんですね。)


スポンサーリンク
3D Bunny


スポンサーリンク


ちょっとやってみた感想としては、どうやら視差があり過ぎると人間の眼の認識が追いついて来ない感じ。(ちなみに、人間の平均的な両眼距離は6.5cmだそうです。)
被写体とカメラの距離、画角、二つのカメラの注視点もちゃんと考えないといけない模様。(まあ、当然か。)
眼はモニタ画面を注視するわけだけど、視差が大きくて像がかなり手前に飛び出す場合、手前を注視する感覚へ反射的に頭を切り替えるのがなかなか難しい。(自分だけかもしれないけど。)
ただ、人間が認識しやすいように視差を減らすと、じゃあ立体視の意味があるのかという話でもある。

それから、これは偏光方式の質の問題もあると思うけど、像を立体として認識するには、色も重要な要素なんじゃないかと。オイラの作った視差動画は色味がほとんど無いんで、眼が認識しづらかったんじゃないだろうか。偏光メガネでも反対の眼用成分を完全に遮断できないようで、色味が無いと薄っすら見える反対成分と混同して認識してしまう。ということで予想としては、モノクロで視差を作っても効果が薄いんじゃないだろうか。(閲覧環境の質に依存する要素だけど。)

ところで、以前もMayaのバージョンを上げた時にちょっと問題が発生した自前Shaderなんだけど、今回バッチ処理でさらに問題発覚。カレントフレームではレンダリングできるのに、バッチに投げると全く描画されなくなる。てっきりレンダーレイヤーの設定を間違えたのかと思ってたんだけど、そういうわけじゃないらしい。バッチに投げると、Shaderを割り当てられてたオブジェクトがまるで透明になったかのように影も形も出ない状態に。バージョンのせい?64bitにしたせい?わからん。

追記:バッチに投げるとShaderが動かない原因はどうやらMTypeIDのせいらしい。環境が変わったことでIDが他のノードとかぶったりしてるのかも。オイラがいいかげんにIDつけてたのがいけなかった。こういうところはスクリプトに劣る部分だな。


スポンサーリンク

関連記事

ZBrushで基本となるブラシ
顔モデリングのチュートリアル
Adobe Photoshop CS5の新機能
Mayaのプラグイン開発
タイトルが記事の見出しみたい
ヒーローに変身なりきりアーケードゲーム『ナレルンダー』
OpenCVのバージョン3が正式リリースされたぞ
Autodesk CompositeとAutodesk MatchMoverが無料
豚インフルエンザ
Mayaでリアルな布の質感を作るチュートリアル
ZBrushトレーニング
まるで成長していない
ラクガキの立体化
OpenCVでPhotoshopのプラグイン開発
Boost オープンソースライブラリ
今年もSSII
ZBrush 2018での作業環境を整える
タマムシっぽい質感
Point Cloud Libraryに動画フォーマットが追加されるらしい
Houdiniのライセンスの種類
Unity ARKitプラグインサンプルのチュートリアルを読む
Oculus Goで特撮作品を鑑賞する
参考になりそうなサイト
2018年8月~9月 振り返り
C++の機械学習ライブラリ『Dlib』
なんかすごいサイト
CGレンダラ研究開発のためのフレームワーク『Lightmetrica (ライトメトリカ)』
UnityでShaderの入力パラメータとして行列を渡す
HTML5・WebGLベースのグラフィックスエンジン『Goo Engine』
遺伝子検査で自己分析
定数
『社会人』を諦めました
SIGGRAPH ASIA 2009で学生ボランティア募集してるみたい
Googleが求める『スマート・クリエイティブ』と言われる人材
TVML (TV program Making language)
BlenderでPhotogrammetryできるアドオン
Leap MotionでMaya上のオブジェクトを操作できるプラグイン
ZBrushのUV MasterでUV展開
ZBrushで仮面ライダー3号を造る 仮面編 Clay Polish
素敵なパーティクル
OpenCVで動画の手振れ補正
レンダラ制作はOpenGL とか DirectX を使わなくてもできるんだぜ

コメント