立体視を試してみた

最近、立体視用のモニタ(偏光メガネで見るやつ)を1つ後輩から強奪した譲り受けたんで、適当に視差を作って色々試してみた。(youtubeは立体視にも対応してるんですね)





ちょっとやってみた感想としては、どうやら視差があり過ぎると人間の眼の認識が追いついて来ない感じ。(ちなみに、人間の平均的な両眼距離は6.5cmだそうです)
被写体とカメラの距離、画角、二つのカメラの注視点もちゃんと考えないといけない模様。(まあ、当然か)
眼はモニタ画面を注視するわけだけど、視差が大きくて像がかなり手前に飛び出す場合、手前を注視する感覚へ反射的に頭を切り替えるのがなかなか難しい。(自分だけかもしれないけど)
ただ、人間が認識しやすいように視差を減らすと、じゃあ立体視の意味があるのかという話でもある。

それから、これは偏光方式の質の問題もあると思うけど、像を立体として認識するには、色も重要な要素なんじゃないかと。オイラの作った視差動画は色味がほとんど無いんで、眼が認識しづらかったんじゃないだろうか。偏光メガネでも反対の眼用成分を完全に遮断できないようで、色味が無いと薄っすら見える反対成分と混同して認識してしまう。ということで予想としては、モノクロで視差を作っても効果が薄いんじゃないだろうか。(閲覧環境の質に依存する要素だけど)

ところで、以前もMayaのバージョンを上げた時にちょっと問題が発生した自前Shaderなんだけど、今回バッチ処理でさらに問題発覚。カレントフレームではレンダリングできるのに、バッチに投げると全く描画されなくなる。てっきりレンダーレイヤーの設定を間違えたのかと思ってたんだけど、そういうわけじゃないらしい。バッチに投げると、Shaderを割り当てられてたオブジェクトがまるで透明になったかのように影も形も出ない状態に。バージョンのせい?64bitにしたせい?わからん。

追記:バッチに投げるとShaderが動かない原因はどうやらMTypeIDのせいらしい。環境が変わったことでIDが他のノードとかぶったりしてるのかも。オイラがいいかげんにIDつけてたのがいけなかった。こういうところはスクリプトに劣る部分だな。

関連記事

OpenCV3.3.0でsfmモジュールのビルドに成功!

UnityでShaderの入力パラメータとして行列を渡す

1枚の画像からマテリアルを作成できる無料ツール『Materi...

ファンの力

オープンソースの顔認識フレームワーク『OpenBR』

海外ドラマのChromaKey

openMVGをWindows10 Visual Studi...

ZBrushでアヴァン・ガメラを作ってみる 歯を配置

ポリ男をリファイン

顔モデリングのチュートリアル

第20回 文化庁メディア芸術祭『3DCG表現と特撮の時代』

Texturing & Modeling A Pro...

参考になりそうなサイト

オープンソースの人体モデリングツール『MakeHuman』の...

OpenGVのライブラリ構成

ラクガキの立体化 背中の作り込み・手首の移植

テスト

ZBrushでアヴァン・ガメラを作ってみる 壊れたデータの救...

OpenCVでカメラ画像から自己位置認識 (Visual O...

参考書

CGレンダラ研究開発のためのフレームワーク『Lightmet...

なんかすごいサイト

ZBrush キャラクター&クリーチャー

定数

Unite 2014の動画

法線マップを用意してCanvas上でShadingするサンプ...

ZBrushからBlenderへモデルをインポート

WebGL開発に関する情報が充実してきている

TensorFlowでCGを微分できる『TensorFlow...

布地のシワの法則性

ガメラ生誕50周年

HD画質の無駄遣い その2

立体映像プレイヤー『Stereoscopic Player』

PolyPaint

トランスフォーマー/ロストエイジのメイキング

OpenCV 3.1のsfmモジュールを試す

OpenAR:OpenCVベースのマーカーARライブラリ

iPhone 3GSがますます欲しくなる動画

『ピクサー展』へ行ってきた

PyTorch3D:3Dコンピュータービジョンライブラリ

Oculus Goで特撮作品を鑑賞する

OpenMayaRender

コメント