立体視を試してみた

最近、立体視用のモニタ(偏光メガネで見るやつ)を1つ後輩から強奪した譲り受けたんで、適当に視差を作って色々試してみた。(youtubeは立体視にも対応してるんですね。)


スポンサーリンク
3D Bunny


スポンサーリンク


ちょっとやってみた感想としては、どうやら視差があり過ぎると人間の眼の認識が追いついて来ない感じ。(ちなみに、人間の平均的な両眼距離は6.5cmだそうです。)
被写体とカメラの距離、画角、二つのカメラの注視点もちゃんと考えないといけない模様。(まあ、当然か。)
眼はモニタ画面を注視するわけだけど、視差が大きくて像がかなり手前に飛び出す場合、手前を注視する感覚へ反射的に頭を切り替えるのがなかなか難しい。(自分だけかもしれないけど。)
ただ、人間が認識しやすいように視差を減らすと、じゃあ立体視の意味があるのかという話でもある。

それから、これは偏光方式の質の問題もあると思うけど、像を立体として認識するには、色も重要な要素なんじゃないかと。オイラの作った視差動画は色味がほとんど無いんで、眼が認識しづらかったんじゃないだろうか。偏光メガネでも反対の眼用成分を完全に遮断できないようで、色味が無いと薄っすら見える反対成分と混同して認識してしまう。ということで予想としては、モノクロで視差を作っても効果が薄いんじゃないだろうか。(閲覧環境の質に依存する要素だけど。)

ところで、以前もMayaのバージョンを上げた時にちょっと問題が発生した自前Shaderなんだけど、今回バッチ処理でさらに問題発覚。カレントフレームではレンダリングできるのに、バッチに投げると全く描画されなくなる。てっきりレンダーレイヤーの設定を間違えたのかと思ってたんだけど、そういうわけじゃないらしい。バッチに投げると、Shaderを割り当てられてたオブジェクトがまるで透明になったかのように影も形も出ない状態に。バージョンのせい?64bitにしたせい?わからん。

追記:バッチに投げるとShaderが動かない原因はどうやらMTypeIDのせいらしい。環境が変わったことでIDが他のノードとかぶったりしてるのかも。オイラがいいかげんにIDつけてたのがいけなかった。こういうところはスクリプトに劣る部分だな。


スポンサーリンク

関連記事

共通の「思い出のコンテンツ」がない世代
ブログをWordpressに引っ越して1周年
テスト
ZBrushのZmodelerとDynamic Subdivisionを学ぶ
Mayaのポリゴン分割ツールの進化
Faceshiftで表情をキャプチャしてBlender上でMakeHumanのメッシュを動かすデモ
タマムシ
OpenCVでPhotoshopのプラグイン開発
コンピュータビジョン研究のためのUnreal Engineプラグイン『UnrealCV』
読みやすくて高速なディープラーニングのフレームワーク『Caffe』
Blenderの人体モデリングアドオン『MB-Lab』
3DCGのモデルを立体化するサービス
ラクガキの立体化 進捗
『シン・ゴジラ』のコンセプトアニメーションのメイキング動画が公開された
『社会人』を諦めました
オープンソースのStructure from Motionライブラリ『Theia』
Mr.ビーン
なりたい自分?
CEDEC 3日目
法線マップを用意してCanvas上でShadingするサンプル
頭がいい人
こんなところで身体を壊している場合じゃない
Boost オープンソースライブラリ
フィーリングに基づくタマムシの質感表現
スターウォーズ エピソードVIIの予告編
OpenCVの超解像(SuperResolution)モジュールを試す
あの頃で止まった時間
3D復元技術の情報リンク集
ラクガキの立体化 反省
WebGL開発に関する情報が充実してきている
布のモデリング
ヘッドマウントディスプレイとビジュアリゼーションの未来
バットマンビギンズに学ぶブランディング戦略
オープンソースのネットワーク可視化ソフトウェアプラットフォーム『Cytoscape』
Windows←切替→Mac
感じたことを言語化する
ラクガキの立体化 3Dプリント注文
ZBrushのUV MasterでUV展開
TVML (TV program Making language)
ZBrushで仮面ライダー3号を造る 仮面編 失敗のリカバー
Subsurface scatteringの動画
犬が電柱におしっこするように、僕はセカイカメラでエアタグを貼る(初日の感想)

コメント