最近、立体視用のモニタ(偏光メガネで見るやつ)を1つ後輩から強奪した譲り受けたんで、適当に視差を作って色々試してみた。(youtubeは立体視にも対応してるんですね)
ちょっとやってみた感想としては、どうやら視差があり過ぎると人間の眼の認識が追いついて来ない感じ。(ちなみに、人間の平均的な両眼距離は6.5cmだそうです)
被写体とカメラの距離、画角、二つのカメラの注視点もちゃんと考えないといけない模様。(まあ、当然か)
眼はモニタ画面を注視するわけだけど、視差が大きくて像がかなり手前に飛び出す場合、手前を注視する感覚へ反射的に頭を切り替えるのがなかなか難しい。(自分だけかもしれないけど)
ただ、人間が認識しやすいように視差を減らすと、じゃあ立体視の意味があるのかという話でもある。
それから、これは偏光方式の質の問題もあると思うけど、像を立体として認識するには、色も重要な要素なんじゃないかと。オイラの作った視差動画は色味がほとんど無いんで、眼が認識しづらかったんじゃないだろうか。偏光メガネでも反対の眼用成分を完全に遮断できないようで、色味が無いと薄っすら見える反対成分と混同して認識してしまう。ということで予想としては、モノクロで視差を作っても効果が薄いんじゃないだろうか。(閲覧環境の質に依存する要素だけど)
ところで、以前もMayaのバージョンを上げた時にちょっと問題が発生した自前Shaderなんだけど、今回バッチ処理でさらに問題発覚。カレントフレームではレンダリングできるのに、バッチに投げると全く描画されなくなる。てっきりレンダーレイヤーの設定を間違えたのかと思ってたんだけど、そういうわけじゃないらしい。バッチに投げると、Shaderを割り当てられてたオブジェクトがまるで透明になったかのように影も形も出ない状態に。バージョンのせい?64bitにしたせい?わからん。
追記:バッチに投げるとShaderが動かない原因はどうやらMTypeIDのせいらしい。環境が変わったことでIDが他のノードとかぶったりしてるのかも。オイラがいいかげんにIDつけてたのがいけなかった。こういうところはスクリプトに劣る部分だな。
関連記事
書籍『ROSプログラミング』
ZBrushのハードサーフェイス用ブラシ
VCG Library:C++のポリゴン操作ライブラリ
Mayaでリアルな布の質感を作るチュートリアル
ManuelBastioniLAB:人体モデリングできるBl...
Open Shading Language (OSL)
NeRF (Neural Radiance Fields):...
書籍『開田裕治 怪獣イラストテクニック』
ZBrushでアヴァン・ガメラを作ってみる 壊れたデータの救...
R-CNN (Regions with CNN featur...
Blenderでよく使うaddon
参考書
ZBrushでゴジラ2001を作ってみる 頭の概形作り
Faceshiftで表情をキャプチャしてBlender上でM...
BlenderでPhotogrammetryできるアドオン
OpenCVで平均顔を作るチュートリアル
Maya には3 種類のシェーダSDKがある?
OpenCV 3.3.0 contribのsfmモジュールの...
OpenCVの顔検出過程を可視化した動画
3DCG Meetup #4に行ってきた
生物の骨格
画像生成AI Stable Diffusionで遊ぶ
ハリウッド版「GAIKING」パイロット映像
Blender 2.81でIntel Open Image ...
SIGGRAPH論文へのリンクサイト
仮想関数
mentalrayのSubsurface Scatterin...
フリーで使えるスカルプト系モデリングツール『Sculptri...
JavaによるCGプログラミング入門サイト (日本語)
After Effects全エフェクトの解説(6.5)
UnityでLight Shaftを表現する
実写と実写の合成時の色の馴染ませテクニック
iPhone欲しいなぁ
ラクガキの立体化 胴体の追加
ラクガキの立体化
ZBrushでアヴァン・ガメラを作ってみる 下半身のバランス...
OpenMesh:オープンソースの3Dメッシュデータライブラ...
『PIXARのひみつ展』に行ってきた
ZBrushでUndo Historyを動画に書き出す
ZBrushのUndo Historyをカメラ固定で動画化す...
ラクガキの立体化 反省
OpenCVでiPhone6sのカメラをキャリブレーションす...


コメント