Amazonの新しいスマホに搭載されてちょっと話題になったけど、カメラから画像認識技術を使ってユーザーの視線を計算すれば、2Dの普通のディスプレイでも疑似的に3D映像を表示することができる。Amazonはこの疑似表示方法をDynamic Perspectiveと呼んでいる。
これは、対象ユーザーが1人の場合に可能な方法で、ユーザーの目の移動に合わせてディスプレイに表示する映像を変化させることで、奥行きを感じさせるもの。スマホのように手に持つなど、目とディスプレイの位置関係が手振れなどで常に変動する環境が前提。両者の位置が静止した関係では立体感を表現できない。
個人的にこの考え方は非常に好き。この考え方というのは、表示を3Dにすることでよりリッチにしようって考えのこと。3Dテレビが盛り上がらなかったせいなのか、割と「3Dは無意味」って認識が根強いんだけど、コンテンツを作りづらいのが普及の一番の足かせだったと思う。日常生活で空間認識している状態に近い情報提示手段の方が、より直観的なUIだとオイラは考えている。
もちろん2Dの方が相応しい場合もあるとは思うけど、3Dだから可能になることもたくさんあるんじゃないだろうか。文書みたいなデスクトップのパラダイムで生まれた情報は確かに2Dの方が良いんだけどさ。
アマゾン初のスマートフォン「Fire Phone」レビュー(前編)–3D効果やデザインなど
アマゾン初のスマートフォン「Fire Phone」レビュー(後編)–アプリや機能、性能など
ちなみに、カメラ画像からの顔追跡には日本のオムロン社のエンジンが使われているらしい。同じ原理でiPadでもソフトウェア的に3D表示を実装することができる。
iPadで実装した例↓
顔や視線でコントロール コンピュータビジョンのセカイ – 今そこにあるミライ
関連記事
立体視を試してみた
openMVGをWindows10 Visual Studi...
PureRef:リファレンス画像専用ビューア
UnityでLight Shaftを表現する
CNN Explainer:畳み込みニューラルネットワーク可...
ZBrushでアヴァン・ガメラを作ってみる 頬の突起を作り始...
ZBrushでアヴァン・ガメラを作ってみる 下アゴと頭部を作...
CGレンダラ研究開発のためのフレームワーク『Lightmet...
MeshroomでPhotogrammetry
3Dスキャンに基づくプロシージャルフェイシャルアニメーション
ZBrushでアヴァン・ガメラを作ってみる 歯を配置
UnityのTransformクラスについて調べてみた
オープンソースの物理ベースレンダラ『Mitsuba』をMay...
ゴジラの造形
ちょっと凝り過ぎなWebキャンペーン:全日本バーベイタム選手...
Unite 2014の動画
MeshLab:3Dオブジェクトの確認・変換に便利なフリーウ...
頭蓋骨からの顔復元と進化過程の可視化
『ピクサー展』へ行ってきた
生物の骨格
Windows Server 2008にAutodesk M...
『ローグ・ワン/スター・ウォーズ・ストーリー』"あのキャラク...
映画『ミュータント・タートルズ』を観てきた
ZBrush 4R8 リリース!
3DCGのモデルを立体化するサービス
Oculus Goを購入!
オープンソースのテクスチャマッピングシステム『Ptex』
CLO:服飾デザインツール
オープンソースの物理ベースGIレンダラ『appleseed』
ZBrushと液晶ペンタブレットでドラゴンをモデリングするチ...
書籍『OpenCV 3 プログラミングブック』を購入
レンダラ制作はOpenGL とか DirectX を使わなく...
ZBrushでアヴァン・ガメラを作ってみる 下アゴの付け根を...
ラクガキの立体化 目標設定
UnityのAR FoundationでARKit 3
デザインのリファイン再び
OpenCV 3.3.0-RCでsfmモジュールをビルド
『スター・ウォーズ フォースの覚醒』のVFXブレイクダウン ...
プロシージャル手法に特化した本が出てるみたい(まだ買わないけ...
Caffe:読みやすくて高速なディープラーニングのフレームワ...
ZBrushで仮面ライダー3号を造る ベース編
Oculus Goで特撮作品を鑑賞する

コメント