Amazonの新しいスマホに搭載されてちょっと話題になったけど、カメラから画像認識技術を使ってユーザーの視線を計算すれば、2Dの普通のディスプレイでも疑似的に3D映像を表示することができる。Amazonはこの疑似表示方法をDynamic Perspectiveと呼んでいる。
これは、対象ユーザーが1人の場合に可能な方法で、ユーザーの目の移動に合わせてディスプレイに表示する映像を変化させることで、奥行きを感じさせるもの。スマホのように手に持つなど、目とディスプレイの位置関係が手振れなどで常に変動する環境が前提。両者の位置が静止した関係では立体感を表現できない。
https://www.youtube.com/watch?v=RvOIpN7ZiVg
個人的にこの考え方は非常に好き。この考え方というのは、表示を3Dにすることでよりリッチにしようって考えのこと。3Dテレビが盛り上がらなかったせいなのか、割と「3Dは無意味」って認識が根強いんだけど、コンテンツを作りづらいのが普及の一番の足かせだったと思う。日常生活で空間認識している状態に近い情報提示手段の方が、より直観的なUIだとオイラは考えている。
もちろん2Dの方が相応しい場合もあるとは思うけど、3Dだから可能になることもたくさんあるんじゃないだろうか。文書みたいなデスクトップのパラダイムで生まれた情報は確かに2Dの方が良いんだけどさ。
アマゾン初のスマートフォン「Fire Phone」レビュー(前編)–3D効果やデザインなど
アマゾン初のスマートフォン「Fire Phone」レビュー(後編)–アプリや機能、性能など
ちなみに、カメラ画像からの顔追跡には日本のオムロン社のエンジンが使われているらしい。同じ原理でiPadでもソフトウェア的に3D表示を実装することができる。
iPadで実装した例↓
顔や視線でコントロール コンピュータビジョンのセカイ – 今そこにあるミライ
関連記事
ZBrushでアヴァン・ガメラを作ってみる 頭頂部と首周りを...
MRenderUtil::raytrace
立体映像プレイヤー『Stereoscopic Player』
CNN Explainer:畳み込みニューラルネットワーク可...
AndroidもopenGLも初心者さ (でもJavaは知っ...
PythonでBlenderのAdd-on開発
MPC社によるゴジラ(2014)のVFXブレイクダウン
UnityでTweenアニメーションを実装できる3種類の無料...
トランスフォーマー :リベンジのメイキング (デジタルドメイ...
SIGGRAPH論文へのリンクサイト
今年もSSII
マイケル・ベイの動画の感覚
Shader.jp:リアルタイム3DCG技術をあつかうサイト
フリーのUV展開ツール Roadkill UV Tool
ZBrushでアヴァン・ガメラを作ってみる 首回りの修正・脚...
この本読むよ
2012のメイキングまとめ(途中)
ZBrushで仮面ライダー3号を造る 仮面編 Clay Po...
SIGGRAPH 2020はオンライン開催
Adobe Photoshop CS4 Extendedの3...
オープンソースのテクスチャマッピングシステム『Ptex』
統計的な顔モデル
顔モデリングのチュートリアル
Python for Unity:UnityEditorでP...
ZBrushでアマビエを作る その2
イタリアの自動車ブランドFiatとゴジラがコラボしたCMのメ...
OpenCVでiPhone6sのカメラをキャリブレーションす...
顔画像処理技術の過去の研究
ZBrushで仮面ライダー3号を造る 仮面編 失敗のリカバー
MeshLab:3Dオブジェクトの確認・変換に便利なフリーウ...
RefineNet (Multi-Path Refineme...
第1回 3D勉強会@関東『SLAMチュートリアル大会』
ZBrushからBlenderへモデルをインポート
Oculus Goを購入!
DensePose:画像中の人物表面のUV座標を推定する
BlenderのRigifyでリギング
PolyPaint
Regard3D:オープンソースのStructure fro...
MB-Lab:Blenderの人体モデリングアドオン
Composition Rendering:Blenderに...
UnrealCV:コンピュータビジョン研究のためのUnrea...
NeRF (Neural Radiance Fields):...

コメント