Amazonの新しいスマホに搭載されてちょっと話題になったけど、カメラから画像認識技術を使ってユーザーの視線を計算すれば、2Dの普通のディスプレイでも疑似的に3D映像を表示することができる。Amazonはこの疑似表示方法をDynamic Perspectiveと呼んでいる。
これは、対象ユーザーが1人の場合に可能な方法で、ユーザーの目の移動に合わせてディスプレイに表示する映像を変化させることで、奥行きを感じさせるもの。スマホのように手に持つなど、目とディスプレイの位置関係が手振れなどで常に変動する環境が前提。両者の位置が静止した関係では立体感を表現できない。
個人的にこの考え方は非常に好き。この考え方というのは、表示を3Dにすることでよりリッチにしようって考えのこと。3Dテレビが盛り上がらなかったせいなのか、割と「3Dは無意味」って認識が根強いんだけど、コンテンツを作りづらいのが普及の一番の足かせだったと思う。日常生活で空間認識している状態に近い情報提示手段の方が、より直観的なUIだとオイラは考えている。
もちろん2Dの方が相応しい場合もあるとは思うけど、3Dだから可能になることもたくさんあるんじゃないだろうか。文書みたいなデスクトップのパラダイムで生まれた情報は確かに2Dの方が良いんだけどさ。
アマゾン初のスマートフォン「Fire Phone」レビュー(前編)–3D効果やデザインなど
アマゾン初のスマートフォン「Fire Phone」レビュー(後編)–アプリや機能、性能など
ちなみに、カメラ画像からの顔追跡には日本のオムロン社のエンジンが使われているらしい。同じ原理でiPadでもソフトウェア的に3D表示を実装することができる。
iPadで実装した例↓
顔や視線でコントロール コンピュータビジョンのセカイ – 今そこにあるミライ
関連記事
Stanford Bunny
UnityでOpenCVを使うには?
第1回 3D勉強会@関東『SLAMチュートリアル大会』
BlenderProc:Blenderで機械学習用の画像デー...
PythonでMayaのShapeノードプラグインを作る
RefineNet (Multi-Path Refineme...
Adobe MAX 2015
OpenCV
ポリゴンジオメトリ処理ライブラリ『pmp-library (...
U-Net:ディープラーニングによるSemantic Seg...
Russian3DScannerのトポロジー転送ツール『Wr...
OpenCVの顔検出過程を可視化した動画
Subsurface scatteringの動画
Iridescence:プロトタイピング向け軽量3D可視化ラ...
OpenCVでカメラ画像から自己位置認識 (Visual O...
OpenFace:Deep Neural Networkによ...
Unityの薄い本
ZBrushで仮面ライダー3号を造る 仮面編 Clay Po...
Google製オープンソース機械学習ライブラリ『Tensor...
Unityをレンダラとして活用する
Multi-View Environment:複数画像から3...
Physically Based Rendering
『スター・ウォーズ フォースの覚醒』のVFXブレイクダウン ...
OpenGVの用語
VGGT:マルチビュー・フィードフォワード型3Dビジョン基盤...
スターウォーズ エピソードVIIの予告編
ラクガキの立体化 進捗
映画『ジュラシック・ワールド/炎の王国』のVFXブレイクダウ...
ラクガキの立体化 3Dプリント注文
PeopleSansPeople:機械学習用の人物データをU...
MetaHumanの頭部をBlenderで編集できるアドオン
AndroidもopenGLも初心者さ (でもJavaは知っ...
ZBrushで仮面ライダー3号を造る 仮面編 横顔のシルエッ...
ZBrushでアヴァン・ガメラを作ってみる 甲羅の修正・脚の...
ZBrush 4R8 リリース!
天体写真の3D動画
ManuelBastioniLAB:人体モデリングできるBl...
PolyPaint
リメイク版ロボコップスーツのメイキング
画像認識による位置情報取得 - Semi-Direct Mo...
ラクガキの立体化 目標設定
OpenCVで顔のモーフィングを実装する

コメント