顔追跡による擬似3D表示『Dynamic Perspective』

Amazonの新しいスマホに搭載されてちょっと話題になったけど、カメラから画像認識技術を使ってユーザーの視線を計算すれば、2Dの普通のディスプレイでも疑似的に3D映像を表示することができる。Amazonはこの疑似表示方法をDynamic Perspectiveと呼んでいる。
これは、対象ユーザーが1人の場合に可能な方法で、ユーザーの目の移動に合わせてディスプレイに表示する映像を変化させることで、奥行きを感じさせるもの。スマホのように手に持つなど、目とディスプレイの位置関係が手振れなどで常に変動する環境が前提。両者の位置が静止した関係では立体感を表現できない。





個人的にこの考え方は非常に好き。この考え方というのは、表示を3Dにすることでよりリッチにしようって考えのこと。3Dテレビが盛り上がらなかったせいなのか、割と「3Dは無意味」って認識が根強いんだけど、コンテンツを作りづらいのが普及の一番の足かせだったと思う。日常生活で空間認識している状態に近い情報提示手段の方が、より直観的なUIだとオイラは考えている。
もちろん2Dの方が相応しい場合もあるとは思うけど、3Dだから可能になることもたくさんあるんじゃないだろうか。文書みたいなデスクトップのパラダイムで生まれた情報は確かに2Dの方が良いんだけどさ。

アマゾン初のスマートフォン「Fire Phone」レビュー(前編)–3D効果やデザインなど
アマゾン初のスマートフォン「Fire Phone」レビュー(後編)–アプリや機能、性能など

ちなみに、カメラ画像からの顔追跡には日本のオムロン社のエンジンが使われているらしい。同じ原理でiPadでもソフトウェア的に3D表示を実装することができる。
iPadで実装した例↓



顔や視線でコントロール コンピュータビジョンのセカイ – 今そこにあるミライ

関連記事

オープンソースの物理ベースレンダラ『Mitsuba』をMay...

ディープラーニング

OpenMesh:オープンソースの3Dメッシュデータライブラ...

Geogram:C++の3D幾何アルゴリズムライブラリ

フォトンの放射から格納までを可視化した動画

Faceshiftで表情をキャプチャしてBlender上でM...

Faster R-CNN:ディープラーニングによる一般物体検...

3Dモデルを立体視で確認できるVRアプリを作っている

TensorSpace.js:ニューラルネットワークの構造を...

Unreal Engineの薄い本

『PIXARのひみつ展』に行ってきた

Iridescence:プロトタイピング向け軽量3D可視化ラ...

Unityをレンダラとして活用する

ポリ男をリファイン

GoogleのDeep Learning論文

3Dスキャンに基づくプロシージャルフェイシャルアニメーション

TeleSculptor:空撮動画からPhotogramme...

UnityでTweenアニメーションを実装できる3種類の無料...

Unityで360度ステレオVR動画を作る

ラクガキの立体化 背中の作り込み・手首の移植

ZBrushのUndo Historyをカメラ固定で動画化す...

ラクガキの立体化 進捗

Blender 4.2以降のWindowsPortable版...

adskShaderSDK

ZBrushで仮面ライダー3号を造る 仮面編 Clay Po...

布のモデリング

なんかすごいサイト

書籍『OpenCV 3 プログラミングブック』を購入

顔画像処理技術の過去の研究

HD画質の無駄遣い

『スター・ウォーズ フォースの覚醒』のVFXブレイクダウン ...

Oculus Goで特撮作品を鑑賞する

OpenCV 3.3.0-RCでsfmモジュールをビルド

この本読むよ

OpenCV 3.1とopencv_contribモジュール...

『ピクサー展』へ行ってきた

ZBrushトレーニング

ハリウッド版「GAIKING」パイロット映像

ラクガキの立体化 反省

Kornia:微分可能なコンピュータービジョンライブラリ

UnityのGameObjectの向きをScriptで制御す...

ZBrushでアヴァン・ガメラを作ってみる 下半身のバランス...

コメント