顔追跡による擬似3D表示『Dynamic Perspective』

Amazonの新しいスマホに搭載されてちょっと話題になったけど、カメラから画像認識技術を使ってユーザーの視線を計算すれば、2Dの普通のディスプレイでも疑似的に3D映像を表示することができる。Amazonはこの疑似表示方法をDynamic Perspectiveと呼んでいる。
これは、対象ユーザーが1人の場合に可能な方法で、ユーザーの目の移動に合わせてディスプレイに表示する映像を変化させることで、奥行きを感じさせるもの。スマホのように手に持つなど、目とディスプレイの位置関係が手振れなどで常に変動する環境が前提。両者の位置が静止した関係では立体感を表現できない。


スポンサーリンク




個人的にこの考え方は非常に好き。この考え方というのは、表示を3Dにすることでよりリッチにしようって考えのこと。3Dテレビが盛り上がらなかったせいなのか、割と「3Dは無意味」って認識が根強いんだけど、コンテンツを作りづらいのが普及の一番の足かせだったと思う。日常生活で空間認識している状態に近い情報提示手段の方が、より直観的なUIだとオイラは考えている。
もちろん2Dの方が相応しい場合もあるとは思うけど、3Dだから可能になることもたくさんあるんじゃないだろうか。文書みたいなデスクトップのパラダイムで生まれた情報は確かに2Dの方が良いんだけどさ。

アマゾン初のスマートフォン「Fire Phone」レビュー(前編)–3D効果やデザインなど
アマゾン初のスマートフォン「Fire Phone」レビュー(後編)–アプリや機能、性能など

ちなみに、カメラ画像からの顔追跡には日本のオムロン社のエンジンが使われているらしい。同じ原理でiPadでもソフトウェア的に3D表示を実装することができる。
iPadで実装した例↓



顔や視線でコントロール コンピュータビジョンのセカイ – 今そこにあるミライ


スポンサーリンク

関連記事

書籍『The Art of Mystical Beasts』を購入
ZBrushでリメッシュとディティールの転送
ZBrushで手首のモデリングをリファイン
ラクガキの立体化 目標設定
ニューラルネットワークで画像分類
Texturing & Modeling A Procedural ApproachをGoo...
OpenFace:Deep Neural Networkによる顔の個人識別フレームワーク
SIGGRAPH論文へのリンクサイト
BlenderでPhotogrammetryできるアドオン
Google Colaboratoryで遊ぶ準備
Deep Fluids:流体シミュレーションをディープラーニングで近似する
Stanford Bunny
世界一下品なクマと世界一紳士なクマ
Unityの薄い本
参考書
TensorSpace.js:ニューラルネットワークの構造を可視化するフレームワーク
GoB:ZBrushとBlenderを連携させるアドオン
Mixamo:人型3Dキャラクターアニメーション制作サービス
OpenGVのライブラリ構成
ZBrushで仮面ライダー3号を造る 仮面編 横顔のシルエットをリファレンスに合わせる
デザインのリファイン再び
ポリ男をリファイン
『ローグ・ワン/スター・ウォーズ・ストーリー』"あのキャラクター"のメイキング
Mitsuba 2:オープンソースの物理ベースレンダラ
ZBrushの練習 手のモデリング
オープンソースの物理ベースレンダラ『Mitsuba』をMayaで使う
Ambient Occlusionを解析的に求める
第20回 文化庁メディア芸術祭『3DCG表現と特撮の時代』
実写と実写の合成時の色の馴染ませテクニック
オープンソースのネットワーク可視化ソフトウェアプラットフォーム『Cytoscape』
Open Shading Language (OSL)
OpenCV 3.3.0 contribのsfmモジュールのサンプルを動かしてみる
この本読むよ
OpenCVで動画の手ぶれ補正
MFnDataとMFnAttribute
『ローグ・ワン/スター・ウォーズ・ストーリー』のVFXブレイクダウン まとめ
YOLO (You Only Look Once):ディープラーニングによる一般物体検出手法
Active Appearance Models(AAM)
Physically Based Rendering
iPadをハンディ3Dスキャナにするガジェット『iSense 3D Scanner』
PythonでMayaのShapeノードプラグインを作る
OpenVDB:3Dボリュームデータ処理ライブラリ

コメント