顔追跡による擬似3D表示『Dynamic Perspective』

Amazonの新しいスマホに搭載されてちょっと話題になったけど、カメラから画像認識技術を使ってユーザーの視線を計算すれば、2Dの普通のディスプレイでも疑似的に3D映像を表示することができる。Amazonはこの疑似表示方法をDynamic Perspectiveと呼んでいる。
これは、対象ユーザーが1人の場合に可能な方法で、ユーザーの目の移動に合わせてディスプレイに表示する映像を変化させることで、奥行きを感じさせるもの。スマホのように手に持つなど、目とディスプレイの位置関係が手振れなどで常に変動する環境が前提。両者の位置が静止した関係では立体感を表現できない。



https://www.youtube.com/watch?v=RvOIpN7ZiVg

個人的にこの考え方は非常に好き。この考え方というのは、表示を3Dにすることでよりリッチにしようって考えのこと。3Dテレビが盛り上がらなかったせいなのか、割と「3Dは無意味」って認識が根強いんだけど、コンテンツを作りづらいのが普及の一番の足かせだったと思う。日常生活で空間認識している状態に近い情報提示手段の方が、より直観的なUIだとオイラは考えている。
もちろん2Dの方が相応しい場合もあるとは思うけど、3Dだから可能になることもたくさんあるんじゃないだろうか。文書みたいなデスクトップのパラダイムで生まれた情報は確かに2Dの方が良いんだけどさ。

アマゾン初のスマートフォン「Fire Phone」レビュー(前編)–3D効果やデザインなど
アマゾン初のスマートフォン「Fire Phone」レビュー(後編)–アプリや機能、性能など

ちなみに、カメラ画像からの顔追跡には日本のオムロン社のエンジンが使われているらしい。同じ原理でiPadでもソフトウェア的に3D表示を実装することができる。
iPadで実装した例↓



顔や視線でコントロール コンピュータビジョンのセカイ – 今そこにあるミライ

関連記事

MFnDataとMFnAttribute

Google Earth用の建物を簡単に作れるツール Goo...

機械学習手法『Random Forest』

OpenMayaのPhongShaderクラス

AndroidもopenGLも初心者さ (でもJavaは知っ...

ZBrushで仮面ライダー3号を造る ベース編

Point Cloud Libraryに動画フォーマットが追...

VCG Library:C++のポリゴン操作ライブラリ

BlenderのPython環境にPyTorchをインストー...

Raytracing Wiki

ZBrush 4R7

Stanford Bunny

ベイズ推定とグラフィカルモデル

Autodesk Mementoでゴジラを3次元復元する

ラクガキの立体化 反省

Maya 2015から標準搭載されたMILA

書籍『イラストで学ぶ ディープラーニング』

Google Colaboratoryで遊ぶ準備

Mayaのレンダリング アトリビュート

BlenderのRigifyでリギング

ZBrush 2021.6のMesh from Mask機能...

OpenCV 3.1とopencv_contribモジュール...

ちょっと凝り過ぎなWebキャンペーン:全日本バーベイタム選手...

ZBrushでアヴァン・ガメラを作ってみる 爪とトゲを追加

ZBrushでゴジラ2001を作ってみる 頭の概形作り

ZBrushのUV MasterでUV展開

オープンソースの顔認識フレームワーク『OpenBR』

Blender 2.81でIntel Open Image ...

顔画像処理技術の過去の研究

タマムシっぽい質感

Unreal Engine Tokyo MeetUp!へ行っ...

PSPNet (Pyramid Scene Parsing ...

立体映像プレイヤー『Stereoscopic Player』

スターウォーズ エピソードVIIの予告編

YOLO (You Only Look Once):ディープ...

ZBrushでアヴァン・ガメラを作ってみる 甲羅のバランス調...

ZBrushで仮面ライダー3号を造る 仮面編 PolyGro...

Oculus Goで特撮作品を鑑賞する

Adobe Photoshop CS5の新機能

SIGGRAPH Asia

Subsurface scatteringの動画

ZBrushで仮面ライダー3号を造る 仮面編 ZRemesh...

コメント