顔追跡による擬似3D表示『Dynamic Perspective』

Amazonの新しいスマホに搭載されてちょっと話題になったけど、カメラから画像認識技術を使ってユーザーの視線を計算すれば、2Dの普通のディスプレイでも疑似的に3D映像を表示することができる。Amazonはこの疑似表示方法をDynamic Perspectiveと呼んでいる。
これは、対象ユーザーが1人の場合に可能な方法で、ユーザーの目の移動に合わせてディスプレイに表示する映像を変化させることで、奥行きを感じさせるもの。スマホのように手に持つなど、目とディスプレイの位置関係が手振れなどで常に変動する環境が前提。両者の位置が静止した関係では立体感を表現できない。



https://www.youtube.com/watch?v=RvOIpN7ZiVg

個人的にこの考え方は非常に好き。この考え方というのは、表示を3Dにすることでよりリッチにしようって考えのこと。3Dテレビが盛り上がらなかったせいなのか、割と「3Dは無意味」って認識が根強いんだけど、コンテンツを作りづらいのが普及の一番の足かせだったと思う。日常生活で空間認識している状態に近い情報提示手段の方が、より直観的なUIだとオイラは考えている。
もちろん2Dの方が相応しい場合もあるとは思うけど、3Dだから可能になることもたくさんあるんじゃないだろうか。文書みたいなデスクトップのパラダイムで生まれた情報は確かに2Dの方が良いんだけどさ。

アマゾン初のスマートフォン「Fire Phone」レビュー(前編)–3D効果やデザインなど
アマゾン初のスマートフォン「Fire Phone」レビュー(後編)–アプリや機能、性能など

ちなみに、カメラ画像からの顔追跡には日本のオムロン社のエンジンが使われているらしい。同じ原理でiPadでもソフトウェア的に3D表示を実装することができる。
iPadで実装した例↓



顔や視線でコントロール コンピュータビジョンのセカイ – 今そこにあるミライ

関連記事

ZBrushでアヴァン・ガメラを作ってみる 全体のバランス調...

GoogleのDeep Learning論文

UnityでOpenCVを使うには?

SIGGRAPH Asia

ゴジラ(2014)のディティール制作の舞台裏

Polyscope:3Dデータ操作用GUIライブラリ

PythonでBlenderのAdd-on開発

Theia:オープンソースのStructure from M...

3DCG Meetup #4に行ってきた

『シン・ゴジラ』のコンセプトアニメーションのメイキング動画が...

Oculus Goで特撮作品を鑑賞する

第25回コンピュータビジョン勉強会@関東に行って来た

AndroidもopenGLも初心者さ (でもJavaは知っ...

Oculus Quest 2を購入!

OpenCV

オープンソースの顔認識フレームワーク『OpenBR』

ZBrushでアヴァン・ガメラを作ってみる 口のバランス調整

ZBrushでアヴァン・ガメラを作ってみる 歯茎を別パーツへ...

「ベンジャミン·バトン数奇な人生」でどうやってCGの顔を作っ...

Stanford Bunny

U-Net:ディープラーニングによるSemantic Seg...

畳み込みニューラルネットワーク (CNN: Convolut...

SSII 2014 デモンストレーションセッションのダイジェ...

Windows Server 2008にAutodesk M...

BlenderのRigifyでリギング

ZBrushでゴジラ2001を作ってみる 身体のアタリを作る

ニューラルネットワークで画像分類

Adobe MAX 2015

プロシージャル手法に特化した本が出てるみたい(まだ買わないけ...

Regard3D:オープンソースのStructure fro...

Google Earth用の建物を簡単に作れるツール Goo...

Vancouver Film Schoolのデモリール

スターウォーズ エピソードVIIの予告編

Blender 2.81でIntel Open Image ...

MeshroomでPhotogrammetry

Unity ARKitプラグインサンプルのチュートリアルを読...

RefineNet (Multi-Path Refineme...

ZBrushで作った3Dモデルを立体視で確認できるVRアプリ...

Facebookの顔認証技術『DeepFace』

CreativeCOW.net

ラクガキの立体化 反省

機械学習手法『Random Forest』

コメント