Amazonの新しいスマホに搭載されてちょっと話題になったけど、カメラから画像認識技術を使ってユーザーの視線を計算すれば、2Dの普通のディスプレイでも疑似的に3D映像を表示することができる。Amazonはこの疑似表示方法をDynamic Perspectiveと呼んでいる。
これは、対象ユーザーが1人の場合に可能な方法で、ユーザーの目の移動に合わせてディスプレイに表示する映像を変化させることで、奥行きを感じさせるもの。スマホのように手に持つなど、目とディスプレイの位置関係が手振れなどで常に変動する環境が前提。両者の位置が静止した関係では立体感を表現できない。
https://www.youtube.com/watch?v=RvOIpN7ZiVg
個人的にこの考え方は非常に好き。この考え方というのは、表示を3Dにすることでよりリッチにしようって考えのこと。3Dテレビが盛り上がらなかったせいなのか、割と「3Dは無意味」って認識が根強いんだけど、コンテンツを作りづらいのが普及の一番の足かせだったと思う。日常生活で空間認識している状態に近い情報提示手段の方が、より直観的なUIだとオイラは考えている。
もちろん2Dの方が相応しい場合もあるとは思うけど、3Dだから可能になることもたくさんあるんじゃないだろうか。文書みたいなデスクトップのパラダイムで生まれた情報は確かに2Dの方が良いんだけどさ。
アマゾン初のスマートフォン「Fire Phone」レビュー(前編)–3D効果やデザインなど
アマゾン初のスマートフォン「Fire Phone」レビュー(後編)–アプリや機能、性能など
ちなみに、カメラ画像からの顔追跡には日本のオムロン社のエンジンが使われているらしい。同じ原理でiPadでもソフトウェア的に3D表示を実装することができる。
iPadで実装した例↓
顔や視線でコントロール コンピュータビジョンのセカイ – 今そこにあるミライ
関連記事
MFnDataとMFnAttribute
Google Earth用の建物を簡単に作れるツール Goo...
機械学習手法『Random Forest』
OpenMayaのPhongShaderクラス
AndroidもopenGLも初心者さ (でもJavaは知っ...
ZBrushで仮面ライダー3号を造る ベース編
Point Cloud Libraryに動画フォーマットが追...
VCG Library:C++のポリゴン操作ライブラリ
BlenderのPython環境にPyTorchをインストー...
Raytracing Wiki
ZBrush 4R7
Stanford Bunny
ベイズ推定とグラフィカルモデル
Autodesk Mementoでゴジラを3次元復元する
ラクガキの立体化 反省
Maya 2015から標準搭載されたMILA
書籍『イラストで学ぶ ディープラーニング』
Google Colaboratoryで遊ぶ準備
Mayaのレンダリング アトリビュート
BlenderのRigifyでリギング
ZBrush 2021.6のMesh from Mask機能...
OpenCV 3.1とopencv_contribモジュール...
ちょっと凝り過ぎなWebキャンペーン:全日本バーベイタム選手...
ZBrushでアヴァン・ガメラを作ってみる 爪とトゲを追加
ZBrushでゴジラ2001を作ってみる 頭の概形作り
ZBrushのUV MasterでUV展開
オープンソースの顔認識フレームワーク『OpenBR』
Blender 2.81でIntel Open Image ...
顔画像処理技術の過去の研究
タマムシっぽい質感
Unreal Engine Tokyo MeetUp!へ行っ...
PSPNet (Pyramid Scene Parsing ...
立体映像プレイヤー『Stereoscopic Player』
スターウォーズ エピソードVIIの予告編
YOLO (You Only Look Once):ディープ...
ZBrushでアヴァン・ガメラを作ってみる 甲羅のバランス調...
ZBrushで仮面ライダー3号を造る 仮面編 PolyGro...
Oculus Goで特撮作品を鑑賞する
Adobe Photoshop CS5の新機能
SIGGRAPH Asia
Subsurface scatteringの動画
ZBrushで仮面ライダー3号を造る 仮面編 ZRemesh...

コメント