Amazonの新しいスマホに搭載されてちょっと話題になったけど、カメラから画像認識技術を使ってユーザーの視線を計算すれば、2Dの普通のディスプレイでも疑似的に3D映像を表示することができる。Amazonはこの疑似表示方法をDynamic Perspectiveと呼んでいる。
これは、対象ユーザーが1人の場合に可能な方法で、ユーザーの目の移動に合わせてディスプレイに表示する映像を変化させることで、奥行きを感じさせるもの。スマホのように手に持つなど、目とディスプレイの位置関係が手振れなどで常に変動する環境が前提。両者の位置が静止した関係では立体感を表現できない。
https://www.youtube.com/watch?v=RvOIpN7ZiVg
個人的にこの考え方は非常に好き。この考え方というのは、表示を3Dにすることでよりリッチにしようって考えのこと。3Dテレビが盛り上がらなかったせいなのか、割と「3Dは無意味」って認識が根強いんだけど、コンテンツを作りづらいのが普及の一番の足かせだったと思う。日常生活で空間認識している状態に近い情報提示手段の方が、より直観的なUIだとオイラは考えている。
もちろん2Dの方が相応しい場合もあるとは思うけど、3Dだから可能になることもたくさんあるんじゃないだろうか。文書みたいなデスクトップのパラダイムで生まれた情報は確かに2Dの方が良いんだけどさ。
アマゾン初のスマートフォン「Fire Phone」レビュー(前編)–3D効果やデザインなど
アマゾン初のスマートフォン「Fire Phone」レビュー(後編)–アプリや機能、性能など
ちなみに、カメラ画像からの顔追跡には日本のオムロン社のエンジンが使われているらしい。同じ原理でiPadでもソフトウェア的に3D表示を実装することができる。
iPadで実装した例↓
顔や視線でコントロール コンピュータビジョンのセカイ – 今そこにあるミライ
関連記事
Point Cloud Libraryに動画フォーマットが追...
オープンソースのネットワーク可視化ソフトウェアプラットフォー...
VCG Library:C++のポリゴン操作ライブラリ
Mayaのポリゴン分割ツールの進化
ZBrushからBlenderへモデルをインポート
GoB:ZBrushとBlenderを連携させるアドオン
ZBrushでアヴァン・ガメラを作ってみる 頭頂部の作り込み...
オープンソースの顔の動作解析ツールキット『OpenFace』
OpenCVで平均顔を作るチュートリアル
続・ディープラーニングの資料
ArUco:OpenCVベースのコンパクトなARライブラリ
『シン・ゴジラ』のコンセプトアニメーションのメイキング動画が...
Paul Debevec
Pix2Pix:CGANによる画像変換
ZBrushでアマビエを作る その2
立体映像プレイヤー『Stereoscopic Player』
Unityの薄い本
サンプルコードにも間違いはある?
Mitsuba 3:オープンソースの研究向けレンダラ
BlenderのRigifyでリギング
統計的な顔モデル
映画『シン・仮面ライダー』 メイキング情報まとめ
COLMAP:オープンソースのSfM・MVSツール
ZBrushでリメッシュとディティールの転送
『スター・ウォーズ フォースの覚醒』のVFXブレイクダウン ...
OpenMVS:Multi-View Stereoによる3次...
スターウォーズ エピソードVIIの予告編
ZBrushCoreのTransposeとGizmo 3D
UnityでARKit2.0
TensorSpace.js:ニューラルネットワークの構造を...
Faceshiftで表情をキャプチャしてBlender上でM...
Mitsuba 2:オープンソースの物理ベースレンダラ
PeopleSansPeople:機械学習用の人物データをU...
テスト
フォトンの放射から格納までを可視化した動画
OpenCV バージョン4がリリースされた!
映画から想像するVR・AR時代のGUIデザイン
Leap MotionでMaya上のオブジェクトを操作できる...
ちょっと凝り過ぎなWebキャンペーン:全日本バーベイタム選手...
Kaolin:3Dディープラーニング用のPyTorchライブ...
Shader.jp:リアルタイム3DCG技術をあつかうサイト
OpenCV 3.1のsfmモジュールを試す

コメント