Amazonの新しいスマホに搭載されてちょっと話題になったけど、カメラから画像認識技術を使ってユーザーの視線を計算すれば、2Dの普通のディスプレイでも疑似的に3D映像を表示することができる。Amazonはこの疑似表示方法をDynamic Perspectiveと呼んでいる。
これは、対象ユーザーが1人の場合に可能な方法で、ユーザーの目の移動に合わせてディスプレイに表示する映像を変化させることで、奥行きを感じさせるもの。スマホのように手に持つなど、目とディスプレイの位置関係が手振れなどで常に変動する環境が前提。両者の位置が静止した関係では立体感を表現できない。
https://www.youtube.com/watch?v=RvOIpN7ZiVg
個人的にこの考え方は非常に好き。この考え方というのは、表示を3Dにすることでよりリッチにしようって考えのこと。3Dテレビが盛り上がらなかったせいなのか、割と「3Dは無意味」って認識が根強いんだけど、コンテンツを作りづらいのが普及の一番の足かせだったと思う。日常生活で空間認識している状態に近い情報提示手段の方が、より直観的なUIだとオイラは考えている。
もちろん2Dの方が相応しい場合もあるとは思うけど、3Dだから可能になることもたくさんあるんじゃないだろうか。文書みたいなデスクトップのパラダイムで生まれた情報は確かに2Dの方が良いんだけどさ。
アマゾン初のスマートフォン「Fire Phone」レビュー(前編)–3D効果やデザインなど
アマゾン初のスマートフォン「Fire Phone」レビュー(後編)–アプリや機能、性能など
ちなみに、カメラ画像からの顔追跡には日本のオムロン社のエンジンが使われているらしい。同じ原理でiPadでもソフトウェア的に3D表示を実装することができる。
iPadで実装した例↓
顔や視線でコントロール コンピュータビジョンのセカイ – 今そこにあるミライ
関連記事
顔のモデリング
PGGAN:段階的に解像度を上げて学習を進めるGAN
3Dモデルを立体視で確認できるVRアプリを作っている
ZBrushで仮面ライダー3号を造る 仮面編 DynaMes...
Siggraph Asia 2009 カンファレンスの詳細
『PIXARのひみつ展』に行ってきた
アニゴジ関連情報
ArUco:OpenCVベースのコンパクトなARライブラリ
布地のシワの法則性
SIGGRAPH Asia
ガメラ生誕50周年
OpenCVで顔のランドマークを検出する『Facemark ...
PythonでBlenderのAdd-on開発
OpenFace:Deep Neural Networkによ...
ZBrushでアヴァン・ガメラを作ってみる 歯茎を別パーツへ...
スターウォーズ エピソードVIIの予告編
FacebookがDeep learningツールの一部をオ...
Pix2Pix:CGANによる画像変換
映画『ブレードランナー 2049』のVFX
日本でMakersは普及するだろうか?
Unite 2014の動画
Blender 2.8がついに正式リリース!
ラクガキの立体化 進捗
Cartographer:オープンソースのSLAMライブラリ
Leap MotionでMaya上のオブジェクトを操作できる...
ZBrushの練習 手のモデリング
世界一下品なクマと世界一紳士なクマ
Photoshopで作る怪獣特撮チュートリアル
中学3年生が制作した短編映像作品『2045』
ZBrushでUndo Historyを動画に書き出す
Multi-View Environment:複数画像から3...
ZBrushでアヴァン・ガメラを作ってみる 頬の突起を作り始...
Iridescence:プロトタイピング向け軽量3D可視化ラ...
ZBrushでゴジラ2001を作ってみる 頭の概形作り
Faceshiftで表情をキャプチャしてBlender上でM...
フィーリングに基づくタマムシの質感表現
ゴジラ(2014)のメイキング
ZBrushでゴジラ2001を作ってみる 身体のSubToo...
OpenCVでカメラ画像から自己位置認識 (Visual O...
WebGL開発に関する情報が充実してきている
Qlone:スマホのカメラで3Dスキャンできるアプリ
池袋パルコで3Dのバーチャルフィッティング『ウェアラブル ク...

コメント