Amazonの新しいスマホに搭載されてちょっと話題になったけど、カメラから画像認識技術を使ってユーザーの視線を計算すれば、2Dの普通のディスプレイでも疑似的に3D映像を表示することができる。Amazonはこの疑似表示方法をDynamic Perspectiveと呼んでいる。
これは、対象ユーザーが1人の場合に可能な方法で、ユーザーの目の移動に合わせてディスプレイに表示する映像を変化させることで、奥行きを感じさせるもの。スマホのように手に持つなど、目とディスプレイの位置関係が手振れなどで常に変動する環境が前提。両者の位置が静止した関係では立体感を表現できない。
スポンサーリンク
https://www.youtube.com/watch?v=RvOIpN7ZiVg
個人的にこの考え方は非常に好き。この考え方というのは、表示を3Dにすることでよりリッチにしようって考えのこと。3Dテレビが盛り上がらなかったせいなのか、割と「3Dは無意味」って認識が根強いんだけど、コンテンツを作りづらいのが普及の一番の足かせだったと思う。日常生活で空間認識している状態に近い情報提示手段の方が、より直観的なUIだとオイラは考えている。
もちろん2Dの方が相応しい場合もあるとは思うけど、3Dだから可能になることもたくさんあるんじゃないだろうか。文書みたいなデスクトップのパラダイムで生まれた情報は確かに2Dの方が良いんだけどさ。
アマゾン初のスマートフォン「Fire Phone」レビュー(前編)–3D効果やデザインなど
アマゾン初のスマートフォン「Fire Phone」レビュー(後編)–アプリや機能、性能など
ちなみに、カメラ画像からの顔追跡には日本のオムロン社のエンジンが使われているらしい。同じ原理でiPadでもソフトウェア的に3D表示を実装することができる。
iPadで実装した例↓
顔や視線でコントロール コンピュータビジョンのセカイ – 今そこにあるミライ
スポンサーリンク
関連記事
3D復元技術の情報リンク集
YOLO (You Only Look Once):ディープラーニングによる一般物体検出手法
映画『ブレードランナー 2049』のVFX
adskShaderSDK
OpenCVでiPhone6sのカメラをキャリブレーションする
OpenMayaRender
fSpy:1枚の写真からカメラパラメーターを割り出すツール
Unity ARKitプラグインサンプルのドキュメントを読む
Unityで360度ステレオVR動画を作る
ZBrushでゴジラ2001を作ってみる 身体のSubToolを分割
ラクガキの立体化 1年半ぶりの続き
Iridescence:プロトタイピング向け軽量3D可視化ライブラリ
ZBrushのキャンバスにリファレンス画像を配置する
ファンの力
ドラマ『ファーストクラス』のモーショングラフィックス
CreativeCOW.net
ZBrushのZScript入門
ポリ男からMetaHumanを作る
ZBrushCoreのTransposeとGizmo 3D
ZBrushでアヴァン・ガメラを作ってみる 腕の作り込み
ZBrush4新機能ハイライト 3DCG CAMP 2010
CGWORLD CHANNEL 第21回ニコ生配信は『シン・ゴジラ』メイキングスペシャル!
『ローグ・ワン/スター・ウォーズ・ストーリー』"あのキャラクター"のメイキング
ニューラルネットワークで画像分類
BlenderのGeometry Nodeで遊ぶ
ZBrushでアヴァン・ガメラを作ってみる おでこ(?)のバランス調整
iPadをハンディ3Dスキャナにするガジェット『iSense 3D Scanner』
Texturing & Modeling A Procedural ApproachをGoo...
立体映像プレイヤー『Stereoscopic Player』
天体写真の3D動画
GoogleのDeep Learning論文
Python for Unity:UnityEditorでPythonを使えるパッケージ
ZBrushでゴジラ2001を作ってみる 側頭部のボリュームを探る
OpenCV3.3.0でsfmモジュールのビルドに成功!
UnityでTweenアニメーションを実装できる3種類の無料Asset
MeshLab:3Dオブジェクトの確認・変換に便利なフリーウェア
書籍『The Art of Mystical Beasts』を購入
無料で使える人体3DCG作成ツール
GoB:ZBrushとBlenderを連携させるアドオン
Faceshiftで表情をキャプチャしてBlender上でMakeHumanのメッシュを動かすデモ
PythonでBlenderのAdd-on開発
OpenCV 3.1から追加されたSfMモジュール
コメント