Amazonの新しいスマホに搭載されてちょっと話題になったけど、カメラから画像認識技術を使ってユーザーの視線を計算すれば、2Dの普通のディスプレイでも疑似的に3D映像を表示することができる。Amazonはこの疑似表示方法をDynamic Perspectiveと呼んでいる。
これは、対象ユーザーが1人の場合に可能な方法で、ユーザーの目の移動に合わせてディスプレイに表示する映像を変化させることで、奥行きを感じさせるもの。スマホのように手に持つなど、目とディスプレイの位置関係が手振れなどで常に変動する環境が前提。両者の位置が静止した関係では立体感を表現できない。
https://www.youtube.com/watch?v=RvOIpN7ZiVg
個人的にこの考え方は非常に好き。この考え方というのは、表示を3Dにすることでよりリッチにしようって考えのこと。3Dテレビが盛り上がらなかったせいなのか、割と「3Dは無意味」って認識が根強いんだけど、コンテンツを作りづらいのが普及の一番の足かせだったと思う。日常生活で空間認識している状態に近い情報提示手段の方が、より直観的なUIだとオイラは考えている。
もちろん2Dの方が相応しい場合もあるとは思うけど、3Dだから可能になることもたくさんあるんじゃないだろうか。文書みたいなデスクトップのパラダイムで生まれた情報は確かに2Dの方が良いんだけどさ。
アマゾン初のスマートフォン「Fire Phone」レビュー(前編)–3D効果やデザインなど
アマゾン初のスマートフォン「Fire Phone」レビュー(後編)–アプリや機能、性能など
ちなみに、カメラ画像からの顔追跡には日本のオムロン社のエンジンが使われているらしい。同じ原理でiPadでもソフトウェア的に3D表示を実装することができる。
iPadで実装した例↓
顔や視線でコントロール コンピュータビジョンのセカイ – 今そこにあるミライ
関連記事
生物の骨格
『ローグ・ワン/スター・ウォーズ・ストーリー』"あのキャラク...
ZBrushのZScript入門
ZBrushでアヴァン・ガメラを作ってみる 首回りの修正・脚...
OpenCVの超解像(SuperResolution)モジュ...
ニューラルネットワークで画像分類
ZBrushで仮面ライダー3号を造る 仮面編 ZRemesh...
Mayaのポリゴン分割ツールの進化
トランスフォーマーロストエイジのメイキング
OpenCVで顔のモーフィングを実装する
ラクガキの立体化 進捗
フィーリングに基づくタマムシの質感表現
書籍『メイキング・オブ・ピクサー 創造力をつくった人々』を読...
Accord.NET Framework:C#で使える機械学...
bpy-renderer:レンダリング用Pythonパッケー...
書籍『開田裕治 怪獣イラストテクニック』
ZBrushでリメッシュとディティールの転送
『スター・ウォーズ 最後のジェダイ』のVFXブレイクダウン ...
Live CV:インタラクティブにComputer Visi...
ZBrushで作った3Dモデルを立体視で確認できるVRアプリ...
Dlib:C++の機械学習ライブラリ
CNN Explainer:畳み込みニューラルネットワーク可...
UnityでARKit2.0
シン・ゴジラのファンアート
ZBrushでアヴァン・ガメラを作ってみる パーツ分割
Kornia:微分可能なコンピュータービジョンライブラリ
Maya には3 種類のシェーダSDKがある?
OpenCVで動画の手ぶれ補正
参考書
Faceshiftで表情をキャプチャしてBlender上でM...
OpenMVS:Multi-View Stereoによる3次...
SIGGRAPH ASIA 2009で学生ボランティア募集し...
iPhone 3GSがますます欲しくなる動画
Adobeの手振れ補正機能『ワープスタビライザー』の秘密
立体映像プレイヤー『Stereoscopic Player』
ファンの力
リメイク版ロボコップスーツのメイキング
顔のモデリング
『パシフィック・リム: アップライジング』のVFXブレイクダ...
HTML5・WebGLベースのグラフィックスエンジン『Goo...
AR (Augmented Reality)とDR (Dim...
Open Shading Language (OSL)

コメント