UnityのAR FoundationでARKit 3

6月にAppleのARKit 3が発表されて、それが利用できるのはiOS 13からということでワクワクしながら待っておりました。(持っているなけなしのiPhoneでは怖くてベータ版をインストールできなかった)
https://developer.apple.com/jp/augmented-reality/arkit/

Frame SemanticsのpersonSegmemntationWithDepthが実際どんな感じなのか試してみたいな。

今年の1月にUnity-ARKit-Pluginを使ってでちょっとARKit遊びをしてみたけれど、



ARKit 3以降はUnity-ARKit-Pluginではなく、AndroidのARCoreも含めて全てAR Foundationから利用する形になるらしい。

AR Foundation 3.0

Cross-Platform AR in Unity! – AR Foundation Overview

AR Foundationを使用すれば、Unity上でマルチプラットフォームな方法で様々なARプラットフォームを操作できます。このパッケージはUnity開発者が使用できるインターフェイスを提供しますが、AR機能自体は実装していません。ターゲットとなるデバイスでAR Foundationを使用するには、そのプラットフォーム用の別のパッケージも必要となります。(例:iOSならARKit XR Plugin、AndroidならARCore XR Plugin)

AR Foundationは、以下のコンセプトに対応したデバイスを扱うためのMonoBehaviourとAPIのセットです。

  • World tracking: 物理空間上でのデバイスの位置・向きのトラッキング
  • Plane detection: 水平・垂直な平面の検出
  • 点群 (特徴点)
  • Reference points: デバイスが追跡する任意の位置・向き
  • Light estimation: 物理空間の平均色温度・明るさの推定
  • Environment probes: 物理環境の特定の領域を表すキューブマップの生成
  • Face tracking: 人の顔の検出・トラッキング
  • Image tracking: 2D画像の検出・トラッキング
  • Object tracking: 3Dオブジェクトの検出

AR Foundation 1.0から移行する場合は、移行ガイドをご覧ください。

https://blogs.unity3d.com/2019/06/06/ar-foundation-support-for-arkit-3/

AR Foundationは、今までARプラットフォームごとに別々だったUnity Pluginの、Unity側のインターフェイスを統合したようなイメージですね↓

AR Foundation

ということで、ARKitを使うにはこちらのプラグインも必要↓

ARKit XR Plugin

ARKit XR Pluginパッケージを使えば、UnityのマルチプラットフォームXR APIを通じてARKitを利用できます。
このパッケージは、以下のXRサブシステムを実装しています:


スポンサーリンク

このバージョンのARKit XR Pluginは以下の機能をサポートしています:

  • Device Localization
  • Horizontal Plane Detection
  • Vertical Plane Detection
  • Point Clouds
  • Pass-through Camera View
  • Light Estimation
  • Reference Points
  • Hit Testing
  • Session Management
  • Image Tracking
  • Object Tracking
  • Environment Probes
  • Participants

フェイストラッキングのサポートは、別の”ARKit Face Tracking“パッケージで利用できます。
AppleのApp Storeでは、アプリ開発者がフェイストラッキングを使用する予定がない場合に、バイナリにフェイストラッキングに関わる特定のシンボルを含むアプリを拒否します。そのため、曖昧さを回避するためにフェイストラッキングのサポートを別のパッケージに分割しました。


スポンサーリンク


AR FoundationのサンプルコードはGitHubにある↓
https://github.com/Unity-Technologies/arfoundation-samples

このサンプルが動作するUnityのバージョンは2019.2以降とのことなので、とりあえずインストール。
何か、Unityにほとんど触らないままバージョンを変え続けている気がする。Unityのバージョン管理はUnity Hubでラクチンだけど。

とりあえず1から始めるBasic Setupを日本語訳したと思われる記事を参考にちょっといじってみてから↓
https://qiita.com/fushikky/items/e43a1974d0f833121804

1からやるとPlayer Settingsがちょいちょい面倒なのね。
https://qiita.com/JunSuzukiJapan/items/e7c04072ac5e83fa6595

エディタは最近お気に入りのVSCodeを使おう。WindowsでもMacでも同じ使用感なので混乱しなくていい。
UnityのScriptを書く上で便利な拡張機能はこちらを参考にインストールした↓
https://qiita.com/kuronekoieko0305/items/bb2624a77c0e19d50b47

10年前、iPhone 3GSの時代に球面のレイトレーシングが手の平サイズのデバイス上で動いて感動したけど、その頃から考えるとすごい進歩だよな。
iPhone 3GSがますます欲しくなる動画
iPhone 3GSでレイトレーシングこれってやっぱり描画出来るのは球面だけかな。欲しいなぁiPhone 3GS。


スポンサーリンク

関連記事

UnityプロジェクトをGitHubで管理する
生物の骨格
ニューラルネットワークで画像分類
OpenCVでiPhone6sのカメラをキャリブレーションする
html5のcanvasの可能性
UnityでTweenアニメーションを実装できる3種類の無料Asset
3Dスキャンに基づくプロシージャルフェイシャルアニメーション
ドットインストールのWordPress入門レッスン
Vancouver Film Schoolのデモリール
『ハン・ソロ/スター・ウォーズ・ストーリー』のVFXブレイクダウン まとめ
オープンソースの物理ベースレンダラ『Mitsuba』をMayaで使う
TensorFlowでCGを微分できる『TensorFlow Graphics』
Pythonの自然言語処理ライブラリ『NLTK(Natural Language Toolkit)』
機械学習に役立つPythonライブラリ一覧
3分の動画でプログラミングを学習できるサイト『ドットインストール』
プロシージャル手法に特化した本が出てるみたい(まだ買わないけど)
サンプルコードにも間違いはある?
日本でMakersは普及するだろうか?
畳み込みニューラルネットワーク (CNN:Convolutional Neural Network)
OANDAのfxTrade API
顔モデリングのチュートリアル
昔Mayaでモデリングしたモデルをリファインしてみようか
OpenCVのバージョン3が正式リリースされたぞ
オープンソースの物理ベースGIレンダラ『appleseed』
MPC社によるゴジラ(2014)のVFXブレイクダウン
第1回 3D勉強会@関東『SLAMチュートリアル大会』
オープンソースのSfM・MVSツール『COLMAP』
Unity MonoBehaviourクラスのオーバーライド関数が呼び出される順番
konashiのサンプルコードを動かしてみた
ファンの力
OpenCVのfindEssentialMat関数を使ったサンプルを読んでみる
ZBrushで仮面ライダー3号を造る 仮面編
「ベンジャミン·バトン数奇な人生」でどうやってCGの顔を作ったのか
3D映画のポストプロダクション 2D-3D変換
自前Shaderの件 解決しました
UnityユーザーがUnreal Engineの使い方を学ぶには?
軽量なジオメトリ処理ライブラリ『libigl』
OpenCV 3.1のsfmモジュールのビルド再び
オープンソースのテクスチャマッピングシステム『Ptex』
オープンソースの顔の動作解析ツールキット『OpenFace』
Unityで強化学習できる『Unity ML-Agents』
天体写真の3D動画

コメント