サイトアイコン NegativeMindException

UnityでARKit2.0

ここ最近iOSのARKitやAndroidのARCoreのようなスマホARのSDKが充実してきているようなので、オイラも遊んでみたくなった。

ARKit2.0

オイラが持っているスマホはiPhone 8だけなので、とりあえずARKitを触ってみよう。ARKit2.0は色々とすごいらしいですね。
https://developer.apple.com/videos/play/wwdc2018/602/

ということで、ARアプリの開発環境は必然的にMacとXCodeになる。
最新のARKit2.0を使うには最新のMacを購入しないと無理かと思ってたけど、オイラが今持っている古いMacBook Air(2012年モデル)もOSを最新のMojaveへアップデートしたらiOS12.1対応のXcode 10.1が使えるようだ。(7年前のハードなのに!)
MacBook Air購入時にスペックを割と高めにしておいて良かった。

Unity-ARKit-Plugin

今時はゲームエンジンのプラグインという形でAR系(主に画像認識)の機能を利用してコンテンツを作るのが当たり前になっているので、当然UnityからARKitの機能を利用できるプラグインが配布されています。
(Apple公式ではなく)Unity TechnologiesのリポジトリからUnity-ARKit-Pluginおよびサンプルプロジェクトがダウンロードできる↓
https://bitbucket.org/Unity-Technologies/unity-arkit-plugin

README.mdによると、このプラグインの推奨環境は以下。

これならオイラでも満たせるぞ。



オイラの開発環境は以下。

Apple Developer アカウントの設定についてはここを参考に↓
https://docs.unity3d.com/ja/2018.3/Manual/iphone-GettingStarted.html
https://docs.unity3d.com/ja/2018.3/Manual/iphone-accountsetup.html

昔と違って、今はiOS開発もただ動作を試すだけなら無料でできるんですね。

まずはこの記事を参考にサンプルシーンをビルドして実機で動かしてみよう↓
http://nn-hokuson.hatenablog.com/entry/2018/09/19/205354

ダウンロードしたサンプルプロジェクトを展開し、
Assets/UnityARKitPlugin/Examples/UnityARKitScene
を開いてビルドしてみる。
UnityのBuild SettingでビルドするPlatformにiOSを選択し、MacにiPhone実機を繋いだ状態でBuild And Runを押す。



ビルドが始まるとXCodeプロジェクトが生成され、自動的にXCodeが立ち上がり、iOSアプリのビルドが進む。
と、ここに来てXCode上でエラー発生↓



TeamにはXCodeに登録したAppleIDに紐づいたチーム情報を指定しないといけないらしい。
Unityから生成されるXCodeプロジェクトではこの設定がデフォルトで空になっていた。Unityから生成されたXCodeプロジェクト上で手動で設定して、
XCodeの▶️ボタンを押してやればビルドが通る。(これってビルドの度に毎回手動でやらないといけないの?)

実機にアプリのアイコンが追加された。



ビルドしたサンプルシーンUnityARKitSceneは、画像認識で平面を検出して、タップするとそこにCubeを配置するというシンプルなもの。

ARKit2.0のポテンシャルについては、Apple公式のドキュメントを読んだ方が良いんだろうか。
https://developer.apple.com/documentation/arkit

CGオブジェクトへの環境マッピングは是非とも試したいところ。



https://blogs.unity3d.com/jp/2018/06/14/whats-new-in-unity-arkit-plugin-for-arkit-2/

映り込みのサンプルシーンは
〜/Examples/ARKit2.0/UnityAREnvironmentTexture/UnityAREnvironmentProbeAnchor




〜/Examples/ARKit2.0/UnityAREnvironmentTexture/UnityAREnvironmentProbeAnchorManual



か。

実機で動作させてみた↓


ARKitRemote

頻繁に修正してデバッグしていくならARKitRemoteを使った方が良いんだろうな。
http://nn-hokuson.hatenablog.com/entry/2018/10/17/190203
https://lilea.net/lab/how-to-use-arkit-remote/

AR Foundation

どうやらUnityでは、マルチプラットフォームAR開発環境も用意しているらしい。AR KitとAR Coreに対応しているらしい。
https://docs.unity3d.com/Packages/com.unity.xr.arfoundation@1.0/manual/index.html
http://tsubakit1.hateblo.jp/entry/2018/11/21/211400



スポンサーリンク

関連記事

  • 書籍『メイキング・オブ・ピクサー 創造力をつくった人々』を読んだ
  • OpenCVでiPhone6sのカメラをキャリブレーションする
  • .NETで使えるTensorFlowライクなニューラルネットワークライブラリ『NeuralNetwo...
  • UnityのuGUIチュートリアル
  • 布のモデリング
  • 自前Shaderの件 解決しました
  • Unreal Engineの薄い本
  • Pythonの自然言語処理ライブラリ『NLTK(Natural Language Toolkit)』
  • Maya API Reference
  • ZBrushCoreのTransposeとGizmo 3D
  • 立体視を試してみた
  • Unityで360度ステレオVR動画を作る
  • ラクガキの立体化 3Dプリント注文
  • BSDF: (Bidirectional scattering distribution funct...
  • 組み込み向けのWindows OS 『Windows Embedded』
  • ZBrushでカスタムUIを設定する
  • 法線マップを用意してCanvas上でShadingするサンプル
  • 生物の骨格
  • Super Resolution:OpenCVの超解像処理モジュール
  • Maya LTでFBIK(Full Body IK)
  • ZBrushで仮面ライダー3号を造る 仮面編 PolyGroupを分割する
  • ラクガキの立体化 反省
  • Mitsuba 2:オープンソースの物理ベースレンダラ
  • 池袋パルコで3Dのバーチャルフィッティング『ウェアラブル クロージング バイ アーバンリサーチ』
  • SONY製のニューラルネットワークライブラリ『NNabla』
  • SIGGRAPH論文へのリンクサイト
  • ZBrushでゴジラ2001を作ってみる 身体のSubToolを分割
  • 世界一下品なクマと世界一紳士なクマ
  • 書籍『ゼロから作るDeep Learning』で自分なりに学ぶ
  • ZBrushのキャンバスにリファレンス画像を配置する
  • 『ハン・ソロ/スター・ウォーズ・ストーリー』のVFXブレイクダウン まとめ
  • TensorSpace.js:ニューラルネットワークの構造を可視化するフレームワーク
  • ラクガキの立体化 モールドの追加
  • UnityでLight Shaftを表現する
  • Meta Quest 3を購入!
  • OpenGV:画像からカメラの3次元位置・姿勢を推定するライブラリ
  • フルCGのウルトラマン!?
  • MRenderUtil::raytrace
  • KelpNet:C#で使える可読性重視のディープラーニングライブラリ
  • ラクガキの立体化 分割ラインの変更・バランス調整
  • Shader.jp:リアルタイム3DCG技術をあつかうサイト
  • iPhone欲しいなぁ
  • モバイルバージョンを終了