サイトアイコン NegativeMindException

UnityでARKit2.0

ここ最近iOSのARKitやAndroidのARCoreのようなスマホARのSDKが充実してきているようなので、オイラも遊んでみたくなった。

ARKit2.0

オイラが持っているスマホはiPhone 8だけなので、とりあえずARKitを触ってみよう。ARKit2.0は色々とすごいらしいですね。
https://developer.apple.com/videos/play/wwdc2018/602/

ということで、ARアプリの開発環境は必然的にMacとXCodeになる。
最新のARKit2.0を使うには最新のMacを購入しないと無理かと思ってたけど、オイラが今持っている古いMacBook Air(2012年モデル)もOSを最新のMojaveへアップデートしたらiOS12.1対応のXcode 10.1が使えるようだ。(7年前のハードなのに!)
MacBook Air購入時にスペックを割と高めにしておいて良かった。

Unity-ARKit-Plugin

今時はゲームエンジンのプラグインという形でAR系(主に画像認識)の機能を利用してコンテンツを作るのが当たり前になっているので、当然UnityからARKitの機能を利用できるプラグインが配布されています。
(Apple公式ではなく)Unity TechnologiesのリポジトリからUnity-ARKit-Pluginおよびサンプルプロジェクトがダウンロードできる↓
https://bitbucket.org/Unity-Technologies/unity-arkit-plugin

README.mdによると、このプラグインの推奨環境は以下。

これならオイラでも満たせるぞ。



オイラの開発環境は以下。

Apple Developer アカウントの設定についてはここを参考に↓
https://docs.unity3d.com/ja/2018.3/Manual/iphone-GettingStarted.html
https://docs.unity3d.com/ja/2018.3/Manual/iphone-accountsetup.html

昔と違って、今はiOS開発もただ動作を試すだけなら無料でできるんですね。

まずはこの記事を参考にサンプルシーンをビルドして実機で動かしてみよう↓
http://nn-hokuson.hatenablog.com/entry/2018/09/19/205354

ダウンロードしたサンプルプロジェクトを展開し、
Assets/UnityARKitPlugin/Examples/UnityARKitScene
を開いてビルドしてみる。
UnityのBuild SettingでビルドするPlatformにiOSを選択し、MacにiPhone実機を繋いだ状態でBuild And Runを押す。



ビルドが始まるとXCodeプロジェクトが生成され、自動的にXCodeが立ち上がり、iOSアプリのビルドが進む。
と、ここに来てXCode上でエラー発生↓



TeamにはXCodeに登録したAppleIDに紐づいたチーム情報を指定しないといけないらしい。
Unityから生成されるXCodeプロジェクトではこの設定がデフォルトで空になっていた。Unityから生成されたXCodeプロジェクト上で手動で設定して、
XCodeの▶️ボタンを押してやればビルドが通る。(これってビルドの度に毎回手動でやらないといけないの?)

実機にアプリのアイコンが追加された。



ビルドしたサンプルシーンUnityARKitSceneは、画像認識で平面を検出して、タップするとそこにCubeを配置するというシンプルなもの。

ARKit2.0のポテンシャルについては、Apple公式のドキュメントを読んだ方が良いんだろうか。
https://developer.apple.com/documentation/arkit

CGオブジェクトへの環境マッピングは是非とも試したいところ。



https://blogs.unity3d.com/jp/2018/06/14/whats-new-in-unity-arkit-plugin-for-arkit-2/

映り込みのサンプルシーンは
〜/Examples/ARKit2.0/UnityAREnvironmentTexture/UnityAREnvironmentProbeAnchor




〜/Examples/ARKit2.0/UnityAREnvironmentTexture/UnityAREnvironmentProbeAnchorManual



か。

実機で動作させてみた↓


ARKitRemote

頻繁に修正してデバッグしていくならARKitRemoteを使った方が良いんだろうな。
http://nn-hokuson.hatenablog.com/entry/2018/10/17/190203
https://lilea.net/lab/how-to-use-arkit-remote/

AR Foundation

どうやらUnityでは、マルチプラットフォームAR開発環境も用意しているらしい。AR KitとAR Coreに対応しているらしい。
https://docs.unity3d.com/Packages/com.unity.xr.arfoundation@1.0/manual/index.html
http://tsubakit1.hateblo.jp/entry/2018/11/21/211400



スポンサーリンク

関連記事

  • UnityからROSを利用できる『ROS#』
  • ZBrushで仮面ライダー3号を造る 仮面編 失敗のリカバー
  • ファンの力
  • openMVGをWindows10 Visual Studio 2015環境でビルドする
  • TorchStudio:PyTorchのための統合開発環境とエコシステム
  • 海外ドラマのChromaKey
  • 3D復元技術の情報リンク集
  • NICOGRAPHって有名?
  • MVStudio:オープンソースのPhotogrammetryツール
  • この本読むよ
  • OpenGV:画像からカメラの3次元位置・姿勢を推定するライブラリ
  • Raspberry Pi 2を買いました
  • ラクガキの立体化 1年半ぶりの続き
  • トランスフォーマーの変形パターンを覚えるのは楽しいと思うんだ
  • 『PIXARのひみつ展』に行ってきた
  • ZBrushのZmodelerとDynamic Subdivisionを学ぶ
  • Google Colaboratoryで遊ぶ準備
  • 自前Shaderの件 解決しました
  • HTML5・WebGLベースのグラフィックスエンジン『Goo Engine』
  • 『スター・ウォーズ/スカイウォーカーの夜明け』のVFXブレイクダウン
  • ZBrushでアヴァン・ガメラを作ってみる 下アゴと頭部を作り込む
  • .NETで使えるTensorFlowライクなニューラルネットワークライブラリ『NeuralNetwo...
  • Multi-View Environment:複数画像から3次元形状を再構築するライブラリ
  • ジュラシック・パークのメイキング
  • viser:Pythonで使える3D可視化ライブラリ
  • Unityの薄い本
  • mentalrayのSubsurface Scattering Shader『misss_fast_...
  • 映画『シン・仮面ライダー』 メイキング情報まとめ
  • Blendify:コンピュータービジョン向けBlenderラッパー
  • ZBrushでUndo Historyを動画に書き出す
  • MeshroomでPhotogrammetry
  • 池袋パルコで3Dのバーチャルフィッティング『ウェアラブル クロージング バイ アーバンリサーチ』
  • 粘土をこねるようなスカルプトモデリング
  • Faceshiftで表情をキャプチャしてBlender上でMakeHumanのメッシュを動かすデモ
  • Unity Scriptコーディング→Unreal Engine Scriptコーディング
  • ポリ男をリファイン
  • トランスフォーマー :リベンジのメイキング (デジタルドメイン)
  • OpenFace:Deep Neural Networkによる顔の個人識別フレームワーク
  • OpenCVで顔のモーフィングを実装する
  • ZBrushでアヴァン・ガメラを作ってみる
  • 『ピクサー展』へ行ってきた
  • SIGGRAPH論文へのリンクサイト
  • モバイルバージョンを終了