UnityでARKit2.0

ここ最近iOSのARKitやAndroidのARCoreのようなスマホARのSDKが充実してきているようなので、オイラも遊んでみたくなった。

ARKit2.0

オイラが持っているスマホはiPhone 8だけなので、とりあえずARKitを触ってみよう。ARKit2.0は色々とすごいらしいですね。
https://developer.apple.com/videos/play/wwdc2018/602/

ということで、ARアプリの開発環境は必然的にMacとXCodeになる。
最新のARKit2.0を使うには最新のMacを購入しないと無理かと思ってたけど、オイラが今持っている古いMacBook Air(2012年モデル)もOSを最新のMojaveへアップデートしたらiOS12.1対応のXcode 10.1が使えるようだ。(7年前のハードなのに!)
MacBook Air購入時にスペックを割と高めにしておいて良かった。

Unity-ARKit-Plugin

今時はゲームエンジンのプラグインという形でAR系(主に画像認識)の機能を利用してコンテンツを作るのが当たり前になっているので、当然UnityからARKitの機能を利用できるプラグインが配布されています。
(Apple公式ではなく)Unity TechnologiesのリポジトリからUnity-ARKit-Pluginおよびサンプルプロジェクトがダウンロードできる↓
https://bitbucket.org/Unity-Technologies/unity-arkit-plugin

README.mdによると、このプラグインの推奨環境は以下。

  • Unity 2017.4以上
  • Xcode 10.0以上とARKitフレームワークの入った最新のiOS SDK
  • ARKitをサポートしたiOSデバイス(iPhone 6S以降、iPad(2017)以降)
  • iOS 12以上

これならオイラでも満たせるぞ。


スポンサーリンク


オイラの開発環境は以下。

  • macOS 10.14.2 (Mojave)
  • Unity 2018.3.0f2
  • Xcode 10.1
  • iPhone 8 (iOS 12.1.2)

Apple Developer アカウントの設定についてはここを参考に↓
https://docs.unity3d.com/ja/2018.3/Manual/iphone-GettingStarted.html
https://docs.unity3d.com/ja/2018.3/Manual/iphone-accountsetup.html

昔と違って、今はiOS開発もただ動作を試すだけなら無料でできるんですね。

まずはこの記事を参考にサンプルシーンをビルドして実機で動かしてみよう↓
http://nn-hokuson.hatenablog.com/entry/2018/09/19/205354

ダウンロードしたサンプルプロジェクトを展開し、
Assets/UnityARKitPlugin/Examples/UnityARKitScene
を開いてビルドしてみる。
UnityのBuild SettingでビルドするPlatformにiOSを選択し、MacにiPhone実機を繋いだ状態でBuild And Runを押す。



ビルドが始まるとXCodeプロジェクトが生成され、自動的にXCodeが立ち上がり、iOSアプリのビルドが進む。
と、ここに来てXCode上でエラー発生↓



TeamにはXCodeに登録したAppleIDに紐づいたチーム情報を指定しないといけないらしい。
Unityから生成されるXCodeプロジェクトではこの設定がデフォルトで空になっていた。Unityから生成されたXCodeプロジェクト上で手動で設定して、
XCodeの▶️ボタンを押してやればビルドが通る。(これってビルドの度に毎回手動でやらないといけないの?)

実機にアプリのアイコンが追加された。



ビルドしたサンプルシーンUnityARKitSceneは、画像認識で平面を検出して、タップするとそこにCubeを配置するというシンプルなもの。

ARKit2.0のポテンシャルについては、Apple公式のドキュメントを読んだ方が良いんだろうか。
https://developer.apple.com/documentation/arkit

CGオブジェクトへの環境マッピングは是非とも試したいところ。

UnityEnvironmentProbe

https://blogs.unity3d.com/jp/2018/06/14/whats-new-in-unity-arkit-plugin-for-arkit-2/

映り込みのサンプルシーンは
〜/Examples/ARKit2.0/UnityAREnvironmentTexture/UnityAREnvironmentProbeAnchor




〜/Examples/ARKit2.0/UnityAREnvironmentTexture/UnityAREnvironmentProbeAnchorManual



か。

実機で動作させてみた↓


スポンサーリンク

View this post on Instagram

UnityからiOSのARKit 2.0の機能を使うサンプルを試してみた

NegativeMindさん(@negative0mind)がシェアした投稿 –


ARKitRemote

頻繁に修正してデバッグしていくならARKitRemoteを使った方が良いんだろうな。
http://nn-hokuson.hatenablog.com/entry/2018/10/17/190203
https://lilea.net/lab/how-to-use-arkit-remote/

AR Foundation

どうやらUnityでは、マルチプラットフォームAR開発環境も用意しているらしい。AR KitとAR Coreに対応しているらしい。
https://docs.unity3d.com/Packages/com.unity.xr.arfoundation@1.0/manual/index.html
http://tsubakit1.hateblo.jp/entry/2018/11/21/211400



スポンサーリンク

関連記事

オープンソースのテクスチャマッピングシステム『Ptex』
Raspberry Piでセンサーの常時稼働を検討する
ZBrushのキャンバスにリファレンス画像を配置する
ゴジラの造形
3分の動画でプログラミングを学習できるサイト『ドットインストール』
AnacondaとTensorFlowをインストールしてVisual Studio 2015で使う
ポリゴン用各種イテレータと関数セット
UnityでLight Shaftを表現する
「ベンジャミン·バトン数奇な人生」でどうやってCGの顔を作ったのか
チャットツール用bot開発フレームワーク『Hubot』
ラクガキの立体化
iOSデバイスと接続して連携するガジェットの開発方法
Siggraph Asia 2009 カンファレンスの詳細
ゴジラ(2014)のメイキング
C#で使える遺伝的アルゴリズムライブラリ『GeneticSharp』
ハリウッド版「GAIKING」パイロット映像
Web経由でRaspberry PiのGPIOを操作したい
コンピュータビジョン研究のためのUnreal Engineプラグイン『UnrealCV』
去年購入したiPad Proのその後
ZBrushで仮面ライダー3号を造る 仮面編 ClipCurve
科学技術計算向けスクリプト言語『Julia』
Adobe Photoshop CS5の新機能
ディープラーニング
ZBrushでリメッシュとディティールの転送
SONYの自律型エンタテインメントロボット『aibo』
Raspberry PiのGPIOを操作するPythonライブラリ『RPi.GPIO』の使い方
Blenderの人体モデリングアドオン『MB-Lab』
UnityでOpenCVを使うには?
UnityユーザーがUnreal Engineの使い方を学ぶには?
布のモデリング
Unityの新しいGUI作成システム『uGUI』
ZBrushの練習 手のモデリング
Mayaのプラグイン開発
C++の抽象クラス
Twitter APIのPythonラッパー『python-twitter』
映像ビジネスの未来
複数画像から3次元形状を再構築するライブラリ『Multi-View Environment』
Mechanizeで要認証Webサイトをスクレイピング
PythonのHTML・XMLパーサー『BeautifulSoup』
ラクガキの立体化 反省
Google XML Sitemap Generatorプラグインを3.4.1へダウングレード
HD画質の無駄遣い その2

コメント