Unity-ARKit-PluginのTUTORIAL.txtはQiitaに日本語訳を投稿した人がいるから良いかと思ってたけど、最新版ではこの記事よりも情報が増えているようだ。
https://qiita.com/arumani/items/74dc65ceb9c90bd986ee
↑この記事ではステップが13までだけど、最新版にはステップが16まで書いてある。
ということで、TUTORIAL.txtをちゃんと読んでみる。
Unity-ARKit-Plugin/TUTORIAL.txt
Unity-ARKit-Plugin ステップバイステップ
1. まずARKitについて大まかにどのような機能があるのかこちらを読みましょう。
このUnity-ARKit-Pluginは、ARKitのネイティブインターフェースに対応したScript APIを提供します。そして、GameObjectコンポーネントにScriptをアタッチしてこのインターフェースを使用します。
2. このプロジェクトのサンプルsceneを参照して、ARKitアプリがどのように作られているのか確認してください。
UnityARSessionNativeInterface.csとNativeInterfaceフォルダが最も低レベルのScript APIです。以下から詳細を説明します。
3. ARKitのネイティブsessionインターフェースの取得にはUnityARSessionNativeInterface.GetARSessionNativeInterface()関数を使用します。
このチュートリアルでは以降このsessionをm_sessionと表記します。(UnityARCameraManager.csを参照)
4. m_session.RunWithConfig(config)関数をコールしてARSessionを作成します。引数configには用途に応じてARKitWorldTrackingSessionConfiguration(6DOF)かARKitSessionConfiguration(3DOF)と対応するパラメータセットを指定します。
m_session.RunWithConfigAndOption(config, option)でsessionを初期化することもできます。引数optionを使用すると、すでに開始済みのsessionをリセットできます。(UnityARCameraManager.csを参照)
5. ARKitからカメラの位置・回転を取得するには、update毎にm_session.GetCameraPose()を使用してください。取得したカメラの位置・回転はユーティリティ関数でUnityの座標系へ変換できます。
例えば以下のように。camera.transform.localPosition = UnityARMatrixOps.GetPosition(matrix); camera.transform.localRotation = UnityARMatrixOps.GetRotation(matrix);(UnityARCameraManager.csを参照)
6. ARKitのカメラのprojection parametersを取得するにはupdate毎にm_session.GetCameraProjection()を使用してください。それをUnityカメラに設定するにはcamera.projectionMatrixを使用します。
7. sceneのMain CameraにUnityARVideo MonoBehaviourコンポーネントを追加して、inspectorでClear Materialにプロジェクト内にあるYUVMaterialを設定します。
UnityARVideo.cs Scriptの中を読めば、何を行っているのか理解できます。
このScriptは、毎フレームARKitカメラで撮影される映像(YUV信号)を2枚のテクスチャとして取得し、YUVMaterial shaderで結合してMain Cameraの背景映像にします。背景映像でリニアレンダリングを使用したい場合は、このコンポーネントでClear MaterialをYUVMaterialLinearに設定できます。
8. ここまでのステップで、sceneに3Dオブジェクトを配置してビルド・実行すれば、配置した3Dオブジェクトをデバイスから眺めたり、視点を移動できるようになります。
9. ARKitが提供するHitTest APIを使用すればsceneとのインタラクションを実現できます。
scene内でhit結果の種類についてはこちらを参照してください。
m_session.HitTest(point, resultTypes)関数はhit結果のリストを返します。この結果を使用してバーチャルObjectを配置する場所を決定できます。(UnityARHitTestExample.csを参照)
10. sessionを設定してARKitで平面を検出したい場合は、ARKitが返す以下のイベントにプラグインを通じてフックできます:
- UnityARSessionNativeInterface.ARAnchorAddedEvent
- UnityARSessionNativeInterface.ARAnchorUpdatedEvent
- UnityARSessionNativeInterface.ARAnchorRemovedEvent
これらのdelegateは全てAnchorUpdate(ARPlaneAnchor arPlaneAnchor)という形式を取ります。検出した平面に対応するGameObjectをレンダリングすることもできますし、単にanchorとして利用することもできます。(UnityARAnchorManager.csを参照)
11. ARKitから取得できるフレームのアップデートには点群データが含まれており、これを取得するにはイベントUnityARSessionNativeInterface.ARFrameUpdatedEventをフックします。このdelegateはARFrameUpdated(unityarcamera)の形式を取ります。そして、unityarcamera.pointCloudDataから点群データを得ることができます。
(PointCloudParticleExample.csを参照)
12. 前のステップのARFrameUpdateEventは(ステップ5と6の代わりに)カメラ位置・回転・Projection Matrixの更新にも利用できます。
ただし、この値の更新がUnityレンダリングエンジンのupdateのタイミングではなく、ARKitのupdateのタイミングで行われることに注意してください。また、正しい座標系での結果を得るためにはユーティリティ関数を使う必要があるかもしれません。
13. Update毎にm_session.GetARAmbientIntensity()をコールして、sceneのLightEstimation(照明の推定)の値を得ることができます。
(UnityARAmbient.csを参照)
14. ARKitにanchorを追加したり削除することができます。UnityARUserAnchorComponentという名前のコンポーネントがあり、このAPIを使用してGameObjectをanchorに関連付けることができます。
15. UnityARSessionNativeInterfaceでARKit sessionのInterrupted / InterruptionEndedコールバックを購読してフックすることができます。
16. UnityARSessionNativeInterfaceで対応するイベントを購読することで、ARKitのtracking変更のコールバックにフックできます。
SCENES.txtに書かれている説明と重複することも結構あるな。

さて、Unity-ARKit-Plugin/README.mdによると、SCENES.txtとTUTORIAL.txtには載っていないARKit 1.5とARKit 2.0のサンプルsceneについてはこっちを読めば良いのかな?
https://blogs.unity3d.com/jp/2018/02/16/developing-for-arkit-1-5-update-using-unity-arkit-plugin/
https://bitbucket.org/Unity-Technologies/unity-arkit-plugin/src/53b3d3b059f2dc2de4fe9b1c62e229ca5077aa5b/docs/WhatsNewInARKit2_0.md
関連記事
SONYの自律型エンタテインメントロボット『aibo』
ZScript
Transformers ”Reference & Buli...
iPhone5S → iPhone6S
AmazonEC2のインスタンスをt1.microからt2....
ZBrushでアヴァン・ガメラを作ってみる 全体のバランス調...
オープンソースのテクスチャマッピングシステム『Ptex』
SONY製のニューラルネットワークライブラリ『NNabla』
Mitsuba 2:オープンソースの物理ベースレンダラ
fSpy:1枚の写真からカメラパラメーターを割り出すツール
写真に3Dオブジェクトを違和感無く合成する『3DPhotoM...
書籍『3次元コンピュータビジョン計算ハンドブック』を購入
ZBrush 2018での作業環境を整える
ZBrushでアヴァン・ガメラを作ってみる 脚のトゲの作り直...
OpenCV 3.3.0-RCでsfmモジュールをビルド
UnityでLight Shaftを表現する
Siggraph Asia 2009 カンファレンスの詳細
オープンソースの顔認識フレームワーク『OpenBR』
iOSデバイスと接続して連携するガジェットの開発方法
ZBrushCore
Live CV:インタラクティブにComputer Visi...
UnityでPoint Cloudを表示する方法
ZBrushでアヴァン・ガメラを作ってみる 全体のバランス調...
このブログのデザインに飽きてきた
Amazon Web ServicesでWordPress
Phongの表現力パネェ 材質別のPhong Shader用...
Google XML Sitemap Generatorプラ...
CGWORLD CHANNEL 第21回ニコ生配信は『シン・...
Google App EngineでWordPress
iPhoneアプリ開発 Xcode 5のお作法
Paul Debevec
粘土をこねるようなスカルプトモデリング
3分の動画でプログラミングを学習できるサイト『ドットインスト...
Mayaでリアルな布の質感を作るチュートリアル
Photoshopで作る怪獣特撮チュートリアル
3D映画のポストプロダクション 2D-3D変換
リメイク版ロボコップスーツのメイキング
Pythonの自然言語処理ライブラリ『NLTK(Natura...
Adobe Photoshop CS4 Extendedの3...
ZBrush 4R8 リリース!
ZBrushで仮面ライダー3号を造る 仮面編 ClipCur...
UnityのMonoBehaviourクラスをシングルトン化...


コメント