iOSデバイスと接続して連携するガジェットの開発方法

最近、iOSデバイスと連携して動作するガジェットの開発方法について調べてたんだけど、iOSデバイスと通信する方法もいくつかあるようだ。沢山あって結構ややこしかったので、一覧にしてみる。
まず接続方法には、大きく分けて有線接続、無線接続の2通りがある。

有線接続

  • Lightningケーブル接続

    • 直接接続

    • サードパーティ製のMIDIアダプタ経由の接続

    • サードパーティ製のシリアル通信対応ケーブル経由の接続

  • イヤフォンジャック接続

無線接続

  • Wi-Fi接続

  • Bluetooth (SPP: Serial Port Profile)接続

  • Bluetooth 4.0 +LE (BLE: Bluetooth Low Energy)接続

そして、開発の難易度はAppleのライセンスポリシーが大きく影響してくる。何で有線接続方法がやたらと回りくどく細分化しているのかと言うと、Lightningケーブルで直接接続して通信するデバイスを開発するには、普通のiOS Developer Program契約だけでなく、別途Appleとのライセンス契約が必要となるからなのだ。

Lightningケーブル接続でiOSデバイスと直接接続して通信可能なガジェットを開発するにはMFi Programというライセンス契約を結ばないと、ドキュメントやSDKなどの開発リソースを入手することができない。Bluetooth (SPP: Serial Port Profile)による通信を行うデバイス開発も同様に、MFi Programの契約が必要となる。ちなみにMFiってのは「Made For iPhone」の略らしい。

ここ最近、Bluetooth 4.0 +LE (BLE: Bluetooth Low Energy)で連携するガジェットがやたらと流行りだした理由の1つは、MFi Programの契約無しで開発可能な点も大きいようだ。

有線接続での通信方法としては、イヤフォンジャックで音声信号をやり取りする方法もある。この方法はMFi Program不要なので、着手の敷居がかなり低く、有線接続の方法としては最も手軽みたい。手軽に開発できるマイコンとしてお馴染みのArduinoではイヤフォンジャック経由で通信するためのSoftModemというライブラリもすでにある。SoftModemはその名のとおりソフトウェア・モデムのことで、デジタル信号と音声信号を相互に変換できるらしい。

MFi Program契約無しで有線接続するもう一つの方法として、サードパーティ製のMFiライセンス取得済みデバイスを経由する方法がある。注意点は、この方法で開発したアプリは個人使用限定のものとなり、AppStoreで配布することができないという点。
現時点でオイラが知っているのは、MIDIインターフェイスを経由する方法と、Lightningケーブルをシリアル通信へ変換するアダプタ・SDKを使う方法。

iOS対応のMIDIインターフェイスはたくさん出ている。中でも割とメジャーなのはIK Multimedia社iRig MIDI 2IK Multimedia社は以前、エレキギターとiPhoneを接続した時にもお世話になったメーカーですね。

そしてLightningケーブルをシリアル通信へ変換するアダプタ・SDKについては、Redpark社Lightning端子からシリアル通信へ変換するケーブルSDKを配布している。

オイラが作るとしたら間違いなく個人利用になるんだけど、どうせ作るんだったらMFi Programで契約して直接接続したいなぁ。そっちの方がスマートだし。MFi Programって個人で契約できないのかな。

Romoみたいなガジェットを開発するのって結構ハードル高いのね。
https://www.youtube.com/watch?v=2OWMPOcjH-Y

関連記事

OpenCVでiPhone6sのカメラをキャリブレーションする

2D→3D復元技術で使われる用語まとめ

iPhone・iPod touchで動作する知育ロボット『ROMO』

ブログの復旧が難航してた話

Google Colaboratoryで遊ぶ準備

IronPythonを使ってUnity上でPythonのコードを実行する

UnityのTransformクラスについて調べてみた

GAN (Generative Adversarial Networks):敵対的生成ネットワーク

OpenCV 3.1のsfmモジュールを試す

Faster R-CNN:ディープラーニングによる一般物体検出手法

ROSの薄い本

3Dモデルを立体視で確認できるVRアプリを作っている

OpenCVでPhotoshopのプラグイン開発

Dlib:C++の機械学習ライブラリ

HD画質の無駄遣い

BlenderProc:Blenderで機械学習用の画像データを生成するPythonツール

2018年に購入したiPad Proのその後

Kaolin:3Dディープラーニング用のPyTorchライブラリ

PythonでMayaのShapeノードプラグインを作る

Unity ARKitプラグインサンプルのドキュメントを読む

OpenCVのバージョン3が正式リリースされたぞ

BlenderのPython環境にPyTorchをインストールする

株式会社ヘキサドライブの研究室ページ

書籍『ゼロから作るDeep Learning』で自分なりに学ぶ

OpenFace:Deep Neural Networkによる顔の個人識別フレームワーク

3分の動画でプログラミングを学習できるサイト『ドットインストール』

iPhoneアプリ開発 Xcode 5のお作法

Qlone:スマホのカメラで3Dスキャンできるアプリ

konashiのサンプルコードを動かしてみた

第1回 3D勉強会@関東『SLAMチュートリアル大会』

PyDataTokyo主催のDeep Learning勉強会

ディープラーニング

Geogram:C++の3D幾何アルゴリズムライブラリ

オープンソースの取引プラットフォーム

ManuelBastioniLAB:人体モデリングできるBlenderアドオン

続・ディープラーニングの資料

SONY製のニューラルネットワークライブラリ『NNabla』

Google App Engine上のWordPressでAmazonJSを利用する

iPhoneをSSHクライアントとして使う

SONYの自律型エンタテインメントロボット『aibo』

OpenMVSのサンプルを動かしてみる

WebGL開発に関する情報が充実してきている

コメント