iOSだけじゃなく、Android, Linux, OS Xで使える画像認識フレームワークで、iOSやAndroid, Raspberry Piでも動かせるほど軽量らしい。
この記事で知った。↓
学習するスマホアプリ:画像を分析し、物を識別するシステム
記事だとRomoの写真が載ってるね。
このDeepBeliefはSDKがGitHub上に上がっている。→DeepBeliefSDK
難しいことがまだ理解できてないんだけど、このSDKはDeep LearningのConvolutional Neural Networksという手法を使った物体認識を実装したものらしい。OpenCVとの連携も簡単にできるそうです。
This is a framework implementing the convolutional neural network architecture described by Alex Krizhevsky, Ilya Sutskever, and Geoffrey Hinton.
The processing code has been highly optimized to run within the memory and processing constraints of modern mobile devices, and can analyze an image in under 300ms on an iPhone 5S. It’s also easy to use together with OpenCV.
We’re releasing this framework because we’re excited by the power of this approach for general image recognition, especially when it can run locally on low-power devices. It gives your phone the ability to see, and I can’t wait to see what applications that helps you build.
そして、すでにiOS版を試した人がQiitaに記事を書いてる。↓
Deep Belief SDK サンプルで嵌った点
で、オイラもサンプルコードのビルドを試してみたんだけど、Qiitaの記事みたいに例外で躓くこともなく、すんなりビルドできた。
オイラの環境はxcode5.1でiPhone5S。フレームワークのパスとプロビジョニングの設定だけ自分で直したら普通にビルドできたよ。
オイラが試したのは以下の3つのサンプル。
LearningExample
SavedModelExample
SimpleiOS
あ、ていうかRomoExampleってのがある!Romoでも遊べるのか。ハッカソンの成果を試す時が来たな。
DeepBeliefはこちらの資料でも少し紹介されていますね。
スポンサーリンク
以下、SimpleiOSで物体認識を試してみたスクリーンショット
スポンサーリンク