Code for Naraがらみで, 施設に出入りする人のカウント及びそのデータ分析などの実証実験を, とある場所(ヒ・ミ・ツ!!)の施設管理者に提案しようという話が持ち上がっている.
関連記事:
・ピーブルカウンタを考えてみる(1)
・ピープルカウンタを考えてみる(2)
・ピープルカウンタを考えてみる(3)
・ピープルカウンタを考えてみる(4)
・ピープルカウンタを考えてみる(5)
・ピープルカウンタを考えてみる(6)
・ピープルカウンタを考えてみる(7)
・ピープルカウンタを考えてみる(8)
3. Depthカメラ
今年1月に発売されたばかりのIntel RealSense D415/435が, 最近になって一部サイトで購入可能となったので, 早速D415をマウサー日本から購入した.
発注から5-6日で手元に届いた.
販売サイト・・・3/29時点在庫あり
・Intel RealSense Depth Camera | Click Intel
・Intel Depth エンベデッドソリューション | マウサー 日本
・Intel RealSense D415 | パソコン工房【公式通販】
:
MicrosoftのKinectのイメージがあったので, 思ったより小さくって少しビックリ!!
3.1 開発環境構築
Intel RealSense D415をPCから利用するには, Intel RealSense SDK2.0[1]を利用する必要がある.
今回は, Linux上でPythonから利用したいので, ソースからビルドすることにした.
基本的には, Building librealsense2 SDK[2]とPython Wrapper[3]を参考に, 手順に従ってやればOK.
ということで, 以下の手順でBuild & Installした.
0) OS & パッケージインストール
OS : Ubuntu16.04 64bit
$ sudo apt install git libssl-dev libusb-1.0.0-dev pkg-config libgtk-3-dev libglfw3-dev python3 python3-dev
1) ソースコード取得
$ git clone https://github.com/IntelRealSense/librealsense.git
2) CMake実行
$ cd librealsense
$ mkdir build
$ cd build
$ cmake ../ -DBUILD_EXAMPLES=true -DBUILD_GRAPHICAL_EXAMPLES=true -DBUILD_PYTHON_BINDINGS=bool:true
3) ビルド&インストール
$ make -j4 && sudo make install
3.2 動作確認
我が家の低火力PC[4]は, 「JSAI Cup 2018 人工知能学会データ解析コンペティション」[5]のモデル学習を頑張っているので, 今回はVMPlayer上のUbuntu16.04で動作確認を行った.
しかし, Depth Cameraが認識されない.
SDK等のインストール&設定に問題があるのかといろいろと調査したが不明....
Windowsでも動作を試したところUSB3.0でないとこのD415は動作しないことが分かった.
ドキュメントにはUSB3.0と書いてあったのだが, 今回使ったPCのUSBポートがフロントは2.0, リアは3.0だった. (すっかり忘れてた)
その上, VMPlayerの仮想マシン設定のUSBコントローラの設定も"USB 2.0"になっていた.
これで, やっとLinuxからD415を利用できるようになった.
次は, D415と先に紹介したPeopleCounterをつないでみようと思う.
----
参照URL:
[1] GitHub - IntelRealSense/librealsense: Intel RealSense SDK
[2] librealsense/installation.md at master・IntelRealSense/librealsense・GitHub
[3] librealsense/wrappers/python at development ・IntelRealSense/librealsense・GitHub
[4] 深層学習用に低火力PCを組み立てた(1)
[5] オプトDSL・DeepAnalyticsコンテスト『JSAI Cup 2018 人工知能学会データ解析コンペティション』