以上でプログラムの変更は完了だが、起動の際には/opt/nvidia/jetson-gpio/の下にもライブラリのパスを通しておく必要がある。以下のコマンドを先に1回行っておかなければならない。
export PYTHONPATH="/opt/nvidia/jetson-gpio/lib/python/:${PYTHONPATH}"
これをやらないと、「RPi.GPIOが見つからない」と怒られる。
さて起動そのものは前回と同じで、以下のコマンドで行える。
./imagenet-camera.py --camera=/dev/video0
今回はウチのスタッフ(編注:大原氏の愛猫)が非常に非協力的だったので(図5)、スタッフの顔写真をモニターに映し、これを撮影してみた。
映像1がキジトラ(先代ちゅるる女王様)を撮影した場合で、黄色(cat)はかなり早いタイミングで認識するが、緑(tabby)はカメラをちょっと動かすと、やや遅れて認識するといった感じ。
一方、映像2は茶白の場合で、黄色はちゃんと点灯するけれどもtabbyとは認識されないので緑は点灯しない。こんな具合に、猫を判別してLEDを点灯させるエッジソリューション(??)が完成した。
ということで非常に簡単ではあるのだが、この程度のことまではJetson Nanoのキットでできる、というサンプルにはなったかと思う。もちろん、ありもののネットワークでは使えないという場合もあるので、その場合は学習からやり直す必要が出る場合もあるだろうが、そちらはJetson Nanoとは別のプラットフォームを構築して行うべきだろう。
今回はお手軽にLチカをやってみたが、通信なども原理的にはそう難しくはないと思う。もちろん、これも真剣にエッジAIデバイスを構築するにはいろいろ問題は出てくるかもしれないが、まずは簡単に試すにはJetson Nanoは非常に良い題材であろう、ということがお分かりいただけたのではないかと思う。
(連載完)
Copyright © ITmedia, Inc. All Rights Reserved.