ところで、カメラを使ったJetson Nanoのデモにはもう1つ、Live Camera Detection Demoがある。Live Camera Recognition Demoの方は、カメラで撮影した映像から「それが何か」を認識するデモであるが、Live Camera Detection Demoは映像から「目的のものがどこにあるか」を認識するデモである。使い方はLive Camera Recognition Demoとよく似ており、今回の環境なら以下のようにすればよい。
./detectnet-camera --camera=/dev/video0 --width=320 --height=240 --network=XXXXX
ここで“--network=XXXXX”の部分が「何を見つけるか」を示す形だ。この部分には学習済みのDetection Model(検知モデル)を指定する形になる。以下の表1に挙げるモデルから選択するが、指定しない場合にはpednetが選択される。
ssd-mobilenet-v1 | 91種類(COCO classes) |
---|---|
ssd-mobilenet-v2 | 91種類(COCO classes) |
SSD-Inception-v2 | 91種類(COCO classes) |
coco-dog | 犬 |
coco-bottle | ボトル |
coco-chair | 椅子 |
coco-airplane | 飛行機 |
pednet | 歩行者 |
multiped | 歩行者と荷物 |
facenet | 顔 |
表1 Live Camera Detection Demoで選択できるDetection Model |
今回は試しにfacenetを利用してみた。ターゲットとしてはEE Times Japanのこちらの記事ページをWebブラウザで表示させ、カメラで読み込ませたところ、きちんと画面の中から顔に当たる部分が水色で囲われている(図17)。
ちなみに、上記のモデル一覧に猫がないのは不本意(いや、ssd-mobilenet-v1/v2には猫が入っているのだが、筆者の環境ではうまくロードできなかった。おそらく、Detection Modelの構築ができていないので、ビルドのやり直しが必要と思われる)ではあるが、それこそ自分でやれよという話である。ということで、Jetson NanoとUSBカメラを利用しての画像認識までの手順は、これでほぼ実現できることが確認できたわけだ。
Copyright © ITmedia, Inc. All Rights Reserved.