検索
連載

組み込みAIは必要不可欠な技術へ、推論に加えて学習も視野にMONOist 2019年展望(1/4 ページ)

2017年初時点では芽吹きつつあった程度の組み込みAI。今や大きな幹にまで成長しつつあり、2019年からは、組み込み機器を開発する上で組み込みAIは当たり前の存在になっていきそうだ。

Share
Tweet
LINE
Hatena

 例年1月にMONOistで企画している新年展望の中で、2017年に『芽吹くか「組み込みAI」』というタイトルの記事を公開した※)

※)関連記事:芽吹くか「組み込みAI」

 この記事は、2016年に入って一気にブームになったAI(人工知能)が、組み込み機器の分野でも活用が求められるようになるだろうと想定して執筆したものだ。同記事を公開してから2年が経過するが、組み込み機器を開発する上で、IoT(モノのインターネット)とともにAIは、もはや不可欠なものになっている。

 2017年1月時点でのAIと言えば、クラウドやサーバ、NVIDIAのGPUを組み込んだワークステーションで、学習だけでなく推論も行うのが一般的だった。組み込み機器のエンジニアにとっては、自身が手掛けるものではないという印象が強かったのではないだろうか。

 しかし、2017〜2018年にかけて、クラウドなどを使って学習した推論アルゴリズムを、一定以上の処理性能を持つ組み込み機器に実装させることは、かなりハードルの低い作業になってきた。ここで言う「一定以上の処理性能」とは、インテルやArmの「Cortex-A」クラスのCPU、もしくはNVIDIAの「Jetsonシリーズ」などの開発ボードを用いることを指す。IoTの枠組みであれば、ゲートウェイクラスのハードウェアになるだろう。

入手が容易な「Raspberry Pi 3」
入手が容易な「Raspberry Pi 3」はIoT活用のPoCプロジェクトで広く用いられている。「Cortex-A53」を搭載しているので、組み込みAIも容易に実装できる(クリックで拡大)

 例えば、製造業のIoT活用のPoC(概念実証)プロジェクトでは、手軽に入手できることから「Raspberry Pi 3」をゲートウェイに用いることが多い。CPUとしてArmの「Cortex-A53」を搭載しているので、オープンソースの機械学習フレームワーク「TesorFlow」などで作成した推論アルゴリズムも容易に実装できる。もちろん、インテルの「Core iシリーズ」やJetsonシリーズを使えば、より処理性能が求められる推論アルゴリズムを運用することもできる。

 機械学習フレームワークを扱うためには、組み込み機器のエンジニアもPythonなどの新たな言語を学ぶ必要があるし、学習に用いるデータを扱うためのデータサイエンスに関する知識も身に付けなければならない。しかし、本格的なデータサイエンティストでなくても、DataRobotなどAIを容易に扱えるようにするさまざまなツールも登場している。

 2017年初の時点では、まだまだ芽吹きつつあった程度の組み込みAIだが、今や大きな幹にまで成長しつつある。2019年からは、組み込み機器を開発する上で、組み込みAIは当たり前の存在になっていきそうだ。

Copyright © ITmedia, Inc. All Rights Reserved.

       | 次のページへ
ページトップに戻る