第2世代IPであるAkida 2.0は、新たなアーキテクチャとしてTENN(Temporal Event-Based Neural Networks)を採用するとともに、画像認識を効率よく行えるビジョントランスフォーマーをハードウェアとして実装している。また、ResNetなどで広く知られているスキップ接続にも対応しており、量子化のビット数でもこれまでの1/2/4ビットに加えて、AIの技術開発で広く用いられている8ビットもサポートした。
中でもTENNはAkida 2.0の大幅な進化に貢献している。ニューロモーフィック技術はイベントベース処理が基軸となるが、TENNはニューラルネットワークの畳み込み(Convolution)に時間軸(Temporal)を加えることで計算量を大幅に削減することが可能になった。さらに、この時間軸を用いることで推論アルゴリズムを環境変化に合わせた最適化などで求められる追加学習も行えるという。
実際に、NVISOというAI企業がAkida 2.0とArmのCPU「Cortex-A57」、NVIDIAのSoC「Tegra X1」のGPU(「Jetson TX1」などに搭載されている)のAI処理速度を比較したところ、動作周波数300MHzのAkida 2.0が、同約1.5GHzのCortex-A57や同927MHzのTegra X1のGPUを上回ったという。「周波数1MHz当たりの性能で見れば、Cortex-A57の18.1倍に達する」(Hehir氏)。
さらに、ニューロモーフィック技術が得意とするイベントベース処理を活用したイベントベースカメラによる物体認識(通常のカメラの画像認識はフレームレートデータを用いる)では、精度、パラメーター数、1秒当たりの積和演算(MAC)数などについて、オープンソースで公開されているベンチマークデータを大きく上回った。特に、消費電力に効いてくるパラメーター数は50分の1、1秒当たりの積和演算数は30分の1と桁違いに抑えられている。
AIモデルの構築についても、Akida 2.0で一から構築する必要はなく、ソフトウェア開発環境の「metaTF」を用いて、TensorFlowやPyTorchで開発したAIモデルをデプロイできる。
なお、Akidaのロードマップ上では、これまでAkida 1.0で展開してきたマイコンなどとの連携を想定したエンドポイント向けは「Akida-E」となり、Akida 2.0についてはミッドレンジの「Akida-S」、Akida-Sからさらにノード数を増やしたハイエンドの「Akida-P」を展開していく。Hehir氏は「Akida-Pは低消費電力で高精度かつ低コストを実現し、NVIDIAの『Jetsonシリーズ』を置き換える実力がある」と述べている。
Copyright © ITmedia, Inc. All Rights Reserved.