検索
連載

勝利を約束されたArmのAI戦略、MCUの微細化も加速させるかArm最新動向報告(9)(3/3 ページ)

Armが開催した年次イベント「Arm TechCon 2019」の発表内容をピックアップする形で同社の最新動向について報告する本連載。今回は、「Ethosシリーズ」や「ArmNN」などを中核に進めるArmのAI戦略について紹介する。

Share
Tweet
LINE
Hatena
前のページへ |       

MCUにもAIを適用して「エンドポイントAI」を提唱

 さて、ここまでの話はCortex-AのCPUを対象にした話だったが、Arm TechCon 2019ではMCUに用いられる「Cortex-M」向けで強烈な「Helium」推しがあった(図5)。

図5
図5 具体的な数字としては、信号処理(Signal Processing)で最大5倍、MLのパフォーマンスで最大15倍という数字や、キーワード抽出で90%、CIFAR-10のイメージ特定で83%の処理時間削減が可能になる(ので、その分消費電力を減らせる)といったものが示された(クリックで拡大)

 Heliumは、2019年2月に発表された「Arm v8.1-M」で新たに追加されたMVE(M-Profile Vector Extention)で、要するにCortex-Mで利用できる128bitのSIMDエンジンである(図6)。従来、Cortex-Mには「CMSIS-NN」と呼ばれるフレームワークが提供されており、これはCortex-M4のDSP命令などを利用することでNNを効率的に動かそうというものであったが、Heliumでは(この時は発表されなかったが)ArmNNでの利用が可能となっている。

図6
図6 「Helium」はInt 8/16/32とFP16/FP32に対応する(クリックで拡大)

 これを念頭に置いた上で、2020年2月に発表があった「Cortex-M55」と「Ethos-U55」を眺めると、Cortex-Aと同じ戦略をCortex-Mでも推し進めようとしていることが見えてくる。つまり、今後はHeliumを実装するCortex-Mが増えてくるので、まずはこれである程度の性能を持ったソリューションが構築可能であり、より性能が欲しい場合にはEthos-U55を組み合わせることで、アプリケーションの書き換えなしにより高い性能が得られる、というシナリオである。

 この発表に合わせてArmはエンドポイントAI(Endpoint AI)という概念を発表した(図7)。これまでIoT(モノのインターネット)におけるAI処理は、クラウドあるいはせいぜいがエッジ止まりだったのを、今後はエンドポイントにも広げたいという戦略である。

図7
図7 「エッジAI」よりも末端側でAI処理を行うのが「エンドポイントAI」である(クリックで拡大)

 この領域は今のところまだ手付かずの、いわばブルーオーシャンであり、スマートフォン向けのレッドオーシャンとはちょっと様相が異なる。もちろんCEVAやVeriSiliconのように、MCUに向けたNPU IPを提供しているベンダーはあるし、ETA Computeのように「Cortex-M3」に独自のDSPベースNPUを搭載した製品の出荷を開始したベンダーもある。さらに言えば、このマーケットは小規模FPGAとも思いっきり競合するわけで、Lattice SemiconductorとかQuickLogicなどのソリューションともかなりぶつかる部分はあるが、スマートフォンと異なりこれから大きな伸びる可能性が高いだけに、今から手を打っておけば将来のマーケットが期待できるという側面はある。

 早くもNXPは、将来のMCU/Crossover MCU向けにEthos-U55に関してArmとパートナーシップを結ぶなど、MCUのマーケットでも一波乱ありそうな勢いである。

 気になるのは製品の投入時期である。Cortex-M55とEthos-U55の発表会で明らかにされたのは、Cortex-M55コアそのものはCortex-M33コアとほぼ同一のエリアサイズであるが、Heliumを実装するとこれが倍になるという事実だった。そして、Ethos-U55のエリアサイズは最小の32MAC構成でもCortex-M33と同じ程度というのだ。

 Ethos-U55の利用にはDSP拡張が必要なので、事実上Heliumの実装が必要になる。つまり、Cortex-M55+Ethos-U55という構成は、現行のCortex-M33の3倍ほどのエリアサイズになるわけだ。Ethos-U55を最大構成(256MAC)にすれば10倍になるだろう。こうなると、今のCortex-M33(55〜40nmプロセスで製造)と同じ製造プロセスではペイしないのは明白で、最小の32MAC構成なら28nmプロセスでなんとかなりそうだが、最大構成だと16/14/12nmあたりのFinFETプロセスを考慮しないといけないサイズになる。28nmは既に先端(主に自動車向け)MCUでは実用になっているが、まだメインストリーム向けは相対的に安い40nmプロセスあたりを使うことが多い。

 Armの言うエンドポイントAIを実現するためには、さらなる微細化が必要なわけで、このコストを正当化できるだけのアプリケーションが必要になる。いずれはMCUも28nmに移行するだろうとは広く考えられていたが、エンドポイントAIに向けたArmの戦略が、この28nmプロセスへの移行を早めることになるのかもしれない。

Copyright © ITmedia, Inc. All Rights Reserved.

前のページへ |       
ページトップに戻る