検索
ニュース

Armのモバイル向け基盤が全面刷新で「Lumex」に、「SME2」でAI処理性能は5倍人工知能ニュース(2/2 ページ)

Armがモバイル機器向けプロセッサIPセットの新たな演算サブシステム(CSS)プラットフォーム「Arm Lumex」を発表。CPUやGPUのブランド名を刷新するとともに、CPUクラスタにAIの演算処理を得意とする新たな拡張命令「SME2」を組み込むことでオンデバイスAIの処理性能を大幅に高めた。

Share
Tweet
LINE
Hatena
前のページへ |       

AI処理性能と関わる拡張機能は「SVE2」から「SME2」へ進化

 Lumex CSSの最大の特徴は、今後のモバイル機器に必須となるオンデバイスのAI処理性能を大きく高めるために、アーキテクチャの「Armv9-A」を一歩前に進めて「Armv9.3」としたことだ。

「Lumex CSS」はアーキテクチャが「Armv9.3」となった
「Lumex CSS」はアーキテクチャが「Armv9.3」となった[クリックで拡大] 出所:Arm

 CSS for Clientまでは、CPUと連携してAIの処理を最適化する拡張機能として「SVE2」が用いられていた。Armv9.3では、サーバ/データセンター向けのプロセッサIPセットである「Neoverse」で採用した行列演算処理を得意とする「SME」を発展させたSME2を新たに開発した。

 SME2によってLumex CSSのオンデバイスAI処理性能は従来のSVE2と比べて5倍に向上した。実際に、生成AIのワークロードを対象とした処理速度のベンチマークでは、音声認識モデルの「Whisper」が従来比で4.7倍、LLM(大規模言語モデル)の「Gemma3」によるエンコードで同4.7倍、音楽生成AIの「Stable Audio」で同2.8倍と大きな効果が得られているという。

「SME2」による生成AIワークロードの処理速度ベンチマーク
「SME2」による生成AIワークロードの処理速度ベンチマーク[クリックで拡大] 出所:Arm

 またArmは、CSS for Clientと併せて、AndroidデバイスにおけるCPU上でのAIアプリケーションの処理を最適化するライブラリ「Arm KleidiAI」を発表したが、SME2もこのArm KleidiAIに対応している。特に、AndroidデバイスのAIアプリケーションに広く用いられているランタイム「LiteRT(旧TensorFlow Lite)」もSME2に対応しており、AndroidデバイスはLumex CSSの採用によるAI処理性能向上の恩恵を大きく受けられるようになっている。

 SME2は、深層学習モデルなど従来のAIモデルの処理性能向上でも3〜6倍の効果が得られることを確認している。特に軽量のAIモデルでは、Lumex CSSの新たなGPUであるMali G1-Ultraよりも高い処理性能を実現できている。

「SME2」による従来のAIモデルの処理性能向上
「SME2」による従来のAIモデルの処理性能向上[クリックで拡大] 出所:Arm

⇒その他の「人工知能ニュース」の記事はこちら

Copyright © ITmedia, Inc. All Rights Reserved.

前のページへ |       
ページトップに戻る