ファーウェイの学習用AIチップは「世界最速」、独自AIフレームワークも投入人工知能ニュース

ファーウェイ(華為技術)は2019年8月23日(現地時間)、AI(人工知能)チップ「Ascend 910」とAIフレームワーク「MindSpore」を発表した。同社はAscend 910が世界最高性能を実現したAI学習用プロセッサであると主張。米中貿易戦争の先行きが見通せない中、AI領域の技術開発を全方位で進める。

» 2019年08月26日 08時00分 公開
[松本貴志MONOist]

 ファーウェイ(華為技術)は2019年8月23日(現地時間)、AI(人工知能)チップ「Ascend 910」とAIフレームワーク「MindSpore」を発表した。同社はAscend 910が世界最高性能を実現したAI学習用プロセッサであると主張。米中貿易戦争の先行きが見通せない中、AI領域の技術開発を全方位で進める。

Huawei副会長の徐直軍氏に披露された「Ascend 910」 出典:Huawei

 AI専用プロセッサの開発はさまざまな企業、研究機関で進められている。Preferred Networks(PFN)が2018年12月に発表した学習用プロセッサ「MN-Core(エムエヌ・コア)」は、FP32(単精度)で131TFLOPS、FP16で524TFLOPSのピーク性能を有しており、予測消費電力は500W。Googleが開発する「Cloud TPU(Tensor Processing Unit) v3」では、1ユニットで420TFLOPSの演算性能を持つという。

 今回発表されたAscend 910のピーク性能は、FP16(半精度)で256TFLOPS、INT8(8ビット整数)で512TOPSを発揮する。最大消費電力は310W。ホストとのデータ転送で発生するオーバーヘッドを抑えるため、同チップは典型的なAI専用コプロセッサと異なり、CPUやタスクスケジューラーを統合したSoC(System on Chip)としたことが特徴となる。

AI専用コプロセッサとAscend 910のアーキテクチャ比較(クリックで拡大) 出典:Huawei

 チップ間の通信を担うインターコネクト「HCCS(High-Speed Direct Point-to-Point Interconnect)」も独自開発され、帯域幅はポートあたり240Gbpsだ。その他、インタフェースとして100GbpsのRoCE(RDMA over Converged Ethernet)やポートあたり256GbpsのPCI Expressを備えている。Ascend 910は同社製サーバなどに搭載された形で顧客に提供する。

 MindSporeは、GoogleのTensorFlowやFacebookのPyTorchと同じくAIフレームワークとなる。アプリケーション開発の容易さと実効性能の向上、クラウドに限らずエッジ、デバイスなど全てのシナリオに適応できることを目指し、開発された。ユーザーデータのプライバシーやセキュリティ確保に配慮して設計したとする。

 Ascend 910とMindSporeを組み合わせてResNet-50の学習を行った場合、TensorFlowと従来のメインストリーム向け学習用カードと比較して約2倍高速であると主張し、自然言語処理アプリケーションのコーディングでは、他の主要なフレームワークより20%少なく記述でき、開発者の効率を少なくとも50%向上させるという。同フレームワークはAscendチップの他、CPUやGPU、その他タイプのプロセッサもサポートしており、2020年第1四半期にオープンソース化される予定だ。

MindSporeの特徴(クリックで拡大) 出典:Huawei

 発表会に参加した同社副会長のエリック・シュー(徐直軍)氏は、「フルスタックAIポートフォリオが完成した」と自信を見せた。Huaweiは2018年10月にエッジ向けのAIチップ「Ascend 310」を発表しており、同社製スマートフォンでもAI処理性能を重視したSoCの搭載を進める。Ascend 910とMindSporeの登場により、AIに関連するハードウェアとソフトウェアがエッジからクラウドのレイヤー全てに渡ってそろうことになる。

Copyright © ITmedia, Inc. All Rights Reserved.