インテルは2019年11月27日、記者向けにAIに対する最新の取り組みについて説明会を開き、グローバルで先日発表されたGPUアーキテクチャ「Xe(エックスイー)」を含め、同社のAI向けプロセッサポートフォリオを紹介した。
インテルは2019年11月27日、記者向けにAIに対する最新の取り組みについて説明会を開き、グローバルで先日発表されたGPUアーキテクチャ「Xe(エックスイー)」を含め、同社のAI向けプロセッサポートフォリオを紹介した。
インテルはCPU、FPGA、AI専用アクセラレーター(ASIC)、そしてディスクリートGPUと、「全方位にAIを展開」(インテル 技術本部 本部長 土岐英秋氏)するプロセッサラインアップを完成させる。米Intelは2017年11月、米AMDのGPU部門を率いていたラジャ・コドゥリ氏をグラフィックス領域担当の上級副社長に迎えている。それから約2年後となる2019年11月17日(米国時間)、「SC19(Supercomputing 2019)」の場でXeアーキテクチャを採用するディスクリートGPU「Ponte Vecchio」が発表された。
Ponte Vecchioは、HPC(High Performance Computing)やAIのユースケースに向けて開発された「インテル初のエクサスケールGPU」(同社)だという。次世代の7nmプロセスノードで生産され、新たな3Dダイスタッキング技術「Foveros」を用いている。CXL(Compute Express Link)規格ベースのキャッシュコヒーレンシなインターコネクト「Xeリンク」を新たに採用する。なお、日本語におけるPonte Vecchioの発音は「未定」(土岐氏)で、登場時期も明らかにしなかった。
インテルはXeアーキテクチャを、HPCやAIといった高負荷なワークロードから電力の制約が厳しいモバイルまで、幅広い用途のGPUに適用する考え。Xeアーキテクチャは、柔軟なデータ並列ベクターマトリクスエンジンに広い帯域幅を有するキャッシュとメモリが接続されることが特徴。倍精度浮動小数点演算で高いスループットを示すという。
また、同年11月12日には次世代のコンピュータービジョンおよびエッジ推論向けプロセッサ「Movidius VPU(Vision Processing Unit)」(コードネーム:Keem Bay)を発表。また、ニューラルネットワーク専用ASIC「Nervana NNP(Neural Network Processor)」についてデモを行っている。
Keem Bay世代のMovidius VPUはエッジAI向けに設計したとし、広帯域なオンチップメモリと高効率なアーキテクチャを実装した。前世代の「Movidius Myriad X VPU」と比較して性能は10倍に向上したという。チップレベルやM.2、PCI Expressなど、さまざまなフォームファクタで提供を予定している。2020年第1四半期に登場する見込みだ。
競合製品との比較では、NVIDIA TX2の4倍高速かつ、1ワットあたり6.2倍の推論パフォーマンス、1mm2のフットプリントあたり8.7倍の推論パフォーマンスを示すと紹介した。
Nervana NNPはデータセンターやクラウドを志向するAI専用ASICだ。学習では「NNP-T」、推論では「NNP-I」とワークロード別にチップが用意している。NNP-Iは「手のひらサイズで50兆回/秒の計算を実現する」とうたっており、提供開始時に市販の推論アクセラレーターとして最高の消費電力当たりの処理性能を達成する見込みだという。また、高集積化を果たしており、NVIDIA T4システムと比較して単位ラックスペースあたり最大3.7倍のコンピューティング密度を提供する。2019年内に生産を開始し、生産初期は一部の顧客のみに提供を行う方針だ。
このように、インテルは幅広いプロセッサアーキテクチャを用意し、ユースケースに応じて組み合わせることで顧客ニーズを満たす構えだ。ヘテロジニアスアーキテクチャシステムで課題となる、アーキテクチャをまたがるソフトウェア開発の複雑化や最適なヘテロジニアスシステムの探索は、コンピュータビジョン開発ソフトウェア「OpenVINO」や新たに導入した統合型プログラミングモデル「oneAPI」、インテルのコンピューティングクラウドプラットフォーム「Intel DevCloud」によって解決するという。
Copyright © ITmedia, Inc. All Rights Reserved.