インテルのAI技術は、ここまで説明したハードウェア中心のNervanaだけではない。それ以上にAI関連ソフトウェアの展開も重視している。まず、TensorFlowや「Caffe」「Torch」といったAIのフレームワークを、IA向けに最適化するためのディープラーニングコンピューティングビルディングブロックを用意する。「MKL-DNN(ディープニューラルネットワーク向けマスカーネルライブラリ)」と呼ぶオープンソースのライブラリとして公開する。既にテクノロジープレビューはリリースされている。またIA上でディープラーニングを32ノード以上に拡張できる「MLSL(マシンラーニングスケーリングライブラリ」も用意する。
さらにAIフレームワークを動的にコンパイルしてバイナリ化するコンパイラ「Nervana Graph Compiler」も提供する。これはナーバナ・システムズのAIフレームワーク「Neon」の機能を切り出したもので、複数のハードウェアターゲットへの最適化を実現できることを特徴としている。根岸氏は「Neonから切り出したことにより、Neon以外のAIフレームワークにも利用できるようになった」と説明する。
この他、ディープラーニングソリューションを容易に開発できる「Deep Learning SDK」なども発表している。
現在、AIの計算処理、特にディープラーニングについてはNVIDIAをはじめとするGPUが用いられているイメージが強い。GPUの性能の高さを示すために、Xeonの処理能力の○○倍のような表現が使われることも多い。
根岸氏は「それは先入観にすぎない。実際にIAのようなCPUへの最適化を実施してみたところ、ディープラーニングの処理能力を十分に引き出せることが分かった。もちろんピーキーな並列処理能力を求められるディープラーニングもあり得るが、その場合にはLake Crestを活用すればよい。AIはディープラーニングにとどまらないさまざまな技術から構成されており、そのためにはスケーリングさせられる技術が重要になる」と述べている。
Copyright © ITmedia, Inc. All Rights Reserved.