検索
ニュース

AIに“全方位”で挑むインテル、GPUや専用プロセッサとどう戦うか組み込み開発ニュース(2/2 ページ)

インテルは2018年12月17日、東京都内で記者説明会を開催し、2018年における同社の活動の振り返りと2019年以降の展望について説明した。本稿では、説明会で示された内容の中でAI(人工知能)やB2Bコンピューティングに関するトピックを中心に紹介する。

Share
Tweet
LINE
Hatena
前のページへ |       

AI分野でも「全方位で顧客ニーズに対応する」インテル


インテルの土岐英秋氏

 また、2018年にインテルが注力した技術動向については、同社で執行役員常務 技術本部 本部長を務める土岐英秋氏が紹介を行った。

 データセンター向けのテクノロジーについて、土岐氏は「データの移動、保存、処理といった3つの切り口で説明することが多い」とし、これらを実現する同社のネットワーク、ストレージ、プロセッサ技術について順に解説した。

 1点目のネットワーク技術に関して、土岐氏は「現在のデータセンターでは、内部ネットワークのトラフィックが急増している」と指摘し、「インテルでは内部コネクティビティについても3つの技術を保有する」と説明。同社ではネットワーク技術について、HPC(ハイパフォーマンスコンピューティング)クラスのファブリックである「Omni-Path」を筆頭に、イーサネット、そしてシリコンフォトニクスでポートフォリオを構成している。

 土岐氏は、特に2019年に提供予定の次世代イーサネットインタフェース「Cascade Glacier」について、「FPGAが乗っており非常にスマートなNIC(ネットワークインターフェースカード)となっている」と語る。

 2点目のメモリ/ストレージ技術について土岐氏は、DRAMを頂点としてHDD(ハードディスクドライブ)を土台とした、メモリ・ストレージ階層の速度差と容量差を埋める製品を同社が用意していると強調する。


メモリ・ストレージ階層の速度差と容量差を埋めるOptane DCファミリー(クリックで拡大) 出典:インテル

 特に、従来のSSD(ソリッドステートドライブ)とDRAMのすき間を埋める製品として、同社の3D XPoint技術を用いた「Optane DC SSD」や「Optane DC Persistent Memory」を紹介し、どちらの製品も非常に高速なストレージとして活用できるが、Optane DC Persistent Memoryは「メインメモリのアドレス空間上で使うことができる不揮発性メモリ」(土岐氏)であるため、「プロセッサに多くのデータを高速に渡すというコンピューティングの考え方ができる」製品だとする。

 最後のプロセッサ技術に関しては、Xeonで最新世代となる開発コードネーム「Cascade Lake」を紹介した。14nmプロセスで製造される同プロセッサでは、前世代と比較して新たにOptane DC Persistent Memoryをサポートしつつも、動作周波数の向上とキャッシュ階層の最適化、セキュリティ脆弱性の軽減などを果たしたとする。

 また、2018年11月に発表された「Cascade Lake Aadvanced Performance」ではマルチチップパッケージにより1パッケージに複数のチップを搭載することで最大48コア、1ソケット当たり12チャンネルのDDR4メモリをサポートする。同製品のディープラーニング推論性能は、従来製品の「Xeon Platinum Prosessor」と比較して最大17倍の改善があるという。

左:Cascade Lakeの特徴 右:Intel Deep Learning Boostを新たにサポートし、推論が高速化(クリックで拡大) 出典:インテル

 Cascade Lakeは「AIのためにプロセッサを再設計した」(土岐氏)とし、この世代のXeonから新たに「Intel Deep Learning Boost」をサポートする。同技術はVNNI(Vector Neural Network Instruction)による推論の高速化を実現。2017年7月に登場したXeonプロセッサでFP32(単精度浮動小数点)を用いた場合と比較して、最大で11倍の推論スループット高速化が望めるという。同技術はCaffeやMXNet、TensorFlowなどのディープラーニングフレームワークに対応する予定だ。


 ディープラーニングの学習や推論の演算処理についてGPUが大きな存在感を示す中、さらには専用プロセッサ、ASICの活用を進める動きも目立ってきた。AIがデータセンターのワークロードで大きな割合を占める状況で、ディープラーニング処理用途におけるCPUの役割や、インテルの勝ち筋はどこにあるのだろうか。

 この問いに対して、土岐氏は「GPUや専用プロセッサが一定のワークロードで高速な演算性能を発揮するのは確かだ」と前置きしつつ、「しかし、ディープラーニングにおいても汎用的な処理を行うワークロードがなくなることはない。データセンターで取り扱うデータ量は飛躍的に増加しており、汎用的なワークロード量も増加すると見ている。これらによりCPUのニーズも伸びると考えている」と回答する。

 また、加えて土岐氏は「ディープラーニングに関する全てのワークロードがクラウド上で実行されるわけではなく、エッジ上で推論を行うニーズもある。われわれはこのニーズに対し、Atomや専用アクセラレーターであるMovidiusなどでカバーできる。また、われわれのCPUやFPGA、専用アクセラレーターを共通コードで扱うことができるコンピュータビジョン開発用のツールキット『OpenVINO』も提供する」と語る。

 「顧客のニーズに沿った製品を全方位で提案でき、容易な開発もサポートする。これは他のプロセッサにはない強みだ」(土岐氏)。

Copyright © ITmedia, Inc. All Rights Reserved.

前のページへ |       
ページトップに戻る