MathWorks Japanはモデルベース開発環境「MATLAB/Simulink」の最新バージョン「R2018b」で強化した深層学習(ディープラーニング)関連の機能について説明。MATLABが、NVIDIAのGPUに最適化された深層学習関連ソフトウェアのコンテナレジストリ「NVIDIA GPU Cloud(NGC)」に対応したことも発表した。
MathWorks Japanは2018年10月30日、東京都内で会見を開き、モデルベース開発環境「MATLAB/Simulink」の最新バージョン「R2018b」で強化した深層学習(ディープラーニング)関連の機能について説明するとともに、MATLABがNVIDIAのGPUに最適化された深層学習関連ソフトウェアのコンテナレジストリ「NVIDIA GPU Cloud(NGC)」に対応したことを発表した。
同年9月にリリースされたR2018bで追加された機能の中で大きなトピックとなったのが深層学習関連だ。これまでMATLABを用いた深層学習用のフレームワークとして提供してきた「Neural Network Toolbox」の機能を拡張するとともに、名称を「Deep Learning Toolbox」に変更した。
Deep Learning Toolboxにおける最も大きな拡張機能となるのが、ONNX(Open Neural Network Exchange)コンバーターを介した、さまざまなフレームワークで作成された深層学習モデルのインポートやエクスポートである。ONNXは、Facebookなどが中心になって発足した深層学習モデルの交換フォーマットを開発するコミュニティーであり、ONNXフォーマット自体は既にオープンになっている。そのONNXフォーマットを用いたONNXコンバーターにより、TensorFlowやCaffe2、CoreMLとMATLABの間で、深層学習モデルのインポートとエクスポートの両方が可能になる。また、PyTorchとChainerについてはインポートが、MXNetについてはエクスポートが可能になる。ONNXコンバーターの他にも、CaffeとKeras-TensorFlowで作成した深層学習モデルを直接インポートできるモデルインポーターも追加した。
この他、深層学習の生産性を拡張する機能として「Deep Network Designer」と呼ぶアプリケーションを用意した。深層学習モデルを可視化できるとともに、複雑なネットワークアーキテクチャで構成される深層学習モデルのネットワークレイヤーの差し替えを行える。また、深層学習モデルを評価する「Network Analyzer」という機能も利用できる。
さらにR2018bでは、これまで自動運転技術開発用の「Automated Driving System Toolbox」でのみ提供していた、画像や映像、音声データへのラベル付けを自動化する機能(Ground-truthラベリングアプリ)を、より汎用的な「Computing Vison Toolbox」などで利用できるようにした。加えて、MATLABコードをNVIDIAのGPU向けプログラミング言語である「CUDA」のコードに自動変換するオプション「GPU Coder」の推論性能も向上した。GPU Coderの実装ターゲットとして、IntelやArmのプラットフォームもサポートに加えている。
MathWorks Japan インダストリーマーケティング部 部長の阿部悟氏は「オープンな開発環境を目指しているMATLAB/Simulinkにとって、ONNXコンバーターでさまざまな深層学習モデルとつながることは重要だ。そして、これらの開発した深層学習モデルを実装する上で、MATLABが最も効率の良い手段として選んでもらえるのではないか」と説明する。
NGCは、深層学習を行う上で手間のかかる作業だったソフトウェア環境の構築を、より容易に短時間で行えるようにするため、コンテナ技術を用いて開発されたクラウドサービスだ。2017年10月の発表時点で利用できるコンテナイメージは10種類だったが、1年経過した2018年10月には50種類まで拡充している。その最新のラインアップがMATLABになる。
エヌビディア エンタープライズマーケティング本部 シニアマネージャの佐々木邦暢氏は「その名称からクラウドでしか利用できないように思われることも多いが、NVIDIAのGPUボードを搭載するサーバやワークステーションにもコンテナイメージを実装できる。さらに、NGCそのものの利用料は無料であり、コンテナイメージを実装した後はMathWorksユーザーの方であればアカウントを使ってアクセスするだけでOKだ」と述べている。
Copyright © ITmedia, Inc. All Rights Reserved.