特集:IoTがもたらす製造業の革新〜進化する製品、サービス、工場のかたち〜

AIデータセンターの性能が20倍に、NVIDIAがAmpere世代のGPU「A100」を発表GTC 2020 基調講演(1/3 ページ)

NVIDIA CEOのジェンスン・フアン氏は、YouTubeでオンデマンド配信した「GTC 2020」の基調講演において、新たなアーキテクチャ「Ampere」を採用したGPU「NVIDIA A100」を発表した。

» 2020年05月15日 06時30分 公開
[朴尚洙MONOist]

 NVIDIAは2020年5月14日、同社のYouTubeチャンネルで、ユーザーイベント「GTC(GPU Technology Conference) 2020」の基調講演をオンデマンド配信した。GTC 2020は同年3月22〜26日に米国サンノゼで開催予定だったが、新型コロナウイルス感染症(COVID-19)の感染拡大のため、リアルイベントに替えて完全オンラインのイベント「GTC Digital」を実施している。GTCの基調講演と言えば、同社 創業者兼CEOのジェンスン・フアン(Jensen Huang)氏が講演会場のステージ上で新たな製品や技術を紹介するのが定番だが、今回はCOVID-19に対応した自宅からの講演をイメージさせる“キッチンキーノート”として配信を行った。

「GTC 2020」の基調講演は“キッチンキーノート”に 「GTC 2020」の基調講演は“キッチンキーノート”に。台所と言っても、ジェンスン・フアン氏はエプロン姿ではなく、いつも通りの革ジャンスタイル(クリックで拡大) 出典:NVIDIA

 GTC 2020の基調講演はイントロダクションから最後のまとめまで全9部構成、総計1時間40分以上に上る大ボリュームの内容となっている。本稿では、今回の基調講演の目玉となった第6部の講演内容を中心に紹介する。

7nmプロセスチップとして世界最大

最新GPU「A100」を搭載するボードを掲げるフアン氏 最新GPU「A100」を搭載するボードを掲げるフアン氏(クリックで拡大) 出典:NVIDIA

 全9部構成の基調講演のうち最も多い24分弱の時間を割いた第6部では、新たなGPUアーキテクチャ「Ampere」などの採用によるデータセンターにおけるAI(人工知能)処理性能の大幅な向上について紹介した。

 クラウドをはじめとするデータセンターが、アプリケーション処理やAIの機械学習、データ分析、HPC、クラウドゲーミングなどさまざまワークロードに対応するためにより複雑な構成を取るようになっている。フアン氏は「今後もクラウドコンピューティングへの需要が高まる中で投資コストを抑えて行くには、1つのサーバアーキテクチャでさまざまなワークロードに対応できる必要が出てくるだろう」と指摘する。

 そのために開発したのがデータセンターGPUの「NVIDIA A100(以下、A100)」である。A100は、第8世代となるGPUアーキテクチャのAmpereを採用した初のGPU製品で、製造プロセスは台湾TSMCの7nmプロセスをNVIDIA向けに最適化したものになっている。高密度を特徴とするパッケージング技術「CoWoS(Chip on Wafer on Substrate)」の採用でGPUダイとメモリを高密度に並べ、HBM(High Bandwidth Memory)2のバンド幅は1.6TB/sに達する。540億以上のトランジスタを集積しており、826mm2のダイ面積は7nmプロセスチップとして世界最大だという。

「A100」の概要 「A100」の概要。7nmプロセスを採用した他、第3世代のTensorコアとMIG(Multi-Instance GPU)が大きな特徴となる(クリックで拡大) 出典:NVIDIA

 Ampereの特徴は大まかに分けて2つある。1つは、ディープラーニング(深層学習)向けに開発されたTensorコアが第3世代に進化したことだ。第3世代Tensorコアは、従来と同じくFP64やFP32、FP16といった浮動小数点演算、INT8などの整数演算を利用できる他、新たにBFLOAT16(Brain Floating Point 16)と、独自に定義したTF32(Tensor Float 32)に対応した。TF32は、ニューラルネットワーク向けに「FP32のダイナミックレンジとFP16の精度を併せ持つ」(フアン氏)ものになっているという。

独自に定義したTF32に対応した 第3世代のTensorコアは、独自に定義したTF32(Tensor Float 32)に対応した(クリックで拡大) 出典:NVIDIA

 また、第3世代Tensorコアは深層学習の計算の精度を犠牲にせずに効率を大幅に高められるスパース化(Sparsity)に対応した。スパース化を用いてディープラーニングを行う場合には処理性能を倍増させることが可能になる。

スパース化を用いると計算効率を2倍に向上できる スパース化を用いると計算効率を2倍に向上できる(クリックで拡大) 出典:NVIDIA

 もう1つの特徴は、1つのGPUを最大で7つの独立したGPUに分離して扱えるMIG(Multi-Instance GPU)である。これにより単に処理速度の速い1個のGPUとしてだけでなく、スケーラブルかつ柔軟にGPUを利用できるようになる。フアン氏は「従来のGPUは巨大なペイロードを持つロケットであり、ペイロードが満杯になるまでロケットの打ち上げを待つ必要があった。A100のMIGは、より小さなペイロードを持つ7つのロケットとしても利用可能で、ペイロードに荷物が入り次第打ち上げられる」と説明する。

MIGのイメージ MIGのイメージ。1つのGPUを最大で7つの独立したGPUに分離して扱える(クリックで拡大) 出典:NVIDIA

 これらの他、GPU間接続技術であるNVLinkも第3世代となり、従来比で2倍となる600GB/sのバンド幅を実現している。

 なお、A100の処理性能については、第7世代アーキテクチャ「Volta」を採用する「V100」と比較した結果を示した。スパース化を用いないFP64とFP16ではV100の約2.5倍にとどまるものの、スパース化を用いたA100のTF32とV100のFP32、スパース化を用いたA100のINT8とV100のINT8の比較では20倍前後の性能をたたき出している。また、近年のディープラーニングの処理性能の目安になっている自然言語処理モデルのBERTで見ると、BERTの学習でV100の6倍、BERTの推論実行でV100の7倍を達成している。

「V100」と比較した「A100」の処理性能 「V100」と比較した「A100」の処理性能。TF32やスパース化を用いると最大20倍になる(クリックで拡大) 出典:NVIDIA
BERTによる処理性能の比較 BERTによる処理性能の比較(クリックで拡大) 出典:NVIDIA
       1|2|3 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.