4つ目の「コンフィデンシャルコンピューティング」は、仮想マシン上でCPUとGPUの間のやりとりをRoot of Trustなどを使用してハードウェアベースの暗号化を行うことにより、ホストOSやハイパーバイザーなどから完全に分離し、AIの学習中であってもAIモデルや顧客データの秘密を守る機能である。これまでコンフィデンシャルコンピューティングはCPU上でしか実行できなかったが、H100によってGPUベースのコンフィデンシャルコンピューティングが可能になった。
5つ目の「第4世代NVIDA NVLink」は、先述した通りH100の外部インターコネクトとして採用されている。この第4世代NVIDA NVLinkに対応する形でデータセンター向けに新開発したスイッチシステム「NVLink Switch」を用いて256個のH100をマルチノード接続した場合、従来比で9倍の帯域幅を確保できるという。
6つ目の「DPXインストラクション」は、経路最適化やゲノム科学などに用いられている計算アルゴリズムの動的計画法(Dynamic Programming)の処理性能を高速化する新たな命令セットになる。H100でDPXインストラクションを用いた場合、CPUと比べて40倍、前世代のGPUであるA100と比較して7倍の処理性能を動的計画法で発揮できる。
H100は2022年第3四半期に出荷予定で、クラウドサービスプロバイダーやコンピュータ機器メーカーを経てユーザーが利用できるようになる予定だ。また、8個のH100を搭載する「DGX H100」、32台のDGX H100をNVLink Switchで接続した「DGX H100 SuperPOD」などの形でも提供していく。DGX H100 SuperPODをさらに拡張してDGX H100を576台接続した「NVIDIA EOS」も開発している。そのAI処理性能は18EFlops(エクサフロップス)に達し、現在スパコン性能ランキングで1位の「富岳」の4倍になるという。
一方、Grace CPU Superchipは、SPECrate 2017_int_baseのベンチマークで740を記録するなど、現在競合他社が開発中のCPU製品を上回る性能を実現しているという。メモリシステムにLPDDR5xを採用しており、帯域幅は一般的なDDR5の2倍の1TB/sを実現。メモリを含めた消費電力も500Wに抑えた。Grace CPU Superchipは2023年上期に市場投入する計画だ。
2つのCPUチップから成るGrace CPU Superchipで重要な役割を果たしているのが、チップ間高速インターコネクト技術のNVLink-C2Cである。NVIDIAは、第4世代NVIDIA NVLinkと同じ900GB/sの帯域幅を持つNVLink-C2Cを用いて、同社のCPUやGPU、DPU(Data Processing Unit)の「BlueField」、NIC(ネットワークインタフェースカード)、SoCである「Jetsonシリーズ」などをつなげ、パートナーや顧客のニーズに応じてカスタマイズしたシリコンデバイスを提供する方針も明らかにした。
Copyright © ITmedia, Inc. All Rights Reserved.