検索
ニュース

NVIDIA「Vera Rubin」は7つの新チップ、GroqのLPU追加でAIエージェント性能向上人工知能ニュース(2/2 ページ)

NVIDIAは米国カリフォルニア州サンノゼで開催中のユーザーイベント「GTC 2026」の基調講演において、CPU「Vera」やGPU「Rubin」など新たなアーキテクチャを基にしたをAIインフラの基盤「Vera Rubinプラットフォーム」を発表した。

Share
Tweet
LINE
Hatena
前のページへ |       

AIエージェントの性能向上にはCPUとストレージも重要

 5つのラックシステムについては、先述したVera Rubin NVL72とGroq 3 LPXの他、CPUのVera単体で構成される「Vera CPU Rack」、新たなストレージシステム「BlueField-4 STX Storage Rack」、データセンター間をつなぐ「Spectrum-6 SPX Ethernet Rack」が用意されている。

 Vera CPU Rackは、AIエージェントを扱う際にCPU上で実行する処理の速度を高めることを狙って設計されたCPUのVeraを256個組み込んだラックシステムだ。Veraは、新規にカスタム設計したプロセッサコア「Olympus」を88個搭載し、176のマルチスレッド処理が可能だ。コア当たりのL2キャッシュや統合L3キャッシュも強化しており、現行のGraceからAIエージェントのCPU側に求められる、SQLクエリ、コードのコンパイル、Python実行、サンドボックス実行などの処理性能を大幅に高めた。Vera CPU Rackとしては、Graceと比べて約2倍の処理性能となっている。

 データセンターにおけるAIエージェントの処理性能を高めるためにはストレージの役割も重要だ。一般的なストレージシステムでは、AIエージェントの処理に必要なデータへのリアルタイムアクセスができず、コンテキストを保持するためのワーキングメモリも持たない。そのため、ストレージシステムがボトルネックになって、GPUの利用率が低下する可能性がある。

 BlueField-4 STX Storage Rackは、DPUのBlueField-4をベースに、CPUのVera、ネットワークインタフェースICのConnectX-9を組み合わせて構築するストレージラックシステムのレファレンスで、消費電力1W当たりのストレージ処理性能が4倍、コンテキストメモリのTPSが5倍などとなっている。レファレンスとある通り、NVIDIAが直接提供せず、パートナーがストレージシステムを提供することになる。

 なお、これら5つのラックシステムによって構成する、AIファクトリーのレファンレスとなる「Vera Rubin DSX」も発表している。Vera Rubin DSXの構築に必要なソフトウェアスタックはオープンソースとなっており、AIファクトリーを構築したユーザー企業やパートナーが広く活用できるようになっている。また、Vera Rubin DSXと完全互換性を有する形でデジタルツインのプラットフォーム「Ominiverse」を実装できる「Omniverse DSX Blueprint」も発表している。

「Vera Rubin DSX」はAIファクトリーのレファンレスとなる「Vera Rubin DSX」
「Vera Rubin DSX」はAIファクトリーのレファンレスとなる「Vera Rubin DSX」はAIファクトリーのレファンレスとなる[クリックで拡大] 出所:NVIDIA

取材協力:NVIDIA

⇒その他の「人工知能ニュース」の記事はこちら

Copyright © ITmedia, Inc. All Rights Reserved.

前のページへ |       
ページトップに戻る