国の研究機関である産総研でABCIの初代システム(便宜上「ABCI 1.0」とする)の構想が始まったのは2016年である。その前年の2015年はAIの第3ブームの元年と言われた年であり、翌2016年にはDeepMindが開発した「AlphaGo」が韓国のトップ棋士イ・セドル氏に勝利して話題になるなど、ディープラーニングの関心が高まってきた時代だ。
当時、「AI」がディープラーニングや機械学習の代名詞となる一方で、国内ではアルゴリズムなどの研究開発やアプリケーションの応用拡大がそれほど進んでいなかった。そこでAIの速やかな導入を試す「場」として構想されたのがABCIである(図3)。
初代のABCI 1.0は、NVIDIA Tesla V100 SXM2モジュールを4枚搭載した1088台のノードで構成され、総GPU数は4352基であった。稼働開始は2018年8月1日である。
設計に当たっては、産総研の人工知能研究センターが運用してきたAIクラウド「AAIC(AIST Artificial Intelligence Cloud)」(NVIDIA Tesla P100 GPU×400基)や、東京工業大学(現東京科学大学)が2017年に構築したスパコンシステム「TSUBAME 3.0」の知見が反映された。
ABCI 1.0の性能は、倍精度で37.2PFLOPS、単精度で75PFLOPS、半精度で550PFLOPSで、2018年6月に公表されたTOP500ベンチマークで第5位にランクされた。※3)また、省エネ性能の指標であるGreen500ベンチマークでは第8位であった。
※3)産総研プレスリリース:大規模AIクラウド計算システム「ABCI」がスパコン性能ランキング世界5位
2021年5月には、ABCI 1.0の設備はそのままに、NVIDIA A100 Tensor コア SXM4モジュールを8枚搭載したノード120台とファイルシステムの増強が行われた。このシステムを「ABCI 2.0」と呼ぶ。GPUの総数は既設分4352+増設分960=5312基である。
ABCI 2.0の性能は、ABCI 1.0と同時に運用した場合、倍精度で56.5PFLOPS、単精度で226.0PFLOPS、半精度で851.5PFLOPSであった(表1)。2021年6月のTOP500では世界12位を記録した。※4)
※4)産総研ニュース:大規模AIクラウド計算システム「ABCI 2.0」がスパコン性能ランキングでランクアップ
ABCI 1.0 | ABCI 2.0 | ABCI 3.0 | |
---|---|---|---|
GPU | NVIDIA V100×4352 | NVIDIA V100×4352+NVIDIA A100×960 | NVIDIA H200×6128 |
倍精度(FP64) | 37.2PFLOPS | 56.5PFLOPS | 415PFLOPS |
単精度(FP32/TF32) | 75PFLOPS | 225PFLOPS | 3.0EFLOPS |
半精度(FP16/TF16) | 0.55EFLOPS | 0.85EFLOPS | 6.2EFLOPS |
表1 歴代のABCIシステムの性能比較(PFLOPS=毎秒1000兆回、EFLOPS=毎秒100京回) |
Copyright © ITmedia, Inc. All Rights Reserved.