産業技術総合研究所(産総研)は、柏センター(千葉県柏市)内に構築した大規模AI計算システム「ABCI 3.0」の一般提供を開始したと発表した。
産総研グループは2025年1月20日、柏センター(千葉県柏市)で会見を開き、同センター内に構築した大規模AI(人工知能)計算システム「ABCI 3.0」の一般提供を開始したと発表した。
LLM(大規模言語モデル)の研究や開発などを進めるには高性能なスーパーコンピュータ(スパコン)が必要だが、AIスタートアップを含めた民間企業や研究機関が用意するには投資負担が大きい。そこで、AIの研究者や開発者が誰でも試せる環境として構築されたオープンアーキテクチャのシステムがABCI(AI Bridging Cloud Infrastructure、AI橋渡しクラウド)である。これまで、パナソニック、日立製作所、富士通、三菱重工業といった日本を代表する企業の他、Laboro.AI、Linne、Preferred Networks、T2などのスタートアップが利用し、AI技術の研究や開発でさまざまな成果を挙げてきた。
今回一般提供が始まったABCI 3.0は、その名前の通りABCIとして第3世代にあたる。マルチモーダルを含む基盤モデルの学習の高速化に焦点を当てて設計されており、ABCI 3.0の理論ピーク性能は、半精度で6.2EFLOPS(ABCI 2.0の7.3倍)、単精度で3.0EFLOPS(同13.3倍)、倍精度で415PFLOPS(同7.3倍)と国内トップレベルである。
生成AIの研究開発が盛んになったことでABCI 2.0の利用も増大し、システム利用率が100%近くに張り付くこともあって利用者のニーズに応えられていなかったが、その課題をより高性能なABCI 3.0で解消していく考えだ。ABCI 2.0では1000億パラメーター程度のLLMの開発実績があるが、ABCI 3.0では1兆パラメーター近くまで対応できる見通しだ。
ハードウェアは、141GBのGPUメモリを内蔵するNVIDIA H200 SXM5 TensorコアGPUを8個と、Intel Xeon Platinum 8558プロセッサーを2個搭載するHPE Cray XD670を766台組み合わせて構築しており、総GPU数は6128個に達する。ノード間のインターコネクトは200GbpsのInfiniBand NDRを採用。また、オールフラッシュで構成した75PBのストレージシステムを備える。
イニシャルコストと初年度のハードウェア保守費を含んだ事業費は約350億円で、日本ヒューレット・パッカードが落札した。その他に12億円を掛けて冷却系や電源系の増強を図った。
Copyright © ITmedia, Inc. All Rights Reserved.