エッジコンピューティングの逆襲 特集

性能2PFLOPSでコスパはGPUの10倍、LeapMindが大規模モデル対応のAIチップ開発へ人工知能ニュース

LeapMindはが生成AIをはじめとする大規模AIモデルの学習と推論を高速化する新しいAIチップの開発を開始したと発表。演算性能目標は2PFLOPSで、同等性能のGPUと比べて10倍のコストパフォーマンスを目指す。

» 2023年10月11日 08時30分 公開
[MONOist]

 LeapMindは2023年10月10日、生成AI(人工知能)をはじめとする大規模AIモデルの学習と推論を高速化する新しいAIチップの開発を開始したと発表した。演算性能目標は2PFLOPS(1秒当たり2000兆回の浮動小数点演算)で、同等性能のGPUと比べて10倍のコストパフォーマンスを目指す。出荷時期は2025年内を予定している。

 同社がこれまで開発を進めてきたエッジAI向けアクセラレーターの技術を応用し、大規模AIモデルの計算処理を高いコストパフォーマンスで実行できるAIチップの開発を目指す。新しいAIチップの特徴としては、「AIモデルの学習と推論に特化したデザイン」「FP8(8ビット浮動小数点)など、低ビット表現を重点的に採用」「オープンソース化されたドライバ、コンパイラ」の3つを挙げる。

 「AIモデルの学習と推論に特化したデザイン」では、AIモデルの学習と推論を計算タスクとして捉えた場合、行列積が計算ボトルネック、並列化が容易、条件分岐が非常に少ないという特徴に着目した設計を行い、汎用的な計算機としての性能向上を目指さない。例えば、プログラム中に条件分岐は非常に少ないため、分岐予測ユニットを省くことでトランジスタ数を削減できることなどを挙げている。

 「FP8など、低ビット表現を重点的に採用」では、AIモデルの計算のボトルネックとなる行列積で極めて多くの乗算と加算が行われることに対応するため、大きくなりがちな乗算器回路についてFP8(8ビット浮動小数点)などこれまでよりもビット幅の低いデータ型を用いることで必要なトランジスタ数の削減を図る。扱うデータも小さくなるので、近年ボトルネックになりがちなDRAM帯域を有効に活用できるという。

 「オープンソース化されたドライバ、コンパイラ」では、新しいAIチップのハードウェア仕様を可能な限り公開し、ドライバやコンパイラなどのソフトウェアをOSI(Open Systems Interconnection)準拠のライセンスで公開する方針だ。AIモデルの開発に必要な高度なソフトウェアスタックはオープンソースソフトウェアによるエコシステムで構築されている。OSI準拠のライセンスで新しいAIチップのハードウェア仕様を公開することで、このエコシステムの一部となってコミュニティーに加わることが可能になるとしている。

最先端AIモデルの学習コストは10年前とは比較にならないほど上昇

 ChatGPTなどに用いられている大規模言語モデル(LLM)をはじめとする近年のAIモデルのサイズ拡大や計算量の増大により、最先端のAIモデルを学習するためのコストは10年前とは比較にならないほど上昇している。このコストの上昇は、AIの進化における重大なボトルネックとなっている。

 現状では、優れたAIモデルを作るためには大量のプロセッサを用いて並列計算を行う必要があり、大量のプロセッサを用意するためには大規模な予算が必要だ。そこで、コストパフォーマンスに優れたプロセッサを使うことができれば、同じ予算規模であっても、より優れたAIモデルを開発できる。つまり、AI学習用のプロセッサに求められる性質は、絶対性能からコストパフォーマンスに変化している。

 このことを背景に、2012年の創業からエッジAIの開発を中核としてきたLeapMindは、大規模AIモデルの学習と推論を高速化する新しいAIチップの開発に乗り出すことを決めた。

⇒その他の「人工知能ニュース」の記事はこちら

Copyright © ITmedia, Inc. All Rights Reserved.