テンストレントのAIアクセラレータは、多くのAIスタートアップが学習もしくは推論のどちらかに特化した技術を展開しているのに対して、学習にも推論にも高い性能を発揮できることを特徴としている。競合として想定するのは、高性能GPU技術を中核にAI開発に必要なツールやライブラリ、ミドルウェアなどを展開するNVIDIAだ。
ケラー氏は「AIのトレンドが大きく高まったタイミングに応えたのがNVIDIAのGPUだ。ただし、GPUはAI処理に最適化されてはいない。当社のAIアクセラレータが効率性で上回ることを証明して行く必要がある。またGPUによるAI処理は、CPUやメモリとのアクセスがボトルネックになることも課題の一つだ。CPUとしてRISC-Vを統合したBlackhole移行の世代ではこれらのボトルネックを解消して、より省電力で低コストのAIコンピュータを実現できる」と説明する。
技術的な優位性の一方で、NVIDIAのGPUを一気に置き換えていくというような性急な将来像を描いているわけではない。AIモデル開発のインフラとして、NVIDIAの「CUDA」はデファクトスタンダードであり、今後もしばらくはCUDAとNVIDIAのGPUが最初の選択肢になることは確かだからだ。「AMD時代に開発した64ビット対応のOpteronは、大手サーバメーカーの採用も勝ち取ったが、一気に競合のインテルを置き換えるところまではいかなかった。しかし現在のサーバアーキテクチャをみれば、Opteronから始まった64ビット対応の技術が100%を占めるようになっている。このように、結果がすぐに出るとは限らないが、当社の優位性を基にしっかりと取り組みを進めていきたい」(ケラー氏)という。
なお、テンストレントのAIモデル開発環境としては、開発済みのAIモデルを最適化する「Buda」と、CUDAのようにAIアクセラレータのハードウェア機能をフル活用してAIモデルを開発するための「BudaM」を用意している。
また、ChatGPTなどに代表される生成AIについても、AIアクセラレータとRISC-VベースCPUで構成されるテンストレントのAIコンピュータを有効活用できるという。ケラー氏は「当社のAIアクセラレータは、学習と推論の両方に対応し、画像、自然言語、小規模から大規模に至るまでさまざまなAIモデルを扱える。生成AIでは、より大きなモデルをより小さなリソースで処理できることが求められるが、そういった意味で当社のAIコンピュータは最適だろう。直近2年間でAIモデルには5つの大きな革新があったが、今後2年間も5つ以上の新たな革新が生まれるだろう。当社はそれらの革新に対応しながら、技術的な優位性を生かして事業を拡大していきたい」と述べている。
Copyright © ITmedia, Inc. All Rights Reserved.