「未体験」の大規模エンジニアリング、リコーが進めるGPTレベルのAIモデル開発人工知能ニュース

AWSの年次イベントで登壇したリコーによる、AWSのサービスを活用したGPTレベルのAIモデル開発に関する発表を紹介する。

» 2023年04月28日 10時00分 公開
[池谷翼MONOist]

 AWSは2023年4月20〜21日に年次イベント「AWS Summit Tokyo」(幕張メッセ)を開催した。本稿では事例セッションで登壇したリコーの、AWSのサービスを活用したGPTレベルのAIモデル開発に関する発表を紹介する。

短期間で高品質な日本語生成を可能に

 これまでにリコーは、自然言語処理のAI技術を活用したサービスとして、企業のドキュメントやVOC(顧客の意見:Voice Of Customer)を分析する「仕事のAI」などを展開してきた。同サービスではGoogleの言語モデル「BERT」をベースとするAIモデルをクラウド基盤上で稼働させていた。リコー デジタル戦略部 デジタル技術開発センター長の梅津良昭氏は「当社が初めて大規模な言語モデルをサービスで活用した事例だった」と説明する。

AWSを用いた「仕事のAI」のアーキテクチャ[クリックして拡大] 出所:リコー、AWSジャパン

 ただし、「BERT世代のAIモデル」には教師データ開発やアノテーションにかなり時間がかかるといった問題があった。さらに個別業務にフィットするように単純なタスクに分解し、落とし込む必要もある。これに対して2020年頃に登場した「GPT-3」は、教師データによる追加学習が基本的に不要な上、プロンプトを通じた個別業務へのフィッティングも容易だった。このため当時から「業務で使用した際のインパクトが大きなものとなると予想していた」(梅津氏)という。そこでリコーでは、AWSなどと協調しながら、2022年からGPT-3を活用したシステムの自前開発に取り組み始めた。

 GPTレベルの大規模AIモデルの構築は、リコーにとっては「未体験の領域」(梅津氏)だった。さらに2022年初頭は世界全体でGPUが入手しづらい状況が生じており、AWSと協議しつつ、NVIDIAのA100 Tensor Core GPUを活用できるAmazon EC2 P4d インスタンスの上限緩和申請を行うなど対策を講じた。ただ、実際にはGPUが速すぎてAmazon S3からAmazon SageMakerインスタンスへのデータ転送がボトルネックになり、データ転送が追い付かないという問題も生じた。これに対しては、転送速度をうまく調整することで適切に学習できるようにするなど工夫した。

GPT-3レベルのAIモデル開発における学習インフラの構築[クリックして拡大] 出所:リコー、AWSジャパン

 AIエンジニアリングの面では、Amazon SageMakerによる分散学習環境の構築を図った他、Amazon Machine Learning Solutions LabによるAIモデル実装面での支援を受けるなどでAWSのサービスを活用した。これによって約3カ月で小規模ではあるが「GPT-3レベルのAIモデル」を開発することができた。吟味した日本語データを学習させることで、他社のAIモデルに比べて高品質な日本語の文章生成を高速で行えるようにしている。

高品質なGPT-3レベルのAIモデル開発を実現[クリックして拡大] 出所:リコー、AWSジャパン

 現在リコーでは、GPT-3レベルのAIモデル開発/運用を行う環境の顧客提供を目指している。また、さらに業務へのフィッティング感を高めるために、GPT-3レベルの自然言語処理技術に同社のCG技術や音声認識技術を組み合わせたAIアシスタント「デジタルヒューマン」の開発も進めているという。

 梅津氏は「GPTを企業が活用して業務に活用する時代がすぐに来る。そこにリーチするようなAIの開発を進めたい。RLHFやプロンプトエンジニアリングなどを活用してより多くの企業に提供できるようにしていきたい」と語った。ただし、GPT世代のAIモデルを提供するには、学習や運用面での課題が残されているとも指摘した。

⇒その他の「人工知能ニュース」の記事はこちら

Copyright © ITmedia, Inc. All Rights Reserved.