検索
ニュース

パナソニックHDがマルチモーダルAIの生成速度を倍増、拡散モデルの適用で人工知能ニュース(2/2 ページ)

パナソニックHDは、拡散モデルを応用し、従来比約2倍の生成速度を実現したマルチモーダルAI「LaViDa」を開発。従来の自己回帰型LLMが抱える生成遅延や全体制御の弱さを、独自の高速化技術で克服した。

Share
Tweet
LINE
Hatena
前のページへ |       

生成速度2倍と高精度を両立、現場の「非構造化データ」活用へ

 LaViDaの評価実験では、自然画像に関する質問応答に加え、数学やチャートなどが含まれるドキュメントの内容理解など、複数のデータセットを用いて検証を行った。その結果、同規模の学習データ量を用いた場合、LaViDaはいずれのタスクでも自己回帰モデルを用いたAIモデルを上回る性能を示した。

複数のデータセットを用いた検証結果
複数のデータセットを用いた検証結果[クリックで拡大]出所:パナソニック ホールディングス

 また、1回のトークン生成数を調整することで、速度と精度のトレードオフを実現。LaViDaは自己回帰モデルを用いる場合よりもCIDEr(生成されたテキストの品質を評価する指標の1つ)を4.1ポイント改善しつつ、約2倍となる生成の高速化を達成した。また、文章を包括的に判断しながら生成できる拡散モデルを使うことで、軽量なことを特徴とするJSON形式をはじめ特定のフォーマットに合わせて生成できるようになった。

生成性能の向上と約2倍の高速化を達成
生成性能の向上と約2倍の高速化を達成[クリックで拡大]出所:パナソニック ホールディングス

AIエージェントの活用を加速

 パナソニックグループでは現在、AIを活用したビジネス変革「Panasonic Go」を推進しており、2035年までにAI活用事業をグループの売り上げ全体の約30%へ拡大することを目指している。同社はその一環として、AI活用を標準フェーズから、自社データを用いた「特化型・カスタマイズフェーズ」へと移行させている。

 特化型のAI活用に向けては、既に同社はストックマークと共同でパナソニックグループ専用の大規模言語モデル(LLM)「Panasonic-LLM-100b」を開発している。これはグループ内の社内データを学習させた1000億パラメータ規模のLLMで、日本語で業務内容の回答が可能であり、ハルシネーションにも強いという特徴がある。

 同社は、このPanasonic-LLM-100bに加え、今回開発したLaViDaを社内で活用することで、製造現場などに散在する画像や図面といった「現場ごとの専門知識」の構造化を目指している。具体的には、LaViDaを用いてこれらを読み取り、データベースへ登録可能なテキストデータや、AIシステムが活用しやすい形式へと変換する。現場におけるデータの構造化を通じて、RAGやAIエージェントの適用範囲を広げ、専門知識を活用した全社的な業務効率化を目指す方針だ。

 なお、LaViDaは、2025年12月3〜5日に米国サンディエゴで開催される機械学習分野の国際会議「NeurIPS(Neural Information Processing Systems) 2025」に採択された。

RAGやAIエージェントによる業務効率化を目指す
RAGやAIエージェントによる業務効率化を目指す[クリックで拡大]出所:パナソニック ホールディングス

⇒その他の「人工知能ニュース」の記事はこちら

Copyright © ITmedia, Inc. All Rights Reserved.

前のページへ |       
ページトップに戻る