今回開発した製造業向け言語モデルを実現した2つの技術の詳細は以下のようになっている。
1つ目の製造業固有の知識を学習させるドメイン特化学習とAIモデルの軽量化では、国立情報学研究所を中核に三菱電機も参加しているLLM勉強会が開発するパラメーター数18億のLLMをベースに、製品マニュアルやコールセンター応対履歴など三菱電機が独自に保有する権利的/倫理的に問題のないデータで学習することで、製造業ドメインに特化したLLMを開発した。その上で、浮動小数点のデータ型を整数に変換する量子化などのモデル圧縮技術を活用して、LLMの精度を保ったままメモリ使用量を大幅に削減することに成功した。
これにより、メモリ不足で実行不可能だったエッジデバイスでも動作可能であることを確認した。エッジデバイスで完結してLLMを処理できるので、低遅延かつプライバシーに配慮した処理が可能となり、スマートファクトリーやエッジロボティクス、エネルギー制御など多様な分野において、ユーザーの生成AI運用にかかる各種コスト削減に貢献できるようになるという。
ただし1つ目の技術だけでは、現場での実運用に対応可能なLLMとして十分な精度を確保できているとはいえない。そこで、LLMの精度をさらに高める2つ目の技術として開発したのが、効果的なタスク特化学習を可能にする独自の学習データ拡張技術である。
タスク特化学習の第1段階としては、問い合わせや文章生成指示などの入力内容に対して「望ましい回答」がひも付けられているFAQなどの各ユーザーが有しているタスクデータを用いて学習を行う。そして第2段階として、このタスクデータを基に、正しい回答例文とテキストの類似性は高いものの、入力された問いに対する回答としては正しくない回答テキストを拡張データとして抽出する。その上で、この拡張データを同一入力に対する「望ましくない回答」と見なすことで、ある入力に対する「望ましい回答」と「望ましくない回答」のペアを疑似的に自動生成し、「望ましい回答」が出力されやすく、「望ましくない回答」が出力されにくくなるような学習を行う。この第2段階の学習を行うのに開発したのが、独自の学習データ拡張技術である。
会見では、Jetson AGX Orin Nano 8GBに実装した製造業向け言語モデルを用いたデモを披露した他、より小型のエッジデバイスの事例として、エッジコーティックス(EdgeCortix)のAIアクセラレータ「SAKURA-II」も展示した。また、産業用PCなどに用いられるインテルやAMDのx86系CPUは、WindowsのAI機能である「Copilot+ PC」に対応するためAI処理性能を大幅に高めており、これらも製造業向け言語モデルを実装するエッジデバイスのターゲットになり得るという。
三菱電機は、今回の開発成果を基に、産業機器やロボットなどのデバイス上で言語モデルを動作させるユースケースの検討と社内外の実機検証を進め、2026年度までの製品適用を目指す。
なお、今回の製造業向け言語モデルは、アマゾン ウェブ サービス ジャパンが提供する「AWSジャパン生成AI実用化推進プログラム」に参画し、同社のサポート(言語モデルの学習に必要なGPUや「AWS Trainium」などのコンピューティングリソースの調達支援、分散トレーニングの環境構築支援、AWSクレジットの提供、AWS生成AIイノベーションセンターによる科学的観点からのアドバイザリーなど)の下で開発したという。
Copyright © ITmedia, Inc. All Rights Reserved.