NTTは、生成AIのカスタマイズコストを大幅に削減する、ポータブルチューニング技術を確立した。異なる基盤モデル間でも、追加学習なしに学習過程の転移や学習結果の再利用が可能で、再学習コストを削減できる。
NTTは2025年7月9日、生成AI(人工知能)のカスタマイズコストを大幅に削減する、ポータブルチューニング技術を確立したと発表した。
生成AIの活用が進展する中、基盤モデルの更新に伴う特化モデルの再学習コストが課題となっている。同社はこのコストの大幅な削減を目指し、学習転移技術を進化させた、ポータブルチューニング技術を開発した。
ポータブルチューニングは、基盤モデルの出力を調整する独立したモデルを学習し、再利用する新たな特化学習の枠組みだ。同技術により、異なる基盤モデル間でも追加学習なしに学習過程の転移や学習結果の再利用が可能なことから、再学習コストを削減できる。
従来は、基盤モデルのパラメーターを直接最適化していたが、同技術では、基盤モデルの出力をタスクドメインごとに補正する報酬モデルを導入した。報酬モデルは基盤モデルから独立したモデルとして特化学習するため、再学習や追加学習をしなくても高精度な学習転移ができる。
また、報酬モデルは基盤モデルの構造に依存せず、出力形式のみに依存するため、基盤モデルの構造が転移先と転移元で異なるケースでも適用可能だ。基盤モデルが更新されても再学習の必要がなく、学習コストを一定に保てる。
実験として、画像基盤モデル「ViT-B-16」に対するドメインごとの特化学習や、言語基盤モデルに対する指示学習の結果を、モデルサイズや事前学習データが異なる基盤モデルに転移させた。その結果、特化学習を実施した場合と同等の精度を達成できた。
同技術は、特化モデルの再学習コストを削減するだけでなく、再学習時の効果を事前にシミュレーションするなど、幅広い応用が期待できる。
Copyright © ITmedia, Inc. All Rights Reserved.