日本語版の医療特化LLM基盤を開発、医師国家試験ベンチマークで最高性能医療機器ニュース

ELYZAは、日本語版の医療LLM基盤「ELYZA-LLM-Med」シリーズを開発した。汎用モデルは国内最高性能、現場の医療タスクではグローバルトップ水準を超える精度を達成している。

» 2025年07月31日 15時00分 公開
[MONOist]

 ELYZAは2025年7月14日、日本語版の医療LLM(大規模言語モデル)基盤「ELYZA-LLM-Med」シリーズを開発したと発表した。汎用モデルは国内最高性能、現場の医療タスクではグローバルトップ水準を超える精度を達成している。

 研究では、まず各ユースケースの基盤となる日本語版汎用医療LLMを開発。これをベースに、各ユースケースを解くための日本語版汎用医療LLMの適合に向けたモデルを開発した。なお、共通部分はあらかじめ学習させており、継続事前学習により高性能なモデルを今後も効率的に作成し続けることができる。

 基盤となる「ELYZA-Med-Base-1.0-Qwen2.5-72B」は、海外製のオープンモデル「Qwen2.5-72B-Instruct」をベースとし、複数の医療関連コーパスを用いた継続事前学習を実施した。これに追加で事後学習し、「電子カルテ標準化のための情報変換」(UC1)と、「レセプト(診療報酬明細書)の確認修正内容の提案」(UC2)に適合するモデルを開発した。

キャプション アプローチ図[クリックで拡大] 出所:ELYZA

 各モデルの有効性を検証したところ、基盤モデルでは医師国家試験ベンチマーク「IgakuQA」において、国内最高性能を達成した。

キャプション 継続事前学習済モデルと他モデルの「IgakuQA」の精度、禁忌肢数比較[クリックで拡大] 出所:ELYZA

 またUC1は、OpenAIの「o1(2024-12-17)」を超える性能を達成。UC2では、「修正要否の精度」「コメントの質」において、OpenAIの「gpt-4o(2024-11-20)」をクリアした。

キャプション UC1(電子カルテ標準化のための情報変換)の精度比較[クリックで拡大] 出所:ELYZA

 今後は、特定領域に特化したLLMソリューションを順次展開する。同研究は、内閣府の「戦略的イノベーション創造プログラム(SIP:エスアイピー)」の支援を受けて実施したもので、プロジェクトはさくらインターネット、東京大学、ABEJAらと共同で実施した。

Copyright © ITmedia, Inc. All Rights Reserved.