検索
ニュース

AIによる医用画像診断の根拠が専門医の所見と一致するとは限らない医療技術ニュース

東北大学は、深層学習モデルが医用画像を診断した際の根拠と専門医の所見との一致度は必ずしも高くないことを確認した。医学的に妥当でない根拠は思わぬ診断結果を招く危険があるため、安全なAIの開発が期待される。

Share
Tweet
LINE
Hatena

 東北大学は2024年2月28日、深層学習モデルの医学的妥当性を詳しく検証し、AI(人工知能)による医用画像診断において、診断に至った根拠と専門医の所見との一致度は必ずしも高くないことを確認したと発表した。

 研究グループは、深層学習モデルが医用画像中のどこに注目して診断したのかを可視化する技術を用いて、法医学における死後画像を用いた溺水診断を例に検証を実施した。

 深層学習モデルが注目した画像の特徴をモデルの注目領域とし、放射性診断医の画像所見に基づく画像領域を医学的な重要領域として、両者を比較した。

キャプション
深層学習モデルの医学的妥当性を検証[クリックで拡大] 出所:東北大学

 その結果、モデルの注目領域は、少ない場合では30%しか医学的な重要領域と一致しなかった。また一致度が80%程度の場合でも、領域中で重要視する位置は異なっていた。

キャプション
元画像に対し、モデルの注目領域と医学的な重要領域を投影した例。色が赤いほど診断結果への貢献の高さを示す[クリックで拡大] 出所:東北大学

 今回検証した深層学習モデルは、先行研究で90%以上の高い正答率で水死を分類できると報告されている。このことから、高い分類性能があっても、深層学習モデルと臨床上の医学的所見の間に大きなずれがあることが示された。

 深層学習などAIの医用画像診断への応用が進んでいる。その一方で、AIが訓練データから何を学んだかについてはこれまで十分に解明されていなかった。医学的に妥当でない不適切な根拠は、思わぬ診断結果を招く危険があるため、今後、さらに多角的な医学的基準に沿った訓練法を開発するなど、より安全性の高いAIの開発が期待される。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る