検索
ニュース

結果を改善するためのアクションを提示できる「説明可能なAI」を開発人工知能ニュース

富士通研究所は、AIが判断理由を示す「説明可能なAI」において、人が望む結果を得るために必要な手段を提示できる技術を北海道大学と共同開発した。AIの適用が、判断だけでなく、人の意思行動を支援する用途にも広がることが期待される。

Share
Tweet
LINE
Hatena

 富士通研究所は2021年2月4日、AI(人工知能)が判断理由を示す「説明可能なAI」において、人が望む結果を得るために必要な手段を提示できる技術を発表した。北海道大学との共同研究で開発した。

 両者はは、これまでにもAIの判断理由を人間に説明できる新しいAI技術を開発してきた。今回の技術は、「反実仮想説明」という手法を利用。この技術では、過去の事例の分析から非現実的な変更を避けるとともに、属性値の変更が他の属性値に与える影響もAIが推定し、実際に必要な変更量を計算することで、適切な順序かつ最も少ない労力で最適な結果が得られるアクションを提示できる。

 例えば健康診断において、体重や筋肉量などのデータから病気になるリスクをAIが判断し、判断の根拠となったデータを提示する。これに加え、データがどう変化すれば病気のリスクが下がり、望ましい結果になるかを提示可能になる。これによりAIの適用が、判断だけでなく、人の意思行動を支援する用途にも広がると期待される。

キャプション
健康診断データにおける同技術活用例 出典:富士通研究所

 今後、富士通研究所は、今回の開発成果と個別の因果関係を発見する技術を組み合わせて、より適切な手段を提示できるよう研究を続ける。また、同技術の2021年度の実用化を目指し、富士通のAI技術「FUJITSU Human Centric AI Zinrai」に活用するとしている。

 北海道大学は、さまざまな現場データから人間の意思決定に役立つ知識や情報を抽出するためのAI技術を確立していく。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る