日立製作所は、従来のブラックボックス型AIを判断基準が明確なAIに変換する「AI単純化技術」を開発した。経験や知識に基づいてユーザー自身で予測式を調整可能とし、信頼できるAIの構築を容易にする。
日立製作所は2021年12月24日、従来のブラックボックス型AI(人工知能)を判断基準が明確なAIに変換する「AI単純化技術」を開発したと発表した。同技術の一部を、同社グループにおいて製品出荷前の自動検査ラインに適用し、熟練者不足の解消や検査速度の向上効果を確認している。
信頼できるAIには、精度だけでなく、説明性、透明性、品質、公平性などが必要になる。従来のブラックボックス型AIは、予測精度が高い一方、数式が複雑で判断基準が不明確のため、未知のデータに対して意図しない予測結果を導く不安やリスクを抱えていた。
同社はあらゆる入力に対して、人が理解できる単純な予測式を作り、明確な判断基準の下で予測結果を提示できる技術を開発した。さらに、経験や知識に基づいてユーザー自身で予測式を調整可能とし、信頼できるAIの構築を容易にした。
具体的には、既に開発済みのeXplainable AI(XAI)技術を利用して、入力データの特徴量が予測値に及ぼす影響の強さを貢献度として算出。次に、特徴量が変化しても予測値への貢献度が一定の入力データ領域をクラスタリング技術により抽出し、その領域でAIを単純な予測式に変換する。同様の処理を全入力データ領域で繰り返すことで、最終的にユーザーに分かりやすい単純な予測式を提供する。
これにより、製造、金融、インフラ制御などさまざまな領域で、信頼できるAIの実装を可能にし、社会全体のDX(デジタルトランスフォーメーション)に貢献する。
AIが判断した根拠を一般ユーザーにも分かるように明示、三菱電機と理研が新技術
「NG画像不足」を解決、少量データで特徴抽出するAI技術スパースモデリング
結果を改善するためのアクションを提示できる「説明可能なAI」を開発
AIプロダクトの品質保証をAI技術で支援する、「AI4QA」という考え方
エッジAIや説明可能なAIは“過度の期待のピーク”へ
AIをブラックボックスにしないために、“判断の根拠”の解析をCopyright © ITmedia, Inc. All Rights Reserved.
組み込み開発の記事ランキング
コーナーリンク
よく読まれている編集記者コラム