今回発表したAI倫理原則の実践を後押しするのが、2022年内の本格運用開始を見込む「AI倫理リスクチェックシステム」と、AI人材育成プログラムの中で2022年9月に開始する予定の「AI倫理基礎」と「AI倫理実践」だ。
AI倫理リスクチェックシステムについては、AI倫理委員会で中央集権的に管理するのではなく、グループ各社のAI開発現場で効率的にAI倫理リスクチェックを支援するためのシステムとして開発が進められている。パナソニックHD テクノロジー本部 デジタル・AI技術センター 主任技師の丸山友朗氏は「チェック負担の軽減策として、製品やサービスの特性に合わせて“必要十分な”チェックリストを生成できるような仕組みを取り入れた」と強調する。また、各チェック項目に対して、充実した解説や対応策を用意しており、それらの情報提供からAI開発現場のリテラシー向上も期待できるとしている。
チェック項目は「基本事項」「安全性」「公平性」「プライバシー」「セキュリティ」「透明性・説明責任」があり、これら6項目のそれぞれで最大7つのチェックリストが用意されている。例えば、人をAIの対象としない外観検査向けのAIであれば、AI製品情報入力プロセスの事前質問でそのことを明示しておけば、人と関連するチェックリストが外されるので“必要十分な”チェックリストを生成できる。
AI人材育成プログラムのAI倫理基礎は、非技術者を含めた全社員向けとなっており国内だけでなく海外でも行う計画である。AI倫理実践は、開発現場でAIリスクチェックをファシリテートできるレベルの知識を習得できる内容となっている。
なお、パナソニックグループは2016年からAI人材の強化を進めており、2021年度末には2016年度比約3.8倍の1283人に増えた。各部署におけるAI開発の段階も、当初の「検討段階」や「人材育成」から「モデル開発」や「運用中」に移行しつつあるという。今後も、AI倫理基礎のような全社員向けのプログラムを含めてAI人材の強化を続け「毎年200人のペースでAI人材を増やしていきたい」(佐藤氏)としている。
パナソニックが目指すAIの“使いこなし”とは
AIで実現するパナソニックの「ヨコパナ」、1000人のAI人材確保も着実に進む
パナソニックのエッジAI基盤「Vieureka」が独立分社、JVCケンウッドなどが出資
顔認証トップのパナソニックが動作予測AIコンテストに挑む、Facebookに肉薄
住空間データのImageNetとなるか、パナソニックがAIデータセットを公開する狙い
外乱影響に惑わされないパナソニックの画像センシング技術、60年の歴史が裏打ちCopyright © ITmedia, Inc. All Rights Reserved.
製造マネジメントの記事ランキング
コーナーリンク