企業が「責任あるAI」を実現するための4つのアプローチ人工知能ニュース(2/2 ページ)

» 2021年08月31日 14時00分 公開
[池谷翼MONOist]
前のページへ 1|2       

「責任あるAI」の実現は人間社会の問い直しにつながる

 「ブランド」は企業ブランドのことだが、特に近年注目を集めるESG(Environment、Social、Governance)経営の観点から対策する必要もあるという。例えば、環境の観点からは、AIモデルの大規模化は学習時の電力消費量の急増、ひいてはCO2排出量の増大をもたらしかねない。社会の観点からはAIによる差別、偏見の助長が、ガバナンスの観点からはデータ作成委託先の従業員の賃金や雇用安定性などが懸念されている。

 鈴木氏はこれらの課題を乗り越えるには、AIの開発、利用、展開において自社のコンプライアンスや環境への配慮、社会的意義などを自ら問い直し、対応を発信していく必要があると指摘する。

ESG経営の観点からもAI開発を捉える必要がある※出典:アクセンチュア[クリックして拡大]

 「ガバナンス」は、企業全体でAI戦略を実行するための体制構築である。鈴木氏はアクセンチュアが実施した調査を引用しつつ、「ビジネスリーダーの63%が『AIシステムのモニタリングは重要だが、その方法が分からない』と回答しており、また24%は『一貫性のない結果、透明性の欠如、偏った結果のために、AIシステムの全面的な見直しを余儀なくされている』と回答している。これらの結果は、部門単位でAIを管理するのではなく、全社的なガバナンス体制を構築して、全体最適化されたAI戦略を実施する必要性を示している」と指摘した。

 具体的な施策としては、倫理委員会の設置や経営トップのコミットメント強化、社内ステークホルダーに向けたAIガバナンス強化のためのトレーニング、レッドチームと“消防隊員”の設置、倫理指標の導入、問題提起しやすい環境の醸成などが挙げられる。なお、レッドチームと“消防隊員”とは、「レッドチームはセキュリティ分野の用語だが、AIのポジティブな面だけでなくネガティブな面も考慮して倫理的な問題の発生を事前に防ぐチームである。消防隊員は、問題という“火事”が起きた際の、火事の原因特定や適切な初期消火の方法を学び、実践するメンバーだ。これは訓練を受ければ、潜在的には従業員が誰でも担当できる」と鈴木氏は説明した。

レッドチームと“消防隊員”※出典:アクセンチュア[クリックして拡大]

 「組織・人材」は「責任あるAI」の開発に関する社内文化の醸成に関わる取り組みである。経営層、ビジネスメンバー、開発メンバーのそれぞれについて研修プログラムを用意することで、「責任あるAI」を実現しやすい社内文化醸成を目指す。

研修を通じたAI文化醸成※出典:アクセンチュア[クリックして拡大]

 アクセンチュア AIグループ日本統括 AIセンター長 保科学世氏は「AIが人間から偏った考えを学ぶことは危険だ。しかし、人間の実社会を見ると、実際には社会的偏見やさまざまなところに存在している。この意味でAIは人間の世界を反映しているだけという言い方も可能であり、そうした仕方で考えると、『責任あるAI』をいかにして実現するかという問いは、そもそも人間の世界はどうあるべきかというより大きな問いにつながり得るのではないか」と指摘した。

⇒その他の「人工知能ニュース」の記事はこちら

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.