コックス氏は、Broad AIをどのように実現していくかについて説明した。「Broad AIはブラックボックスではダメで説明可能でなければならない。また、セキュアであることも重要。AIが人に作られたものである以上、人から攻撃され得るからだ。そして倫理的視点も必要であり、よる少ないデータによる学習も求められる。もちろんBroad AIを効率的に動かせるインフラも必要だ」(同氏)。
その上で研究開発は、「AI Algorithms」「Applications to Industries」「Physics of AI」「AI for Shared Prosperity」という4つのテーマを柱として進めている。
AI Algorithmsの研究事例として挙げたのが「The image generation challenge」だ。人間は、さまざまな写真や風景を基にして、この世には存在しない絵を描くことができる。2010年ごろから、AIにさまざまな画像データを与えて、新しい絵を描かせる取り組みを進めてきたが、2018年時点ではGAN(Generative Adversarial Networks:敵対的生成ネットワーク)を用いることでかなりリアルに描けるところまで来ているという。
この研究事例で興味深いのは、進化するAIがその中で何をしているかが分かってきたことだ。コックス氏は「例えば部屋の絵を描くときに、窓やソファ、人の概念を作るのに特化したニューラルネットワークが存在することが分かった。このことを応用すれば、簡単に『窓をなくす』と指定するだけで、絵の中から窓を消せるようになる」と述べる。
また「Neuro-symbolic Program Induction」では、現在のAI技術の中核であるニューラルネットワークと、それ以前にエキスパートシステムなどで中心的役割を果たしてきたシンボリックAIの融合を試みている。入力されたデータ配列の規則性を理解して、次のデータを自動で生成できるので、データサイエンティストの業務の8割以上を占めるデータの準備やフォーマット変換が不要になる可能性がある。
これらの他、説明可能なAIを実現するために「相関」ではなく「因果関係」を見られるようにする技術の開発も進めている。
Applications to Industriesで対象とする産業分野としては、セキュリティとヘルスケアがある。また2019年からは金融も加わる予定だ。
Physics of AIではBroad AIに求められるインフラの研究が行われている。例えば、次世代コンピューティング技術として期待されている量子コンピュータとAIの組み合わせだ。この研究プロジェクトには、量子コンピュータの研究で知られるMITのピーター・ショア(Peter Shor)氏が参画している。
ギル氏は、記者からの質問に答える形で、AIに求められる要素について説明したので簡単に紹介したい。
まず「信頼できるAI」は4つの次元で担保されるとした。その4つの次元とは「公平性」「説明性」「堅牢性」「決定の履歴を持つこと」である。そして、AIの利用が広がるための要素は、4つの同心円から成るとした。中心には「高度なAI」があり、その外側に「信頼されるAI」と「AIの拡張性」がきて、そして外周には「ワークフローへの組み込み」がくるという。「AI導入がPoC(概念実証)から先になかなか進まないのは、信頼されておらず、ワークフローにも組み込まれていないからだ」(ギル氏)としている。
Copyright © ITmedia, Inc. All Rights Reserved.