グーグルは、開発が加速しているAIチップの登場により、クラウド上での処理が中心だったAI利用の方向性を、機器内での処理に変えつつある。イ・アルカス氏は、この方向性を「オンデバイスAI」と呼び、同社が開発した製品を例に挙げて説明した。
最初に挙げたのは、2018年2月発表の小型AIカメラ「Google Clips」である(国内未発売)。Google Clipsは、搭載するAIチップ(インテルの「Myriad 2」)を用いて、機器内で撮影に最適な瞬間を学習する機能を持つ。「機器内でAIの学習を行えるからこそ開発した製品だ。クラウドにデータを上げないことでプライバシーが守られる。これは極めて重要なことだ」(イ・アルカス氏)。
そして、最新のスマートフォンであるPixel 3/Pixel 3 XLでは、Google Clipsと同様の機能を「Top Shot」として実装している。また、前世代の「Pixel 2」から先行して採用している自動音楽認識機能の「Now Playing」もオンデバイスAIだ。この他にも、Pixel 3/Pixel 3 XLでAIを用いている機能としては、AR(拡張現実)機能となる「Playground」や、人間の代わりにAIが電話に応答する「Call Screen」(国内未提供)がある。
最新の機能であるカメラの夜景モード「Night Sight」については「人間の眼とカメラは基本的に同じ構造だ。でも、カメラで撮影した夜景が、人間の眼で捉えたものと異なるのは、網膜と直接つながっている脳が光量が限られる状況を判断して調整しているからだ。そこで、CMOSセンサーにAIをつなげる形で実現したのがNight Sightだ」(イ・アルカス氏)という。
ただし、一般的に機器側に組み込まれるAIチップでは、ニューラルネットワークに基づく学習モデルによる推論を実行することしかできないといわれている。このため、AIチップで推論を実行しつつ、センサーから収集したビッグデータを用いてクラウドで学習し、その結果得られる学習モデルをAIチップにフィードバックするという利用法が想定されている。
これに対してイ・アルカス氏は、オンデバイスAIにおける学習の新たな手法としてフェデレーションラーニング(Federated Learning)を挙げた。「人間の脳は、新しく学んだことを寝ている間に身に付ける。十分な睡眠をとらないと学習の効果が薄いといわれるのはこのためだ。これと同じ機能を実現するのがフェデレーションラーニングだ」(同氏)。
フェデレーションラーニングでは、ビッグデータをクラウド上に収集することなく、機器側で得たデータを使ったオンデバイスAIによって学習を行う。学習によって得た改善情報は、個人を特定可能な情報ではない形で暗号化された通信でクラウドに送られ、学習モデルの改善に利用される。「ビッグデータがなくても機械学習が可能になる技術であり、当社も期待している」(イ・アルカス氏)。既にAndroid向けキーボードアプリの『Gboard』で試験運用しており、ユーザーに合わせて文字入力のスマート補完機能を最適化することが可能だ。
なお、Google ClipsはMyriad 2、Pixel 3/Pixel 3 XLは画像処理IC「Pixel Visual Core」がAIチップとしての役割を果たしている。グーグルは、組み込み機器向けのAIチップとしてEdge TPUを開発しているが「AIについては基本的に同じアーキテクチャで開発しているので、Edge TPUにも展開可能だ。将来的にはフェデレーションラーニングをEdge TPUにも適用できるだろう」(イ・アルカス氏)としている。
Copyright © ITmedia, Inc. All Rights Reserved.