二輪などモノの神経伝達物質とひもづける入力は、車両情報に限らず、音声感情認識エンジンで検出したドライバーの感情や、ドライバーの脈拍、目的地までの道のりの長さなどさまざまな情報を想定している。また、別の実験では70個のセンサーと神経伝達物質の分泌を組み合わせた。このエンジンで生成できる感情は最大128種類に上る。
感情生成エンジンは、生成した感情の蓄積によって人の好き嫌いが生まれ、好きな人と嫌いな人で対応を分けたり、褒めるという外部からの入力に対し「もっと褒められたい」と学習を強化したりする。これにより、独自で固有の人格を持つAIに成長していくという。
音声感情認識エンジンは組み込みで機器に搭載できるが、大量のセンサー情報を必要とする感情生成エンジンは現状ではクラウド側での処理を必要とする。将来的には組み込みで感情を生成できるようにしていく。
ソフトバンクワールド2017の展示会場では、音声感情認識エンジンを組み込み機器に搭載する事例が示された。
ルネサス エレクトロニクスは2017年7月19日、車載情報機器向けのSoC(System on Chip)「R-Car」で音声感情認識エンジンや、検出した感情に対して応答するユーザーインタフェースを開発できるキットを2017年内にリリースすると発表。自動運転車で、ドライバーが不安を感じている時に自動運転への切り替えを提案したり、ドライバーの感情に合わせて車両の制御をコントロールしたりできるようにする。また、クラウドサービスの1つと位置付け、感情生成エンジンにも対応している。
ルネサスは、展示会場に設置したコックピットを使って、R-Car上で音声感情認識エンジンなどを動作させるデモンストレーションを披露した。
同社は、表情や視線といった画像認識で得られる情報や生体情報と同様に、感情もドライバーの状態を測る情報の1つと捉え、自動運転車の実現に向けてクルマとドライバーのインタフェースを向上していくとしている。
Copyright © ITmedia, Inc. All Rights Reserved.