「つながるクルマ」が変えるモビリティの未来像

バイクに感情を持たせたら、高速走行中はランナーズハイだった?自動運転技術(3/3 ページ)

» 2017年07月25日 06時00分 公開
[齊藤由希MONOist]
前のページへ 1|2|3       

音声感情認識は組み込み、感情生成は今のところクラウドで

 二輪などモノの神経伝達物質とひもづける入力は、車両情報に限らず、音声感情認識エンジンで検出したドライバーの感情や、ドライバーの脈拍、目的地までの道のりの長さなどさまざまな情報を想定している。また、別の実験では70個のセンサーと神経伝達物質の分泌を組み合わせた。このエンジンで生成できる感情は最大128種類に上る。

情動や反応と神経伝達物質の関連は複雑で多岐にわたる。この複雑さもセンサーとクラウドでの処理で再現しようとしている 情動や反応と神経伝達物質の関連は複雑で多岐にわたる。この複雑さもセンサーとクラウドでの処理で再現しようとしている(クリックして拡大) 出典:cocoro SB

 感情生成エンジンは、生成した感情の蓄積によって人の好き嫌いが生まれ、好きな人と嫌いな人で対応を分けたり、褒めるという外部からの入力に対し「もっと褒められたい」と学習を強化したりする。これにより、独自で固有の人格を持つAIに成長していくという。

 音声感情認識エンジンは組み込みで機器に搭載できるが、大量のセンサー情報を必要とする感情生成エンジンは現状ではクラウド側での処理を必要とする。将来的には組み込みで感情を生成できるようにしていく。


 ソフトバンクワールド2017の展示会場では、音声感情認識エンジンを組み込み機器に搭載する事例が示された。

 ルネサス エレクトロニクスは2017年7月19日、車載情報機器向けのSoC(System on Chip)「R-Car」で音声感情認識エンジンや、検出した感情に対して応答するユーザーインタフェースを開発できるキットを2017年内にリリースすると発表。自動運転車で、ドライバーが不安を感じている時に自動運転への切り替えを提案したり、ドライバーの感情に合わせて車両の制御をコントロールしたりできるようにする。また、クラウドサービスの1つと位置付け、感情生成エンジンにも対応している。

 ルネサスは、展示会場に設置したコックピットを使って、R-Car上で音声感情認識エンジンなどを動作させるデモンストレーションを披露した。

 同社は、表情や視線といった画像認識で得られる情報や生体情報と同様に、感情もドライバーの状態を測る情報の1つと捉え、自動運転車の実現に向けてクルマとドライバーのインタフェースを向上していくとしている。

ソフトバンクワールド2017でルネサス エレクトロニクスが展示したコックピット(左)。ドライバーの脈や音声から認識した感情などを基に8種類の神経伝達物質を分泌させ、感情を持った音声エージェントが反応を返す。決して一心同体ではなく、ドライバーの心の理解度は80%にとどまった。あと20%、ドライバーに歩み寄る余地が残っていることを示しているという。デモはR-Carで起動していた(右)(クリックして拡大)
前のページへ 1|2|3       

Copyright © ITmedia, Inc. All Rights Reserved.