上述の通りOlliにはWatsonが搭載され乗客の相手をするわけだが、これがまさに最初に指摘した2つ目のHMIとしてのAIである。2017年のCESでは、特に日本の自動車メーカーにおいてHMIとしてのAIが強調された。
トヨタ自動車のAIコンセプトカー「Concept-愛i」で登場する「Yui」や、日産自動車によるマイクロソフトのAI「Cortana」への対応、そして2016年に発表されているフォードの「Amazon Alexa」対応が相当する。ホンダのEVコミューターのコンセプトカー「NeuV(ニューヴィー)」にも、人とのコミュニケーションを行うAIが搭載されている。同社は2016年7月、ソフトバンクとの提携により、AIを活用したパーソナルアシスタントのクルマへの搭載に関する構想を発表している。また、2016年のCESでは、フォルクスワーゲン(Volkswagen)がコンセプトカー「eBuddy」でクルマとの対話のデモを行うなど、HMIの新たな形として注目されている。
運転時のディスプレイ操作は危険を伴うとともに法律でも禁じられていることから、近年ではHMIとして音声コマンドやジェスチャーなどの代替手段の開発が進められている。しかし、ジェスチャーに関しては自動車メーカーごとに動作が異なり覚えにくいことに加え、カメラやセンサーなどの認識度合によってはむしろ危険を伴うケースも考えられる。
そのため音声コマンドが有力となるわけだが、ただ単に自然言語処理をさせようというのではなく、パーソナルアシスタントを搭載することによって、クルマとドライバーとの自然な会話を成立させようという取り組みになる。この利点は複数考えられる。
Copyright © ITmedia, Inc. All Rights Reserved.