「CES 2017」は自動運転車と人工知能のユートピアだったCES 2017レポート(3/4 ページ)

» 2017年02月07日 11時00分 公開

人とマシン(自動運転車)との対話を実現するAI

 上述の通りOlliにはWatsonが搭載され乗客の相手をするわけだが、これがまさに最初に指摘した2つ目のHMIとしてのAIである。2017年のCESでは、特に日本の自動車メーカーにおいてHMIとしてのAIが強調された。

 トヨタ自動車のAIコンセプトカー「Concept-愛i」で登場する「Yui」や、日産自動車によるマイクロソフトのAI「Cortana」への対応、そして2016年に発表されているフォードの「Amazon Alexa」対応が相当する。ホンダのEVコミューターのコンセプトカー「NeuV(ニューヴィー)」にも、人とのコミュニケーションを行うAIが搭載されている。同社は2016年7月、ソフトバンクとの提携により、AIを活用したパーソナルアシスタントのクルマへの搭載に関する構想を発表している。また、2016年のCESでは、フォルクスワーゲン(Volkswagen)がコンセプトカー「eBuddy」でクルマとの対話のデモを行うなど、HMIの新たな形として注目されている。

ナビアの自動運転シャトルバス「CES 2017」の展示 トヨタ自動車のAIコンセプトカー「Concept-愛i」(左)と日産自動車によるマイクロソフトのAI「Cortana」への対応(右)(クリックで拡大)

 運転時のディスプレイ操作は危険を伴うとともに法律でも禁じられていることから、近年ではHMIとして音声コマンドやジェスチャーなどの代替手段の開発が進められている。しかし、ジェスチャーに関しては自動車メーカーごとに動作が異なり覚えにくいことに加え、カメラやセンサーなどの認識度合によってはむしろ危険を伴うケースも考えられる。

 そのため音声コマンドが有力となるわけだが、ただ単に自然言語処理をさせようというのではなく、パーソナルアシスタントを搭載することによって、クルマとドライバーとの自然な会話を成立させようという取り組みになる。この利点は複数考えられる。

  1. 自然言語による音声コマンド:特定の言葉(コマンド)を発することなく、人と自然に会話しているのと同様にクルマに話しかけることで、必要な機械操作が可能となる
  2. パーソナライゼーション:音声によりドライバーが誰かを認識し、座席位置やハンドルの高さなどをそのドライバーに合わせて自動セッティングする他、好きなプレイリストで音楽を流したり、休憩時に立ち寄るお気に入りのコンビニをレコメンドしたりといったことが可能となる。またスケジューラとの連動により、行先の把握や所要時間の計算なども自動で行ってくれる。完全自動運転が実現すれば、座るだけで目的地まで自律走行することも可能となる。スマートフォンアプリとの連動により、クルマを降りてからのナビゲーションなどラストワンマイルまでの対応が可能となる
  3. 疲労/居眠り検知:車室内に設置されたカメラやセンサーなどと連動して、ドライバーの疲れ度合や眠気、イライラなどを検知し、適切な対応を実現する。例えば眠いときには話しかけたり、元気のいい音楽を大きめの音で流したり、場合によっては軽い衝撃を与えて起こすことも可能となるかもしれない
  4. 車両状況の把握:ドライバーが自身で運転せず、マシンに全てをゆだねることにより、「クルマが考えていること」やクルマの調子(状態)が把握できずに不安を感じるケースも考えられるが、それらを常時明確に伝えることで安心感を与えることができる

Copyright © ITmedia, Inc. All Rights Reserved.