「あそこで曲がって」、乗員の指示に従って走る自動運転車自動運転技術

アイシン精機と名古屋大学、徳島大学は2018年10月25日、音声や視線、ジェスチャーで操作する自動運転車を開発したと発表した。

» 2018年10月26日 06時00分 公開
[齊藤由希MONOist]

 アイシン精機と名古屋大学、徳島大学は2018年10月25日、音声や視線、ジェスチャーで操作する自動運転車を開発したと発表した。さまざまな認識技術を組み合わせたマルチモーダルインタフェースにより、「そこを曲がって」と指をさして道順を伝えるようにコミュニケーションを取る形で操作することが可能になる。さまざまな人が自動運転車を簡単に操作できるようにする狙いがある。

 3者は、運転を自動化するための制御技術やセンサーが進化している一方で、一般人が自動運転車に乗り込んでどのように操作するかは議論されてこなかったと指摘。自動運転車が社会に浸透し、さまざまな人が容易に利用できるようになるには、タクシーが1つの理想形であるという方針を立てた。そこで、目的地や、どこを曲がるか、どのあたりで止まってもらうかを運転手に言葉やジェスチャーで伝えるのを手本に、自動運転車を操作することを目指して開発を始めた。

ジェスチャーや音声から意図を理解する仕組み(クリックして拡大) 出典:アイシン精機

 開発した自動運転車は、名古屋大学と長崎大学や産業技術総合研究所が共同開発した自動運転ソフトウェア「Autoware」を使用している。乗員の発言やジェスチャーを読み取るため、音声認識、深度センサー、顔の動きを認識する映像処理を組み合わせて用いる。例えば、「あれは何?」と乗員が自動運転車に尋ねた時には、その発話内容を認識すると同時に、映像を基に乗員がどこを見ているかを検出することで、乗員の質問の意図を総合的に判断する。こうした「マルチモーダル理解」を踏まえ、合成音声やディスプレイを通じて応答したり、車両の制御を行ったりする。

 マルチモーダル理解は、自動運転システムの操作だけでなく、車載情報機器やさまざまな機械を使いやすくする上で重要になっていくと見込む。

車両の外観と実験の様子(クリックして拡大) 出典:アイシン精機

Copyright © ITmedia, Inc. All Rights Reserved.