検索
ニュース

カーナビが「前の黒いクルマに続いて曲がって」と案内、三菱電機が開発車載情報機器

三菱電機は2020年7月22日、自然な言葉で人と機器が円滑に意思疎通する技術「Scene-Aware Interaction(シーン・アウェア インタラクション)」を開発したと発表した。

Share
Tweet
LINE
Hatena

 三菱電機は2020年7月22日、自然な言葉で人と機器が円滑に意思疎通する技術「Scene-Aware Interaction(シーン・アウェア インタラクション)」を開発したと発表した。

 物体認識や意味的領域分割、移動体の動作解析、自然言語処理を組み合わせることにより、機器が認識した周辺環境や目の前の出来事を、自然言語で説明できるようにした。カーナビゲーションシステム、自律移動ロボットや監視カメラ、人の移動に合わせて稼働するエレベーターに開発技術を搭載することで、人やモノの動きが多い複雑な環境での機能を高めることができる。

 従来のカーナビゲーションシステムを例にすると、地図データに含まれていない情報に言及した音声案内はできないため、距離や交差点の住所を基にルート案内を行わなければならない。開発技術では、郵便ポストや大きな看板などカメラで認識した目印に言及して右左折を指示したり、「前方の黒いクルマに続いて曲がってください」のようにアナウンスしたりすることができる。

開発技術を使った音声案内の例。歩行者が道を渡っていることに言及したり(左)、地図データにない目印を伝えたりすることができる(右)(クリックして拡大) 出典:三菱電機

 また、「左から歩行者が道を渡ろうとしています」「対向車線のバスに注意してください」のように、周囲の環境を踏まえた警告を生成することも可能だ。ルート案内に対し、ドライバーが「目印が見つからない」とシステムに伝えると、案内の内容を変更して即座に代わりの目印や別の説明で言い直す。高精度地図と組み合わせることで空間の構成を高度に把握しているので、これらのことが可能になる。

 開発技術には、入出力のサンプルだけで学習できるエンドツーエンド深層学習を採用。カメラの画像データ、マイクで収集した音、LiDAR(ライダー、Light Detection and Ranging)やレーダーで取得した位置情報などさまざまな情報から、周囲の状況を機器が理解する。各種センサーから得た情報の中で重要度が高い情報に重み付けを行い、機器が理解した内容について自然な言葉を用いて詳細に表現するような学習モデルも構築した。

 機器側は、これまでの状況や人間の発話の履歴から自然な言葉を生成し、人間と円滑に意思疎通を図る。機器が理解した内容が、人間の理解とどれだけ類似しているかを検討したところ、従来の視覚情報のみを基にした手法よりも高い評価を得られたとしている。


開発技術の概要(クリックして拡大) 出典:三菱電機
Scene-Aware Interactionの概要(クリックで再生)

→その他の「コックピット/車載情報機器」関連ニュースはこちら

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る