「つながるクルマ」が変えるモビリティの未来像

東芝から世界最高精度の自動運転AI技術が2つ、推定誤差を従来比4割削減人工知能ニュース

東芝は、自動車やドローンなどの安全性向上や自動走行・自律飛行に用いる2つのAI(人工知能)技術で世界最高精度を達成したと発表した。1つは、カメラと慣性センサーの組み合わせだけで自車両の動きを高精度に推定する「自車両の動き推定AI」で、もう1つはさまざまな交通シーンで周辺車両の将来の動きを予測する「他車両の動き予測AI」。

» 2020年06月04日 08時30分 公開
[朴尚洙MONOist]

 東芝は2020年6月3日、自動車やドローンなどの安全性向上や自動走行・自律飛行に用いる2つのAI(人工知能)技術で世界最高精度を達成したと発表した。1つは、カメラと慣性センサーの組み合わせだけで自車両の動きを高精度に推定する「自車両の動き推定AI」で、もう1つはさまざまな交通シーンで周辺車両の将来の動きを予測する「他車両の動き予測AI」。公開データを用いた実験により、推定結果と実距離の差の絶対値の平均である推定誤差について、従来技術と比較してそれぞれ40%削減したという。今後は、公道など実際の環境での評価を行い、2023年度の実用化を目指すとしている。

 自動運転車の安全走行には、自車両の動きの正確な推定と、他車両の将来の動きを正確に予測する技術が不可欠といわれている。そのために、LiDAR(Light Detection and Ranging、ライダー)やGPSなどのセンサーを用いた技術が開発されているが、高価であったり、周辺の建物などによっては衛星からの電波が届かず計測ができなかったりといった課題が指摘されている。また、将来の動きを高精度に予測するためには、周辺道路の車線数や曲率などの道路形状に合わせてそれぞれ予測AIモデルを用意する必要があり、さまざまな交通シーンや車両の動きが想定される一般道への対応が難しいのが現状だ。

 そこで東芝は、これらの課題を解決するために、安価に手に入るとともに電波などの環境に依存しないカメラと慣性センサー(加速度センサー、角速度センサー)を用いる「自車両の動き推定AI」と、道路形状ごとに予測AIモデルを作る必要のない「他車両の動き予測AI」の開発に乗り出した。

「自車両の動き推定AI」で難しいのは高速道路?

 「自車両の動き推定AI」では、カメラ画像から周囲環境の3次元空間地図の生成と車両位置の推定を同時に行うSLAM(Simultaneous Localization and Mapping)技術をベースに、慣性センサーを用いることでさまざまな道路環境に対応する。ただし、カメラと慣性センサーの組み合わせで課題になるのが、高速道路などで車両の速度が一定でセンサーの値に変化がない場面だ。この場合、センサーのノイズの方が有効信号より大きくなってしまい、推定精度に悪影響を及ぼしかねない。

 開発したAI技術では、車両の動きに応じて画像(カメラ)、加速度センサー、角速度センサーごとのデータの有用性を各時刻で判定し、変化がある有効なセンサーだけを適宜組み合わせて車両の動きを推定する手法を開発した。これにより、自動車のように加減速が比較的少ない動き方から、ドローンのような加減速の大きい動き方まで対応することができる。

「自車両の動き推定AI」 「自車両の動き推定AI」の公開データセットによる評価結果 出典:東芝

 公開されているデータセット(KITTI、EuRoC)を用いて開発技術を検証したところ、カメラと慣性センサーから得られる全てのセンサーデータを常に利用する従来手法と比べて誤差を40%低減できた。また、カメラのみを用いた場合との比較でも誤差を82%低減できている。真値の軌跡ともほぼ一致しており、世界最高精度の結果を確認できたとしている。

多様な道路形状に対応する「他車両の動き予測AI」

 「他車両の動き予測AI」については、さまざまな道路形状で有効だという。道路形状などを一般化した幾何学的な特徴をディープラーニングで学習することで、実際の道路の形状に依存しないAIが実現でき、さまざまな交通シーンが想定される一般道などにおいても膨大な数の予測AIモデルの作成が不要になるとする。車線ごとの動きの予測と、将来走行する可能性の高い車線を予測のする2段階構成となっており、多様な道路形状に対応して高精度な予測を実現している。

「自車両の動き推定AI」 「他車両の動き予測AI」の公開データセットによる評価結果 出典:東芝

 公開されているデータセット(Argoverse)を用いた実験では、他車両の将来位置予測(4秒先の位置の予測)において、従来手法と比較して誤差を40%以上削減し、世界最高精度を達成したという。

Copyright © ITmedia, Inc. All Rights Reserved.