SUBARU(スバル)は、NVIDIAのユーザーイベント「GTC Japan 2018」(2018年9月13〜14日)において、2024年以降の製品化を目指す開発中の自動運転システムについて紹介した。スバル 第一技術本部 自動運転PGMの主査で、開発に携わる小山哉氏が登壇した。
SUBARU(スバル)は、NVIDIAのユーザーイベント「GTC Japan 2018」(2018年9月13〜14日)において、2024年以降の製品化を目指す開発中の自動運転システムについて紹介した。スバル 第一技術本部 自動運転PGMの主査で、開発に携わる小山哉氏が登壇した。
スバルは2020年に高速道路での高度な運転支援システムを製品化し、2024年以降で高度な運転支援を行う範囲を自動車専用道路や一般道に広げる計画だ。自動運転のレベルに置き換えると2020年にレベル2を、2024年以降でレベル2以上の自動運転システムや、レベル4に相当する自動駐車機能を開発する。
高速道路のみでの高度な運転支援システムは、ステレオカメラと車両の四隅に配置したミリ波レーダー、デジタルマップやGPS情報を使用する。対応範囲を一般道などにも広げるには、さらにきめ細かい周辺監視やセンサーの多重化、システムによる走行計画の策定(パスプランニング)といった技術の搭載が必要になると見込む。
そのため、現在、スバルでは周辺環境の認識やパスプランニング、走行計画に基づく車両の制御に深層学習(ディープラーニング)を活用しようと開発を進める。その先行開発プラットフォームとして、NVIDIAの「DRIVE PX2」が採用されている。
2024年以降のレベル2〜4の自動運転を想定した実験車両には、ステレオカメラ1基と6個の単眼カメラ、4つのミリ波レーダー、LTE端末、GNSSアンテナを装着する。DRIVE PX2はこれらの情報をまとめる知能化ECUとして搭載されている。
周辺環境の認識では、ステレオカメラを2個の単眼カメラとし、単眼カメラ8個という扱いで個々のカメラがディープラーニングで周囲の物体までの距離を検出する。2個以上のカメラで検知エリアが重なるため冗長性を確保できるほか、複数のカメラの視差を利用して障害物までの距離を立体的に把握できるという。シミュレーションや実際の走行データをもとに、8個の単眼カメラで周囲の車両を途切れることなく捕捉し続けられることを確認済みだ。
道路の形状や車両の相対位置、車両の状態などを基にした最適な運転を、深層学習で実現できるかどうかについても検証を進めている。操舵(そうだ)の制御について、コース内の車両偏差を報酬に強化学習を行うこととした。MILS(Model in the Loop Simulation)による学習を実施し、学習済みのニューラルネットワークを実装したコントローラーが最適な操舵のために動作できることをHILS(Hardware in the Loop Simulation)で確かめた。
そのコントローラーを実際の車両に搭載し、狭いカーブなどでも最適な運転が可能か検証した。その結果、カーブでは安定して操舵を制御できたものの、直進中にステアリングがガクガクと左右にぶれることが判明。原因として、車線内の横位置に対する報酬が高いことや、学習時の車両のプラントモデルの再現性が低いことがあるという。
対策としては、より精度の高いプラントモデルを用いて学習することや、エンジニアの手でプログラムする既存の操舵制御技術と深層学習による操舵の併用、ニューラルネットワークの層を増やすことなどを想定している。ただ、既存の操舵制御技術と併用する場合は、深層学習による判断と人力のプログラミングが一致しないことが起こり得る。登壇した小山氏は「どういった場面でどちらを優先するか、1つずつ潰していくことが課題になる」と語った。
Copyright © ITmedia, Inc. All Rights Reserved.