カメラとLiDARをピクセルレベルで統合処理、自動運転の高度化に貢献自動運転技術(2/2 ページ)

» 2024年11月12日 16時30分 公開
[齊藤由希MONOist]
前のページへ 1|2       
京セラの岡田浩希氏[クリックで拡大]

 また、岡田氏は「視差を合わせ込むことはセンサーフュージョンのレベルを上げていく過程で避けて通れない課題だ」と説明する。「カメラが影などのテクスチャーを“物体がある”と認識し、LiDARでは何も物体が見つかっていない場合、LiDARの検知結果を優先して走らなければならない。今後、より高度な自動運転をやっていく上では、LiDARでなければ物体が認識できないケースが出てくるのではないか。そこで高度なセンサーフュージョンが要求される。LiDARを使う業界に向けて、それを解決できるコンセプトを持っていることを訴求していきたい」(岡田氏)

 こうした背景の下、京セラはLiDARとカメラのローデータでのセンサーフュージョンに力を入れてきた。ただ、カメラとLiDARの視差を踏まえてキャリブレーションと高頻度なメンテナンスを行う必要があった。また、オフラインでデータを重畳しなければならないという課題もあり、実用的とはいえない技術だった。

 そこで、京セラのカメラLiDARフュージョンセンサはカメラとLiDARの視差がないリアルタイムなデータ統合を実現することを目指した。また、キャリブレーション不要でメンテナンスフリーであることも重視した。カメラとLiDARは1つのユニットに収めて光軸を一致させたことでセンサーフュージョンの処理プロセスが容易になり、遅延なくカメラの画像データとLiDARの距離データを統合することが可能になった。

写真右側が京セラの最新LiDAR(左)。内部のMEMSミラー(右)[クリックで拡大]

これまでステレオカメラでは検知できなかったものに対応

京セラの林佑介氏[クリックで拡大]

 AI測距カメラは、レンズを2つ搭載したステレオカメラ方式で、物体までの距離10cmで計測誤差0.1mmの高精度な距離測定を実現する。

 大きさ1mm程度の小さな物体だけでなく、ステレオカメラでは測距が難しかった樹脂などの半透明なものや金属など光沢があるものにも対応しており、ロボットハンドと組み合わせることで、「これまで自動化が難しかった領域の自動化が可能になる」(京セラ 研究開発本部 先進技術研究所 第2基盤技術ラボ コンピュータビジョン研究課責任者の林佑介氏)としている。

 開発品は1つのイメージセンサーに2つのレンズを搭載し、レンズ間の距離を大きく狭めた超狭基線長の構成とすることで、左右のレンズの視差をより近距離でも検知でき、極小物体の大きさも正確に計測できるようにした。1つのイメージセンサーに2つのレンズを搭載する構成に合わせたキャリブレーション手法も構築した。

 さらに、AIのステレオビジョンアルゴリズムにより、距離計測の精度を単眼カメラと比べて10倍に高めている。データ収集の負担を低減するCGによる学習データ生成技術と、正解データが不要な事前学習技術により、AIの学習コストを抑えた。正解データを必要としない事前学習技術は、中部大学との共同開発によって改良。また、新規性や有効性が評価され、論文が国際会議BMVC2024(The 35th British Machine Vision Conference)で採択された。

 AI測距カメラは、時計の内部のような小さい部品を取り扱う製造現場での部品ピッキング作業の自動化、医療現場における金属製の器具の取り扱い、物流現場などでの搬送ロボットなどの用途を見込んでいる。まずは2025年4月から京セラ社内で活用し、2026年から外販する。

AI測距カメラで検知したナットの山[クリックで拡大]
AI測距カメラで小さなナットを認識し、つかんでシャンパングラスに移すデモを行った[クリックで拡大]

→その他の「自動運転技術」関連記事はこちら

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.