クラリオンは、「人とくるまのテクノロジー展2016」(2016年5月25〜27日、パシフィコ横浜)において、ジェスチャー操作が可能なコックピットを展示した。ステアリングに手を添えたまま動作が可能なのを特徴とする。新規開発した小型で安価な近赤外線センサーを採用し、ジェスチャー検知アルゴリズムは日立グループで開発している。
クラリオンは、「人とくるまのテクノロジー展2016」(2016年5月25〜27日、パシフィコ横浜)において、ジェスチャー操作が可能なコックピットを展示した。ステアリングに手を添えたまま動作が可能なのを特徴とする。新規開発した小型で安価な近赤外線センサーを採用し、ジェスチャー検知アルゴリズムは日立グループで開発している。
展示したコックピットは、メータークラスタの左上に手の動きを検知する近赤外線センサーを設置し、左手を左右に振ったり前に少し伸ばしたりする動作によってメニューの切り替えやオーディオの音量調整などを行う。ナビゲーション機能であれば、「自宅に戻る」など使用頻度の高い操作がジェスチャーのみで完了するようにした。
オーディオ/空調/ナビゲーション機能などジェスチャーでメニューが切り替わる様子は、HUD(ヘッドアップディスプレイ)で表示する。音と映像表示によって、ジェスチャー操作が完了したことを分かりやすく示す。HUDは自社開発したもので、5〜10度の画角まで開発が進んでいるという。
コックピットで設定しているジェスチャーは左右に手を振るか、前に少し伸ばす動作のみとした。同社が実施したユーザー調査によって、「複雑な操作はジェスチャーではやりたくない」「使用頻度の高い操作が1つのアクションで完結するとうれしい」との反応が得られたためだ。
手の4方向の動きは、日立製作所の研究部門が開発したアルゴリズムで検知する。これにより、安価なセンサーでも正確に手の動きを判別できるようにした。
ジェスチャーは「入力方法の1つにすぎない」(クラリオンの説明員)という。音声入力では、音声認識と目的地の検索でGoogleと、対話型の音声認識ではiNAGOと提携して開発した機能を市販向けの製品に搭載している。「入力方法には一長一短があり、音声入力が早い場合があれば、スイッチを押すのが最適な場合もある。やりやすい方法を組み合わせることで、より使いやすいインタフェースを実現していく」(同社の説明員)。
Copyright © ITmedia, Inc. All Rights Reserved.