CESではおなじみとなりつつある「ジェスチャーコントロール」は入力インタフェースの1つとして期待されており、従来はテレビの操作に活用される事例が多かった。そして前回のCESでは、このジェスチャーコントロールが車載情報機器の操作に適用される例が増えた。これは走行中のわき見運転を防ぐという狙いのためであり、BMWやフォルクスワーゲンが参考展示を行っていた。しかし筆者は、実際のところは実用化には程遠く「むしろジェスチャーに集中して安全性が損なわれるのでは」という印象を受けた。
今回注目を集めていたのは、Audi(アウディ)が発表した「ハプティックタッチスクリーン」だろう。車載情報機器のタッチパネル上でアイコンを押すと、ハプティック(触感的な)フィードバックが得られるというもので、平らなディスプレイでありながらきちんと押した感覚が伝わってくるのだ。アウディは、「どうせスクリーンに視線を向けるのであれば押したことが感覚として確認できる方が余程安全である」と述べている。
このように「ジェスチャーコントロール」はもう使われることはないのかというと、実はそうではなく、全く異なる形で採用されていた。前回のCESでジェスチャーによる車載情報機器の操作を展示していたBMWが、今度はジェスチャーコントロールの新たな方向性を示したのである。
BMWのデモの内容を以下に説明しよう。電気自動車の「BMW i3」をベースにしたクルマに向けて腕を動かし「Come On!」というジェスチャーをするとクルマが駐車場から出てくる。そして、手をさっと払うジェスチャーをすると、クルマが勝手に駐車場に入っていく。これらのジェスチャーコントロールは、腕に付けたスマートウオッチのアプリを立ち上げ、センサーが収集した腕の動きをスマートフォン経由でBMWのクラウドサービスに送って実現しているそうだ。クラウドに送られた情報はコマンドとなって通信接続されているクルマ(Connected Car:コネクテッドカー)に伝えられ、自動運転を実現する仕組みとなっている。
気になる点としては、腕を動かしてからどれくらいのタイムラグがあって動き出すのかということだが、遅延は「数秒」だとしている。デモをみる限りでは一呼吸置いた後に動き出すという感じだ。
前回のCESではスマートウオッチからの音声コマンドによる自動運転のデモをフォルクスワーゲンが実施していた。今回はクルマがまるで犬のように、ジェスチャーに反応していた。残念ながら実用化のめどは立っておらず、実現しても5年後か10年後か……というところらしい。
BMWが来場者を魅了したのは、スマートウオッチによる自動運転だけではない。「クルマにまつわる未来の生活」のツアー形式による紹介も好評だった。
例えば、BMWは2015年秋、Samsung Electronics(サムスン電子)のスマートホームプラットフォームである「SmartThings」とクルマの連携について発表している。今回のCESでは、音声アシスタント付き人工知能(AI)を搭載するAmazon(アマゾン)のスピーカー「Amazon Echo」との連携についても紹介していた。
クルマの位置や目的地までの所要時間、クルマに関する情報などを表示するスマートミラーも参考展示していた他、鍵を所定のトレイの上に置くだけで、クルマのエンジンスタートや自動運転を実現する、といったデモも行っていた。
このようにBMWは、クルマは人々の生活の一部であり、さまざまな技術の搭載によって人々の生活にさらに密接に関わっていく、絶対不可欠な存在であることをアピールしていた。
なお、CESでは特に言及がなかったが、BMWの自動運転技術には、中国のインターネット検索大手である百度(Baidu)のディープラーニング技術が使われている。BMWと百度は、自動運転車の研究で2014年から提携関係にある。また百度は、2014年に米国カリフォルニア州に人工知能(AI)研究センターを開設しているが、同研究センターは人工知能の権威であり、かつGoogle(グーグル)のディープラーニングチーム立ち上げに携わったスタンフォード大学教授のAndrew Ng(アンドリュー・エン)氏が統括している。そういった点でもBMWの自動運転への取り組みは今後も注目に値する。
Copyright © ITmedia, Inc. All Rights Reserved.