インテルが2014年1月のCESで発表した、ジェスチャーや音声認識、顔認識などを複合した次世代UI「RealSence」を体験できる。UIとして使う他、簡易3Dスキャナとしても利用できるという。
米インテルが2014年1月のInternational CESで発表した、ジェスチャーや音声認識、顔認識などを複合した次世代UI技術「Intel RealSence テクノロジー」(以下、RealSence)。既に各社の対応が表明されており、年内の製品発売が見込まれる。CEATEC JAPAN 2014の会場では、一足先にRealSenceによる次世代UIを体験できる。
体験できるのは空中投影ディスプレイ「AIプレート」を手掛けるアスカネットのブース。AIプレートによって空中に浮かび上がる地球儀や操作パネルを、RealSenceによる指先のジェスチャーで操作できる。
最初は空中に投影されたオブジェクトに遠近感が合わず、また、“触った”ものからの物理的なフィードバック(手応え)がないので、最初はうまく操作できないが、数十秒で慣れる。非常に興味深い体験ができるためかブースは常に行列ができている状態だ。
RealSenceには音声認識用マイクの他、RGBと赤外線のカメラユニットを搭載しており、映像情報と深度情報を得ることができ、手のひらでのジェスチャや、顔の表情を検出・認識し、アプリケーションの操作UIとして使用できる。ジェスチャや表情の認識という意味ではマイクロソフトのKinectに近いものだが、こちらはノートPCやタブレットへの搭載を意図しており、腰から上を動作検出範囲と想定している。
対象への深度情報を得られることから、簡易3Dスキャナとしての利用も考えられる。ただ、専用機に匹敵する高精細なスキャニング機能は有していないため、RealSense搭載PCの前に座っているユーザーの顔をスキャニングしてアバター用データにする、スナップ写真のように形状の概略を相手に伝えるなど、コミュニケーションの一助になるような使い方が主となりそうだ。
RealSenceのカメラモジュールは搭載製品や用途に合わせて「F200」「F100」「R200」の3タイプが用意されており、今回のデモに使用されているのは想定利用範囲が1.2mまでのF200。現在はSDK提供を含めてWindows上での動作となっているが、Androidもサポート対象にする予定だという。
Copyright © ITmedia, Inc. All Rights Reserved.