ヤフー主催の大型ハッカソンイベント「Open Hack Day Japan 3」では、アスラテックが提供するロボット制御マイコン基板「V-Sido CONNECT」を使った開発が可能だった。24時間でどのようにV-Sidoをハックしたのか。5つのチームの開発成果をリポートしよう。
ヤフーが2015年3月7〜8日にかけて、大型ハッカソンイベント「Open Hack Day Japan 3(OHDJ3)」を、同社が本社を置く東京ミッドタウンで開催した。89組のチーム/総勢約350人が参加して、3月7日正午から8日正午までの24時間をかけて、フリーテーマで開発を行った。
OHDJ3には14社の協賛スポンサーが付いており、各協賛スポンサーが提供する製品やサービスを用いて開発を行うこともできる。特別賞も用意されているため、協賛スポンサーの製品やサービスを活用した開発事例が多数みられた。
本稿では、協賛スポンサーの1つであるアスラテックが提供するロボット制御マイコン基板「V-Sido CONNECT」を開発に利用したチームにスポットを当てて紹介する。
V-Sido CONNECTには、ロボットOSである「V-Sido OS」の機能が実装されており、併せて提供される二足歩行ロボット「GR-001」とインテルの超小型コンピュータ「Edison」を使えば、2足歩行ロボットを使ってさまざまなことを実現できる……はず。24時間という制限時間の中でいかにして開発コンセプトを実現するかが重要だ。
「ロボットでがんばる(仮)」が開発したのは「Web+ロボットでいろいろなテレイグジスタンス」。開発コンセプトは、フィジカルコンピューティングでロボットを操作しながら、GR-001に搭載されたカメラからの映像をVRヘッドセットに映し出すことで「ロボット操作における抜群の臨場感を演出」しようというもの。「V-Sido OS」上でこの機能を実現すれば、どんな巨大ロボットでもフィジカルコンピューティングで操縦できてしまう。もちろんロボット視点で。「闘将ダイモス」もびっくりだ。
当初はアルプス電気が提供する超小型マルチセンサーモジュールで操作者の動きをセンシングしてロボットの動きに反映させる予定だったが、実装が困難だったため、Microsoftの「Kinect」によるフィジカルコンピューティングに変更。しかし、こちらもKinectによる動きの検知結果を反映することが難しかったため、最終的には「Leap Motion」による手のジェスチャー操作に落ち着いた。
しかしLeap Motionからの信号をEdisonが処理しきれない問題もあって、「(ジェスチャーの結果がロボットの動きに反映される)打率が悪くなってしまった」という。また、VRヘッドセットにロボット視点の映像を映し出す機能も、試験まではできたものの時間切れで実装できなかった。
90秒のプレゼン時間でLeap Motionによるジェスチャー操作を披露しようとしたものの、打率の悪さが出てしまい、動かすことはできなかった。
Copyright © ITmedia, Inc. All Rights Reserved.