検索
連載

ROSのAIエージェント「RAI」を使って自然言語でアームロボットを制御する生成AIで変わるロボット制御(後編)(3/4 ページ)

ロボット制御における生成AIの活用に焦点を当て、前後編に分けて解説する。後編では、ROSのAIエージェントライブラリ「RAI」の概要と、RAIを用いた生成AIによるアームロボット制御の事例を解説する。

Share
Tweet
LINE
Hatena

3.実機を使用した制御例

 ここからは実際のロボット制御について解説する。

3.1. ハードウェア構成

 まず、本検証におけるハードウェア構成を解説する。図1は検証における全体の構成図である。それぞれの機器について役割を解説していく。

図1
図1 検証における全体構成図[クリックで拡大]

3.1.1. GPU搭載ワークステーション

 検証においてローカル環境で起動するLlamaのモデルを使用したため、GPU搭載ワークステーションにRAI、LLMを導入し、実行する役割を持っている。

3.1.2. Ubuntu PC(ROS 2 Humble)、Windows PC(ティーチングペンダント搭載)

 アームロボットを制御するために2台のPCを使用した。

 Ubuntu PCはアームロボットをROS 2で制御するためのもので、RAIから送られてきたロボット制御通信を受け取り、ROS 2のアームロボットのパスプランニングライブラリ「MoveIt2」で制御を行う。

 Windows PCにはアームロボット用のティーチングペンダントソフトが搭載されている。Ubuntu PCとアームロボットが通信を行うには、ティーチングペンダント側から設定が必要なため、接続を行っている。

3.1.3. RGB-Dカメラ、アームロボット、把持対象物

 アームロボットには、デンソーウェーブ製の産業用ロボット「COBOTTA」を、カメラは、把持座標を算出するために距離計測が可能なRGB-Dカメラを使用した。把持対象は、最初の動作検証として形状が単純な、色のついた消しゴムを選定した(図2)。

図2
図2 検証に使用した機器構成[クリックで拡大]

3.2. 技術構成

 次に本検証で使用した技術構成やソフトウェアについて解説する。技術構成は、図3の通り。RAIを中心とし、ユーザーが入力したタスクをLLMが理解し、システムの中で定義されたツールを動的に呼び出し、カメラ画像から物体認識やロボット制御を行う。

図3
図3 RAIを中心とした技術構成図[クリックで拡大]

3.2.1. RAIのシステムプロンプト

 今回のシステムでのプロンプトは

“あなたは物体を検知して操作することができるアームロボットです。定義されている機能のみを使用してください。”

などの内容を定義している。検証中に意図しない挙動を起こした場合は、システムプロンプトに制限事項やルールを追加していった。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る