2015年2月16日月曜日

MYOでPepperを動かしてみる

MYOがやっと届きました。注文したのが1年くらい前だったので、すっかり忘れていました。
MYOを知らない人は↓の動画を見てください。



ところが、このMYO、このビデオのようにいろんなジェスチャが認識できるわけじゃないです。
APIでサポートしてくれるのは

  • 手を開く
  • 手を閉じる
  • 手首右
  • 手首左
  • 指をダブルタップ
の5つだけです。IMU(姿勢角センサ)の性能もそこまで良くなく、ちょっと残念。
といえど、せっかく買ったので、同時期に届いたPepperと組み合わせてみました。

↓です。そのうち、顔出ししないでPepperだけで済むようにしたいですが、
今回のように筋電を取るようなデバイスだと人が出演せざるを得ないですね。


使ったのはMYOのジェスチャのうち、

  • 手を開く
  • 手を閉じる
  • 手首右(なんでやねん)
でした。あとはIMUの角度を使って、Pepperの右腕の肩2軸を制御しています。

ソースコードは↓においてあります。あまり整備されていないので参考程度に。

メインプログラムは60行くらいです。

MYOのROSノードはclearpathのものがapt-getで入りますが、Windowsが別途必要なようだったでやめました。
↓のものはLinux単体で使えるのでそっちにしました。

ジェスチャーやIMUのデータがPublishされます。
ROSを使えばビデオでちょっと出したように、可視化も簡単にできます。
(rqt_plot, rviz)
MYOをお持ちの方は試してみては。

1 件のコメント:

  1. Hi, could you please introduce a little bit more about the project? How does MYO connect to the robot, by WIFI or Bluetooth? As we know Pepper only supports WIFI.

    返信削除