MYOを知らない人は↓の動画を見てください。
ところが、このMYO、このビデオのようにいろんなジェスチャが認識できるわけじゃないです。
APIでサポートしてくれるのは
- 手を開く
- 手を閉じる
- 手首右
- 手首左
- 指をダブルタップ
といえど、せっかく買ったので、同時期に届いたPepperと組み合わせてみました。
↓です。そのうち、顔出ししないでPepperだけで済むようにしたいですが、
今回のように筋電を取るようなデバイスだと人が出演せざるを得ないですね。
使ったのはMYOのジェスチャのうち、
- 手を開く
- 手を閉じる
- 手首右(なんでやねん)
でした。あとはIMUの角度を使って、Pepperの右腕の肩2軸を制御しています。
ソースコードは↓においてあります。あまり整備されていないので参考程度に。
メインプログラムは60行くらいです。
MYOのROSノードはclearpathのものがapt-getで入りますが、Windowsが別途必要なようだったでやめました。
↓のものはLinux単体で使えるのでそっちにしました。
ジェスチャーやIMUのデータがPublishされます。
ROSを使えばビデオでちょっと出したように、可視化も簡単にできます。
(rqt_plot, rviz)
MYOをお持ちの方は試してみては。