今日は雑談です。
Kinectのおかげで最近は手軽に物体の3次元位置を取得できるようになりつつありますが、
ロボット界では2つのカメラを使ったスレテオ視というのがむか〜しから研究されています。
これは人間の両眼を模擬したシステムですよね。
でも私は常日頃、片目でも物の奥行きとか分かるわけで、人間はそんなにスレテオ視を利用していないんじゃないかなぁ。記憶とか、常識とか、そういうもので奥行きを判断しているんじゃないかなぁ、と思っていました。
で、先日、私事ですが、右目の角膜が一部剥がれてしまい、右目の視力が0.01くらいまで低下し、1週間ほど眼帯をしていました。
今はほとんど治りましたのでご心配なく。
で、片目で生活していたのですが、結構不自由する場面があったのです。
それは手に持った何かと何かの位置合わせをする時です。
手と手、手と体とかなら問題ないのですが、
手に持った何かと、何か、の位置合わせが片目だと全くできませんでした。
手と物体、でもなんとかなります。タイピングも問題ない。
でも手にもった何かをどこかに作用させる(包丁で何かを切る、目薬の蓋をもどす)動作になると極端に精度が落ちるのです。
一方で遠距離のものに関してはほとんど支障がありませんでした。
っていうか、手が届かないからあたりまえか。
でもなんか自分的にはこれは大発見でした。
人間は近距離のみステレオ視をしている!
考えてみれば遠いところは視差がでにくいので当たり前ですが。
だから、ロボットに必要なステレオ視は近距離だな〜ってなんか思いました。
いや、実感したというべきか。。。
0 件のコメント:
コメントを投稿