[go: up one dir, main page]

JP2005069734A - Teaching method of spatial position of object by pointing action - Google Patents

Teaching method of spatial position of object by pointing action Download PDF

Info

Publication number
JP2005069734A
JP2005069734A JP2003296670A JP2003296670A JP2005069734A JP 2005069734 A JP2005069734 A JP 2005069734A JP 2003296670 A JP2003296670 A JP 2003296670A JP 2003296670 A JP2003296670 A JP 2003296670A JP 2005069734 A JP2005069734 A JP 2005069734A
Authority
JP
Japan
Prior art keywords
finger
teaching
hand
pointing action
spatial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003296670A
Other languages
Japanese (ja)
Inventor
Masaki Oshima
正毅 大島
Masahito Hirasawa
雅人 平澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo University of Marine Science and Technology NUC
Original Assignee
Tokyo University of Marine Science and Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo University of Marine Science and Technology NUC filed Critical Tokyo University of Marine Science and Technology NUC
Priority to JP2003296670A priority Critical patent/JP2005069734A/en
Publication of JP2005069734A publication Critical patent/JP2005069734A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

【課題】自然に、かつ簡単に実施することができる指さし行為による物体の空間位置の教示方法を提供する。
【解決手段】計算機の作業空間に置かれた物体の位置・姿勢を面ベースによって決定する教示方法において、人体の手の指を抽出し、この指の少なくとも2箇所に指標を設定し、この指の空間座標を2点計算し、空間座標の計算をステレオ法により行い、ステレオ視における対応点を前記指に設定した指標に基づいて探索し、前記2点の空間座標に3次元的な直線をあてはめ、該直線と3次元座標が既知の物体平面との交点を物体の位置として教示する。
【選択図】図1
Provided is a method for teaching a spatial position of an object by a pointing action that can be performed naturally and easily.
In a teaching method for determining the position and orientation of an object placed in a work space of a computer on a surface basis, fingers of a human body are extracted, indices are set at at least two positions of the fingers, and the fingers The spatial coordinates of the two points are calculated, the spatial coordinates are calculated by the stereo method, the corresponding points in stereo vision are searched based on the index set on the finger, and a three-dimensional straight line is found in the spatial coordinates of the two points. Fitting is performed, and an intersection point between the straight line and an object plane whose three-dimensional coordinates are known is taught as an object position.
[Selection] Figure 1

Description

本発明は、指さし行為による物体の空間位置の教示方法に関するものである。   The present invention relates to a method for teaching a spatial position of an object by a pointing action.

近年、マン・マシンインターフェイスの実利用化を目指し、様々な人間の動きを認識する研究が行われてきた。例えば、センサや、カメラ等を人体に装着したシステムで成果を得ている(下記非特許文献1,2)が、被験者が実験環境に慣れる必要があったり、負担を与えたりする。そこで、ジェスチャによってなるべく自由な状態で自分の意思を計算機に伝える研究が行われている(下記非特許文献3〜5)。   In recent years, research on recognizing various human movements has been conducted with the aim of practical use of man-machine interfaces. For example, although a result is obtained by a system in which a sensor, a camera, or the like is mounted on a human body (Non-Patent Documents 1 and 2 below), the subject needs to get used to the experimental environment or gives a burden. Therefore, research has been conducted to convey his intention to a computer in a free state as much as possible by a gesture (Non-Patent Documents 3 to 5 below).

ただし、そのジェスチャはユーザにとってわかりやすいものでなければならない。これに関連して、作業空間にある様々な家電製品をジェスチャで操作する研究が行われている(下記非特許文献3,4)。前者は介護を要する障害者のために静止状態だけを想定し、後者は動きのあるジェスチャによって意思を伝えている。後者の場合、複数の家電製品から一つを選択する際に伸びている指の本数によって対象が選ばれるシステムであるが、対象物体の数が増えた場合には、何らかの方法で対象物体をポインティングすることによって指示できた方が、ユーザが覚えるべきジェスチャの数を減らすことができる。   However, the gesture must be easy for the user to understand. In connection with this, researches have been conducted to operate various home appliances in the work space with gestures (Non-Patent Documents 3 and 4 below). The former assumes only rest for disabled people who need care, while the latter communicates intentions with moving gestures. In the latter case, the target is selected based on the number of fingers extending when selecting one of a plurality of home appliances, but when the number of target objects increases, the target object is pointed by some method. The number of gestures that the user should learn can be reduced by giving instructions.

また、音声による対話(下記非特許文献6)も可能であるが、例えば、複数の本の中から特定の一冊を選んでもらう際に、音声だけで意思を伝えるためにはまわりくどい説明をしなければならない。   In addition, voice conversation (Non-Patent Document 6 below) is also possible, but for example, when a specific book is selected from a plurality of books, it is difficult to convey the intention only by voice. There must be.

日常生活における人とロボットの対話は複雑なものではなく、自然なものが望ましい。   The interaction between humans and robots in daily life is not complicated, and natural ones are desirable.

例えば、物体を指さしながらの“机の上のあの本を取って”という発話は“机の上の左端から何cmにある本を取って”というよりも自然である(下記非特許文献7,8)。このように、物体を指示する手段として一番自然な方法は指さしである。
吉村ミツ,酒井由美子,甲斐民子,吉村功:日本舞踊の「振り」部分抽出とその特性の定量化の試み,電子情報通信学会論文誌 D−II Vol.j84−D−II,12,pp.2644−2653(2001) E.Hori,H.Saito:3D Input Interface via Hand Motion Using Stereo Camera System for Wearable PC Environment,MVA2002 IAPR Workshop on Machine Vision Applications,pp.285−289(2002) 川野卓也,山本和彦,加藤邦人,本郷仁志,丹羽義典:ポーズ認識を利用した介護支援のための家電制御支援システムの改良,電子情報通信学会技術研究報告,PRMU2001−114 HIP2001−17 MVE2001−76,pp.9−14(2001) 入江耕太,梅田和昇:ジェスチャ認識に基づくインテリジェントルームの構築,第4回動画像処理実利用化ワークショップ講演論文集,pp.62−67(2003) 村島照久,久野義徳,島田伸敬,白井良明:人間と機械のインタラクションを通じたジェスチャの理解と学習,日本ロボット学会誌,18,4,pp.590−599(2000) 村井俊浩,麻生英樹,John Fly,浅野太,本村陽一,原功,栗田多喜夫,速見悟,山崎信行:オフィス移動型ロボットJiro−2の音声対話システム,日本ロボット学会誌,18,2,pp.300−307(2000) 森川治,福井幸男,山下樹里,佐藤滋:人に優しい超鏡対話における指差し行為,情報処理学会論文誌,41,5,pp.1290−1297(2000) 吉田有里,斉藤秀雄:手指示対象物の自動撮影システム,2001年電子情報通信学会総合講演論文集 情報・システム,pp.277(2001)
For example, the utterance of “take that book on the desk” while pointing at the object is more natural than “take a book in how many centimeters from the left end of the desk” (Non-patent Document 7, below) 8). As described above, the most natural method for indicating an object is the pointing.
Mitsuyoshi Yoshimura, Yumiko Sakai, Tamiko Kai, Isao Yoshimura: Attempt to extract the “wager” part of Japanese dance and quantify its characteristics, IEICE Transactions D-II Vol. j84-D-II, 12, pp. 2644-2653 (2001) E. Hori, H .; Saito: 3D Input Interface via Hand Motion Motion Stereo Camera System for Wearable PC Environment, MVA2002 IAPR Workshop on Machine Vision. 285-289 (2002) Takuya Kawano, Kazuhiko Yamamoto, Kunito Kato, Hitoshi Hongo, Yoshinori Niwa: Improvement of home appliance control support system for care support using pose recognition, IEICE technical report, PRMU2001-114 HIP2001-17 MVE2001-76, pp. 9-14 (2001) Kota Irie, Kazunobu Umeda: Construction of intelligent room based on gesture recognition, Proc. 62-67 (2003) Teruhisa Murashima, Yoshinori Kuno, Nobutaka Shimada, Yoshiaki Shirai: Understanding and learning gestures through human-machine interaction, Journal of the Robotics Society of Japan, 18, 4, pp. 590-599 (2000) Toshihiro Murai, Hideki Aso, John Fly, Taichi Asano, Yoichi Motomura, Isao Hara, Takio Kurita, Satoru Hayami, Nobuyuki Yamazaki: Spoken Dialogue System for Office Mobile Robot Jiro-2, Journal of the Robotics Society of Japan, 18, 2, pp. 300-307 (2000) Osamu Morikawa, Yukio Fukui, Juri Yamashita, Shigeru Sato: Pointing action in human-friendly hypermirror dialogue, Transactions of Information Processing Society of Japan, 41, 5, pp. 1290-1297 (2000) Yuri Yoshida, Hideo Saito: Automatic shooting system for hand-directed objects, 2001 IEICE General Information Proceedings Information System 277 (2001)

本発明では、上記したように、音声による対話よりも、指さし行為がポインティングの手段として有効であることに着目し、自然に、かつ簡単に実施することができる指さし行為による物体の空間位置の教示方法を提供することを目的とする。   In the present invention, as described above, focusing on the fact that the pointing action is more effective as the pointing means than the voice dialogue, the teaching of the spatial position of the object by the pointing action that can be performed naturally and easily. It aims to provide a method.

本発明は、上記目的を達成するために、
〔1〕計算機の作業空間に置かれた物体の位置・姿勢を面ベースによって決定する教示方法において、人体の手の指を抽出し、この指の少なくとも2箇所に指標を設定し、この指の空間座標を2点計算し、空間座標の計算をステレオ法により行い、ステレオ視における対応点を前記指に設定した指標に基づいて探索し、前記2点の空間座標に3次元的な直線をあてはめ、該直線と3次元座標が既知の物体平面との交点を物体の位置として教示することを特徴とする。
In order to achieve the above object, the present invention provides
[1] In a teaching method for determining the position / orientation of an object placed in the work space of a computer on a surface basis, fingers of a human body are extracted, indices are set at at least two positions of the fingers, Two spatial coordinates are calculated, the spatial coordinates are calculated by the stereo method, the corresponding points in stereo vision are searched based on the index set on the finger, and a three-dimensional straight line is applied to the spatial coordinates of the two points. The intersection of the straight line and the object plane whose three-dimensional coordinates are known is taught as the position of the object.

〔2〕上記〔1〕記載の指さし行為による物体の空間位置の教示方法において、前記人体の手の指の抽出を、背景に動きがない状態で手だけを動かし、その画像のフレーム間差分をとり、移動領域が大きい部分を手の存在候補領域となし、該手の存在候補領域の肌色部分を手の領域として抽出し、画像の二値化を行った後、指を手の平から伸びる細い棒状のものとみなして、収縮・膨張処理を加えて、指だけをカットした手の平領域を抽出し、前記手の領域から前記手の平を抽出して差分をとることにより行うことを特徴とする。   [2] In the method for teaching the spatial position of an object by the pointing action described in [1] above, the finger of the human body is extracted by moving only the hand in a state where there is no movement in the background, and the difference between frames of the image is calculated. The moving region is defined as a hand presence candidate region, the skin color portion of the hand presence candidate region is extracted as a hand region, the image is binarized, and then the finger extends from the palm of the hand It is characterized by extracting the palm area where only the finger is cut, extracting the palm from the hand area, and taking the difference.

〔3〕上記〔1〕記載の指さし行為による物体の空間位置の教示方法において、前記指標がマーカーであることを特徴とする。   [3] In the method for teaching the spatial position of an object by a pointing action as described in [1] above, the index is a marker.

〔4〕上記〔1〕記載の指さし行為による物体の空間位置の教示方法において、前記指標が指に固有の特徴点であることを特徴とする。   [4] In the method for teaching the spatial position of an object by a pointing action described in [1] above, the index is a characteristic point unique to the finger.

〔5〕上記〔4〕記載の指さし行為による物体の空間位置の教示方法において、前記指に固有の特徴点が指の先端と関節部であることを特徴とする。   [5] In the method for teaching the spatial position of an object by a pointing action as described in [4] above, the characteristic points unique to the finger are the tip and joint of the finger.

〔6〕上記〔1〕記載の指さし行為による物体の空間位置の教示方法において、前記物体の位置をロボットに教示することを特徴とする。   [6] In the method for teaching the spatial position of an object by a pointing action as described in [1] above, the robot is taught the position of the object.

本発明によれば、次のような効果を奏することができる。   According to the present invention, the following effects can be achieved.

指さし行為により、自然で分かりやすい対話を実現でき、計算機の作業空間に置かれた物体の位置・姿勢を面ベースによって決定することができる。   The pointing action can realize a natural and easy-to-understand dialogue, and the position and orientation of an object placed in the computer work space can be determined on a surface basis.

また、各種の物体の面の教示に指さしを適用するなど、様々な応用が可能である。   In addition, various applications are possible, such as applying a finger to the teaching of various object surfaces.

計算機の作業空間に置かれた物体の位置・姿勢を面ベースによって決定する教示方法において、自然で分かりやすい対話を実現できるように、指で目標物をポインティングすることによって、ユーザーが目的とする物体を計算機に教示する。   In the teaching method that determines the position and orientation of an object placed in the work space of a computer on a surface basis, the target object is displayed by pointing the target with a finger so that a natural and easy-to-understand dialogue can be realized. To the computer.

以下、本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail.

ここでは、空間直線における指さし行為による物体の空間位置の教示方法について説明する。   Here, a method for teaching the spatial position of an object by a pointing action on a spatial straight line will be described.

(1)指さしベクトル
計算機に離れたところにある物体を指で指示し、これをロボットアームで持ってくるための処理について述べる。指から離れたところにある物体を認識するためには、互いの空間的な位置関係を知らなければならない。よって、実験に用いる画像はステレオ用デジタルビデオカメラによって撮影した。 指が間違いなく意図する物体の方向を向いていれば、指から延長した直線と、物体を構成するある平面が交差するはずである。この考えに基づいて物体の位置を推定する。
(1) Pointer vector A process for pointing a remote object to the computer with a finger and bringing it to the computer with a robot arm will be described. In order to recognize an object located away from the finger, it is necessary to know the spatial positional relationship between them. Therefore, the images used in the experiment were taken with a stereo digital video camera. If the finger is definitely pointing in the direction of the intended object, a straight line extending from the finger and a certain plane constituting the object should intersect. Based on this idea, the position of the object is estimated.

まず、指に3次元的な直線をあてはめるために、空間的な指の位置を探索する。3次元座標の推定には、三角測量の原理より奥行きを計算する。指の左右画像における対応点を探索しやすいように、指にマーカーを2箇所(直線の方向を1つに定めるための最低数)つけている。なお、マーカーの代わりに指の特徴点(指の先端、関節部、しわなど)を利用するようにしてもよい。   First, a spatial finger position is searched to apply a three-dimensional straight line to the finger. For estimation of three-dimensional coordinates, the depth is calculated based on the principle of triangulation. In order to facilitate searching for corresponding points in the left and right images of the finger, two markers are provided on the finger (minimum number for determining the direction of a straight line). Note that a feature point of a finger (a tip of a finger, a joint, a wrinkle, etc.) may be used instead of the marker.

マーカーのテンプレートと画像中のマーカーとの対応点を見つけるために、下記の相関係数によるマッチング処理を行う。   In order to find a corresponding point between the marker template and the marker in the image, matching processing using the following correlation coefficient is performed.

Figure 2005069734
物体の対応点については、現時点では手動で求めている。なお、対象とする物体には立方体を用いている。
Figure 2005069734
At this time, the corresponding points of the object are obtained manually. Note that a cube is used as a target object.

ステレオ計測処理で求めた指の2箇所の3次元座標(X1 ,Y1 ,Z1 ),(X2 ,Y2 ,Z2 )に直線をあてはめ、この直線と物体平面との交点を求める。対象とする平面を法線ベクトルρ0 、空間座標原点と平面の距離をρで表すと、平面方程式は、以下のように表される。 A straight line is fitted to the three-dimensional coordinates (X 1 , Y 1 , Z 1 ) and (X 2 , Y 2 , Z 2 ) of the two positions of the finger obtained by the stereo measurement process, and the intersection of the straight line and the object plane is obtained. . If the target plane is represented by the normal vector ρ 0 and the distance between the space coordinate origin and the plane is represented by ρ, the plane equation is represented as follows.

Figure 2005069734
また、指の直線ベクトルは、
Figure 2005069734
The finger linear vector is

Figure 2005069734
と表される(図1参照)。これを指さしベクトルと呼ぶ。上記式(2),(3)より、
Figure 2005069734
(See FIG. 1). This is called a pointing vector. From the above formulas (2) and (3),

Figure 2005069734
Figure 2005069734
Figure 2005069734
Figure 2005069734

Figure 2005069734
これらの処理による結果を以下に示す。
Figure 2005069734
The results of these processes are shown below.

図3に探索によりマーカー1,2を抽出した状況を示す。これらの点についてステレオ計測により3次元座標を求め、2点を通る直線の方程式を求める。図4に示すように、線分は物体3と交差した位置で止まっているので、離れた場所にある物体3の方向と位置が推定された。これより、立体の形状復元されるべき物体3の方向が推定されたと考えられる。   FIG. 3 shows a situation where markers 1 and 2 are extracted by searching. For these points, three-dimensional coordinates are obtained by stereo measurement, and a straight line equation passing through the two points is obtained. As shown in FIG. 4, since the line segment stops at the position where it intersects with the object 3, the direction and position of the object 3 at a distant place are estimated. From this, it is considered that the direction of the object 3 to be reconstructed is estimated.

(2)空間座標の精度
指の方向を決める3次元座標が正しく再現できているかどうか確かめる実験を行った。実験は指に見立てたマーカーをつけた棒状の物体を三脚に固定し、垂直方向は5°ずつ、水平方向に10°ずつ回転させ、実測による角度の値と計算された角度の値が一致するかどうかを確かめた。画像はステレオカメラで撮影されたものを使用する。両眼立体視の対応点はマーカーを頼りに探索し、指の角度は再現された2点の3次元座標(X1 ,Y1 ,Z1 ),(X2 ,Y2 ,Z2 )から求める。垂直方向の角度は、
(2) Accuracy of spatial coordinates An experiment was conducted to confirm whether the three-dimensional coordinates that determine the direction of the finger were correctly reproduced. In the experiment, a rod-like object with a marker that looks like a finger is fixed to a tripod, rotated by 5 ° in the vertical direction and by 10 ° in the horizontal direction, and the measured angle value and the calculated angle value match. I checked to see if. Use images taken with a stereo camera. Corresponding points of binocular stereopsis are searched using a marker, and the angle of the finger is calculated from the reproduced three-dimensional coordinates (X 1 , Y 1 , Z 1 ), (X 2 , Y 2 , Z 2 ). Ask. The vertical angle is

Figure 2005069734
水平方向の角度は、
Figure 2005069734
The horizontal angle is

Figure 2005069734
によって計算する。実測値と計算値を比較したグラフを図5,6と表1,2に示す。これらの図において、aは実測値、bは計算値(理想値)を示している。
Figure 2005069734
Calculate by Graphs comparing measured values and calculated values are shown in FIGS. In these drawings, a represents an actual measurement value, and b represents a calculated value (ideal value).

Figure 2005069734
Figure 2005069734

Figure 2005069734
この実験から、垂直方向の角度及び水平方向の角度ともに実測値と計算値は極めて近似していることがわかる。
Figure 2005069734
From this experiment, it can be seen that the measured value and the calculated value are very close to each other in the vertical angle and the horizontal angle.

(3)指の対応点の自動検出
図7は本発明の実施例を示す指の対応点の自動検出方法の説明図である。この図において、図7(a)は原画像(手振り前)、図7(b)は原画像(手振り後)、図7(c)はフレーム間差分(数フレーム前の画像との差分を出力する処理であり、この例では1フレーム前の画像との差分を出力とする。図7(d)は手存在候補領域、図7(e)は手領域の抽出、図7(f)は手領域の二値化〔デジタル画像(モノクロ画像)において、濃度値がある閾値以上であれば白、それ以外は黒い数値を与える〕、図7(g)は手の平領域の抽出、図7(h)は指領域の抽出をそれぞれ示している。
(3) Automatic Detection of Finger Corresponding Points FIG. 7 is an explanatory diagram of a finger corresponding point automatic detection method according to an embodiment of the present invention. 7A is an original image (before hand shaking), FIG. 7B is an original image (after hand shaking), and FIG. 7C is an inter-frame difference (difference from an image several frames before). In this example, the difference from the image one frame before is output as an output, Fig. 7 (d) is a hand presence candidate region, Fig. 7 (e) is a hand region extraction, and Fig. 7 (f) is a hand. Region binarization (in a digital image (monochrome image), white is given if the density value is above a certain threshold value, and black values are given otherwise), FIG. 7 (g) is palm region extraction, and FIG. 7 (h). Indicates the extraction of the finger area, respectively.

まず、画像中で手の領域が空間のどこにあるかを探索するために、肌色部分の抽出を行う。この時、顔などその他の肌の部分が写っていたり、背景に段ボールなど似た色があると一緒に抽出されてしまう。そこで、予め手があると考えられる部分を抽出する。背景に動きがないことを前提として手だけを動かし、〔図7(b)〕、フレーム間差分〔図7(c)〕、移動領域が大きい部分を手の存在候補領域とする〔図7(d)〕。さらに、手の存在候補領域の肌色部分を手の領域として抽出する〔図7(e)〕。   First, in order to search in the image where the hand region is in the space, the skin color portion is extracted. At this time, if other skin parts such as the face are reflected, or if there is a similar color such as cardboard in the background, it will be extracted together. Therefore, a part considered to have a hand in advance is extracted. Only the hand is moved on the assumption that there is no movement in the background [FIG. 7 (b)], the difference between frames [FIG. 7 (c)], and the part where the moving area is large is set as the hand existence candidate area [FIG. d)]. Further, the skin color portion of the hand presence candidate region is extracted as the hand region [FIG. 7 (e)].

次に、手の領域から指だけを抜き出す。   Next, only the fingers are extracted from the hand area.

まず、画像の二値化〔図7(f)〕を行った後、指を手の平から伸びる細い棒状のものと考え、収縮・膨張処理を加えると指だけをカットした手の平を抽出した図になる〔図7(g)〕。手の領域を示す図7(e)から手の平を抽出した図7(g)との差分をとると指の領域だけが残り〔図7(h)〕、手の領域から指の領域だけを抜き出すことができる。   First, after binarizing the image [FIG. 7 (f)], it is considered that the finger is a thin stick-like shape extending from the palm, and when the contraction / expansion processing is applied, the palm is cut and only the finger is cut out. [FIG. 7 (g)]. When the difference from the palm of FIG. 7G showing the hand region is extracted from FIG. 7G, only the finger region remains [FIG. 7H], and only the finger region is extracted from the hand region. be able to.

以下に、予備実験的な図を示す。   A preliminary experimental diagram is shown below.

実際の指さし行為に必要な指は一本だけを想定している。このような方法で自動的に対応点を求める。   Only one finger is required for the actual pointing action. Corresponding points are automatically obtained by such a method.

(4)実験
上記(1)の節で求めた指さしベクトルの妥当性を物体平面との交点を求めることによって示す。まず、対象とする平面上の3点を画像上に指示し、これらの3次元座標をステレオ法によって求める。さらに、下記(8)式によって単位法線ベクトルρ0 を計算する。
(4) Experiment The validity of the pointing vector obtained in the section (1) above is shown by obtaining the intersection with the object plane. First, three points on the target plane are indicated on the image, and these three-dimensional coordinates are obtained by the stereo method. Further, a unit normal vector ρ 0 is calculated by the following equation (8).

Figure 2005069734
また、平面方程式を下記式(9)のように表す。
Figure 2005069734
Further, the plane equation is expressed as the following formula (9).

Figure 2005069734
Figure 2005069734
Figure 2005069734
Figure 2005069734

このような平面の上記式(9)を上記式(3)に代入すると、交点について、tが計算できる。   By substituting the above equation (9) for such a plane into the equation (3), t can be calculated for the intersection.

Figure 2005069734
Figure 2005069734
Figure 2005069734
Figure 2005069734

以上のようにして、ステレオカメラの前に置かれている物体を指でさし、その物体平面との交点を求め、その物体が何かを応答させる実験を行ったところ、実験では6個の物体を区別して指示できた。   As described above, an object placed in front of a stereo camera is pointed with a finger, an intersection with the object plane is obtained, and an experiment is performed in which the object responds to something. I was able to distinguish and indicate objects.

本発明によれば、指で指示した物体を認識し、計算機がそれが何かについて応答することができるようになった。しかし、自分では求める物体を正しく指差したつもりでも、実際にはかなりずれていることがあり、ピンポイントで指示することは困難である。指と視線位置のずれの影響や指が反ってしまっているなど様々な要因が影響すると考えられるが、これを避けるためには、まず、真っ直ぐピンポイントで教示するだけでなく、目的の物体がある範囲を指定するように指を動かす。また、人間から一方的に物体の指示を行うのではなく、機械の方からも“これですか”などと確認を行い、相互に対話をとりながら実際の対話に近づけることで解消できると考えられる。   According to the present invention, an object pointed by a finger can be recognized, and the computer can respond about what it is. However, even if you intend to correctly point to the object you want, you may actually be misaligned and it is difficult to pinpoint. It is thought that various factors such as the influence of the deviation of the finger and the line of sight position and the finger being warped influence, but in order to avoid this, first of all, not only teaching straight pinpoint, but also the target object Move your finger to specify a range. Also, instead of unidirectionally instructing an object from a human, it is thought that it can be solved by confirming “Is this?” From the machine and approaching the actual conversation while interacting with each other .

物体がどの位置にどのような姿勢で置かれているかを知ることは、ロボットの作業において重要である。作業環境にある物体そのものの教示は、CADモデルなどで予め計算機内に記憶されているモデルと照合させることで可能であるが、姿勢を決定するためには、モデルのどの面が作業空間のどこにあるかを教示しなければならない。ここで面を教示する手段として指さしを適用することが考えられる。このように特別な装置を必要とせず、なるべく自由にポインティングできるようなシステムへの様々な応用が考えられる。   It is important in the operation of the robot to know in what position and in what posture the object is placed. The teaching of the object itself in the work environment can be done by collating it with a model stored in advance in a computer using a CAD model or the like, but in order to determine the posture, which surface of the model is located in the work space I have to tell you if there is. Here, it is conceivable to apply a pointing device as a means for teaching a surface. In this way, various applications to a system that can be pointed as freely as possible without requiring a special device are conceivable.

なお、上記実施例では、指に付けるマーカーの3次元位置検出にステレオ法を用いたが、光投影方式の位置検出やレーザ距離計測(例、ERIMセンサ)を用いることも可能である。   In the above embodiment, the stereo method is used for detecting the three-dimensional position of the marker to be attached to the finger. However, it is also possible to use light projection type position detection or laser distance measurement (eg, ERIM sensor).

また、本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づいて種々の変形が可能であり、これらを本発明の範囲から排除するものではない。   The present invention is not limited to the above-described embodiments, and various modifications are possible based on the spirit of the present invention, and these are not excluded from the scope of the present invention.

本発明の指さし行為による物体の空間位置の教示方法は、計算機の作業空間に置かれた物体の位置・姿勢を面ベースによって決定し、面の教示に指差しを適用する。特に、様々な物体の空間位置のロボットへの教示方法に適している。   According to the teaching method of the spatial position of the object by the pointing action of the present invention, the position / posture of the object placed in the work space of the computer is determined by the surface base, and the pointing is applied to the teaching of the surface. In particular, it is suitable for a teaching method to the robot of various object spatial positions.

本発明にかかる指さしによる直線と物体の平面の交点を示す図である。It is a figure which shows the intersection of the straight line by the pointing and the plane of an object concerning this invention. 本発明にかかる法線ベクトルの説明図である。It is explanatory drawing of the normal vector concerning this invention. 本発明にかかる対応点の検出例を示す図である。It is a figure which shows the example of a detection of the corresponding point concerning this invention. 本発明にかかる直線と物体平面の交点探索例を示す図である。It is a figure which shows the example of an intersection search of the straight line concerning this invention and an object plane. 本発明にかかる垂直方向の角度の実測値と計算値を示す図である。It is a figure which shows the measured value and calculated value of the angle of the vertical direction concerning this invention. 本発明にかかる水平方向の角度の実測値と計算値を示す図である。It is a figure which shows the measured value and calculated value of the angle of the horizontal direction concerning this invention. 本発明の実施例を示す指の対応点の自動検出方法の説明図である。It is explanatory drawing of the automatic detection method of the corresponding point of the finger | toe which shows the Example of this invention.

符号の説明Explanation of symbols

1,2 マーカー
3 物体
1, 2 Marker 3 Object

Claims (6)

計算機の作業空間に置かれた物体の位置・姿勢を面ベースによって決定する教示方法において、
(a)人体の手の指を抽出し、
(b)該指の少なくとも2箇所に指標を設定し、
(c)該指の空間座標を2点計算し、
(d)空間座標の計算をステレオ法により行い、
(e)ステレオ視における対応点を前記指に設定した指標に基づいて探索し、
(f)前記2点の空間座標に3次元的な直線をあてはめ、該直線と3次元座標が既知の物体平面との交点を物体の位置として教示することを特徴とする指さし行為による物体の空間位置の教示方法。
In a teaching method for determining the position / orientation of an object placed in the work space of a computer on a surface basis,
(A) Extract the finger of the human hand,
(B) set an index on at least two positions of the finger;
(C) calculating two spatial coordinates of the finger;
(D) The spatial coordinates are calculated by the stereo method,
(E) searching for corresponding points in stereo vision based on the index set on the finger;
(F) A space of an object by a pointing action characterized by applying a three-dimensional straight line to the spatial coordinates of the two points, and teaching the intersection of the straight line and an object plane whose three-dimensional coordinates are known as the position of the object. Position teaching method.
請求項1記載の指さし行為による物体の空間位置の教示方法において、前記人体の手の指の抽出を、背景に動きがない状態で手だけを動かし、その画像のフレーム間差分をとり、移動領域が大きい部分を手の存在候補領域となし、該手の存在候補領域の肌色部分を手の領域として抽出し、画像の二値化を行った後、指を手の平から伸びる細い棒状のものとみなして、収縮・膨張処理を加えて、指だけをカットした手の平領域を抽出し、前記手の領域から前記手の平を抽出して差分をとることにより行うことを特徴とする指さし行為による物体の空間位置の教示方法。   2. The method of teaching the spatial position of an object by a pointing action according to claim 1, wherein the finger of the human hand is extracted by moving only the hand with no movement in the background, taking the difference between frames of the image, The area where the hand is large is defined as the hand candidate area, the skin color part of the hand candidate area is extracted as the hand area, the image is binarized, and the finger is regarded as a thin stick extending from the palm. Then, the spatial position of the object by the pointing action is performed by extracting the palm area where only the finger is cut by performing contraction / expansion processing, extracting the palm from the hand area and taking the difference Teaching method. 請求項1記載の指さし行為による物体の空間位置の教示方法において、前記指標がマーカーであることを特徴とする指さし行為による物体の空間位置の教示方法。   2. The method for teaching the spatial position of an object by pointing action according to claim 1, wherein the index is a marker. 請求項1記載の指さし行為による物体の空間位置の教示方法において、前記指標が指に固有の特徴点であることを特徴とする指さし行為による物体の空間位置の教示方法。   2. The method for teaching the spatial position of an object by pointing action according to claim 1, wherein the index is a characteristic point unique to the finger. 請求項4記載の指さし行為による物体の空間位置の教示方法において、前記指に固有の特徴点が指の先端と関節部であることを特徴とする指さし行為による物体の空間位置の教示方法。   5. The method for teaching the spatial position of an object by a pointing action according to claim 4, wherein the characteristic points unique to the finger are a tip and a joint of the finger. 請求項1記載の指さし行為による物体の空間位置の教示方法において、前記物体の位置をロボットに教示することを特徴とする指さし行為による物体の空間位置の教示方法。   2. The method for teaching the spatial position of an object by pointing action according to claim 1, wherein the robot teaches the position of the object to the robot.
JP2003296670A 2003-08-20 2003-08-20 Teaching method of spatial position of object by pointing action Pending JP2005069734A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003296670A JP2005069734A (en) 2003-08-20 2003-08-20 Teaching method of spatial position of object by pointing action

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003296670A JP2005069734A (en) 2003-08-20 2003-08-20 Teaching method of spatial position of object by pointing action

Publications (1)

Publication Number Publication Date
JP2005069734A true JP2005069734A (en) 2005-03-17

Family

ID=34402776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003296670A Pending JP2005069734A (en) 2003-08-20 2003-08-20 Teaching method of spatial position of object by pointing action

Country Status (1)

Country Link
JP (1) JP2005069734A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012060393A1 (en) * 2010-11-01 2012-05-10 国立大学法人北海道大学 Target position tracking device and target luminescence detection device
JP2016151841A (en) * 2015-02-17 2016-08-22 レノボ・シンガポール・プライベート・リミテッド Discrimination method for existence of object by means of stereo camera, device control system and computer program
US9727171B2 (en) 2015-03-19 2017-08-08 Fujitsu Limited Input apparatus and fingertip position detection method
US9766715B2 (en) 2014-05-01 2017-09-19 Seiko Epson Corporation Head-mount type display device, control system, method of controlling head-mount type display device, and computer program
JP2019087279A (en) * 2013-06-27 2019-06-06 アイサイト モバイル テクノロジーズ リミテッド Systems and methods of direct pointing detection for interaction with digital device
JP2019536140A (en) * 2016-10-24 2019-12-12 ブイタッチ・カンパニー・リミテッド Method, system and non-transitory computer-readable recording medium for supporting control of object
JP2020084539A (en) * 2018-11-22 2020-06-04 株式会社熊谷組 Shotcrete guidance system
JP2020084550A (en) * 2018-11-22 2020-06-04 株式会社熊谷組 Nozzle position estimation device
JP2020084551A (en) * 2018-11-22 2020-06-04 株式会社熊谷組 Spray thickness estimation device
CN116141341A (en) * 2023-04-21 2023-05-23 之江实验室 Realization method of pointing motion of five-degree-of-freedom manipulator satisfying Cartesian space constraints
CN118963541A (en) * 2024-06-28 2024-11-15 广州玖的文化科技有限公司 A 9D interactive method, system, electronic device and storage medium

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012060393A1 (en) * 2010-11-01 2012-05-10 国立大学法人北海道大学 Target position tracking device and target luminescence detection device
US11314335B2 (en) 2013-06-27 2022-04-26 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device
JP2019087279A (en) * 2013-06-27 2019-06-06 アイサイト モバイル テクノロジーズ リミテッド Systems and methods of direct pointing detection for interaction with digital device
JP7191714B2 (en) 2013-06-27 2022-12-19 アイサイト モバイル テクノロジーズ リミテッド Systems and methods for direct pointing detection for interaction with digital devices
US9766715B2 (en) 2014-05-01 2017-09-19 Seiko Epson Corporation Head-mount type display device, control system, method of controlling head-mount type display device, and computer program
US9965048B2 (en) 2014-05-01 2018-05-08 Seiko Epson Corporation Head-mount type display device, control system, method of controlling head-mount type display device, and computer program
JP2016151841A (en) * 2015-02-17 2016-08-22 レノボ・シンガポール・プライベート・リミテッド Discrimination method for existence of object by means of stereo camera, device control system and computer program
US9727171B2 (en) 2015-03-19 2017-08-08 Fujitsu Limited Input apparatus and fingertip position detection method
JP2019536140A (en) * 2016-10-24 2019-12-12 ブイタッチ・カンパニー・リミテッド Method, system and non-transitory computer-readable recording medium for supporting control of object
JP2020084550A (en) * 2018-11-22 2020-06-04 株式会社熊谷組 Nozzle position estimation device
JP2020084551A (en) * 2018-11-22 2020-06-04 株式会社熊谷組 Spray thickness estimation device
JP7138549B2 (en) 2018-11-22 2022-09-16 株式会社熊谷組 Concrete spraying guidance system
JP7161385B2 (en) 2018-11-22 2022-10-26 株式会社熊谷組 Spray thickness estimation device
JP7161384B2 (en) 2018-11-22 2022-10-26 株式会社熊谷組 Nozzle position estimation device
JP2020084539A (en) * 2018-11-22 2020-06-04 株式会社熊谷組 Shotcrete guidance system
CN116141341A (en) * 2023-04-21 2023-05-23 之江实验室 Realization method of pointing motion of five-degree-of-freedom manipulator satisfying Cartesian space constraints
CN116141341B (en) * 2023-04-21 2023-08-08 之江实验室 Method for realizing pointing action of five-degree-of-freedom mechanical arm meeting Cartesian space constraint
CN118963541A (en) * 2024-06-28 2024-11-15 广州玖的文化科技有限公司 A 9D interactive method, system, electronic device and storage medium

Similar Documents

Publication Publication Date Title
JP3996015B2 (en) Posture recognition device and autonomous robot
CN109255813B (en) Man-machine cooperation oriented hand-held object pose real-time detection method
JP7675970B2 (en) System and method for detecting human gaze and gestures in unconstrained environments
CN108885459B (en) Navigation method, navigation system, mobile control system and mobile robot
JP4689107B2 (en) Autonomous robot
Droeschel et al. Learning to interpret pointing gestures with a time-of-flight camera
JP4435212B2 (en) Posture recognition device and autonomous robot
Park et al. Real-time 3D pointing gesture recognition for mobile robots with cascade HMM and particle filter
CN205219101U (en) Service robot of family
CN108942923A (en) A kind of mechanical arm crawl control method
CN109933061A (en) Robot and control method based on artificial intelligence
JP2018119833A (en) Information processing apparatus, system, estimation method, computer program, and storage medium
JP2005069734A (en) Teaching method of spatial position of object by pointing action
WO2019216016A1 (en) Information processing device, information processing method, and program
Fransen et al. Using vision, acoustics, and natural language for disambiguation
Rahman et al. An automated navigation system for blind people
Atienza et al. Intuitive human-robot interaction through active 3d gaze tracking
Zhang et al. An egocentric vision based assistive co-robot
CN117726648A (en) Method, system and robot for determining target objects to be tracked
CN113850145B (en) Hand-eye orientation cooperative target positioning method
Jin et al. Human-robot interaction for assisted object grasping by a wearable robotic object manipulation aid for the blind
JP7360158B2 (en) Control system and control program
CN119002689A (en) Man-machine interaction method, device, equipment and medium based on non-medium holographic technology
CN117077081A (en) Human body pointing prediction method, device, robot and storage medium
Kumar et al. Sharing cognition: Human gesture and natural language grounding based planning and navigation for indoor robots

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20060816

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080617

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081021