JP2005069734A - Teaching method of spatial position of object by pointing action - Google Patents
Teaching method of spatial position of object by pointing action Download PDFInfo
- Publication number
- JP2005069734A JP2005069734A JP2003296670A JP2003296670A JP2005069734A JP 2005069734 A JP2005069734 A JP 2005069734A JP 2003296670 A JP2003296670 A JP 2003296670A JP 2003296670 A JP2003296670 A JP 2003296670A JP 2005069734 A JP2005069734 A JP 2005069734A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- teaching
- hand
- pointing action
- spatial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
Abstract
【課題】自然に、かつ簡単に実施することができる指さし行為による物体の空間位置の教示方法を提供する。
【解決手段】計算機の作業空間に置かれた物体の位置・姿勢を面ベースによって決定する教示方法において、人体の手の指を抽出し、この指の少なくとも2箇所に指標を設定し、この指の空間座標を2点計算し、空間座標の計算をステレオ法により行い、ステレオ視における対応点を前記指に設定した指標に基づいて探索し、前記2点の空間座標に3次元的な直線をあてはめ、該直線と3次元座標が既知の物体平面との交点を物体の位置として教示する。
【選択図】図1Provided is a method for teaching a spatial position of an object by a pointing action that can be performed naturally and easily.
In a teaching method for determining the position and orientation of an object placed in a work space of a computer on a surface basis, fingers of a human body are extracted, indices are set at at least two positions of the fingers, and the fingers The spatial coordinates of the two points are calculated, the spatial coordinates are calculated by the stereo method, the corresponding points in stereo vision are searched based on the index set on the finger, and a three-dimensional straight line is found in the spatial coordinates of the two points. Fitting is performed, and an intersection point between the straight line and an object plane whose three-dimensional coordinates are known is taught as an object position.
[Selection] Figure 1
Description
本発明は、指さし行為による物体の空間位置の教示方法に関するものである。 The present invention relates to a method for teaching a spatial position of an object by a pointing action.
近年、マン・マシンインターフェイスの実利用化を目指し、様々な人間の動きを認識する研究が行われてきた。例えば、センサや、カメラ等を人体に装着したシステムで成果を得ている(下記非特許文献1,2)が、被験者が実験環境に慣れる必要があったり、負担を与えたりする。そこで、ジェスチャによってなるべく自由な状態で自分の意思を計算機に伝える研究が行われている(下記非特許文献3〜5)。
In recent years, research on recognizing various human movements has been conducted with the aim of practical use of man-machine interfaces. For example, although a result is obtained by a system in which a sensor, a camera, or the like is mounted on a human body (Non-Patent
ただし、そのジェスチャはユーザにとってわかりやすいものでなければならない。これに関連して、作業空間にある様々な家電製品をジェスチャで操作する研究が行われている(下記非特許文献3,4)。前者は介護を要する障害者のために静止状態だけを想定し、後者は動きのあるジェスチャによって意思を伝えている。後者の場合、複数の家電製品から一つを選択する際に伸びている指の本数によって対象が選ばれるシステムであるが、対象物体の数が増えた場合には、何らかの方法で対象物体をポインティングすることによって指示できた方が、ユーザが覚えるべきジェスチャの数を減らすことができる。
However, the gesture must be easy for the user to understand. In connection with this, researches have been conducted to operate various home appliances in the work space with gestures (Non-Patent
また、音声による対話(下記非特許文献6)も可能であるが、例えば、複数の本の中から特定の一冊を選んでもらう際に、音声だけで意思を伝えるためにはまわりくどい説明をしなければならない。 In addition, voice conversation (Non-Patent Document 6 below) is also possible, but for example, when a specific book is selected from a plurality of books, it is difficult to convey the intention only by voice. There must be.
日常生活における人とロボットの対話は複雑なものではなく、自然なものが望ましい。 The interaction between humans and robots in daily life is not complicated, and natural ones are desirable.
例えば、物体を指さしながらの“机の上のあの本を取って”という発話は“机の上の左端から何cmにある本を取って”というよりも自然である(下記非特許文献7,8)。このように、物体を指示する手段として一番自然な方法は指さしである。
本発明では、上記したように、音声による対話よりも、指さし行為がポインティングの手段として有効であることに着目し、自然に、かつ簡単に実施することができる指さし行為による物体の空間位置の教示方法を提供することを目的とする。 In the present invention, as described above, focusing on the fact that the pointing action is more effective as the pointing means than the voice dialogue, the teaching of the spatial position of the object by the pointing action that can be performed naturally and easily. It aims to provide a method.
本発明は、上記目的を達成するために、
〔1〕計算機の作業空間に置かれた物体の位置・姿勢を面ベースによって決定する教示方法において、人体の手の指を抽出し、この指の少なくとも2箇所に指標を設定し、この指の空間座標を2点計算し、空間座標の計算をステレオ法により行い、ステレオ視における対応点を前記指に設定した指標に基づいて探索し、前記2点の空間座標に3次元的な直線をあてはめ、該直線と3次元座標が既知の物体平面との交点を物体の位置として教示することを特徴とする。
In order to achieve the above object, the present invention provides
[1] In a teaching method for determining the position / orientation of an object placed in the work space of a computer on a surface basis, fingers of a human body are extracted, indices are set at at least two positions of the fingers, Two spatial coordinates are calculated, the spatial coordinates are calculated by the stereo method, the corresponding points in stereo vision are searched based on the index set on the finger, and a three-dimensional straight line is applied to the spatial coordinates of the two points. The intersection of the straight line and the object plane whose three-dimensional coordinates are known is taught as the position of the object.
〔2〕上記〔1〕記載の指さし行為による物体の空間位置の教示方法において、前記人体の手の指の抽出を、背景に動きがない状態で手だけを動かし、その画像のフレーム間差分をとり、移動領域が大きい部分を手の存在候補領域となし、該手の存在候補領域の肌色部分を手の領域として抽出し、画像の二値化を行った後、指を手の平から伸びる細い棒状のものとみなして、収縮・膨張処理を加えて、指だけをカットした手の平領域を抽出し、前記手の領域から前記手の平を抽出して差分をとることにより行うことを特徴とする。 [2] In the method for teaching the spatial position of an object by the pointing action described in [1] above, the finger of the human body is extracted by moving only the hand in a state where there is no movement in the background, and the difference between frames of the image is calculated. The moving region is defined as a hand presence candidate region, the skin color portion of the hand presence candidate region is extracted as a hand region, the image is binarized, and then the finger extends from the palm of the hand It is characterized by extracting the palm area where only the finger is cut, extracting the palm from the hand area, and taking the difference.
〔3〕上記〔1〕記載の指さし行為による物体の空間位置の教示方法において、前記指標がマーカーであることを特徴とする。 [3] In the method for teaching the spatial position of an object by a pointing action as described in [1] above, the index is a marker.
〔4〕上記〔1〕記載の指さし行為による物体の空間位置の教示方法において、前記指標が指に固有の特徴点であることを特徴とする。 [4] In the method for teaching the spatial position of an object by a pointing action described in [1] above, the index is a characteristic point unique to the finger.
〔5〕上記〔4〕記載の指さし行為による物体の空間位置の教示方法において、前記指に固有の特徴点が指の先端と関節部であることを特徴とする。 [5] In the method for teaching the spatial position of an object by a pointing action as described in [4] above, the characteristic points unique to the finger are the tip and joint of the finger.
〔6〕上記〔1〕記載の指さし行為による物体の空間位置の教示方法において、前記物体の位置をロボットに教示することを特徴とする。 [6] In the method for teaching the spatial position of an object by a pointing action as described in [1] above, the robot is taught the position of the object.
本発明によれば、次のような効果を奏することができる。 According to the present invention, the following effects can be achieved.
指さし行為により、自然で分かりやすい対話を実現でき、計算機の作業空間に置かれた物体の位置・姿勢を面ベースによって決定することができる。 The pointing action can realize a natural and easy-to-understand dialogue, and the position and orientation of an object placed in the computer work space can be determined on a surface basis.
また、各種の物体の面の教示に指さしを適用するなど、様々な応用が可能である。 In addition, various applications are possible, such as applying a finger to the teaching of various object surfaces.
計算機の作業空間に置かれた物体の位置・姿勢を面ベースによって決定する教示方法において、自然で分かりやすい対話を実現できるように、指で目標物をポインティングすることによって、ユーザーが目的とする物体を計算機に教示する。 In the teaching method that determines the position and orientation of an object placed in the work space of a computer on a surface basis, the target object is displayed by pointing the target with a finger so that a natural and easy-to-understand dialogue can be realized. To the computer.
以下、本発明の実施の形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail.
ここでは、空間直線における指さし行為による物体の空間位置の教示方法について説明する。 Here, a method for teaching the spatial position of an object by a pointing action on a spatial straight line will be described.
(1)指さしベクトル
計算機に離れたところにある物体を指で指示し、これをロボットアームで持ってくるための処理について述べる。指から離れたところにある物体を認識するためには、互いの空間的な位置関係を知らなければならない。よって、実験に用いる画像はステレオ用デジタルビデオカメラによって撮影した。 指が間違いなく意図する物体の方向を向いていれば、指から延長した直線と、物体を構成するある平面が交差するはずである。この考えに基づいて物体の位置を推定する。
(1) Pointer vector A process for pointing a remote object to the computer with a finger and bringing it to the computer with a robot arm will be described. In order to recognize an object located away from the finger, it is necessary to know the spatial positional relationship between them. Therefore, the images used in the experiment were taken with a stereo digital video camera. If the finger is definitely pointing in the direction of the intended object, a straight line extending from the finger and a certain plane constituting the object should intersect. Based on this idea, the position of the object is estimated.
まず、指に3次元的な直線をあてはめるために、空間的な指の位置を探索する。3次元座標の推定には、三角測量の原理より奥行きを計算する。指の左右画像における対応点を探索しやすいように、指にマーカーを2箇所(直線の方向を1つに定めるための最低数)つけている。なお、マーカーの代わりに指の特徴点(指の先端、関節部、しわなど)を利用するようにしてもよい。 First, a spatial finger position is searched to apply a three-dimensional straight line to the finger. For estimation of three-dimensional coordinates, the depth is calculated based on the principle of triangulation. In order to facilitate searching for corresponding points in the left and right images of the finger, two markers are provided on the finger (minimum number for determining the direction of a straight line). Note that a feature point of a finger (a tip of a finger, a joint, a wrinkle, etc.) may be used instead of the marker.
マーカーのテンプレートと画像中のマーカーとの対応点を見つけるために、下記の相関係数によるマッチング処理を行う。 In order to find a corresponding point between the marker template and the marker in the image, matching processing using the following correlation coefficient is performed.
ステレオ計測処理で求めた指の2箇所の3次元座標(X1 ,Y1 ,Z1 ),(X2 ,Y2 ,Z2 )に直線をあてはめ、この直線と物体平面との交点を求める。対象とする平面を法線ベクトルρ0 、空間座標原点と平面の距離をρで表すと、平面方程式は、以下のように表される。 A straight line is fitted to the three-dimensional coordinates (X 1 , Y 1 , Z 1 ) and (X 2 , Y 2 , Z 2 ) of the two positions of the finger obtained by the stereo measurement process, and the intersection of the straight line and the object plane is obtained. . If the target plane is represented by the normal vector ρ 0 and the distance between the space coordinate origin and the plane is represented by ρ, the plane equation is represented as follows.
図3に探索によりマーカー1,2を抽出した状況を示す。これらの点についてステレオ計測により3次元座標を求め、2点を通る直線の方程式を求める。図4に示すように、線分は物体3と交差した位置で止まっているので、離れた場所にある物体3の方向と位置が推定された。これより、立体の形状復元されるべき物体3の方向が推定されたと考えられる。
FIG. 3 shows a situation where
(2)空間座標の精度
指の方向を決める3次元座標が正しく再現できているかどうか確かめる実験を行った。実験は指に見立てたマーカーをつけた棒状の物体を三脚に固定し、垂直方向は5°ずつ、水平方向に10°ずつ回転させ、実測による角度の値と計算された角度の値が一致するかどうかを確かめた。画像はステレオカメラで撮影されたものを使用する。両眼立体視の対応点はマーカーを頼りに探索し、指の角度は再現された2点の3次元座標(X1 ,Y1 ,Z1 ),(X2 ,Y2 ,Z2 )から求める。垂直方向の角度は、
(2) Accuracy of spatial coordinates An experiment was conducted to confirm whether the three-dimensional coordinates that determine the direction of the finger were correctly reproduced. In the experiment, a rod-like object with a marker that looks like a finger is fixed to a tripod, rotated by 5 ° in the vertical direction and by 10 ° in the horizontal direction, and the measured angle value and the calculated angle value match. I checked to see if. Use images taken with a stereo camera. Corresponding points of binocular stereopsis are searched using a marker, and the angle of the finger is calculated from the reproduced three-dimensional coordinates (X 1 , Y 1 , Z 1 ), (X 2 , Y 2 , Z 2 ). Ask. The vertical angle is
(3)指の対応点の自動検出
図7は本発明の実施例を示す指の対応点の自動検出方法の説明図である。この図において、図7(a)は原画像(手振り前)、図7(b)は原画像(手振り後)、図7(c)はフレーム間差分(数フレーム前の画像との差分を出力する処理であり、この例では1フレーム前の画像との差分を出力とする。図7(d)は手存在候補領域、図7(e)は手領域の抽出、図7(f)は手領域の二値化〔デジタル画像(モノクロ画像)において、濃度値がある閾値以上であれば白、それ以外は黒い数値を与える〕、図7(g)は手の平領域の抽出、図7(h)は指領域の抽出をそれぞれ示している。
(3) Automatic Detection of Finger Corresponding Points FIG. 7 is an explanatory diagram of a finger corresponding point automatic detection method according to an embodiment of the present invention. 7A is an original image (before hand shaking), FIG. 7B is an original image (after hand shaking), and FIG. 7C is an inter-frame difference (difference from an image several frames before). In this example, the difference from the image one frame before is output as an output, Fig. 7 (d) is a hand presence candidate region, Fig. 7 (e) is a hand region extraction, and Fig. 7 (f) is a hand. Region binarization (in a digital image (monochrome image), white is given if the density value is above a certain threshold value, and black values are given otherwise), FIG. 7 (g) is palm region extraction, and FIG. 7 (h). Indicates the extraction of the finger area, respectively.
まず、画像中で手の領域が空間のどこにあるかを探索するために、肌色部分の抽出を行う。この時、顔などその他の肌の部分が写っていたり、背景に段ボールなど似た色があると一緒に抽出されてしまう。そこで、予め手があると考えられる部分を抽出する。背景に動きがないことを前提として手だけを動かし、〔図7(b)〕、フレーム間差分〔図7(c)〕、移動領域が大きい部分を手の存在候補領域とする〔図7(d)〕。さらに、手の存在候補領域の肌色部分を手の領域として抽出する〔図7(e)〕。 First, in order to search in the image where the hand region is in the space, the skin color portion is extracted. At this time, if other skin parts such as the face are reflected, or if there is a similar color such as cardboard in the background, it will be extracted together. Therefore, a part considered to have a hand in advance is extracted. Only the hand is moved on the assumption that there is no movement in the background [FIG. 7 (b)], the difference between frames [FIG. 7 (c)], and the part where the moving area is large is set as the hand existence candidate area [FIG. d)]. Further, the skin color portion of the hand presence candidate region is extracted as the hand region [FIG. 7 (e)].
次に、手の領域から指だけを抜き出す。 Next, only the fingers are extracted from the hand area.
まず、画像の二値化〔図7(f)〕を行った後、指を手の平から伸びる細い棒状のものと考え、収縮・膨張処理を加えると指だけをカットした手の平を抽出した図になる〔図7(g)〕。手の領域を示す図7(e)から手の平を抽出した図7(g)との差分をとると指の領域だけが残り〔図7(h)〕、手の領域から指の領域だけを抜き出すことができる。 First, after binarizing the image [FIG. 7 (f)], it is considered that the finger is a thin stick-like shape extending from the palm, and when the contraction / expansion processing is applied, the palm is cut and only the finger is cut out. [FIG. 7 (g)]. When the difference from the palm of FIG. 7G showing the hand region is extracted from FIG. 7G, only the finger region remains [FIG. 7H], and only the finger region is extracted from the hand region. be able to.
以下に、予備実験的な図を示す。 A preliminary experimental diagram is shown below.
実際の指さし行為に必要な指は一本だけを想定している。このような方法で自動的に対応点を求める。 Only one finger is required for the actual pointing action. Corresponding points are automatically obtained by such a method.
(4)実験
上記(1)の節で求めた指さしベクトルの妥当性を物体平面との交点を求めることによって示す。まず、対象とする平面上の3点を画像上に指示し、これらの3次元座標をステレオ法によって求める。さらに、下記(8)式によって単位法線ベクトルρ0 を計算する。
(4) Experiment The validity of the pointing vector obtained in the section (1) above is shown by obtaining the intersection with the object plane. First, three points on the target plane are indicated on the image, and these three-dimensional coordinates are obtained by the stereo method. Further, a unit normal vector ρ 0 is calculated by the following equation (8).
このような平面の上記式(9)を上記式(3)に代入すると、交点について、tが計算できる。 By substituting the above equation (9) for such a plane into the equation (3), t can be calculated for the intersection.
以上のようにして、ステレオカメラの前に置かれている物体を指でさし、その物体平面との交点を求め、その物体が何かを応答させる実験を行ったところ、実験では6個の物体を区別して指示できた。 As described above, an object placed in front of a stereo camera is pointed with a finger, an intersection with the object plane is obtained, and an experiment is performed in which the object responds to something. I was able to distinguish and indicate objects.
本発明によれば、指で指示した物体を認識し、計算機がそれが何かについて応答することができるようになった。しかし、自分では求める物体を正しく指差したつもりでも、実際にはかなりずれていることがあり、ピンポイントで指示することは困難である。指と視線位置のずれの影響や指が反ってしまっているなど様々な要因が影響すると考えられるが、これを避けるためには、まず、真っ直ぐピンポイントで教示するだけでなく、目的の物体がある範囲を指定するように指を動かす。また、人間から一方的に物体の指示を行うのではなく、機械の方からも“これですか”などと確認を行い、相互に対話をとりながら実際の対話に近づけることで解消できると考えられる。 According to the present invention, an object pointed by a finger can be recognized, and the computer can respond about what it is. However, even if you intend to correctly point to the object you want, you may actually be misaligned and it is difficult to pinpoint. It is thought that various factors such as the influence of the deviation of the finger and the line of sight position and the finger being warped influence, but in order to avoid this, first of all, not only teaching straight pinpoint, but also the target object Move your finger to specify a range. Also, instead of unidirectionally instructing an object from a human, it is thought that it can be solved by confirming “Is this?” From the machine and approaching the actual conversation while interacting with each other .
物体がどの位置にどのような姿勢で置かれているかを知ることは、ロボットの作業において重要である。作業環境にある物体そのものの教示は、CADモデルなどで予め計算機内に記憶されているモデルと照合させることで可能であるが、姿勢を決定するためには、モデルのどの面が作業空間のどこにあるかを教示しなければならない。ここで面を教示する手段として指さしを適用することが考えられる。このように特別な装置を必要とせず、なるべく自由にポインティングできるようなシステムへの様々な応用が考えられる。 It is important in the operation of the robot to know in what position and in what posture the object is placed. The teaching of the object itself in the work environment can be done by collating it with a model stored in advance in a computer using a CAD model or the like, but in order to determine the posture, which surface of the model is located in the work space I have to tell you if there is. Here, it is conceivable to apply a pointing device as a means for teaching a surface. In this way, various applications to a system that can be pointed as freely as possible without requiring a special device are conceivable.
なお、上記実施例では、指に付けるマーカーの3次元位置検出にステレオ法を用いたが、光投影方式の位置検出やレーザ距離計測(例、ERIMセンサ)を用いることも可能である。 In the above embodiment, the stereo method is used for detecting the three-dimensional position of the marker to be attached to the finger. However, it is also possible to use light projection type position detection or laser distance measurement (eg, ERIM sensor).
また、本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づいて種々の変形が可能であり、これらを本発明の範囲から排除するものではない。 The present invention is not limited to the above-described embodiments, and various modifications are possible based on the spirit of the present invention, and these are not excluded from the scope of the present invention.
本発明の指さし行為による物体の空間位置の教示方法は、計算機の作業空間に置かれた物体の位置・姿勢を面ベースによって決定し、面の教示に指差しを適用する。特に、様々な物体の空間位置のロボットへの教示方法に適している。 According to the teaching method of the spatial position of the object by the pointing action of the present invention, the position / posture of the object placed in the work space of the computer is determined by the surface base, and the pointing is applied to the teaching of the surface. In particular, it is suitable for a teaching method to the robot of various object spatial positions.
1,2 マーカー
3 物体
1, 2
Claims (6)
(a)人体の手の指を抽出し、
(b)該指の少なくとも2箇所に指標を設定し、
(c)該指の空間座標を2点計算し、
(d)空間座標の計算をステレオ法により行い、
(e)ステレオ視における対応点を前記指に設定した指標に基づいて探索し、
(f)前記2点の空間座標に3次元的な直線をあてはめ、該直線と3次元座標が既知の物体平面との交点を物体の位置として教示することを特徴とする指さし行為による物体の空間位置の教示方法。 In a teaching method for determining the position / orientation of an object placed in the work space of a computer on a surface basis,
(A) Extract the finger of the human hand,
(B) set an index on at least two positions of the finger;
(C) calculating two spatial coordinates of the finger;
(D) The spatial coordinates are calculated by the stereo method,
(E) searching for corresponding points in stereo vision based on the index set on the finger;
(F) A space of an object by a pointing action characterized by applying a three-dimensional straight line to the spatial coordinates of the two points, and teaching the intersection of the straight line and an object plane whose three-dimensional coordinates are known as the position of the object. Position teaching method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003296670A JP2005069734A (en) | 2003-08-20 | 2003-08-20 | Teaching method of spatial position of object by pointing action |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003296670A JP2005069734A (en) | 2003-08-20 | 2003-08-20 | Teaching method of spatial position of object by pointing action |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2005069734A true JP2005069734A (en) | 2005-03-17 |
Family
ID=34402776
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2003296670A Pending JP2005069734A (en) | 2003-08-20 | 2003-08-20 | Teaching method of spatial position of object by pointing action |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2005069734A (en) |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012060393A1 (en) * | 2010-11-01 | 2012-05-10 | 国立大学法人北海道大学 | Target position tracking device and target luminescence detection device |
| JP2016151841A (en) * | 2015-02-17 | 2016-08-22 | レノボ・シンガポール・プライベート・リミテッド | Discrimination method for existence of object by means of stereo camera, device control system and computer program |
| US9727171B2 (en) | 2015-03-19 | 2017-08-08 | Fujitsu Limited | Input apparatus and fingertip position detection method |
| US9766715B2 (en) | 2014-05-01 | 2017-09-19 | Seiko Epson Corporation | Head-mount type display device, control system, method of controlling head-mount type display device, and computer program |
| JP2019087279A (en) * | 2013-06-27 | 2019-06-06 | アイサイト モバイル テクノロジーズ リミテッド | Systems and methods of direct pointing detection for interaction with digital device |
| JP2019536140A (en) * | 2016-10-24 | 2019-12-12 | ブイタッチ・カンパニー・リミテッド | Method, system and non-transitory computer-readable recording medium for supporting control of object |
| JP2020084539A (en) * | 2018-11-22 | 2020-06-04 | 株式会社熊谷組 | Shotcrete guidance system |
| JP2020084550A (en) * | 2018-11-22 | 2020-06-04 | 株式会社熊谷組 | Nozzle position estimation device |
| JP2020084551A (en) * | 2018-11-22 | 2020-06-04 | 株式会社熊谷組 | Spray thickness estimation device |
| CN116141341A (en) * | 2023-04-21 | 2023-05-23 | 之江实验室 | Realization method of pointing motion of five-degree-of-freedom manipulator satisfying Cartesian space constraints |
| CN118963541A (en) * | 2024-06-28 | 2024-11-15 | 广州玖的文化科技有限公司 | A 9D interactive method, system, electronic device and storage medium |
-
2003
- 2003-08-20 JP JP2003296670A patent/JP2005069734A/en active Pending
Cited By (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012060393A1 (en) * | 2010-11-01 | 2012-05-10 | 国立大学法人北海道大学 | Target position tracking device and target luminescence detection device |
| US11314335B2 (en) | 2013-06-27 | 2022-04-26 | Eyesight Mobile Technologies Ltd. | Systems and methods of direct pointing detection for interaction with a digital device |
| JP2019087279A (en) * | 2013-06-27 | 2019-06-06 | アイサイト モバイル テクノロジーズ リミテッド | Systems and methods of direct pointing detection for interaction with digital device |
| JP7191714B2 (en) | 2013-06-27 | 2022-12-19 | アイサイト モバイル テクノロジーズ リミテッド | Systems and methods for direct pointing detection for interaction with digital devices |
| US9766715B2 (en) | 2014-05-01 | 2017-09-19 | Seiko Epson Corporation | Head-mount type display device, control system, method of controlling head-mount type display device, and computer program |
| US9965048B2 (en) | 2014-05-01 | 2018-05-08 | Seiko Epson Corporation | Head-mount type display device, control system, method of controlling head-mount type display device, and computer program |
| JP2016151841A (en) * | 2015-02-17 | 2016-08-22 | レノボ・シンガポール・プライベート・リミテッド | Discrimination method for existence of object by means of stereo camera, device control system and computer program |
| US9727171B2 (en) | 2015-03-19 | 2017-08-08 | Fujitsu Limited | Input apparatus and fingertip position detection method |
| JP2019536140A (en) * | 2016-10-24 | 2019-12-12 | ブイタッチ・カンパニー・リミテッド | Method, system and non-transitory computer-readable recording medium for supporting control of object |
| JP2020084550A (en) * | 2018-11-22 | 2020-06-04 | 株式会社熊谷組 | Nozzle position estimation device |
| JP2020084551A (en) * | 2018-11-22 | 2020-06-04 | 株式会社熊谷組 | Spray thickness estimation device |
| JP7138549B2 (en) | 2018-11-22 | 2022-09-16 | 株式会社熊谷組 | Concrete spraying guidance system |
| JP7161385B2 (en) | 2018-11-22 | 2022-10-26 | 株式会社熊谷組 | Spray thickness estimation device |
| JP7161384B2 (en) | 2018-11-22 | 2022-10-26 | 株式会社熊谷組 | Nozzle position estimation device |
| JP2020084539A (en) * | 2018-11-22 | 2020-06-04 | 株式会社熊谷組 | Shotcrete guidance system |
| CN116141341A (en) * | 2023-04-21 | 2023-05-23 | 之江实验室 | Realization method of pointing motion of five-degree-of-freedom manipulator satisfying Cartesian space constraints |
| CN116141341B (en) * | 2023-04-21 | 2023-08-08 | 之江实验室 | Method for realizing pointing action of five-degree-of-freedom mechanical arm meeting Cartesian space constraint |
| CN118963541A (en) * | 2024-06-28 | 2024-11-15 | 广州玖的文化科技有限公司 | A 9D interactive method, system, electronic device and storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3996015B2 (en) | Posture recognition device and autonomous robot | |
| CN109255813B (en) | Man-machine cooperation oriented hand-held object pose real-time detection method | |
| JP7675970B2 (en) | System and method for detecting human gaze and gestures in unconstrained environments | |
| CN108885459B (en) | Navigation method, navigation system, mobile control system and mobile robot | |
| JP4689107B2 (en) | Autonomous robot | |
| Droeschel et al. | Learning to interpret pointing gestures with a time-of-flight camera | |
| JP4435212B2 (en) | Posture recognition device and autonomous robot | |
| Park et al. | Real-time 3D pointing gesture recognition for mobile robots with cascade HMM and particle filter | |
| CN205219101U (en) | Service robot of family | |
| CN108942923A (en) | A kind of mechanical arm crawl control method | |
| CN109933061A (en) | Robot and control method based on artificial intelligence | |
| JP2018119833A (en) | Information processing apparatus, system, estimation method, computer program, and storage medium | |
| JP2005069734A (en) | Teaching method of spatial position of object by pointing action | |
| WO2019216016A1 (en) | Information processing device, information processing method, and program | |
| Fransen et al. | Using vision, acoustics, and natural language for disambiguation | |
| Rahman et al. | An automated navigation system for blind people | |
| Atienza et al. | Intuitive human-robot interaction through active 3d gaze tracking | |
| Zhang et al. | An egocentric vision based assistive co-robot | |
| CN117726648A (en) | Method, system and robot for determining target objects to be tracked | |
| CN113850145B (en) | Hand-eye orientation cooperative target positioning method | |
| Jin et al. | Human-robot interaction for assisted object grasping by a wearable robotic object manipulation aid for the blind | |
| JP7360158B2 (en) | Control system and control program | |
| CN119002689A (en) | Man-machine interaction method, device, equipment and medium based on non-medium holographic technology | |
| CN117077081A (en) | Human body pointing prediction method, device, robot and storage medium | |
| Kumar et al. | Sharing cognition: Human gesture and natural language grounding based planning and navigation for indoor robots |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Effective date: 20060816 Free format text: JAPANESE INTERMEDIATE CODE: A621 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080605 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080617 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20081021 |