JPH02176409A - Body recognizing apparatus - Google Patents
Body recognizing apparatusInfo
- Publication number
- JPH02176409A JPH02176409A JP63330285A JP33028588A JPH02176409A JP H02176409 A JPH02176409 A JP H02176409A JP 63330285 A JP63330285 A JP 63330285A JP 33028588 A JP33028588 A JP 33028588A JP H02176409 A JPH02176409 A JP H02176409A
- Authority
- JP
- Japan
- Prior art keywords
- image
- slit
- camera
- coordinates
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Control Of Position Or Direction (AREA)
Abstract
Description
【発明の詳細な説明】
〔概 要〕
産業用あるいは知能ロボット用の3次元視覚認識部とし
て使用する物体認識装置に関し、マルチスリット光又は
マルチスポット光を使用した+A造照明法で必須であっ
た対応点問題に煩わされること無く、又認識対象物質の
表面の材質の制限をあまり受けること無く簡単に物体を
認識できると共に、認識した物体の3次元位置を正確に
求めるようにすることを目的とし、
複数の物体の中から識別した物体により画像面上で基準
面のスリット像又はスポット像の画像が途切れた2台の
カメラによる端点の座標から、識別した物体の基準面に
対する傾きと両カメラ間の距離により最終的に該物体の
中心座標を求めるように構成する。[Detailed Description of the Invention] [Summary] Regarding an object recognition device used as a three-dimensional visual recognition unit for industrial use or intelligent robots, this is essential for the +A architectural lighting method using multi-slit light or multi-spot light. The objective is to be able to easily recognize objects without being bothered by the problem of corresponding points or to be subject to many restrictions on the surface material of the object to be recognized, and to accurately determine the three-dimensional position of the recognized object. , From the coordinates of the end points of the two cameras where the slit image or spot image of the reference plane on the image plane is interrupted by the object identified from among the multiple objects, the inclination of the identified object with respect to the reference plane and the distance between the two cameras are calculated. The configuration is such that the center coordinates of the object are finally determined based on the distance.
本発明は産業用あるいは知能ロボット用の3次元視覚認
識部として使用する物体認識装置に関するものである。The present invention relates to an object recognition device used as a three-dimensional visual recognition unit for industrial use or intelligent robots.
産業用ロボット等により組立作業等の作業を行わせる場
合、組立部品の3次元形状を正確に認識し、その認識結
果に基づいてハンドにより物体の所定箇所を把持し、組
立作業を行わせる必要がある。このため簡単な方法で物
体の3次元形状を認識でと、ロボットの3次元視覚認識
として使用することのできる物体認識装置が要望されて
いる。When an industrial robot or the like performs assembly work, it is necessary to accurately recognize the three-dimensional shape of the assembled parts, and then use a hand to grasp a predetermined part of the object based on the recognition results, and then perform the assembly work. be. Therefore, there is a need for an object recognition device that can recognize the three-dimensional shape of an object using a simple method and can be used for three-dimensional visual recognition by a robot.
物体の3次元形状(奥行量)を測定する良く知られた方
法に両眼ステレオ法と構造照明法とがある。これらに属
する多くの方法は三角測量を用いるもので、前者におい
ては対象物の1点と両眼(カメラ)の2点とで作られる
三角形に対し幾何学を通用する。ここで、両眼の一方を
光源で置換したものが後者の構造照明法である。この構
造照明法は、対象物に積極的に光を照射するため能動的
距#測定法とも言われる。それに対し、両眼ステレオ法
は受動的測定法である。照射する光のパターンにはスポ
ット光、スリット光の他、グリンドや規則的パターン等
が使用されてきた。又光源を複数持った照度差ステレオ
法も提案されている。Well-known methods for measuring the three-dimensional shape (depth) of an object include the binocular stereo method and the structured illumination method. Many of these methods use triangulation, and the former applies geometry to a triangle formed by one point on the object and two points on both eyes (cameras). Here, the latter structured illumination method replaces one of the eyes with a light source. This structured illumination method is also called an active distance measurement method because it actively irradiates light onto the object. In contrast, the binocular stereo method is a passive measurement method. In addition to spot light and slit light, grind and regular patterns have been used as patterns of irradiated light. A photometric stereo method using multiple light sources has also been proposed.
しかし正確に言うと、これらの方法のうちスポット光、
スリット光を用いた方法以外は三角&lI法に基づいて
いないものが多い。However, to be precise, among these methods, spot light,
Many methods other than those using slit light are not based on the triangular &lI method.
三角測量の原理に基づく方法は、幾何学的計算が単純な
のと機構も比較的実現し易いため、古くから使用され、
ある程度実現されている。歴史的には生物が利用してい
ることもあり、両眼ステレオ法が最も古い、適用可能な
環境の制約から見ても装置の作り易さから見ても両眼ス
テレオ法が優れているにもかかわらず、スポット法やス
リット法が現れてきた背景には以下のような事情がある
。Methods based on the principle of triangulation have been used for a long time because the geometric calculations are simple and the mechanism is relatively easy to implement.
This has been achieved to some extent. Historically, the binocular stereo method is the oldest because it has been used by living things, and it is superior both from the constraints of the applicable environment and from the ease of manufacturing the device. Nevertheless, there are the following circumstances behind the appearance of the spot method and the slit method.
第1には、スポット法やスリット法等の構造照明法はロ
ボティクスにおける視覚として適していることである。First, structured illumination methods such as the spot method and the slit method are suitable for visual purposes in robotics.
ここでは作業範囲が狭いため、SN比の高い照射光(投
射光)が得られる。第2は原理的なものである。 ap
ち、三角測量の幾何学計算を行う3点としては、当然の
ことながら対象物の同じ点に属する点を選択しなければ
ならない。Here, since the working range is narrow, irradiation light (projection light) with a high signal-to-noise ratio can be obtained. The second is a fundamental one. ap
As a matter of course, points belonging to the same point on the object must be selected as the three points for performing the geometric calculation of triangulation.
ところが、右眼の画像中の一点と対応する左眼の画像中
の点を見つけるのが一般的な状況下では困難である。こ
の問題は通常対応点問題と呼ばれている。これに対し、
1つのスポットあるいは1本のスリットを照射する方法
では、光源に関する幾何学的条件は分っているので対応
点問題は起きることはない。However, under common circumstances, it is difficult to find a point in the left eye image that corresponds to a point in the right eye image. This problem is usually called the corresponding point problem. In contrast,
In the method of irradiating one spot or one slit, the geometric conditions regarding the light source are known, so the corresponding point problem does not occur.
上述したような1つのスポットあるいは1本のスリット
を照射するような構造照明法の1つの問題点は、iim
データの人力に時間がかかることである。?J!野内の
任意の物体について3次元情報を得るには、スポット光
、スリット光を全視野スキャンする必要がある0画像1
フレームに1スボント、lスリットしか映さないとする
と、全視野を逼影するのに多数フレームを要し、1/3
0秒のフレーム数倍の時間が入力だけでかかってしまう
ことになる。One problem with the structured illumination method that illuminates one spot or one slit as described above is that
Data processing requires time. ? J! To obtain 3D information about any object in the field, it is necessary to scan the entire field of view using spot light and slit light.0 Image 1
If only 1 slit and 1 slit are projected in the frame, it will take many frames to cover the entire field of view, and 1/3
It will take time just to input the number of frames of 0 seconds.
そこで必然的に、−度に多数のスポット光やスリット光
を照射して高速化を図るという発想が出で(る、しかし
単純にこれを行うと、再び対応点問題が持上がってくる
。画像上の基点あるいは基線がどの方向に照射されたビ
ームによるものなのかという問題である。ただ対象物が
滑らかで乱反射表面であれば、スポット光、スリット光
を照射された物体画像上でスポット光、スリット光を順
番に数えることができるので、この場合の対応付けはう
ま(行り、シかし産業分野への応用において、鏡面反射
物や透明なガラスのような物体の如く、この条件を満た
さない物体が多い。This naturally led to the idea of increasing the speed by emitting a large number of spot lights or slit lights at a time (but if you simply do this, the problem of corresponding points comes up again.Image The problem is in which direction the base point or base line above is caused by the beam irradiated. However, if the object is a smooth and diffusely reflecting surface, the spot light, slit light, etc. Since the slit lights can be counted sequentially, the correspondence in this case is good. There are many objects that are missing.
このようにマルチスポット法、マルチスリット法には上
述した対応点の問題と物体表面の材質の制限の問題があ
った。As described above, the multi-spot method and multi-slit method have the above-mentioned problem of corresponding points and the problem of limitations on the material of the object surface.
そこで本発明者はこのような問題点を解決するため、カ
メラから見た物体の2次元形状が不変である物体のマル
チスポット光あるいはマルチスリット光を使用した物体
認識方法を特願昭63−13133号において開示した
。Therefore, in order to solve these problems, the present inventor filed a patent application No. 63-13133 for an object recognition method using multi-spot light or multi-slit light for objects whose two-dimensional shape as seen from a camera remains unchanged. Disclosed in issue.
即ち、この方法では、認識対象物体の背後に例えば垂直
な平面壁等の乱反射面を設置し、この乱反射面にマルチ
スリット光又はマルチスポット光を照射すると、適当な
位置にセットされたカメラの視野には、物体が無い場合
、−様な直線群又はスポント群が映る。この状況で物体
を視野中に置くと、スリット像又はスポット像が物体に
より遮蔽され、このときに生ずるスリット像又はスポッ
ト像の途切れた位置を元に物体を認識するものである。That is, in this method, a diffusely reflecting surface such as a vertical plane wall is installed behind the object to be recognized, and when this diffusely reflecting surface is irradiated with multi-slit light or multi-spot light, the field of view of the camera set at an appropriate position is When there is no object, --like straight line groups or spont groups are reflected. When an object is placed in the field of view in this situation, the slit image or spot image is blocked by the object, and the object is recognized based on the position where the slit image or spot image is interrupted.
しかしながら、カメラから見た物体の2次元形状が一定
であるという条件が必要であったため、−船釣な構造を
持つ物体については、物体を常にカメラに対して同じ姿
勢で水平台上に配置しなければこの条件を満たすことは
できず、物体の配置が非常に困難であった。However, since it was necessary that the two-dimensional shape of the object as seen from the camera be constant, - for objects with a boat-like structure, the object must always be placed on a horizontal platform in the same attitude relative to the camera. Without it, this condition could not be met, making it extremely difficult to arrange objects.
従って、本発明はマルチスリット光又はマルチスボ7)
光を使用した構造閘門法で必須であった対応点問題に煩
わされること無く、又認識対象物質の表面の材質の制限
をあまり受けること無く簡単に物体を認識できると共に
、認識した物体の3次元位置を正確に求めることのでき
る物体認識装置を提供することを目的としている。Therefore, the present invention provides a multi-slit light or a multi-slit light 7)
Objects can be easily recognized without being bothered by the corresponding point problem that was essential in the structural lock method using light, and without being too limited by the material of the surface of the object to be recognized. The object is to provide an object recognition device that can accurately determine the position.
本発明では、認識対象物体が軸対称である場合には、よ
り多くの自由度が許されることに着目したものである。The present invention focuses on the fact that more degrees of freedom are allowed when the object to be recognized is axially symmetrical.
軸対称物体を常に直立して水平台の上に置きさえすれば
、それをどこにどの向きに置いても2次元投影形状は同
一であり、水平切断面形状は円形状である。更に、基準
水平面により切断された物体の半径は予め測定してお(
ことにより既知であるから、物体の3次元位置を正確に
求めることができる。As long as an axially symmetrical object is always placed upright on a horizontal table, its two-dimensional projected shape will be the same no matter where and in which direction it is placed, and its horizontal cross-sectional shape will be circular. Furthermore, the radius of the object cut by the reference horizontal plane is measured in advance (
Since this is known, the three-dimensional position of the object can be determined accurately.
このような観点から、本発明では第1図に示すように、
水平な台10上に直立して載置した認識対象物体12a
〜12dと、該物体12a 〜12dの背後に直立して
設けた乱反射面14と、該乱反射面14にスリット像1
8又はスポット像を形成するためのマルチスリット光1
8又はマルチスポット光の照射手段と、該乱反射面14
との交線が該乱反射面上に形成されたスリット像18又
はスポット像の1つと重なるようにレンズ中心26Cを
通る水平面を基準面30として有し且つ該物体12a〜
12dの前方に設置された2台のカメラ20,21と、
該物体12a〜12dの形状情報を記憶しており、少な
くとも一方の該カメラにより得た画像面上で該基準面3
0のスリット像又はスポット像の画像18aが物体12
a〜12dにより遮られた輻dと該基準面と乱反射面
14との交線からの物体の画像の高さhを求め、該高さ
hと輻dとの比を該形状情報と比較することにより、均
数の物体12a〜12dの1つ1つを識別し、更に該識
別した物体により画像面上で基準面30のスリット像又
はスポ7)像の画像18 aが途切れた2台のカメラに
よる端点の座標(ycyl)、 Dtt、 3’lオ
)から、該識別した物体のカメラの光軸に対する傾きに
、、にオを求め、該傾きに、にオと両カメラ間の距離り
によりR柊的に該物体の中心座標(xo、yo)を求め
る演算手段と、を備えている。From this point of view, in the present invention, as shown in FIG.
Recognition target object 12a placed upright on a horizontal table 10
12d, a diffused reflection surface 14 provided upright behind the objects 12a to 12d, and a slit image 1 on the diffused reflection surface 14.
8 or multi-slit light 1 for forming a spot image
8 or multi-spot light irradiation means and the diffused reflection surface 14
The reference plane 30 is a horizontal plane passing through the lens center 26C so that the intersection line with the object 12a overlaps with one of the slit images 18 or spot images formed on the diffuse reflection surface, and
Two cameras 20 and 21 installed in front of 12d,
The shape information of the objects 12a to 12d is stored, and the reference plane 3 is displayed on the image plane obtained by at least one of the cameras.
The image 18a of the slit image or spot image of 0 is the object 12.
The height h of the image of the object from the intersection line of the radiation d blocked by a to 12d and the reference surface and the diffuse reflection surface 14 is determined, and the ratio of the height h and the radiation d is compared with the shape information. By doing so, each of the objects 12a to 12d in uniform number is identified, and furthermore, the identified object causes the slit image of the reference plane 30 or the image 18a of the spot 7) image to be interrupted on the image plane. From the coordinates of the end point (ycyl), Dtt, 3'l) by the camera, calculate the inclination of the identified object with respect to the optical axis of the camera, and calculate the distance between the two cameras and the inclination. and calculation means for calculating the central coordinates (xo, yo) of the object in a R-like manner.
本発明によれば、カメラ20.21により乱反射面14
上のスリット像18又はスポット像と共に物体12 a
〜12dを撮影する。そして、カメラ20.21の画像
面上で基準面30のスリット像又はスポット像の画像1
8aが物体12a −12dにより遮られた幅dと前記
基準面の画像18aからの物体の画像の高さhを求め、
この高さhと幅dとの比から複数の物体12a〜12d
の1つ1つを識別する。According to the invention, the camera 20.21 allows the diffuse reflection surface 14 to be
The object 12a together with the upper slit image 18 or spot image
~Photograph 12d. Then, an image 1 of the slit image or spot image of the reference plane 30 is displayed on the image plane of the camera 20.21.
Find the width d where 8a is blocked by objects 12a-12d and the height h of the image of the object from the image 18a of the reference plane,
From this ratio of height h and width d, a plurality of objects 12a to 12d
Identify each one.
次いで、このように識別した物体により画像面上で基準
面30のスリット像又はスポット像の画像18aが途切
れた2台のカメラによる端点の座標(yLl、y□L
()’t*、 yez)から、該識別した物体の中心
座標(xo、yo)を演算により求める。Next, the coordinates (yLl, y
The center coordinates (xo, yo) of the identified object are calculated from ()'t*, yez).
この場合、本発明では、両カメラから該識別した物体の
中心座標(xo、yo)までの中心線の該基準面に対す
る傾きに+、kxを求め、これらの傾きに+、kg と
両カメラ間の距@Dにより最終的に該物体の中心座[1
(X(+、 yo )を求めている。In this case, in the present invention, the inclination of the center line from both cameras to the center coordinates (xo, yo) of the identified object with respect to the reference plane is calculated as +, kx, and these inclinations are +, kg and the distance between both cameras. Finally, the center position of the object [1
(We are looking for X(+, yo).
このように、2台のカメラと、これらのカメラで得られ
る中心線の傾きで各のカメラによる端点間路j!1yL
+−y□又は)’tg Ymxが演算手段での演算か
ら取り除かれることとなり、)’tt Y□又はyL
l−y□が小さい時の測定誤差を除去することができる
。In this way, with two cameras and the slope of the center line obtained by these cameras, the path between the end points j! 1yL
+-y□ or)'tg Ymx is removed from the calculation in the calculation means, and )'tt Y□ or yL
Measurement errors when ly□ is small can be removed.
以下、本発明を図面に示す実施例に基づいて詳細に説明
する。Hereinafter, the present invention will be described in detail based on embodiments shown in the drawings.
第1図は本発明に係る物体認識装置の実施例構成図であ
り、この実施例では演算手段は、画像プロセッサー22
と、計算1924と、モニタ25とで構成され、カメラ
20(カメラ21は図示していない)により撮影した画
像は画像プロセッサ22により画像処理され、モニター
25上に表示される1画像プロセッサ22は計算機24
に接続されており、計算機24により制御される。FIG. 1 is a block diagram of an embodiment of an object recognition device according to the present invention. In this embodiment, the calculation means is an image processor 22.
, a calculation 1924 , and a monitor 25 . An image taken by a camera 20 (camera 21 is not shown) is image-processed by an image processor 22 , and one image processor 22 displayed on the monitor 25 is a computer. 24
and is controlled by a computer 24.
第2図は第1図の一部を省略した側面図であり、水平台
10上には軸対称の複数の物体12a、12b、12c
、12dが任意の位置に直立して載置されている。また
、全ての物体12a〜12dはカメラ20から見て重な
らないように載置されているものとする。14は壁面等
の垂直乱反射面であり、この乱反射面!4上に、水平面
に対して下側に15〜20°傾いて設けられたスリット
光発生装置16によりマルチスリット光を照射し、スリ
・ント像18を形成する。FIG. 2 is a side view with a part of FIG. 1 omitted, in which a plurality of axially symmetric objects 12a, 12b, 12c
, 12d are placed upright at arbitrary positions. Further, it is assumed that all the objects 12a to 12d are placed so that they do not overlap when viewed from the camera 20. 14 is a vertical diffused reflection surface such as a wall surface, and this diffused reflection surface! A slit image 18 is formed on the slit image 18 by irradiating multi-slit light from a slit light generating device 16 provided at an angle of 15 to 20 degrees downward with respect to the horizontal plane.
カメラ20のレンズ26のレンズ中心26cを通る水平
面を考え、これを基準面30とし、この基準面30と乱
反射面14との交線が乱反射面上に形成されたスリット
像18の任意の1本と重なるようにカメラ20の位置を
認識すべき物体12a〜12dの前方に設定する。この
とと、水平台IOから基準面30までの高さを■とする
。28はレンズ26と平行に置かれた撮像面であり、通
常、レンズ26の光軸が基準面30に一致するようにカ
メラ20が水平に設置されるが、カメラ20を基準面3
0に対して上方向あるいは下方向に僅かばかり傾けて設
置するようにしてもよい。但しこの場合でも、l&準圃
面30レンズ26のレンズ中心26cを通るようにカメ
ラ20を設置する必要があり、また、撮像面28は基準
面30に対して垂直でないことは勿論である。Considering a horizontal plane passing through the lens center 26c of the lens 26 of the camera 20, this is taken as a reference plane 30, and the intersection line between this reference plane 30 and the diffused reflection surface 14 is an arbitrary one of the slit images 18 formed on the diffused reflection surface. The position of the camera 20 is set in front of the objects 12a to 12d to be recognized so as to overlap with the objects 12a to 12d. In addition, the height from the horizontal base IO to the reference plane 30 is assumed to be ■. 28 is an imaging plane placed parallel to the lens 26. Normally, the camera 20 is installed horizontally so that the optical axis of the lens 26 coincides with the reference plane 30;
It may be installed with a slight inclination upward or downward with respect to zero. However, even in this case, it is necessary to install the camera 20 so as to pass through the lens center 26c of the l&quasi-field surface 30 lens 26, and it goes without saying that the imaging plane 28 is not perpendicular to the reference plane 30.
カメラ20により撮影してモニター25上に表示される
画像表示例が第3図に示されている。尚、カメラ21に
ついては図示していないが、以下に特に説明が無い限り
カメラ20と全く同様に考えることができるので、説明
は省略する。An example of displaying an image taken by the camera 20 and displayed on the monitor 25 is shown in FIG. Although the camera 21 is not shown, unless otherwise specified below, it can be considered in exactly the same way as the camera 20, so its explanation will be omitted.
一方、物体12a〜12dの形状を予め測定しておと、
この形状情報を計算機24のメモリ(図示せず)に記憶
させておく、物体12a〜12dを水平台10上のどこ
に置いても基準面30は物体を同し場所で切断する。従
って、基準面30上のスリット像18が物体により遮ら
れた部分は、物体の底から高さHでの水平断面に対応し
ている。On the other hand, after measuring the shapes of the objects 12a to 12d in advance,
This shape information is stored in the memory (not shown) of the computer 24.No matter where the objects 12a to 12d are placed on the horizontal table 10, the reference plane 30 cuts the objects at the same location. Therefore, the portion where the slit image 18 on the reference plane 30 is blocked by the object corresponds to a horizontal section at the height H from the bottom of the object.
この部分の幅を第3図に示すように画像面上で測ってd
とする。物体の上端から上はスリット像は途切れなくな
るので、上の方から途切れた部分を探すことにより、物
体像の基準面30からの高さhを知ることができる。こ
こで、底面からの高さでなく基準面30からの高さを利
用しているのは、物体の下の方では物体12a〜12d
と水平台10との区別がつきにくく、スリット像がよく
観測されないからである。Measure the width of this part on the image plane as shown in Figure 3.
shall be. Since the slit image is not interrupted from the upper end of the object, the height h of the object image from the reference plane 30 can be found by searching for the interrupted portion from the top. Here, the reason why the height from the reference plane 30 is used instead of the height from the bottom is that in the lower part of the object, objects 12a to 12d
This is because it is difficult to distinguish between the horizontal table 10 and the horizontal table 10, and the slit image cannot be observed well.
上述した高さhと基準面による物体の切断面の輻dとの
比は、物体上で測っても画像面上で測っても同じであり
、各物体12a〜12dについて固有の値である。従っ
て、高さhと幅dとの比h/dを計算機24のメモリ上
に記憶している物体12a〜12dの形状情報と比較す
ることにより、軸対称の複数の物体12a〜12dの1
”:)1つを識別することができる。The ratio of the above-mentioned height h to the radius d of the cut plane of the object by the reference plane is the same whether it is measured on the object or on the image plane, and is a unique value for each of the objects 12a to 12d. Therefore, by comparing the ratio h/d of the height h to the width d with the shape information of the objects 12a to 12d stored in the memory of the computer 24, one of the plurality of axially symmetrical objects 12a to 12d is
”:) One can be identified.
この比h/dが複数の物体について偶然向しであるとき
には、基準面の高さHを変えることにより比h/dJI
:変えることができる。If this ratio h/d happens to be in the same direction for multiple objects, by changing the height H of the reference plane, the ratio h/dJI
: Can be changed.
第4図は第2図の基1!面で切断した模式的平面図であ
り、この平面図を参照してカメラ20の連像面28に映
った物体12aとスリット像を元に、物体12aの中心
位置座標を算出する式を求めることにする0位l計測に
は基準スリット像18aが物体12aにより途切れた端
点の座標(yt。Figure 4 is based on Figure 2! This is a schematic plan view cut along a plane, and with reference to this plan view, a formula for calculating the center position coordinates of the object 12a is obtained based on the object 12a reflected on the continuous image plane 28 of the camera 20 and the slit image. For the 0-position l measurement, the coordinates (yt) of the end point where the reference slit image 18a is interrupted by the object 12a.
y、)を使用する(第3図参照)、上述したように、物
体12aが複数の物体中から既に識別されたものとし、
物体12aは軸対称であるため基準面30による物体1
2aの切口の円の半径「は予め計測しておくことにより
既知である。従って、物体12aの中心位置座標を算出
する問題は、端点の座標(yL、ya)を任意に与えて
第4図のように2直線に接する半径rの円の中心座標(
−Xs、 )’e)を計算することと等価となる。y, ) (see FIG. 3), it is assumed that the object 12a has already been identified from among a plurality of objects as described above,
Since the object 12a is axially symmetrical, the object 1 based on the reference plane 30
The radius of the circle of the cut 2a is known by measuring it in advance. Therefore, the problem of calculating the coordinates of the center position of the object 12a can be solved by arbitrarily giving the coordinates (yL, ya) of the end points and solving the problem as shown in FIG. The center coordinates of a circle with radius r that is tangent to two straight lines as in (
This is equivalent to calculating -Xs, )'e).
その計算結果を示すと、次式(1)、(2)のようにな
る。The calculation results are as shown in the following equations (1) and (2).
(υ
・・−・・−−−−−・−(2)
このように、識別した物体により画像面28において基
準スリット像18aが途切れた端点の座+M (yt
、 ya )から、識別した物体の中心座標を容易に
求めることができる。(υ ・・−・・−−−−−・−(2) In this way, the position +M (yt
, ya), the center coordinates of the identified object can be easily determined.
次に物体の位置計測の誤差について解析してみる。誤差
の原因としては座標形設定の不完全性。Next, let's analyze the error in measuring the position of the object. The cause of the error is incomplete coordinate configuration.
レンズの歪み、デジタル化ノイズ、像のボケ等が考えら
れるが、ここではデジタル化ノイズに検討を加えてみる
。像のボケについては2値化処理を行うため、デジタル
化ノイズに繰込んで考えることができる。Possible causes include lens distortion, digitization noise, and image blurring, but here we will consider digitization noise. Since image blur is subjected to binarization processing, it can be considered by incorporating it into digitization noise.
(1)式を微分すると、 ΔX。Differentiating equation (1), we get ΔX.
Δ(ya −yL)
O
νm −LL
から、
同様に(2)式から、
−・・・・−・・・・−・−・・・・・・ (5)実
際のカメラデータで評価すると、(4)、 +5)式の
第1項のみが支配的である。従って物体の中心位置はス
リットの端点の測定誤差と同程度で求められることにな
る。From Δ(ya −yL) O νm −LL, similarly from equation (2), −・・−・・−・−・・・・・・ (5) When evaluated using actual camera data, Only the first term of equations (4) and +5) is dominant. Therefore, the center position of the object can be determined with the same degree of error as the measurement error of the end points of the slit.
以上述べた物体の中心座標の求め方については本発明者
が特願昭63−13134号で既に開示した内容である
。The method for determining the center coordinates of an object as described above has already been disclosed by the present inventor in Japanese Patent Application No. 13134/1983.
しかしながら、上記(1)、(2)式のようにしで求め
ら・れた物体の中心座標(io ’、 yo )はy
m−’Ytが小さい場合、即ち認識物体が小さい時や遠
い位置に在る場合には、測定誤差が生じてしまう。However, the center coordinates (io', yo) of the object obtained using equations (1) and (2) above are y
When m-'Yt is small, that is, when the recognized object is small or located far away, a measurement error will occur.
そこで、本発明では、xoとyoとの比を求めれば、
即ち、第5図に示すように、認識された物体12aの中
心点をAとし、この中心点Aから2つのカメラ20.2
1の光軸に垂線を下ろし、その足をH+、Htとし、2
つのレンズの中心点をO+、Osとする。Therefore, in the present invention, if the ratio between xo and yo is calculated, then as shown in FIG.
Drop a perpendicular line to the optical axis of 1, let its legs be H+, Ht, and 2
Let the center points of the two lenses be O+ and Os.
(6)式を2つのカメラ20.21に各々適用して得ら
れる比をに+、に* とすると、これらの比は、+(y
L、+y□) −・・・・・・・・−・−・−
・−(7)÷(31L + y真) −・・
・・・・−・・・−・−・・(6)となり、上記(1)
、(2)式中のYm−VLの項は除去されるので、測定
誤差が生ずるという特異性は無くなる。If the ratios obtained by applying equation (6) to the two cameras 20 and 21 are respectively + and *, then these ratios are +(y
L, +y□) −・・・・・・・・−・−・−
・−(7)÷(31L + y true) −・・
・・・・・・−・−・−・・(6), and the above (1)
, (2), the term Ym-VL is removed, so the specificity of measurement errors is eliminated.
但し、(6)式だけではレンズ中心からの物体の方向、
即ち基準面30に対するレンズ中心から物体の中心まで
の中心線の傾きだけしか分からない。However, with only equation (6), the direction of the object from the center of the lens,
That is, only the inclination of the center line from the center of the lens to the center of the object with respect to the reference plane 30 is known.
そこで、カメラ20に加えてカメラ21を設け、3角測
量によってX e ’、 、:”’7 oを演算する。Therefore, a camera 21 is provided in addition to the camera 20, and X e ', , :'7 o is calculated by triangulation.
+(yLm+y0) −・−・・・−・−・・
(8)となる、但し、FL++ 7□はカメラ20の
撮像画面28の座標であり、yti+ 3’+1”は
カメラ21の撮像画面28の座標である。+(yLm+y0) −・−・・−・−・・
(8), where FL++ 7□ is the coordinate of the imaging screen 28 of the camera 20, and yti+3'+1'' is the coordinate of the imaging screen 28 of the camera 21.
そして、一方のカメラ、例えばカメラ20から見た物体
12aの中心点Aの座標を(−×。。Then, the coordinates of the center point A of the object 12a as seen from one camera, for example the camera 20, are (-x.
yの)とし、2つのカメラ20.21が平行であるとし
てその間隔をDとすると、HIO1=Xo +H1O@
−)10、AHg −yo D、AHt −yoで
あるから、kl −Fil / Xo、、 k□−(
y。y), and assuming that the two cameras 20 and 21 are parallel and the distance between them is D, HIO1=Xo +H1O@
-) 10, AHg -yo D, AHt -yo, so kl -Fil / Xo,, k□-(
y.
D)/xoとなり、これを解くと、
となり、上記の(7)、(8)式を代入すれば、中心点
Aの座標(−Xo 、−yo )が求められる。D)/xo, and solving this gives the following equation. By substituting the above equations (7) and (8), the coordinates (-Xo, -yo) of the center point A can be found.
以上のように、本発明では、複数の物体の中から識別し
た物体により画像面上で基準面のスリット像又はスポッ
ト像の画像が途切れた2台のカメラによる端点の座標か
ら、識別した物体の基準面に対する傾きと両カメラ間の
距離により最終的に該物体の中心座標を本誌るよ′うに
構成したので、各カメラの端点間の長さが短いことによ
る特異性に起因する測定誤差を排除することができる。As described above, in the present invention, the slit image or spot image of the reference plane on the image plane is interrupted by the object identified from among a plurality of objects, and the identified object is determined from the coordinates of the end point obtained by the two cameras. Since the center coordinates of the object were finally constructed as shown in this paper based on the inclination with respect to the reference plane and the distance between both cameras, measurement errors caused by the short length between the end points of each camera were eliminated. can do.
4、図面の簡単な説明 □、。4. Brief explanation of the drawings □.
第1図は零発、明に・係る物体認識装置の一実施例構成
図、
第2図は第1図の一部省略側面図、
第3図はモニタ上の1像面を表わす模式図、撫4図は第
2“図の基準面で切断した模式的平面図、
第5図は本発明による両眼立体視の説明図、である。Fig. 1 is a configuration diagram of an embodiment of an object recognition device according to the invention, Fig. 2 is a partially omitted side view of Fig. 1, Fig. 3 is a schematic diagram showing one image plane on a monitor, Figure 4 is a schematic plan view taken along the reference plane of Figure 2, and Figure 5 is an explanatory diagram of binocular stereoscopic vision according to the present invention.
10・−・水平台、
12a 〜12d−物体、
14− 垂直乱反射面、
16 ・−マルチスリット光発生装置、18・・−スリ
ット像、
20 ・−カメラ、
22 ・・−画像プロセッサ、
24− 計算機、
25 ・−モニタ、
28 ・−撮像面、
30 ・・−・基準面。10--Horizontal platform, 12a to 12d-object, 14-vertical diffuse reflection surface, 16--multislit light generator, 18--slit image, 20--camera, 22--image processor, 24--computer , 25 .--Monitor, 28 .--Imaging surface, 30 .--Reference surface.
図中、同一符号は同−又は相当部分を示す。In the figures, the same reference numerals indicate the same or corresponding parts.
Claims (1)
12a〜12d)と、 該物体(12a〜12d)の背後に直立して設けた乱反
射面(14)と、 該乱反射面(14)にスリット像(18)又はスポット
像を形成するためのマルチスリット光(18)又はマル
チスポット光の照射手段(16)と、 該乱反射面(14)との交線が該乱反射面上に形成され
たスリット像(18)又はスポット像の1つと重なるよ
うにレンズ中心(26c)を通る水平面を基準面(30
)として有し且つ該物体(12a〜12d)の前方に設
置された2台のカメラ(20、21)と、該物体(12
a〜12d)の形状情報を記憶しており、少なくとも一
方の該カメラにより得た画像面上で前記基準面(30)
のスリット像又はスポット像の画像(18a)が物体(
12a〜12d)により遮られた幅(d)と前記基準面
と乱反射面(14)との交線からの物体の画像の高さ(
h)を求め、該高さ(h)と幅(d)との比を該形状情
報と比較することにより、複数の物体(12a〜12d
)の1つ1つを識別し、更に該識別した物体により画像
面上で基準面(30)のスリット像又はスポット像の画
像(18a)が途切れた2台のカメラによる端点の座標
(y_L_1、y_R_1)、(y_L_2、y_R_
2)から、該識別した物体のカメラの光軸に対する傾き
(k_1、k_2)を求め、該傾き(k_1、k_2)
と両カメラ間の距離(D)により最終的に該物体の中心
座標(x_o、y_o)を求める演算手段と、 を備えたことを特徴とする物体認識装置。[Claims] An object to be recognized (
12a to 12d), a diffused reflection surface (14) provided upright behind the object (12a to 12d), and a multi-slit for forming a slit image (18) or a spot image on the diffused reflection surface (14). The lens is arranged so that the line of intersection between the light (18) or multi-spot light irradiation means (16) and the diffused reflection surface (14) overlaps with one of the slit images (18) or spot images formed on the diffused reflection surface. The horizontal plane passing through the center (26c) is the reference plane (30
) and installed in front of the object (12a to 12d);
a to 12d) is stored, and the reference plane (30) is stored on the image plane obtained by at least one of the cameras.
The image (18a) of the slit image or spot image of the object (
12a to 12d) and the height of the image of the object (
h), and by comparing the ratio of the height (h) and width (d) with the shape information, a plurality of objects (12a to 12d
), and further determine the coordinates (y_L_1, y_R_1), (y_L_2, y_R_
2), find the tilt (k_1, k_2) of the identified object with respect to the optical axis of the camera, and calculate the tilt (k_1, k_2).
and a calculation means for finally determining the center coordinates (x_o, y_o) of the object based on the distance (D) between both cameras.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP63330285A JPH02176409A (en) | 1988-12-27 | 1988-12-27 | Body recognizing apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP63330285A JPH02176409A (en) | 1988-12-27 | 1988-12-27 | Body recognizing apparatus |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH02176409A true JPH02176409A (en) | 1990-07-09 |
Family
ID=18230941
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP63330285A Pending JPH02176409A (en) | 1988-12-27 | 1988-12-27 | Body recognizing apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH02176409A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP1022541A3 (en) * | 1999-01-22 | 2001-10-10 | Wohlenberg Schneidesysteme GmbH | Procedure and device to determine the geometrical form of sheetlike articles or piles thereof |
-
1988
- 1988-12-27 JP JP63330285A patent/JPH02176409A/en active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP1022541A3 (en) * | 1999-01-22 | 2001-10-10 | Wohlenberg Schneidesysteme GmbH | Procedure and device to determine the geometrical form of sheetlike articles or piles thereof |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US4647208A (en) | Method for spatial measurement of holes | |
| EP3115742B1 (en) | 3d measuring machine | |
| Feng et al. | Analysis of digitizing errors of a laser scanning system | |
| US20170160077A1 (en) | Method of inspecting an object with a vision probe | |
| JP2001521140A (en) | 3D inspection system | |
| US20130120712A1 (en) | Method and device for determining the eye position | |
| WO2000033026A1 (en) | Apparatus and method to measure three-dimensional data | |
| JPH07509782A (en) | Validation method for optical distance measurement of target surfaces in turbulent environments | |
| US5363185A (en) | Method and apparatus for identifying three-dimensional coordinates and orientation to a robot | |
| JP2021193400A (en) | Method for measuring artefact | |
| US4760269A (en) | Method and apparatus for measuring distance to an object | |
| JP3715377B2 (en) | Object shape measuring device | |
| CN209147948U (en) | Profile measurement device based on line light source | |
| JP2005098978A (en) | 3D measuring apparatus, 3D measuring method, 3D measuring program and recording medium | |
| JPH02176409A (en) | Body recognizing apparatus | |
| Clark et al. | Measuring range using a triangulation sensor with variable geometry | |
| JP2680460B2 (en) | Angle measuring device for bending machine | |
| JPH06207812A (en) | Measurement point indicator for three-dimensional measurement | |
| JPH01187407A (en) | Body recognizing method | |
| JPH03268818A (en) | Angle measuring instrument for bender | |
| JPH0996506A (en) | Position adjustment method using three-dimensional visual sensor and three-dimensional image recognition device | |
| KR101833055B1 (en) | 3-dimensional measuring system | |
| JPH01188990A (en) | Method for recognizing object | |
| CN219245763U (en) | High-speed laser displacement sensor based on monochromatic laser line scanning and triangulation | |
| CN112902838A (en) | Zero sensor and detection system |