JP2841961B2 - Visual recognition device - Google Patents
Visual recognition deviceInfo
- Publication number
- JP2841961B2 JP2841961B2 JP3237108A JP23710891A JP2841961B2 JP 2841961 B2 JP2841961 B2 JP 2841961B2 JP 3237108 A JP3237108 A JP 3237108A JP 23710891 A JP23710891 A JP 23710891A JP 2841961 B2 JP2841961 B2 JP 2841961B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- imaging
- correction value
- television camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Input (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【0001】[0001]
【産業上の利用分野】この発明は、たとえば工場などの
製造または検査ラインに設置され、製品の外観や形状な
どを検査するのに用いられる視覚認識装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a visual recognition device which is installed in a manufacturing or inspection line, for example, in a factory, and is used for inspecting the appearance and shape of a product.
【0002】[0002]
【従来の技術】一般に視覚認識装置は、テレビカメラに
より対象物を撮像して得られた画像信号を画像処理装置
に取り込んで2値化などの前処理を行った後、その2値
画像につき面積,重心,主軸角などの特徴量を計測し、
その計測値とあらかじめ設定された基準値とを比較する
ことにより、対象物の外観や形状などを判別するもので
ある。前記画像処理装置では、2値画像の着目部分に対
し、計測領域を指定するためのウィンドウを設定し、そ
のウィンドウ内の画像部分につき、特徴量の計測を行う
のが通常である。2. Description of the Related Art In general, a visual recognition device takes an image signal obtained by capturing an image of an object by a television camera, performs preprocessing such as binarization on the image signal, and then converts the area of the binary image. , The center of gravity, the principal axis angle, etc.
By comparing the measured value with a preset reference value, the appearance and shape of the object are determined. In the image processing apparatus, a window for designating a measurement region is generally set for a target portion of a binary image, and a feature amount is measured for an image portion in the window.
【0003】[0003]
【発明が解決しようとする課題】しかしながら対象物は
ベルトコンベヤなどで観測位置に搬送されてくるため、
搬送途中で対象物の位置や姿勢が変化し、対象物がテレ
ビカメラの観測視野から外れたり、対象物の画像の着目
部分が前記ウィンドウからはみ出たりするなどの虞があ
る。そこでテレビカメラの観測視野を十分に広く設定す
るとともに、対象物の画像の移動量を求めてその移動量
だけウィンドウの設定位置を変更しているが、テレビカ
メラの観測視野が広く設定されるため、計測精度が低下
し、高精度の検査が不可能となる。However, since the object is transported to an observation position by a belt conveyor or the like,
During transport, the position or orientation of the target object changes, and the target object may be out of the observation field of view of the television camera, or the target portion of the image of the target object may protrude from the window. Therefore, the observation field of view of the TV camera is set sufficiently wide, and the moving position of the image of the target object is calculated, and the window setting position is changed by the amount of movement, but the observation field of view of the TV camera is set wide. In addition, the measurement accuracy decreases, and high-precision inspection becomes impossible.
【0004】この発明は、上記問題に着目してなされた
もので、たとえ対象物の位置や姿勢が変化しても、計測
精度を低下させることなく、高精度の検査を可能とした
視覚認識装置を提供することを目的とする。[0004] The present invention has been made in view of the above problem, and even if the position or orientation of an object changes, a visual recognition device capable of performing high-accuracy inspection without lowering measurement accuracy. The purpose is to provide.
【0005】[0005]
【課題を解決するための手段】上記目的を達成するた
め、この発明の視覚認識装置では、対象物の全体を観測
視野内に含めることが可能な第1の撮像手段と、対象物
の着目部分のみを観測視野内に含めることが可能な第1
の撮像手段より高解像度の第2の撮像手段と、第1の撮
像手段により得られた対象物の画像の位置ずれ量を算出
する位置ずれ算出手段と、第1の撮像手段により得られ
た画像から第2の撮像手段により得られた画像を処理す
るためのパラメータの補正値を算出する補正値算出手段
と、第1の撮像手段により得られる画像の座標と第2の
撮像手段により得られる画像の座標との寸法比率を用い
て前記位置ずれ算出手段で算出された位置ずれ量を第2
の撮像手段により得られた対象物の画像の位置ずれ量に
換算する位置ずれ換算手段と、第2の撮像手段により得
られた画像を前記補正値算出手段で算出された補正値に
より処理する画像処理手段と、第2の撮像手段により得
られた画像に対し、前記位置ずれ換算手段で換算された
位置ずれ量だけ計測領域の設定位置を変更して所定の計
測処理を行う計測処理手段とを具備させている。In order to achieve the above object, a visual recognition device according to the present invention comprises a first imaging means capable of including the entirety of an object within an observation field of view, and a portion of interest of the object. Only the first that can be included in the observation field of view
A second imaging unit having a higher resolution than the first imaging unit, a displacement calculating unit for calculating a displacement amount of the image of the object obtained by the first imaging unit, and an image obtained by the first imaging unit Correction value calculation means for calculating a correction value of a parameter for processing an image obtained by the second imaging means from the image processing apparatus, coordinates of an image obtained by the first imaging means, and an image obtained by the second imaging means The position shift amount calculated by the position shift calculating means using the dimensional ratio with the coordinates of
A displacement conversion means for converting the displacement of the image of the object obtained by the imaging means to an amount of displacement, and an image for processing the image obtained by the second imaging means by the correction value calculated by the correction value calculation means. Processing means, and measurement processing means for performing a predetermined measurement process by changing a set position of a measurement region by an amount of displacement converted by the displacement conversion means for an image obtained by the second imaging means. I have it.
【0006】[0006]
【作用】広い観測視野を有する第1の撮像手段からの画
像により対象物の位置ずれ量を計測し、その計測値から
高解像度を有する第2の撮像手段からの画像の位置ずれ
量を換算してウィンドウの設定位置を変更し、所定の計
測処理を行うので、たとえ対象物の位置や姿勢が変化し
ても、計測精度を低下させることなく、高精度の検査が
可能となる。しかも第1の撮像手段で得られた画像によ
り画像処理用のパラメータの補正値を算出してその補正
値により第2の撮像手段で得られた画像を処理するの
で、たとえ照明変動などがあっても、安定した計測が可
能であり、検査ミスの発生頻度が減少する。According to the present invention, the amount of displacement of an object is measured from an image from a first image pickup means having a wide observation field of view, and the amount of displacement of an image from a second image pickup means having a high resolution is converted from the measured value. Therefore, even if the position or orientation of the target object changes, high-precision inspection can be performed without lowering the measurement accuracy. In addition, since the correction value of the parameter for image processing is calculated based on the image obtained by the first imaging unit and the image obtained by the second imaging unit is processed by the correction value, even if there is a variation in illumination or the like, In addition, stable measurement is possible, and the frequency of inspection errors is reduced.
【0007】[0007]
【実施例】図1は、この発明の一実施例にかかる視覚認
識装置の外観を示すもので、2台のテレビカメラ1A,
1Bと画像処理装置2とモニタテレビ3とを備えてい
る。図示例の視覚認識装置は、対象物4の表面に印刷さ
れた文字Aにつき、印刷のかすれや欠けなどを検査する
ものであるが、この発明の視覚認識装置は、これに限ら
ず、対象物の種類や形状などの検査にも用いることがで
きる。FIG. 1 shows the appearance of a visual recognition device according to an embodiment of the present invention.
1B, an image processing device 2, and a monitor television 3. The visual recognition device of the illustrated example is for inspecting the faintness or lack of printing of the character A printed on the surface of the object 4, but the visual recognition device of the present invention is not limited to this. It can also be used for inspection of the type, shape, etc.
【0008】各対象物4はベルトコンベヤ5上に一定間
隔毎に並び、搬送路沿いの所定の検査位置へ順次搬送さ
れてくる。この検査位置の上方には図示しない照明装置
と各テレビカメラ1A,1Bとが下方に向けて配置さ
れ、各テレビカメラ1A,1Bは、検査時、対象物4を
同時に撮像して濃淡画像信号を生成する。The objects 4 are arranged at regular intervals on a belt conveyor 5 and are sequentially conveyed to a predetermined inspection position along a conveyance path. An illumination device (not shown) and each of the television cameras 1A and 1B are arranged downward above the inspection position, and each of the television cameras 1A and 1B simultaneously captures an image of the object 4 and outputs a grayscale image signal at the time of inspection. Generate.
【0009】第2のテレビカメラ1Bは第1のテレビカ
メラ1Aより高解像度のものであって、第1のテレビカ
メラ1Aは対象物4の全体が含まれるよう広い観測視野
に設定され、また第2のテレビカメラ1Bは対象物4の
着目部分、すなわちこの実施例では文字Aの部分のみが
含まれるよう拡大された狭い観測視野に設定される。な
お、検査位置の近傍には対象物4が検査位置に到達した
ことを検知する光電センサなどより成る物体検知センサ
が設けられている。The second television camera 1B has a higher resolution than the first television camera 1A, and the first television camera 1A is set to have a wide observation field so as to include the entire object 4; The second television camera 1B is set to have a narrow observation field of view enlarged to include only the portion of interest of the object 4, that is, the portion of the character A in this embodiment. In the vicinity of the inspection position, an object detection sensor such as a photoelectric sensor for detecting that the object 4 has reached the inspection position is provided.
【0010】第1,第2の各テレビカメラ1A,1Bお
よび物体検知センサは画像処理装置2に接続され、各テ
レビカメラ1A,1Bにより得られた濃淡画像信号が画
像処理装置2に取り込まれて所定の計測および認識処理
が行われる。The first and second television cameras 1A and 1B and the object detection sensor are connected to the image processing device 2, and the grayscale image signals obtained by each of the television cameras 1A and 1B are taken into the image processing device 2. Predetermined measurement and recognition processing is performed.
【0011】図2は、前記画像処理装置2の回路構成例
を示す。この画像処理装置2において、各A/D変換器
6A,6Bは各テレビカメラ1A,1Bからの濃淡画像
信号をディジタル化して表示制御部7やそれぞれの2値
化回路8A,8Bなどへ出力する。各2値化回路8A,
8Bは、ディジタル量の濃淡画像信号を所定の2値化し
きい値で2値化処理し、その2値画像を画像メモリ9に
記憶させ、あるいは計測部12へ出力する。なお他の画
像メモリ10は第1のテレビカメラ1Aからの濃淡画像
を記憶させるためのものである。FIG. 2 shows an example of a circuit configuration of the image processing apparatus 2. In this image processing device 2, each A / D converter 6A, 6B digitizes a grayscale image signal from each of the television cameras 1A, 1B and outputs it to the display control unit 7 and the respective binarizing circuits 8A, 8B. . Each binarizing circuit 8A,
8B performs a binarization process on the digital image signal with a predetermined binarization threshold, and stores the binary image in the image memory 9 or outputs the binary image to the measurement unit 12. The other image memory 10 is for storing the grayscale image from the first television camera 1A.
【0012】一方の計測部11は第1のテレビカメラ1
Aからの濃淡画像につき後記する濃度平均値を計測し、
他方の計測部12はCPU13とともに前記2値画像に
つき面積,重心,主軸角などの特徴量を計測する。CP
U13は制御・演算の主体であって、プログラムが格納
されるROM14と、各種データを記憶させるRAM1
5とでマイクロコンピュータを構成する。前記RAM1
5には認識のための基準値の他に、第1のテレビカメラ
1Aにより得られる画像の座標と第2のテレビカメラ1
Bにより得られる画像の座標との寸法比k(詳細は後述
する)などが記憶される。One measuring unit 11 is a first television camera 1
A density average value described later is measured for the grayscale image from A,
The other measuring unit 12 measures the feature values such as the area, the center of gravity, and the principal axis angle of the binary image together with the CPU 13. CP
U13 is a main body of control and calculation, and a ROM 14 for storing programs and a RAM 1 for storing various data.
5 constitutes a microcomputer. RAM1
5 includes, in addition to a reference value for recognition, coordinates of an image obtained by the first television camera 1A and the second television camera 1A.
A dimension ratio k (described later in detail) with respect to the coordinates of an image obtained by B is stored.
【0013】3個のウィンドウメモリ16,17,18
のうち、第1のウィンドウメモリ16には第1のテレビ
カメラ1Aによる2値画像に対し特徴量の計測領域を指
定するためのウィンドウデータが、第2のウィンドウメ
モリ17には第1のテレビカメラ1Aによる濃淡画像に
対し濃度平均値の計測領域を指定するためのウィンドウ
データが、第3のウィンドウメモリ18には第2のテレ
ビカメラ1Bによる2値画像に対し特徴量の計測領域を
指定するためのウィンドウデータが、それぞれCPU1
3により書き込まれる。The three window memories 16, 17, 18
Among them, the first window memory 16 stores window data for designating the measurement area of the feature amount with respect to the binary image by the first television camera 1A, and the second window memory 17 stores the first television camera 1A. The window data for specifying the measurement area of the average density value for the grayscale image of 1A, and the third window memory 18 for specifying the measurement area of the feature amount for the binary image of the second television camera 1B. Window data is CPU1
3 is written.
【0014】図3は第1のテレビカメラ1Aにより得ら
れた2値画像20を示すもので、この2値画像20には
特徴量の計測領域を指定するための矩形状のウィンドウ
W1が設定されている。同図中、21は対象物4の画像
部分であって、前記ウィンドウW1はこの画像部分21
を余裕をもって含むように画面のほぼ全体にわたり設け
られる。FIG. 3 shows a binary image 20 obtained by the first television camera 1A. In this binary image 20, a rectangular window W1 for designating a measurement area of a feature amount is set. ing. In the figure, reference numeral 21 denotes an image portion of the object 4, and the window W1 corresponds to the image portion 21.
Is provided over almost the entire screen so as to include a margin.
【0015】図4は第1のテレビカメラ1Aにより得ら
れた濃淡画像22を示すもので、この濃淡画像22には
濃度平均値の計測領域を指定するための矩形状のウィン
ドウW2が設定されている。同図中、23は対象物4の
画像部分、24は背景の画像部分であって、前記ウィン
ドウW2は対象物4の画像部分23より十分に離れた背
景の画像部分24に小さく設けられる。FIG. 4 shows a gray-scale image 22 obtained by the first television camera 1A. In this gray-scale image 22, a rectangular window W2 for designating a measurement area of the average density value is set. I have. In the figure, reference numeral 23 denotes an image portion of the object 4, reference numeral 24 denotes a background image portion, and the window W <b> 2 is provided in the background image portion 24 which is sufficiently far away from the image portion 23 of the object 4.
【0016】図5は第2のテレビカメラ1Bにより得ら
れた2値画像25を示すもので、この2値画像25には
特徴量の計測領域を指定するための矩形状のウィンドウ
W3が設定されている。同図中、26は対象物4の表面
に印刷された文字Aの画像部分であって、前記ウィンド
ウW3はこの画像部分26を含むように適当な大きさに
設けられる。FIG. 5 shows a binary image 25 obtained by the second television camera 1B. In this binary image 25, a rectangular window W3 for designating a measurement area of a feature amount is set. ing. In the figure, reference numeral 26 denotes an image portion of the character A printed on the surface of the object 4, and the window W3 is provided in an appropriate size so as to include the image portion 26.
【0017】図2に戻って、表示制御部7は濃淡画像信
号,2値画像信号,ウィンドウデータのいずれかを選択
して表示データを生成する。この表示データはD/A変
換器19でアナログ化されて前記ビデオモニタ3へ出力
される。Returning to FIG. 2, the display control section 7 selects one of a grayscale image signal, a binary image signal, and window data to generate display data. The display data is converted into an analog signal by the D / A converter 19 and output to the video monitor 3.
【0018】図6は、検査工程に先立って実施される設
定工程についてのCPU13の制御手順を示す。まず同
図のスタート時点において、良品サンプルとしての対象
物4を観測位置に位置決めして配置した後、ステップ1
(図中「ST1」で示す)でCPU13は第1のテレビ
カメラ1Aにより撮像された前記対象物4の画像を画像
処理装置2へ出力させる。この濃淡画像信号は画像処理
装置2のA/D変換器6Aでディジタル化された後、そ
の濃淡画像は画像メモリ10に、2値化回路8Aより出
力された2値画像は画像メモリ9に、それぞれ格納され
る(図3および図4参照)。FIG. 6 shows a control procedure of the CPU 13 for a setting step performed prior to the inspection step. First, at the start of the drawing, the object 4 as a non-defective sample is positioned and arranged at the observation position.
In step ST <b> 1, the CPU 13 causes the image processing device 2 to output an image of the object 4 captured by the first television camera 1 </ b> A. After the grayscale image signal is digitized by the A / D converter 6A of the image processing device 2, the grayscale image is stored in the image memory 10, and the binary image output from the binarization circuit 8A is stored in the image memory 9. Each is stored (see FIGS. 3 and 4).
【0019】つぎにCPU13は、2値画像20に対し
第1のウィンドウW1を設定して、計測部12とともに
対象物の画像部分21の重心位置G0を計測する(ステ
ップ2,3)。つぎのステップ4でCPU13は、キャ
リブレーションを実施して、第1のテレビカメラ1Aの
キャリブレーション値、すなわち1画素当たりの寸法を
算出する。Next, the CPU 13 sets the first window W1 for the binary image 20, and measures the position G0 of the center of gravity of the image portion 21 of the object together with the measuring section 12 (steps 2, 3). In the next step 4, the CPU 13 performs calibration to calculate a calibration value of the first television camera 1A, that is, a dimension per pixel.
【0020】つぎにCPU13は、濃淡画像22に対し
第2のウィンドウW2を設定して、計測部11により前
記ウィンドウW2内に含まれる画素の濃度平均値A0を
計測させ、その計測値をRAM15に登録しておく(ス
テップ5,6)。Next, the CPU 13 sets a second window W2 for the grayscale image 22, causes the measuring unit 11 to measure the average density A0 of the pixels included in the window W2, and stores the measured value in the RAM 15. It is registered (steps 5 and 6).
【0021】つぎのステップ7でCPU13は第2のテ
レビカメラ1Bにより撮像された前記対象物4の文字A
の部分が拡大された画像を画像処理装置2へ出力させ
る。この濃淡画像信号は画像処理装置2のA/D変換器
6Bでディジタル化されかつ2値化回路8Bで2値化処
理された後、画像メモリ9に格納される(図5参照)。In the next step 7, the CPU 13 sets the character A of the object 4 imaged by the second television camera 1B.
The image in which the portion is enlarged is output to the image processing device 2. The grayscale image signal is digitized by the A / D converter 6B of the image processing device 2, binarized by the binarization circuit 8B, and stored in the image memory 9 (see FIG. 5).
【0022】つぎにCPU13は、2値画像25に対し
第3のウィンドウW3を設定して、計測部12とともに
文字Aの画像部分26の面積S0を計測し、その計測値
を判別のための基準値としてRAM15に登録しておく
(ステップ8,9)。つぎにCPU13は、キャリブレ
ーションを実施して、第2のテレビカメラ1Bのキャリ
ブレーション値、すなわち1画素当たりの寸法を算出し
た後、第1のテレビカメラ1Aのキャリブレーション値
と第2のテレビカメラ1Bのキャリブレーション値との
関係(寸法比k)を算出してRAM15に記憶させる
(ステップ10,ステップ11)。たとえば第1のテレ
ビカメラ1Aのキャリブレーション値(1画素当たりの
寸法)が1mm/画素、第2のテレビカメラ1Bのキャ
リブレーション値が0.2mm/画素である場合、前記
の寸法比kは5:1である。Next, the CPU 13 sets a third window W3 for the binary image 25, measures the area S0 of the image portion 26 of the character A together with the measuring section 12, and uses the measured value as a reference for discrimination. The value is registered in the RAM 15 (steps 8 and 9). Next, the CPU 13 performs a calibration to calculate a calibration value of the second television camera 1B, that is, a dimension per pixel, and then a calibration value of the first television camera 1A and the second television camera 1B. The relationship (dimension ratio k) with the calibration value of 1B is calculated and stored in the RAM 15 (steps 10 and 11). For example, when the calibration value (dimension per pixel) of the first television camera 1A is 1 mm / pixel and the calibration value of the second television camera 1B is 0.2 mm / pixel, the dimension ratio k is 5 : 1.
【0023】図7は、上記設定工程が完了した後に実施
される検査工程についてのCPU13の制御手順を示
し、また図8は、この検査工程におけるタイムチャート
を示している。図7のスタート時点において、検査対象
としての対象物4がベルトコンベヤ5により観測位置に
搬送されてくると、物体検知センサが検知信号を出力
し、この検知信号入力を計測トリガとしてCPU13は
第1,第2の両テレビカメラ1A,1Bにより同時撮像
された対象物4の画像を画像処理装置2へ出力させる。FIG. 7 shows a control procedure of the CPU 13 for an inspection process performed after the completion of the setting process, and FIG. 8 shows a time chart in the inspection process. When the object 4 to be inspected is conveyed to the observation position by the belt conveyor 5 at the start point in FIG. 7, the object detection sensor outputs a detection signal, and the CPU 13 uses the input of the detection signal as a measurement trigger to execute the first detection. , And the image of the object 4 simultaneously captured by the second television cameras 1A and 1B is output to the image processing apparatus 2.
【0024】これら画像の1フレーム分の濃淡画像信号
Vd1,Vd2は画像処理装置2のA/D変換器6A,
6Bでそれぞれディジタル化された後、第1のテレビカ
メラ1Aからの濃淡画像信号は一方の計測部11へ、2
値化回路8Aを経た2値画像信号は他方の計測部12
へ、それぞれ出力されて所定の計測処理が行われ、また
第2のテレビカメラ1Bからの2値化回路8Bを経た2
値画像信号は画像メモリ9へ出力されて記憶される(ス
テップ1〜3)。The grayscale image signals Vd1 and Vd2 for one frame of these images are supplied to the A / D converters 6A and 6A of the image processing apparatus 2, respectively.
6B, the grayscale image signal from the first television camera 1A is sent to one of the measuring units 11
The binary image signal that has passed through the binarization circuit 8A is output to the other measurement unit 12
Are output to the second television camera 1B, and are subjected to predetermined measurement processing.
The value image signal is output to and stored in the image memory 9 (steps 1 to 3).
【0025】このステップ2,3では、CPU13は第
1のテレビカメラ1Aからの2値画像20に対して第1
のウィンドウW1を設定して計測部12とともに対象物
の画像部分(図3では点線で示す)の重心位置G1を計
測した後、前記重心位置G0との差を位置ずれ量Δ
XG ,ΔYG として算出し、さらにこの位置ずれ量を前
記寸法比kを用いて第2のテレビカメラ1Bより得られ
た画像の位置ずれ量XW ,YW (図5参照)に換算す
る。たとえば寸法比kが5:1であれば、前記位置ずれ
量XW ,YW はXW =5×ΔXG ,YW =5×ΔYG と
なる。In steps 2 and 3, the CPU 13 applies the first image to the binary image 20 from the first television camera 1A.
After setting the window W1 and measuring the center of gravity G1 of the image portion (indicated by a dotted line in FIG. 3) of the object together with the measuring unit 12, the difference from the center of gravity G0 is calculated as the positional deviation amount Δ
X G , ΔY G , and furthermore, this positional deviation amount is converted into the positional deviation amounts X W , Y W (see FIG. 5) of the image obtained from the second television camera 1B using the dimensional ratio k. . For example, if the dimensional ratio k is 5: 1, the positional shift amounts X W and Y W are X W = 5 × ΔX G and Y W = 5 × ΔY G.
【0026】また同じステップ2,3では前記の位置ず
れ計測と平行してCPU13は第1のテレビカメラ1A
からの濃淡画像22に対して第2のウィンドウW2を設
定して計測部11により前記ウィンドウW2内に含まれ
る画素の濃度平均値A1を計測させた後、前記濃度平均
値A0との差を照明変動などに起因する濃度変化量ΔA
(=A0−A1)として算出する。In the same steps 2 and 3, the CPU 13 sets the first television camera 1A in parallel with the above-described displacement measurement.
A second window W2 is set for the grayscale image 22 from the image data, and the measuring unit 11 measures the average density value A1 of the pixels included in the window W2, and then illuminates the difference with the average density value A0. Density change amount ΔA due to fluctuation etc.
(= A0-A1).
【0027】こうして位置ずれ量および濃度変化量が計
測されると、つぎにCPU13は、垂直ブランキング期
間内に第3のウィンドウW3の設定位置を前記位置ずれ
量XW ,YW だけ移動させるとともに、2値化回路8
A,8Bの2値化しきい値を前記濃度変化量ΔAだけ修
正する(ステップ4)。After the displacement and the density change are measured in this way, the CPU 13 moves the set position of the third window W3 by the displacements X W and Y W during the vertical blanking period. , Binarization circuit 8
The binarization threshold values of A and 8B are corrected by the density change amount ΔA (step 4).
【0028】つぎにCPU13は、つぎのフレーム期間
において、第2のテレビカメラ1Bからの2値画像25
に対し移動後の第3のウィンドウW3を設定して、計測
部12とともに文字Aの画像部分26の面積S1を計測
し、その計測値を前記基準値S1と比較して文字Aのか
すれや欠けの有無を判定する(ステップ5,6)。同様
の手順を次々に搬送されてくる対象物4に対して実施し
て、計測処理および判定処理を実行し、すべての対象物
4の処理が完了したとき、ステップ7の判定が「YE
S」となって検査工程を終了させる。Next, during the next frame period, the CPU 13 outputs the binary image 25 from the second television camera 1B.
, A third window W3 after the movement is set, the area S1 of the image portion 26 of the character A is measured together with the measuring section 12, and the measured value is compared with the reference value S1 to make the character A blurred or missing. Is determined (steps 5 and 6). The same procedure is performed on the objects 4 that are successively conveyed, and the measurement processing and the determination processing are performed. When the processing of all the objects 4 is completed, the determination in step 7 is “YE”.
In step S ", the inspection process is completed.
【0029】[0029]
【発明の効果】この発明は上記の如く、広い観測視野を
有する第1の撮像手段からの画像により対象物の位置ず
れ量を計測し、その計測値から高解像度を有する第2の
撮像手段からの画像の位置ずれ量を換算してウィンドウ
の設定位置を変更し、所定の計測処理を行うようにした
から、たとえ対象物の位置や姿勢が変化しても、計測精
度を低下させることなく、高精度の検査が可能となる。
しかも第1の撮像手段で得られた画像により画像処理用
のパラメータの補正値を算出してその補正値により第2
の撮像手段で得られた画像を処理するから、たとえ照明
変動などがあっても、安定した計測が可能であり、検査
ミスの頻度を減少させることができるなど、顕著な効果
を奏する。According to the present invention, as described above, the amount of displacement of an object is measured from an image from the first image pickup means having a wide observation field of view, and the second image pickup means having high resolution is obtained from the measured value. Since the position of the window is changed by converting the amount of positional deviation of the image and performing a predetermined measurement process, even if the position or orientation of the object changes, the measurement accuracy is not reduced, High-precision inspection becomes possible.
In addition, a correction value of a parameter for image processing is calculated based on the image obtained by the first imaging unit, and the second value is calculated based on the correction value.
Since the image obtained by the imaging means is processed, stable measurement can be performed even if there is a variation in illumination and the like, and remarkable effects such as a reduction in the frequency of inspection errors can be achieved.
【図1】この発明の一実施例にかかる視覚認識装置の外
観を示す斜面図である。FIG. 1 is a perspective view illustrating an appearance of a visual recognition device according to an embodiment of the present invention.
【図2】画像処理装置の回路構成例を示すブロック図で
ある。FIG. 2 is a block diagram illustrating a circuit configuration example of the image processing apparatus.
【図3】第1のテレビカメラからの2値画像を示す説明
図である。FIG. 3 is an explanatory diagram showing a binary image from a first television camera.
【図4】第1のテレビカメラからの濃淡画像を示す説明
図である。FIG. 4 is an explanatory diagram showing a grayscale image from a first television camera.
【図5】第2のテレビカメラからの2値画像を示す説明
図である。FIG. 5 is an explanatory diagram showing a binary image from a second television camera.
【図6】設定工程の制御手順を示すフローチャートであ
る。FIG. 6 is a flowchart illustrating a control procedure of a setting step.
【図7】検査工程の制御手順を示すフローチャートであ
る。FIG. 7 is a flowchart showing a control procedure of an inspection process.
【図8】検査工程における時間的流れを示すタイムチャ
ートである。FIG. 8 is a time chart showing a temporal flow in an inspection process.
1A,1B テレビカメラ 2 画像処理装置 8A,8B 2値化回路 9,10 画像メモリ 11,12 計測部 13 CPU 16,17,18 ウィンドウメモリ 1A, 1B TV camera 2 Image processing device 8A, 8B Binarization circuit 9, 10 Image memory 11, 12 Measuring unit 13 CPU 16, 17, 18 Window memory
Claims (1)
が可能な第1の撮像手段と、 対象物の着目部分のみを観測視野内に含めることが可能
な第1の撮像手段より高解像度の第2の撮像手段と、 第1の撮像手段により得られた対象物の画像の位置ずれ
量を算出する位置ずれ算出手段と、 第1の撮像手段により得られた画像から第2の撮像手段
により得られた画像を処理するためのパラメータの補正
値を算出する補正値算出手段と、 第1の撮像手段により得られる画像の座標と第2の撮像
手段により得られる画像の座標との寸法比率を用いて前
記位置ずれ算出手段で算出された位置ずれ量を第2の撮
像手段により得られた対象物の画像の位置ずれ量に換算
する位置ずれ換算手段と、 第2の撮像手段により得られた画像を前記補正値算出手
段で算出された補正値により処理する画像処理手段と、 第2の撮像手段により得られた画像に対し、前記位置ず
れ換算手段で換算された位置ずれ量だけ計測領域の設定
位置を変更して所定の計測処理を行う計測処理手段とを
備えて成る視覚認識装置。1. A first imaging means capable of including an entire object in an observation field of view, and a resolution higher than that of the first imaging means capable of including only a focused portion of the object in the observation field. A second imaging unit, a displacement calculating unit that calculates a displacement amount of the image of the target object obtained by the first imaging unit, and a second imaging unit based on the image obtained by the first imaging unit. Correction value calculating means for calculating a correction value of a parameter for processing an image obtained by the method, and a dimensional ratio between coordinates of an image obtained by the first image pickup means and coordinates of an image obtained by the second image pickup means A position shift conversion unit that converts the position shift amount calculated by the position shift calculation unit into a position shift amount of the image of the object obtained by the second imaging unit using The corrected image by the correction value calculating means. An image processing means for processing based on the output correction value; and, for an image obtained by the second imaging means, changing the set position of the measurement area by a positional deviation amount converted by the positional deviation converting means, and A visual recognition device comprising: a measurement processing unit that performs a measurement process.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP3237108A JP2841961B2 (en) | 1991-08-22 | 1991-08-22 | Visual recognition device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP3237108A JP2841961B2 (en) | 1991-08-22 | 1991-08-22 | Visual recognition device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH0554127A JPH0554127A (en) | 1993-03-05 |
| JP2841961B2 true JP2841961B2 (en) | 1998-12-24 |
Family
ID=17010535
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP3237108A Expired - Fee Related JP2841961B2 (en) | 1991-08-22 | 1991-08-22 | Visual recognition device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2841961B2 (en) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE19882963T1 (en) * | 1998-12-22 | 2001-05-10 | Mitsubishi Electric Corp | Position error measuring method and means using a position mark and processing means for correcting a position based on a result or a measurement position error using a position mark |
| JP5206499B2 (en) * | 2009-03-02 | 2013-06-12 | 富士通株式会社 | Measuring method, measuring device, measurement control program |
| JP7028086B2 (en) * | 2018-07-06 | 2022-03-02 | 日本製鉄株式会社 | Shape measuring device and shape measuring method |
| JP7269126B2 (en) * | 2019-07-31 | 2023-05-08 | ファナック株式会社 | Imaging detection data transmission system |
-
1991
- 1991-08-22 JP JP3237108A patent/JP2841961B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JPH0554127A (en) | 1993-03-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JPH0736001B2 (en) | Bottle defect inspection method | |
| JP2841961B2 (en) | Visual recognition device | |
| JP2006058945A (en) | Method and device for correcting rolling shutter image | |
| US5245424A (en) | Defect detection method | |
| JPH08313454A (en) | Image processing device | |
| JP3216439B2 (en) | Internal inspection equipment for circular containers | |
| JPH03194454A (en) | Container internal surface inspection device | |
| JP2733958B2 (en) | Long sheet defect inspection equipment | |
| JP3657028B2 (en) | Appearance inspection device | |
| US6240202B1 (en) | Appearance inspection method for electronic parts | |
| JP2775924B2 (en) | Image data creation device | |
| JP2879357B2 (en) | Shape judgment method | |
| JPH05231842A (en) | Shape pattern inspection method and device | |
| JP2715897B2 (en) | IC foreign matter inspection apparatus and method | |
| JP2747396B2 (en) | Appearance inspection equipment for electronic components | |
| JP2931312B2 (en) | Defect inspection method | |
| JP3035578B2 (en) | Inspection condition determination device, inspection device, and shutter speed determination device | |
| JP2001084379A (en) | Pattern inspection method and apparatus | |
| JP3028002B2 (en) | Visual recognition method and device | |
| JP2507093B2 (en) | Defect detection method | |
| JP3216767B2 (en) | Image processing device capable of level fluctuation correction | |
| JPH09330417A (en) | Shape measuring device | |
| JPH0359362B2 (en) | ||
| KR100278670B1 (en) | Inspection method and apparatus for TV screen | |
| JPH07234116A (en) | Method of measuring warpage of plate |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| LAPS | Cancellation because of no payment of annual fees |