JP2000268173A - Object recognition image processing method - Google Patents
Object recognition image processing methodInfo
- Publication number
- JP2000268173A JP2000268173A JP11071932A JP7193299A JP2000268173A JP 2000268173 A JP2000268173 A JP 2000268173A JP 11071932 A JP11071932 A JP 11071932A JP 7193299 A JP7193299 A JP 7193299A JP 2000268173 A JP2000268173 A JP 2000268173A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- recognition
- detection target
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 テレビカメラを用いて得た画像を処理し、物
体を認識する方法及び装置において、認識すべき物体の
設定を簡単にすると共に、検出精度の向上を図ることを
目的とする。
【解決手段】 本発明では、このような課題を解決する
ため、テレビカメラで撮像した物体の足元位置の角度を
用いて、検出した物体の大きさを画面上の手前での物体
の大きさに変換することにより、認識物体の基準となる
大きさを、画面上の手前に立った認識物体の大きさ一つ
で認識処理をできるようにしたものである。
(57) [Problem] To improve the detection accuracy while simplifying the setting of an object to be recognized in a method and apparatus for processing an image obtained using a television camera and recognizing the object. Aim. According to the present invention, in order to solve such a problem, the size of the detected object is changed to the size of the object in front of the screen using the angle of the foot position of the object captured by the TV camera. By performing the conversion, the reference size of the recognition object can be recognized by one size of the recognition object standing in front of the screen.
Description
【0001】[0001]
【発明の属する技術分野】本発明の技術分野は、侵入者
あるいは侵入物を検出、監視する監視用CCTV装置に
おいて、監視領域内の侵入者あるいは侵入物を検知する
ための侵入物認識画像処理装置に関し、一例として特に
差分法により検出した物体の中から更に認識対象物体
(例えば、侵入物)のみの抽出を行う方法の改良に関す
るものである。TECHNICAL FIELD The technical field of the present invention relates to a monitoring CCTV device for detecting and monitoring an intruder or an intruder, and an intruder recognition image processing apparatus for detecting an intruder or an intruder in a monitoring area. For example, the present invention relates to an improvement in a method for extracting only an object to be recognized (for example, an intruder) from objects detected by the difference method.
【0002】[0002]
【従来の技術】テレビジョンカメラ(以下TVカメラと
呼ぶ)を用いた映像監視装置は、従来より広く用いられ
ている。しかし、近年、このようなシステムに於いて、
その監視視野内に侵入する人・物等の検出を、画像モニ
タ面上での目視による有人監視ではなく、画像信号から
自動的に検出し、所定の報知や警報処理が得られるよう
にしたシステムが要求されるようになってきている。こ
のようなシステムを実現するためには、まず、TVカメ
ラより得られた入力画像と、背景画像、すなわち、検出
すべき侵入者・侵入物が映っていない画像とを比較し、
物体の画像を抽出する。この画像の抽出は、画素毎に輝
度値の差分を求め、その差分値の大きい領域を物体とし
て検出することにより行われる。この方法は、差分法と
呼ばれ、従来より広く用いられている。このようにし抽
出された物体の画像は、あらかじめ登録された捉えよう
とする侵入物の画像とのパターン認識により比較され、
警報を発すべき侵入物体か否かが判定される。その物体
が侵入者である場合には警報を発する。2. Description of the Related Art Video surveillance apparatuses using television cameras (hereinafter referred to as TV cameras) have been widely used. However, recently, in such a system,
A system in which the detection of a person or object that enters the monitoring field of view is automatically detected from the image signal instead of visually monitoring the person on the image monitor surface, and a predetermined notification and alarm processing can be obtained. Is being required. In order to realize such a system, first, an input image obtained from a TV camera is compared with a background image, that is, an image in which an intruder or an intruder to be detected is not reflected.
Extract the image of the object. The extraction of the image is performed by obtaining a difference in luminance value for each pixel and detecting an area having a large difference value as an object. This method is called a difference method and has been widely used conventionally. The image of the object extracted in this way is compared with the image of the intruder to be captured registered in advance by pattern recognition,
It is determined whether or not the object is an intruding object for which an alarm should be issued. If the object is an intruder, an alarm is issued.
【0003】図5を用いてこのような、従来の装置につ
いて説明する。なお、図5は純粋にハードウエア構成の
みを示したものであり、本発明においても共通する。同
図に於いて、TVカメラ22は、固定の監視対象領域を
撮像するものである。画像入力I/F23はTVカメラ
22の映像信号のA/D変換を行い、映像信号を0〜2
55の256階調の輝度信号に変換するものである。画
像メモリ24は、画像入力I/F23で得られた輝度信
号を格納するものであり、かつ画像間の演算を行うもの
である。画像メモリ24は、同時に複数枚の画像を格納
することが可能である。画像出力I/F31は、画像処
理により得られた画像の輝度信号のD/A変換を行い、
輝度信号を映像信号に変換するものである。ビデオモニ
タ32は、画像出力I/F31により得られた映像信号
を表示するものである。データバス28はデータの転送
に使用するものである。CPU25は、プログラムメモ
リ30に格納されているプログラムに従って、ワークメ
モリ29内で画像解析を行うものである。画像解析で事
象が検出された場合には、出力I/F26を用いてラン
プ等の警告表示モニタ27に警告を出力する。[0005] Such a conventional apparatus will be described with reference to FIG. FIG. 5 shows only a pure hardware configuration, and is common to the present invention. In FIG. 1, a TV camera 22 captures an image of a fixed monitoring target area. The image input I / F 23 performs A / D conversion of the video signal of the TV camera 22 and converts the video signal from 0 to 2
It is converted into a luminance signal of 55 256 gradations. The image memory 24 stores the luminance signal obtained by the image input I / F 23 and performs an operation between images. The image memory 24 can store a plurality of images at the same time. The image output I / F 31 performs D / A conversion of a luminance signal of an image obtained by the image processing,
It converts a luminance signal into a video signal. The video monitor 32 displays a video signal obtained by the image output I / F 31. The data bus 28 is used for data transfer. The CPU 25 performs image analysis in the work memory 29 according to a program stored in the program memory 30. When an event is detected in the image analysis, a warning is output to a warning display monitor 27 such as a lamp using the output I / F 26.
【0004】次に物体認識の流れについて、図5、図6
及び図7を用いて説明する。まず初期背景画像作成ステ
ップ1で、背景画像の作成を行い背景画像33を得る。
背景画像は、物体が存在しないときの監視範囲の画像が
取り込まれることにより行われえる。なお、より改良さ
れた背景画像の生成方法として本件発明者らによる発明
に係る特願平9−291910にその一例が記載されて
いる。Next, the flow of object recognition will be described with reference to FIGS.
This will be described with reference to FIG. First, in an initial background image creation step 1, a background image is created to obtain a background image 33.
The background image can be obtained by capturing an image of the monitoring range when no object exists. An example of an improved method of generating a background image is described in Japanese Patent Application No. 9-291910 according to the invention of the present inventors.
【0005】画像入力ステップ2(図6参照)で、TV
カメラ22(図5参照)から入力画像34(図7参照)
を得る。差分ステップ3では、初期背景作成ステップ1
又は背景画像更新ステップ8で作成した背景画像33
と、画像入力ステップ2で得た入力画像34との画素毎
の差分を算出し、差分画像35を得る。二値化ステップ
4は、差分ステップ3で得られた差分画像35をしきい
値処理し、差分値が所定のしきい値以下の画素を輝度値
0、しきい値以上の画素を輝度値255(1画素の輝度
値は0から255の256階調で表現)とした二値画像
36を得る。ノイズ除去ステップ5では、二値化ステッ
プ4で得られた二値画像36に含まれたノイズ領域37
を除去し、ノイズ除去画像38を得る。ここでノイズ領
域37とは、数画素で構成されるものを示す。ラベリン
グステップ6では、ノイズ除去ステップ5で得られたノ
イズ除去画像38を用いて物体の番号付けを行い、ラベ
リング画像40を得る。ラベリングステップ6により、
ノイズ除去画像38で得られた物体領域39に対してN
1という番号が付けられる。物体認識ステップ7−2で
は、ラベリングステップ6で得られたラベリング画像4
0を用いて物体の大きさを算出し、算出した物体の大き
さと認識する物体の大きさとを比較することにより、認
識したい物体のみを抽出する。背景画像更新ステップ8
では、周知の加重平均演算等により、背景画像33の更
新を行う。なお、このとき、前述の特願平9−2919
10に記載された背景画像更新法を用いることもでき
る。物体の有無判断ステップ9では、物体認識ステップ
7−2の判断結果を用いて認識物体の有無を判断する。
ここで、物体認識ステップ7−2では検出された物体が
警告を発することが必要な物体(すなわち、侵入物)か
否かが判定される。警報ステップ10では、物体の有無
判断ステップ9において侵入物体ありと判断された場合
に、警報表示モニタ27に警報を表示する。In the image input step 2 (see FIG. 6), the TV
Input image 34 (see FIG. 7) from camera 22 (see FIG. 5)
Get. In the difference step 3, the initial background creation step 1
Or, the background image 33 created in the background image update step 8
, And a difference for each pixel from the input image 34 obtained in the image input step 2, to obtain a difference image 35. In the binarization step 4, the difference image 35 obtained in the difference step 3 is subjected to threshold processing, and a pixel having a difference value equal to or less than a predetermined threshold value has a luminance value of 0, and a pixel having a difference value of not less than a luminance value has a luminance value of 255 (The luminance value of one pixel is represented by 256 tones from 0 to 255), and a binary image 36 is obtained. In the noise removal step 5, the noise region 37 included in the binary image 36 obtained in the binarization step 4
And a noise-removed image 38 is obtained. Here, the noise area 37 indicates an area composed of several pixels. In the labeling step 6, numbering of objects is performed using the noise-removed image 38 obtained in the noise removal step 5, and a labeling image 40 is obtained. By labeling step 6,
N for the object area 39 obtained in the noise-removed image 38
It is numbered 1. In the object recognition step 7-2, the labeling image 4 obtained in the labeling step 6
The size of the object is calculated using 0, and only the object to be recognized is extracted by comparing the calculated size of the object with the size of the object to be recognized. Background image update step 8
Then, the background image 33 is updated by a well-known weighted average calculation or the like. At this time, the above-mentioned Japanese Patent Application No. 9-2919 is disclosed.
The background image updating method described in No. 10 can also be used. In the object presence / absence determination step 9, the presence / absence of a recognition object is determined using the determination result of the object recognition step 7-2.
Here, in the object recognition step 7-2, it is determined whether or not the detected object is an object that needs to issue a warning (that is, an intruder). In the warning step 10, when it is determined that there is an intruding object in the object presence / absence determination step 9, a warning is displayed on the warning display monitor 27.
【0006】次に物体認識処理7−2について、図5、
図8、図9、図10、図11を用いて更に詳細に説明す
る。Next, an object recognition process 7-2 will be described with reference to FIG.
This will be described in more detail with reference to FIGS. 8, 9, 10, and 11.
【0007】以下の説明では、一例として、自動車の通
行のみ許され、人の通行が禁止されている場所に人が侵
入した時に警報を発するような物体認識画像処理装置に
ついて説明する。物体認識処理7−2を行うためには、
初めに侵入物として認識しようとする物体の大きさの設
定が必要となる。認識物体の大きさ設定について、図
5、図8、図9を用いて説明する。物体認識を行う固定
画面の画像をTVカメラ22(図5参照)から取込み、
画像メモリ24の中の一枚に物体認識画像12(図9参
照)を格納する。画面の一番奥での認識物体の大きさ設
定ステップ41(図8参照)では、物体認識画像12の
一番奥の位置にくるように認識物体42を位置させ、認
識物体13の横幅43、高さ44を画素値で設定する。
又、認識物体13の足元位置45も併せて設定する。画
面の一番手前での認識物体の大きさ設定ステップ11で
は、物体認識画像12の一番手前の位置にくるように認
識物体13を位置させ、認識物体13の横幅14、高さ
15を画素値で設定する。又、認識物体13の足元位置
16も併せて設定する。これら2つの認識物体13が認
識基準パターンとなる。次に、物体認識処理について、
説明する。物体位置算出ステップ17(図10参照)で
は、ラベリング画像40(図7、図10参照)で得られ
た物体N1の重心位置GN1、横幅XN1、高さYN1
を算出する。足元位置に対する認識物体の大きさ算出ス
テップ18−2では、物体N1の足元位置EN1によ
り、認識すべき物体の最小横幅Xmin、最小高さYm
in、最大横幅Xmax、最大高さYmaxを算出す
る。足元位置による最小横幅Xmin、最小高さYmi
n,最大横幅Xmax、最大高さYmaxの算出式は、
下記式1から式4のとおりである。 式1 Xmin =X43+((X14−X43)/(E16
−E45)*(EN1−E45))−αx 但し、Xmin :任意の位置での最小横幅、 X43:一番奥の認識物体42の横幅43、 X14:一番手前の認識物体13の横幅14、 E16:一番手前の認識物体13の足元位置16、 E45:一番奥の認識物体42の足元位置45、 EN1:検出物体N1 の足元位置、 αx :定数(5) 式2 Ymin =Y44+((Y15−Y44)/(E16
−E45)*(EN1−E45))−αY 但し、Ymin :任意の位置での最小高さ、 Y44:一番奥の認識物体42の高さ44、 X15:一番手前の認識物体13の高さ15、 E16:一番手前の認識物体13の足元位置16、 E45:一番奥の認識物体42の足元位置45、 EN1:検出物体N1の足元位置、 αY :定数(5) 式3 Xmax =X43+((X14−X43)/(E16
−E45)*(EN1−E45))+αx 但し、Xmax :任意の位置での最大横幅、 X43:一番奥の認識物体42の横幅43、 X14:一番手前の認識物体13の横幅14、 E16:一番手前の認識物体13の足元位置16、 E45:一番奥の認識物体42の足元位置45、 EN1検出物体N1の足元位置、 αx :定数(5) 式4 Ymax =Y44+((Y15−Y44)/(E16
−E45)*(EN1−E45))+αY 但し、Ymax :任意の位置での最大高さ、 Y44:一番奥の認識物体42の高さ44、 Y15:一番手前の認識物体13の高さ15、 E16:一番手前の認識物体13の足元位置16、 E45:一番奥の認識物体42の足元位置45、 EN1:検出物体N1 の足元位置、 αY :定数(5) 検出物体の大きさ判定ステップ19(図10参照)で
は、ラベリング画像40(図11参照)で得られた物体
N1の横幅XN1、縦幅YN1と、足元位置に対する認
識物体の大きさ算出ステップ18−2で得られた認識物
体の最小横幅Xmin、最小高さYmin、最大横幅X
max、最大高さYmaxを比較することにより、被写
体が認識対象物体か否かの判断を行う。検出物体の大き
さ判定ステップ19の処理を、式で表すと式7及び式8
となる。 式7 認識物体の最小横幅Xmin≦物体N1の横幅XN1≦
認識物体の最大横幅Xmax 式8 認識物体の最小高さYmin≦物体N1の高さYN1≦
認識物体の最大高さYmax 上記式7及び式8の条件の両方を、物体N1が満たした
場合に認識対象物体21すなわち侵入物(この場合は
人)と判断し、それ以外の場合を認識対象外物体20
(例えば自動車)と判断する。In the following description, as an example, an object recognition image processing apparatus that issues an alarm when a person enters a place where only a car is permitted and no one is allowed to pass is described. In order to perform the object recognition process 7-2,
First, it is necessary to set the size of the object to be recognized as an intruder. The setting of the size of the recognition object will be described with reference to FIGS. An image of a fixed screen for performing object recognition is captured from the TV camera 22 (see FIG. 5),
The object recognition image 12 (see FIG. 9) is stored in one of the image memories 24. In the step 41 for setting the size of the recognition object at the back of the screen (see FIG. 8), the recognition object 42 is positioned so as to be located at the back of the object recognition image 12, and the width 43 of the recognition object 13 The height 44 is set by a pixel value.
The foot position 45 of the recognition object 13 is also set. In the step 11 for setting the size of the recognition object at the front of the screen, the recognition object 13 is positioned so as to be located at the front of the object recognition image 12, and the width 14 and the height 15 of the recognition object 13 are determined in pixels. Set by value. The foot position 16 of the recognition object 13 is also set. These two recognition objects 13 serve as recognition reference patterns. Next, regarding the object recognition processing,
explain. In the object position calculation step 17 (see FIG. 10), the center of gravity GN1, the width XN1, and the height YN1 of the object N1 obtained in the labeling image 40 (see FIGS. 7 and 10)
Is calculated. In the step 18-2 for calculating the size of the recognized object with respect to the foot position, the minimum width Xmin and the minimum height Ym of the object to be recognized are determined based on the foot position EN1 of the object N1.
in, the maximum width Xmax, and the maximum height Ymax are calculated. Minimum width Xmin, minimum height Ymi depending on foot position
n, the maximum width Xmax, and the maximum height Ymax are calculated by:
Equations 1 to 4 below are used. Formula 1 Xmin = X43 + ((X14−X43) / (E16
-E45) * (EN1-E45))-αx, where Xmin: minimum width at an arbitrary position, X43: width 43 of the deepest recognition object 42, X14: width 14 of the frontmost recognition object 13, E16: foot position 16 of the frontmost recognition object 13, E45: foot position 45 of the innermost recognition object 42, EN1: foot position of the detected object N 1, αx: constant (5) 2 Ymin = Y44 + ( (Y15-Y44) / (E16
-E45) * (EN1-E45))-αY where Ymin: minimum height at an arbitrary position, Y44: height 44 of the deepest recognition object 42, X15: height of the frontmost recognition object 13 E15: foot position 16 of the foreground recognition object 13; E45: foot position 45 of the farthest recognition object 42; EN1: foot position of the detection object N1; αY: constant (5) Equation 3 Xmax = X43 + ((X14-X43) / (E16
−E45) * (EN1-E45)) + αx where Xmax: maximum width at an arbitrary position, X43: width 43 of the deepest recognition object 42, X14: width 14 of the frontmost recognition object 13, E16. : Foot position 16 of the foreground recognition object 13, E45: foot position 45 of the backmost recognition object 42, foot position of the EN1 detected object N1, αx: constant (5) Equation 4 Ymax = Y44 + ((Y15- Y44) / (E16
−E45) * (EN1-E45)) + αY, where Ymax: maximum height at an arbitrary position, Y44: height 44 of the deepest recognition object 42, Y15: height of the frontmost recognition object 13 15, E16: foot position 16 of the foremost recognized object 13; E45: foot position 45 of the farthest recognized object 42; EN1: foot position of the detected object N1, αY: constant (5) size of the detected object In the determination step 19 (see FIG. 10), the horizontal width XN1 and the vertical width YN1 of the object N1 obtained in the labeling image 40 (see FIG. 11) and the size of the recognized object with respect to the foot position are obtained in the step 18-2. Minimum width Xmin, minimum height Ymin, maximum width X of the recognition object
By comparing max and the maximum height Ymax, it is determined whether the subject is a recognition target object. The processing of the size determination step 19 of the detected object is expressed by Expressions (7) and (8).
Becomes Equation 7 Minimum width Xmin of the recognized object ≦ width XN1 of the object N1 ≦
Maximum width of recognition object Xmax Equation 8 Minimum height of recognition object Ymin ≦ Height of object N1 YN1 ≦
The maximum height Ymax of the recognition object The recognition target object 21, that is, an intruder (in this case, a person) is determined when both of the conditions of Expressions 7 and 8 are satisfied by the object N1, and the other cases are the recognition targets. Outer object 20
(For example, an automobile).
【0008】[0008]
【発明が解決しようとする課題】以上説明した従来技術
では、一つの認識対象物体大きさ、つまり、比較基準を
画面上の一番奥及び一番手前の両方で設定しなければな
らないため、その設定に手間がかかるという問題があ
る。基準の設定が、画面上の一番奥及び一番手前の2つ
であるため、物体が、その中間位置にある場合には、前
記2つの比較基準を基に認識すべき物体の画面上の位置
から比中間地点の比較基準を求め、この比較基準との比
較動作を行うことになる。この比較基準の求め方は、前
記一番手前の画像と一番奥の画像の基準の大きさとの間
の画像をリニアに変化させ、認識すべき物体の画面上の
位置から求める。つまり、中間地点の物体については、
リニア特性により、近似的にその位置を求めている。こ
のように、前記図10の物体位置算出ステップで算出す
るする物体の位置は表示画面上の位置であるため、必ず
しも正確ではない。つまり、画面上の距離が実際のTV
カメラと物体の間との距離に一致しないことがある。こ
れを補正するには、TVカメラのレンズの画角特性を考
慮し、前記リニア特性を補正する必要があり、これは大
変に手間のかかる作業を必要とする。つまり、従来の物
体認識画像処理装置は、物体の位置に対応した画面上の
大きさ変換に問題があり、TVカメラとの距離によって
は精度が落ちるという問題があった。本発明の目的は、
認識すべき一物体の基準パターンの設定を簡単化するこ
とである。又、検出した物体の大きさを、物体の足元位
置及びカメラからの角度を利用して、距離を求め、画面
上の最も手前での物体の大きさに変換することにより、
物体の大きさの精度を良くすることである。In the prior art described above, the size of one recognition target object, that is, the comparison reference, must be set at both the innermost and the lowermost positions on the screen. There is a problem that setting takes time. Since the reference is set at the innermost position and the lowermost position on the screen, if the object is located at an intermediate position between the two, the object to be recognized based on the two comparison standards is displayed on the screen. From the position, a comparison reference of the intermediate point is obtained, and a comparison operation with this comparison reference is performed. This comparison reference is obtained by linearly changing the image between the foreground image and the reference size of the innermost image, and obtaining from the position on the screen of the object to be recognized. In other words, for objects in the middle,
The position is approximately determined by the linear characteristic. As described above, the position of the object calculated in the object position calculation step in FIG. 10 is a position on the display screen, and is not always accurate. That is, the distance on the screen is the actual TV
May not match the distance between the camera and the object. To correct this, it is necessary to correct the linear characteristic in consideration of the angle-of-view characteristics of the lens of the TV camera, which requires a very laborious operation. That is, the conventional object recognition image processing apparatus has a problem in size conversion on the screen corresponding to the position of the object, and has a problem in that the accuracy is reduced depending on the distance from the TV camera. The purpose of the present invention is
The purpose is to simplify the setting of a reference pattern of one object to be recognized. Also, by using the foot position of the object and the angle from the camera to determine the size of the detected object, the distance is obtained, and converted to the size of the object at the foreground on the screen,
The purpose is to improve the accuracy of the size of the object.
【0009】[0009]
【課題を解決するための手段】本発明では、このような
課題を解決するため、物体の足元位置の角度を用いて、
検出した物体の大きさを画面上の手前での物体の大きさ
に変換することにより、認識物体の基準となる大きさ
を、画面上の手前に立った認識物体の大きさ一つで認識
処理をできるようにしたものである。According to the present invention, in order to solve such a problem, an angle of a foot position of an object is used.
By converting the size of the detected object to the size of the object in front of the screen, the reference size of the recognition object is recognized using the size of the recognition object standing in front of the screen with one size Is made possible.
【0010】つまり、本発明は第1に予め検出対象物体
の基準パターンを撮像し、前記画像メモリに保持するス
テップを有する。次に、監視時にはTVカメラで撮像さ
れた被写体から該被写体の重心を求めるステップによ
り、被写体である物体の重心を求め、この被写体の重心
位置とTVカメラの仰角から該被写体までの距離を測定
する。次に被写体である物体の映像を前記距離を測定す
るステップで求めた被写体の距離に対応した大きさに変
換する。次に、この距離に対応した大きさに変換された
被写体の画像とあらかじめ記録された検出対象の基準パ
ターンとを比較し、被写体の画像が検出対象物体である
か否かを判定するようにしたものである。That is, the present invention firstly has a step of capturing a reference pattern of an object to be detected in advance and storing it in the image memory. Next, at the time of monitoring, the center of gravity of the object, which is the subject, is obtained by the step of obtaining the center of gravity of the object from the object captured by the TV camera, and the distance to the object is measured from the position of the center of gravity of the object and the elevation angle of the TV camera. . Next, the image of the object as the subject is converted into a size corresponding to the distance of the subject obtained in the step of measuring the distance. Next, the image of the subject converted into a size corresponding to this distance is compared with a pre-recorded reference pattern of a detection target to determine whether or not the image of the subject is a detection target object. Things.
【0011】[0011]
【発明の実施の形態】以下の実施例の説明では、従来例
と同じく、自動車の通行のみ許され、人の通行が禁止さ
れている場所に人が侵入した時に警報を発するような物
体認識画像処理装置について説明する。侵入物認識装置
のハードウェアのブロック構成は一例として従来例と共
通する図5、また、本発明の特徴部分を除く侵入物認識
の全体の流れは従来と共通する図4に示す。背景画像の
設定、更新、差分抽出、二値化、ラベリングまでの動作
は従来と共通であるため、簡単に説明する。図5に於い
て、TVカメラ22は、前述のように固定の監視対象領
域を撮像するものである。CPU25、ワークメモリ2
9内での物体認識画像処理により侵入者が検出された場
合には、出力I/F26を用いて警告表示モニタ27に
警告を出力する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description of an embodiment, as in the prior art, an object recognition image which gives an alarm when a person enters a place where only a car is permitted and no person is allowed to pass. The processing device will be described. The hardware block configuration of the intruder recognition apparatus is shown in FIG. 5 as an example, which is common to the conventional example, and the entire flow of intruder recognition excluding the features of the present invention is shown in FIG. The operations from setting, updating, difference extraction, binarization, and labeling of the background image are common to those in the related art, and thus will be briefly described. In FIG. 5, the TV camera 22 captures an image of a fixed monitoring target area as described above. CPU 25, work memory 2
When an intruder is detected by the object recognition image processing in the computer 9, a warning is output to the warning display monitor 27 using the output I / F 26.
【0012】次に物体認識の流れについて、図4、図7
を用いて説明する。まず初期背景画像作成ステップ1
で、背景画像の作成を行い背景画像33を得る。背景画
像は、物体が存在しないときの監視範囲の画像が取り込
まれることにより行われえる。画像入力ステップ2で、
TVカメラ22から入力画像34を得る。差分ステップ
3では、初期背景作成ステップ1又は背景画像更新ステ
ップ8で作成した背景画像33と、画像入力ステップ2
で得た入力画像34との画素毎の差分を算出し、差分画
像35を得る。二値化ステップ4は、差分ステップ3で
得られた差分画像35をしきい値処理し、二値画像36
を得る。ノイズ除去ステップ5でノイズ領域を除去し、
ラベリング画像を得る。以下本発明の特徴的な動作につ
いて説明する。次に、物体認識ステップ7−1の詳細に
ついて説明する。物体認識ステップ7−1を行うために
は、認識すべき物体の大きさを予め設定しておく必要が
ある。認識すべき物体の大きさの設定について、図2、
図3、図5を用いて説明する。物体認識を行う基準画面
の画像を、TVカメラ22から取込み、画像メモリ24
の中に物体認識基準画像12(図3参照)を格納する。
この時、認識したい物体は人であるため、物体認識画像
12すなわち、人を画面上の一番手前の位置にくるよう
に位置させ、認識物体13(人)の横幅14、高さ15
を画素値で設定する。以上が、監視前に行われる物体認
識画像の設定である。Next, the flow of object recognition will be described with reference to FIGS.
This will be described with reference to FIG. First, the initial background image creation step 1
Then, a background image is created and a background image 33 is obtained. The background image can be obtained by capturing an image of the monitoring range when no object exists. In image input step 2,
An input image 34 is obtained from the TV camera 22. In the difference step 3, the background image 33 created in the initial background creation step 1 or the background image update step 8 and the image input step 2
Then, a difference for each pixel from the input image 34 obtained in the above is calculated, and a difference image 35 is obtained. In the binarization step 4, the difference image 35 obtained in the difference step 3 is subjected to threshold processing, and the binary image 36
Get. In the noise removal step 5, the noise region is removed,
Obtain a labeling image. Hereinafter, the characteristic operation of the present invention will be described. Next, details of the object recognition step 7-1 will be described. In order to perform the object recognition step 7-1, it is necessary to set the size of the object to be recognized in advance. Regarding the setting of the size of the object to be recognized, FIG.
This will be described with reference to FIGS. An image of the reference screen for performing object recognition is fetched from the TV camera 22,
Is stored with the object recognition reference image 12 (see FIG. 3).
At this time, since the object to be recognized is a person, the object recognition image 12, that is, the person is positioned so as to be at the frontmost position on the screen, and the width 14 and the height 15 of the recognition object 13 (person) are set.
Is set as a pixel value. The above is the setting of the object recognition image performed before the monitoring.
【0013】画面上に撮影される人などの物体の大きさ
は、画面上の位置によって異なっている。よって、本発
明は、監視中には撮影した物体の大きさを、画面上の一
番手前で撮影された場合の大きさ、すなわち、前記基準
画像を取り込んだときの大きさに変換した上で、前記基
準認識物体13の横幅14、高さ15と監視中の物体の
大きさを比較するものである。このとき、監視中の物体
の大きさを基準画像に合あわせるため(つまり、画面上
の一番手前で撮影された場合の大きさに合わせるため)
に、その物体までの距離を測定する必要があるが、それ
は、TVカメラの仰角と物体の重心を求めることによ
り、近似的に得ることができる。The size of an object such as a person photographed on the screen differs depending on the position on the screen. Therefore, according to the present invention, the size of the object photographed during monitoring is converted into a size when photographed in the foreground on the screen, that is, a size when the reference image is captured. , Comparing the width 14 and the height 15 of the reference recognition object 13 with the size of the object being monitored. At this time, in order to fit the size of the monitored object to the reference image (that is, to fit the size of the object being shot at the foreground on the screen)
First, it is necessary to measure the distance to the object, which can be approximately obtained by obtaining the elevation angle of the TV camera and the center of gravity of the object.
【0014】撮影した物体の大きさを、画面の一番手前
で撮影された場合の大きさに変換する方法を、図1、図
2、図3、図13、図14を用いて説明する。A method for converting the size of a photographed object into the size when photographing is performed in front of the screen will be described with reference to FIGS. 1, 2, 3, 13, and 14. FIG.
【0015】監視中に撮像した物体が認識対象物体であ
るか否かの判定について図1を中心に説明する。物体位
置算出ステップ17では、ラベリング画像40(図14
参照)で得られた物体N1の重心位置GN1、横幅XN
1、高さYN1を算出する。足元位置に対する認識物体
の大きさ算出ステップ18−1では、物体の横幅XN
1、高さYN1を画面上の一番手前で撮影された場合の
物体の横幅XN1、高さYN1に変換する。この変換方
法について図13を用いて説明する。同図に示すよう
に、TVカメラ22の垂直方向の視野角Δθを求める。
TVカメラ22からA地点までの距離LA及びカメラか
らB地点までの距離LBが分かっているとき、地点Aま
での角度θA、地点Bまでの角度θBは、式9及び式1
0で得られる。The determination of whether or not an object imaged during monitoring is an object to be recognized will be described mainly with reference to FIG. In the object position calculation step 17, the labeling image 40 (FIG.
Center position GN1, width XN of the object N1 obtained by
1. Calculate the height YN1. In the step 18-1 for calculating the size of the recognized object with respect to the foot position, the width XN of the object is determined.
1. The height YN1 is converted into a width XN1 and a height YN1 of the object when the object is photographed in front of the screen. This conversion method will be described with reference to FIG. As shown in the figure, the vertical viewing angle Δθ of the TV camera 22 is obtained.
When the distance LA from the TV camera 22 to the point A and the distance LB from the camera to the point B are known, the angle θA to the point A and the angle θB to the point B are calculated by Expressions 9 and 1.
0 is obtained.
【0016】[0016]
【数1】 (Equation 1)
【0017】よってカメラの垂直方向の視野角Δθは式
11で得られる。Accordingly, the vertical viewing angle Δθ of the camera can be obtained by equation (11).
【0018】式11 Δθ=θA−θB 次に、物体が画面上に撮影される大きさは、カメラから
物体までの距離Rに反比例する。Equation 11 Δθ = θA−θB Next, the size of the object photographed on the screen is inversely proportional to the distance R from the camera to the object.
【0019】ここで、物体までの水平距離L、物体まで
の距離R、角度θとの間には、式12のような関係があ
る。Here, the horizontal distance L to the object, the distance R to the object, and the angle .theta.
【0020】式12 R=L/cosθ 画面上に撮影された物体の横幅は、物体までの距離Rに
反比例するので、画面上の物体の横幅XN1と、それを
画面上の一番手前で撮影された場合の横幅XN1′との
間には、式13のような関係がある。Equation 12 R = L / cos θ Since the width of the object photographed on the screen is inversely proportional to the distance R to the object, the width XN1 of the object on the screen and the image XN1 are photographed in front of the screen. Equation 13 has a relationship with the horizontal width XN1 'in this case.
【0021】式13 XN1′=XN1×(cosθ/cosθA) 同様に、画面上に撮影された物体の高さは、物体までの
距離Rに反比例するので、画面上の物体の高さYN1
と、それを画面上の一番手前で撮影された場合の高さY
N1′との間には、式14のような関係がある。Equation 13 XN1 ′ = XN1 × (cos θ / cos θA) Similarly, the height of the object photographed on the screen is inversely proportional to the distance R to the object, and therefore, the height YN1 of the object on the screen
And the height Y when it is photographed in front of the screen
N1 ′ has a relationship as shown in Expression 14.
【0022】式14 YN1′=YN1×(cosθ/cosθA) このようにして、ステップ18−1では、撮像された物
体を、TVカメラと物体までの距離に応じて、画面上の
一番手前で撮像された場合の物体の大きさに変換する。Equation 14 YN1 ′ = YN1 × (cos θ / cos θA) In this manner, in step 18-1, the imaged object is moved to the front of the screen in accordance with the distance between the TV camera and the object. The size is converted into the size of the object when captured.
【0023】検出物体の大きさ判定ステップ19では、
撮影された物体を画面上の一番手前で撮影された場合の
大きさに変換するステップ18−1で得られた物体の横
幅XN1′、高さYN1′と画面の一番手前での認識物
体の大きさ設定ステップ11で設定した認識物体13
(つまり基準画像)の横幅14、縦幅15を比較するこ
とにより、認識物体か否かの判断を行う。検出物体の大
きさ判定ステップ19の処理を、式で表すと式15及び
式16となる。In the step 19 for determining the size of the detected object,
The width XN1 'and height YN1' of the object obtained in step 18-1 for converting the photographed object to the size when photographed in front of the screen and the recognized object in front of the screen Object 13 set in size setting step 11
By comparing the horizontal width 14 and the vertical width 15 of the (that is, the reference image), it is determined whether or not the object is a recognition object. The processing of the detection object size determination step 19 is expressed by Expressions 15 and 16.
【0024】式15 認識物体の横幅14−αX≦物体の横幅XN1′≦認識
物体の横幅14+αX 式16 認識物体の高さ15−αY≦物体の高さYN1′≦認識
物体の高さ15+αY 上記式15及び式16の条件の両方を、物体N1が満た
した場合に認識対象物体20と判断し、それ以外の場合
を認識対象外物体21と判断する。Equation 15 Width of recognition object 14−αX ≦ Width of object XN1 ′ ≦ Width of recognition object 14 + αX Equation 16 Height of recognition object 15−αY ≦ Height of object YN1 ′ ≦ Height of recognition object 15 + αY When both of the conditions of Expression 15 and Expression 16 are satisfied by the object N1, the object is determined to be the recognition target object 20, and otherwise, it is determined to be the non-recognition object 21.
【0025】すなわち、式15、式16により、図12
に示すように、この実施例の場合は、物体N1を侵入物
(この場合は人)と判断し、それ以外を認識対象外物体
20(この場合は自動車)と判断する。すなわち、認識
対象物体21と判断された場合、検出物体N1と認識物
体との間には、認識対象物体条件46が成り立ってい
る。又、認識対象外物体20と判断された場合、検出物
体N1と認識物体との間には、認識対象外物体(自動
車)条件47が成り立っている。That is, according to Equations 15 and 16, FIG.
As shown in FIG. 7, in this embodiment, the object N1 is determined as an intruder (in this case, a person), and the others are determined as non-recognition-target objects 20 (in this case, automobiles). That is, when the recognition target object 21 is determined, the recognition target object condition 46 is established between the detection object N1 and the recognition object. Further, when it is determined that the object is a non-recognition object 20, a non-recognition object (automobile) condition 47 is established between the detection object N1 and the recognition object.
【0026】上記の方法により、認識物体の基準となる
大きさを、画面上の一番手前に位置する物体の大きさ一
つで認識処理が可能となる。According to the above-described method, it is possible to perform the recognition process using the reference size of the recognized object as the size of the object located at the foreground on the screen.
【0027】[0027]
【発明の効果】以上説明したように、本発明では認識す
べき一物体の基準の大きさは、画面上の一番手前に位置
する物体の大きさ一つのみを設定すればよいため、設定
が簡単で、短時間で行うことができる。As described above, according to the present invention, the reference size of one object to be recognized only needs to be set to one size of the object located at the foreground on the screen. Is simple and can be performed in a short time.
【0028】また、TVカメラと物体との距離を求めた
上で、その距離に応じた基準画像を得て、判定を行うた
め、精度よく侵入物体の判定を行うことができる。Further, since the distance between the TV camera and the object is obtained, a reference image corresponding to the distance is obtained, and the judgment is made. Therefore, the intruding object can be judged with high accuracy.
【図1】本発明の一実施例の原理を示すフローチャー
ト。FIG. 1 is a flowchart showing the principle of one embodiment of the present invention.
【図2】本発明の一実施例の画像認識処理の初期設定の
原理を示すフローチャート。FIG. 2 is a flowchart showing the principle of initial setting of image recognition processing according to one embodiment of the present invention.
【図3】本発明の一実施例の画像認識処理の初期設定の
原理の説明図。FIG. 3 is an explanatory diagram of the principle of initial setting of image recognition processing according to one embodiment of the present invention.
【図4】本発明の一実施例の画像認識処理の原理を示す
フローチャート。FIG. 4 is a flowchart illustrating the principle of image recognition processing according to one embodiment of the present invention.
【図5】ハードウェア構成を示すブロック構成図。FIG. 5 is a block diagram showing a hardware configuration.
【図6】従来法の原理を示すフローチャート。FIG. 6 is a flowchart showing the principle of the conventional method.
【図7】従来法の原理の説明図。FIG. 7 is an explanatory diagram of the principle of the conventional method.
【図8】従来法の画像認識処理の初期設定の原理を示す
フローチャート。FIG. 8 is a flowchart showing the principle of the initial setting of the conventional image recognition processing.
【図9】従来法の画像認識処理の初期設定の原理の説明
図。FIG. 9 is an explanatory diagram of the principle of the initial setting of the conventional image recognition processing.
【図10】従来法の画像認識処理の原理を示すフローチ
ャート。FIG. 10 is a flowchart showing the principle of the conventional image recognition processing.
【図11】物体位置算出の原理の説明図。FIG. 11 is an explanatory diagram of the principle of calculating an object position.
【図12】認識対象物体と認識対象外物体判断例の説明
図。FIG. 12 is an explanatory diagram of a recognition target object and a non-recognition object determination example.
【図13】本発明の足元位置に対する認識物体の大きさ
算出の説明図。FIG. 13 is an explanatory diagram of calculating the size of a recognized object with respect to a foot position according to the present invention.
【図14】本発明の足元位置に対する認識物体の大きさ
変換の説明図。FIG. 14 is an explanatory diagram of size conversion of a recognition object with respect to a foot position according to the present invention.
1:初期背景作成ステップ、2:画像入力ステップ、
3:差分ステップ、4:二値化ステップ、5:ノイズ除
去ステップ、6:ラベリングステップ、7−1、7−
2:物体認識ステップ、8:背景画像更新ステップ、
9:物体の有無判定ステップ、10:警報処理ステッ
プ、11:画像上の一番手前での認識物体の大きさ設定
ステップ、12:物体認識画像、13:画像上の一番手
前での認識物体、14:画面上の一番手前での認識物体
の横幅、15:画面上の一番手前での認識物体の高さ、
16:画面上の一番手前での認識物体の足元位置、1
7:物体位置算出ステップ、18−1:撮影された物体
を画面上の一番手前で撮影された場合の大きさに変換す
るステップ、18−2:足元位置に対する物体の大きさ
算出ステップ、19…検出物体の大きさ判定ステップ、
20:認識対象外物体(判断結果)、21:認識対象物
体(判断結果)、22:TVカメラ、23:画像入力I
/F、24:画像メモリ、25:CPU、26:出力I
/F、27:警報表示モニタ、28:データバス、29
…ワークメモリ、30…プログラムメモリ、31…画像
出力I/F、32:ビデオモニタ、33…背景画像、3
4:入力画像、35:差分画像、36:二値化画像、3
7:ノイズ領域、38:ノイズ除去画像、39:検出対
象物体、40:ラベリング画像、N1 :検出物体番
号、41:画面の一番奥での認識物体の大きさ設定ステ
ップ、42:画像上の一番奥の認識物体、43:画面上
の一番奥の認識物体の横幅、44:画面上の一番奥の認
識物体の高さ、45:画面上の一番奥の認識物体の足元
位置、XN1:物体N1 の横幅、YN1:物体N1 の高
さ、EN1:物体N1 の足元位置、GN1:物体N1 の
重心位置、46:認識対象物体条件図、47:認識対象
外物体条件図、A、B:カメラの視野、C:物体の存在
位置、LA 、LB :カメラからそれぞれの地点まで
の距離、θA :A地点での角度、θB :B地点での
角度、Δθ:カメラの水平方向の視野角、θ:カメラと
物体との角度、R:カメラからの距離、XN1′:変換
後の横幅、YN1′:変換後の高さ、GN1′:変換後の
物体の重心位置、48:物体の大きさ変換画像。1: Initial background creation step, 2: Image input step,
3: difference step, 4: binarization step, 5: noise removal step, 6: labeling step, 7-1, 7-
2: object recognition step, 8: background image update step,
9: object presence / absence determination step, 10: alarm processing step, 11: size setting step of the recognition object at the front of the image, 12: object recognition image, 13: recognition object at the front of the image , 14: the width of the foreground object on the screen, 15: the height of the foreground object on the screen,
16: Foot position of the recognition object at the foreground on the screen, 1
7: object position calculation step; 18-1: step of converting the photographed object into a size when photographed at the foreground on the screen; 18-2: object size calculation step with respect to the foot position; 19 ... Detection object size determination step,
20: object not to be recognized (judgment result), 21: object to be recognized (judgment result), 22: TV camera, 23: image input I
/ F, 24: image memory, 25: CPU, 26: output I
/ F, 27: alarm display monitor, 28: data bus, 29
... Work memory, 30 ... Program memory, 31 ... Image output I / F, 32: Video monitor, 33 ... Background image, 3
4: input image, 35: difference image, 36: binarized image, 3
7: noise area, 38: noise-removed image, 39: detection target object, 40: labeling image, N 1 : detected object number, 41: size setting step of the recognized object at the innermost part of the screen, 42: on the image , 43: the width of the deepest recognized object on the screen, 44: the height of the deepest recognized object on the screen, 45: the foot of the deepest recognized object on the screen Position, XN 1 : width of object N 1 , YN 1 : height of object N 1 , EN 1 : foot position of object N 1 , GN 1 : center of gravity of object N 1 , 46: object condition diagram for recognition, 47 : Condition diagram of non-recognition object, A, B: field of view of camera, C: existing position of object, LA, LB: distance from camera to each point, θA: angle at point A, θB: angle at point B Angle, Δθ: horizontal viewing angle of camera, θ: angle between camera and object, R: distance from camera Separation, XN 1 ′: horizontal width after conversion, YN 1 ′: height after conversion, GN 1 ′: position of center of gravity of converted object, 48: converted image of object size.
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA03 AA07 AA17 AA23 CC16 FF04 FF09 JJ03 JJ26 QQ00 QQ04 QQ24 QQ25 QQ34 RR02 RR05 SS02 SS09 UU05 5C054 FC01 FC05 FC12 FC15 FD07 GA04 GB01 GB12 HA18 5C084 AA01 AA06 BB31 DD11 GG43 GG52 GG56 GG78 5L096 BA02 CA04 DA03 EA03 EA05 EA43 FA60 FA66 GA08 GA34 HA03 HA08 JA09 9A001 BZ03 BZ04 EE05 HH21 HH24 HH27 JJ71 KK37 ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) 2F065 AA03 AA07 AA17 AA23 CC16 FF04 FF09 JJ03 JJ26 QQ00 QQ04 QQ24 QQ25 QQ34 RR02 RR05 SS02 SS09 UU05 5C054 FC01 FC05 FC12 FC15 FD07 GA04 GB01 GB12 GG11 AGG5A08 GG78 5L096 BA02 CA04 DA03 EA03 EA05 EA43 FA60 FA66 GA08 GA34 HA03 HA08 JA09 9A001 BZ03 BZ04 EE05 HH21 HH24 HH27 JJ71 KK37
Claims (4)
ンカメラから得られた映像信号を、画像メモリに記録
し、CPUを用いて画像処理し、被写体が検出対象物体
であるか否かの自動認識を行う監視用画像処理におい
て、 予め、前記検出対象物体の基準パターンを撮像し、前記
画像メモリに保持し、監視時に前記テレビジョンカメラ
で撮像された被写体の映像から該被写体の重心を求め、
該被写体の重心位置と前記テレビジョンカメラの仰角か
ら該被写体までの距離を測定しその結果に基づき、前記
被写体の映像を前記被写体までの距離に対応した大きさ
に変換し、該変換された被写体の画像と前記予めメモリ
に保持された検出対象の基準パターンとを比較し前記被
写体の映像が前記検出対象物体であるか否かを判定する
ことを特徴とする物体認識画像処理方法。1. A video signal obtained from a television camera that captures an image of an area to be monitored is recorded in an image memory, subjected to image processing using a CPU, and automatically determined whether or not the subject is a detection target object. In the monitoring image processing for recognition, in advance, a reference pattern of the detection target object is imaged, held in the image memory, and the center of gravity of the object is obtained from an image of the object captured by the television camera during monitoring,
The distance to the subject is measured from the position of the center of gravity of the subject and the elevation angle of the television camera, and based on the result, the image of the subject is converted into a size corresponding to the distance to the subject. An object recognition image processing method comprising: comparing an image of the object with a reference pattern of a detection target stored in a memory in advance to determine whether or not the image of the subject is the detection target object.
ンカメラから得られた映像信号を、複数の画像メモリに
記録し、CPUを用いて該画像メモリ間で処理し、被写
体が侵入物、侵入者等の検出対象物体であるか否かの自
動認識を行う監視用画像処理方法において、 予め、検出対象物体の基準パターンを撮像し、前記画像
メモリに保持するステップと、監視時に前記テレビジョ
ンカメラで撮像された被写体の映像から該被写体の重心
を求めるステップと、該被写体の重心位置と前記テレビ
ジョンカメラの仰角から該被写体までの距離を測定する
ステップと、該被写体の映像を前記距離を測定するステ
ップで求めた被写体の距離に対応した大きさに変換する
ステップと、該距離に対応した大きさに変換された被写
体の画像と前記あらかじめ記録された検出対象の基準パ
ターンとを比較し被写体の画像が検出対象物体であるか
否かを判定するステップとを有することを特徴とする物
体認識画像処理方法。2. A video signal obtained from a television camera that captures an image of an area to be monitored is recorded in a plurality of image memories, and processed between the image memories using a CPU. A monitoring image processing method for automatically recognizing whether or not the object is a detection target object, such as a person, comprising: previously capturing a reference pattern of the detection target object and storing the reference pattern in the image memory; Obtaining the center of gravity of the subject from the image of the subject captured in the step, measuring the distance to the subject from the position of the center of gravity of the subject and the elevation angle of the television camera, and measuring the distance from the image of the subject Converting the size of the subject to the size corresponding to the distance obtained in the step Object recognition image processing method characterized by having a determining to whether or not the image of the object is a detection target object compared with the reference pattern of the detection target.
ンカメラと該テレビジョンカメラから得られた映像信号
を保持する複数の画像メモリと、少なくとも該複数のメ
モリを制御するCPUとを有し、被写体が検出対象物体
であるか否かの自動認識を行う監視用画像処理装置にお
いて、 予め、検出対象物体の基準パターンを撮像し、前記画像
メモリに保持するステップと、監視時に前記テレビジョ
ンカメラで撮像された被写体の映像から該被写体の重心
を求めるステップと、該被写体の重心位置と前記テレビ
ジョンカメラの仰角から該被写体までの距離を測定する
ステップと、該被写体の映像を前記距離を測定するステ
ップで求めた被写体の距離に対応した大きさに変換する
ステップと、該距離に対応した大きさに変換された被写
体の画像と前記あらかじめ記録された検出対象の大きさ
の基準とを比較し被写体の画像が検出対象物体であるか
否かを判定するステップとを有することを特徴とする物
体認識画像処理方法。3. A television camera that captures an image of an area to be monitored, a plurality of image memories that hold video signals obtained from the television camera, and a CPU that controls at least the plurality of memories, In a monitoring image processing apparatus for automatically recognizing whether a subject is a detection target object, a step of previously capturing a reference pattern of the detection target object and storing the reference pattern in the image memory; Determining the center of gravity of the subject from the captured image of the subject, measuring the distance to the subject from the position of the center of gravity of the subject and the elevation angle of the television camera, and measuring the distance from the image of the subject Converting the object into a size corresponding to the distance of the subject obtained in the step; and an image of the subject converted into a size corresponding to the distance. Object recognition image processing method characterized by serial prerecorded comparing the magnitude of the reference of the detection object image of the subject and a step of determining whether or not a detection target object.
さの基準は幅の最小値と最大値と、高さの最小値と最大
値で規定したことを特徴とする物体認識画像処理方法。4. The object recognition image processing method according to claim 3, wherein the reference of the size of the detection target is defined by a minimum value and a maximum value of a width and a minimum value and a maximum value of a height.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP11071932A JP2000268173A (en) | 1999-03-17 | 1999-03-17 | Object recognition image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP11071932A JP2000268173A (en) | 1999-03-17 | 1999-03-17 | Object recognition image processing method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2000268173A true JP2000268173A (en) | 2000-09-29 |
Family
ID=13474796
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP11071932A Pending JP2000268173A (en) | 1999-03-17 | 1999-03-17 | Object recognition image processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2000268173A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003151048A (en) * | 2001-09-05 | 2003-05-23 | Sick Ag | Monitoring method and photoelectronic sensor |
| JP2005506740A (en) * | 2001-10-09 | 2005-03-03 | オブジェクトビデオ インコーポレイテッド | Video trip wire |
| CN102906788A (en) * | 2010-05-21 | 2013-01-30 | 松下电器产业株式会社 | Traffic line creation device and traffic line creation method |
| CN103688139A (en) * | 2011-07-14 | 2014-03-26 | 宝马股份公司 | Method and device for detecting the gait of a pedestrian for a portable terminal |
| JP2019514102A (en) * | 2015-11-30 | 2019-05-30 | コリア インスティチュート オブ インダストリアル テクノロジー | Behavior pattern analysis system and method using depth image |
| JP2022102947A (en) * | 2020-12-25 | 2022-07-07 | 富士通株式会社 | Detection program, detection method, and detection device |
-
1999
- 1999-03-17 JP JP11071932A patent/JP2000268173A/en active Pending
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003151048A (en) * | 2001-09-05 | 2003-05-23 | Sick Ag | Monitoring method and photoelectronic sensor |
| JP2005506740A (en) * | 2001-10-09 | 2005-03-03 | オブジェクトビデオ インコーポレイテッド | Video trip wire |
| CN102906788A (en) * | 2010-05-21 | 2013-01-30 | 松下电器产业株式会社 | Traffic line creation device and traffic line creation method |
| US8934671B2 (en) | 2010-05-21 | 2015-01-13 | Panasonic Corporation | Traffic line creation device and traffic line creation method |
| CN102906788B (en) * | 2010-05-21 | 2016-06-08 | 松下电器产业株式会社 | Moving-wire producing device and moving-wire manufacture method |
| CN103688139A (en) * | 2011-07-14 | 2014-03-26 | 宝马股份公司 | Method and device for detecting the gait of a pedestrian for a portable terminal |
| CN103688139B (en) * | 2011-07-14 | 2017-04-05 | 宝马股份公司 | For the method and apparatus for carrying out pedestrian's step identification of portable terminal |
| JP2019514102A (en) * | 2015-11-30 | 2019-05-30 | コリア インスティチュート オブ インダストリアル テクノロジー | Behavior pattern analysis system and method using depth image |
| JP2022102947A (en) * | 2020-12-25 | 2022-07-07 | 富士通株式会社 | Detection program, detection method, and detection device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8437504B2 (en) | Imaging system and imaging method | |
| JP2000090277A (en) | Reference background image updating method, intruding object detecting method, and intruding object detecting device | |
| US20090128652A1 (en) | Image processing apparatus | |
| CN112613568B (en) | Target identification method and device based on visible light and infrared multispectral image sequence | |
| JP3134845B2 (en) | Apparatus and method for extracting object in moving image | |
| JP2000268173A (en) | Object recognition image processing method | |
| JP2001043383A (en) | Image monitoring system | |
| JPH0514891A (en) | Image monitoring device | |
| JP2002027449A (en) | Moving object identification method and moving object identification device | |
| JPH0793558A (en) | Image monitoring device | |
| JP3736836B2 (en) | Object detection method, object detection apparatus, and program | |
| CN111899512A (en) | Vehicle track extraction method and system combined with skyline observation and storage medium | |
| JPH05300516A (en) | Animation processor | |
| JPH057363A (en) | Picture monitoring device | |
| JP2529968B2 (en) | Image sensor | |
| JP2002218443A (en) | Intruding object detection method and intruding object monitoring apparatus for automatically determining threshold for intruding object detection | |
| CN117456634A (en) | A method, device and storage medium for triggering parking surveillance video recording function | |
| JP2003317033A (en) | Affine transformation coefficient calculation method and image processing apparatus in image processing | |
| JP6133700B2 (en) | Image sensor | |
| JP2002140711A (en) | A method for setting the size of an intruding object detecting device, a method for detecting an intruding object, and an intruding object detecting device. | |
| JPH0731248B2 (en) | Moving object detector | |
| JP2004128648A (en) | Intruding object tracking method | |
| JPH0514898A (en) | Image monitor device | |
| JP2807232B2 (en) | Medical image difference recognition display method and medical image difference recognition display device | |
| JP2003322521A (en) | Image recognition device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050819 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051011 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051209 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060116 |