JPH11203481A - Moving body identifying device - Google Patents
Moving body identifying deviceInfo
- Publication number
- JPH11203481A JPH11203481A JP10008633A JP863398A JPH11203481A JP H11203481 A JPH11203481 A JP H11203481A JP 10008633 A JP10008633 A JP 10008633A JP 863398 A JP863398 A JP 863398A JP H11203481 A JPH11203481 A JP H11203481A
- Authority
- JP
- Japan
- Prior art keywords
- moving
- uniformity
- moving object
- moving body
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、例えばテレビジョ
ンカメラ(以下、TVカメラと称する)の撮像により得
られた画像データを処理して移動体の種別を識別する移
動体識別装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving object identification apparatus for processing image data obtained by, for example, a television camera (hereinafter referred to as a TV camera) to identify the type of the moving object.
【0002】[0002]
【従来の技術】図17は従来の移動体識別装置の構成図
である。この識別装置の概略は、TVカメラ1により識
別対象とする移動体2を撮像し、サンプリング時間Δt
の間隔だけ離れた2つのタイミング時刻tとt+Δtと
でそれぞれ得られた2枚の画像データI(t) とI(t+Δ
t)との差分画像データ |I(t+Δt)−I(t) | …(1) を求める。2. Description of the Related Art FIG. 17 is a block diagram of a conventional moving object identification device. The outline of this identification device is as follows. A moving object 2 to be identified is imaged by a TV camera 1 and a sampling time Δt
, Two image data I (t) and I (t + Δt) obtained at two timing times t and t + Δt, respectively.
The difference image data | I (t + Δt) −I (t) | (1) is obtained.
【0003】そして、この差分画像データの値の大きな
部分が移動体2の画像部分であり、差分画像データの値
の小さな部分は静止しているし背景の領域であるとして
移動体2の画像部分のみを抽出する。A portion having a large value of the difference image data is an image portion of the moving body 2 and a portion having a small value of the difference image data is determined to be a stationary or background area. Extract only
【0004】次に、移動体2の画像部分の面積を計算
し、その面積がある値以上のものだけを移動体2の領域
であるとし、この領域から識別対象である移動体2が例
えば図17に示すように車体と、その他の移動体である
例えば人間や小動物(犬、猫等)とを識別可能としてい
る。[0004] Next, the area of the image portion of the moving body 2 is calculated, and only the area having a certain area or more is a region of the moving body 2. As shown in FIG. 17, the vehicle body can be distinguished from other moving objects such as humans and small animals (dogs, cats, etc.).
【0005】具体的に説明すると、TVカメラ1は、走
行する移動体2を撮像し、その画像信号を出力する。こ
の画像信号は、A/D変換器3によりディジタルの画像
データに変換され、量子化された時刻tの画像データI
(t,i,j) として移動体検知器4に送られる。ここに、
i、jは1≦i≦M、1≦j≦Nであり、M×Nは画像
サイズである。なお、図18(a) は時刻tの画像データ
I(t,i,j) の一例を示す模式図である。More specifically, the TV camera 1 captures an image of the moving body 2 that travels and outputs an image signal. This image signal is converted into digital image data by the A / D converter 3 and the quantized image data I at the time t.
It is sent to the moving object detector 4 as (t, i, j). here,
i and j are 1 ≦ i ≦ M and 1 ≦ j ≦ N, and M × N is the image size. FIG. 18A is a schematic diagram showing an example of the image data I (t, i, j) at time t.
【0006】そして、サンプリング時間Δt秒後には、
TVカメラ1から出力された画像信号は、A/D変換器
3によりディジタルの画像データに変換され、量子化さ
れた画像データI(t+Δt ,i,j) として移動体検知器4
に送られる。なお、図18(b) は時刻t+Δt の画像デ
ータI(t+Δt ,i,j) の一例を示す模式図である。After the sampling time Δt seconds,
The image signal output from the TV camera 1 is converted into digital image data by the A / D converter 3 and is converted into quantized image data I (t + Δt, i, j) by the moving object detector 4.
Sent to FIG. 18B is a schematic diagram showing an example of image data I (t + Δt, i, j) at time t + Δt.
【0007】この移動体検知器4は、2つの画像データ
I(t,i,j) とI(t+Δt ,i,j) とを入力し、次式(2) に
示すような演算を実行して差分画像データJ(t+Δt ,
i,j)を得る。The moving object detector 4 receives two image data I (t, i, j) and I (t + Δt, i, j) and executes an operation as shown in the following equation (2). And the difference image data J (t + Δt,
i, j).
【0008】 J(t+Δt ,i,j) =|I(t+Δt ,i,j) −I(t,i,j) | …(2) (1≦i≦M、1≦j≦N) 次に移動体検知器4は、この差分画像データJ(t+Δt
,i,j) と予め設定された閾値とを比較し、差分画像デ
ータJ(t+Δt ,i,j) における閾値よりも大きい画素す
なわち明るさが大きく変化する画素を値「1」に、又小
さい画素すなわち明るさがあまり変化しない画素を値
「0」に変換し、移動体形状検出器5に2値画像データ
K(t+Δt ,i,j) として送出する。J (t + Δt, i, j) = | I (t + Δt, i, j) −I (t, i, j) | (2) (1 ≦ i ≦ M, 1 ≦ j ≦ N) The moving object detector 4 calculates the difference image data J (t + Δt
, i, j) and a preset threshold value, and a pixel larger than the threshold value in the difference image data J (t + Δt, i, j), that is, a pixel whose brightness changes greatly, is set to a value “1”, and The pixel, that is, the pixel whose brightness does not change much is converted into a value “0” and sent to the moving object shape detector 5 as binary image data K (t + Δt, i, j).
【0009】図19はかかる2値画像データK(t+Δt
,i,j) の模式図を示し、移動体2の領域の画素値が
「1」として現わされ、その周囲の領域の画素値が
「0」として現わされている。FIG. 19 shows such binary image data K (t + Δt).
, i, j), where the pixel value of the area of the moving body 2 is represented as “1” and the pixel value of the surrounding area is represented as “0”.
【0010】次に移動体形状検出器5は、2値画像デー
タK(t+Δt ,i,j) の値「1」を1つの塊である移動体
領域6として抽出し、この移動体領域6の面積を画素単
位で演算する。この移動体領域6の面積値は、移動体2
の大きさを表している。Next, the moving object shape detector 5 extracts the value “1” of the binary image data K (t + Δt, i, j) as a moving object region 6 as one lump, The area is calculated in pixel units. The area value of the moving body region 6 is
Represents the size of.
【0011】次に移動体識別器7は、移動体形状検出器
5により求められた移動体領域6の面積値を受けて予め
設定された閾値と比較し、移動体領域6の面積値が閾値
以上であれば、その移動体領域6は例えば車体や人間で
あり、閾値未満であれば、本来検知すべきでない小物体
例えば犬等の小動物であると認識する。Next, the moving body identifier 7 receives the area value of the moving body area 6 obtained by the moving body shape detector 5 and compares it with a preset threshold value. If so, the moving body area 6 is, for example, a vehicle body or a human, and if less than the threshold value, it is recognized as a small object that should not be detected, for example, a small animal such as a dog.
【0012】このように検知された移動体2を含む画像
領域の大きさにより検知すべき移動体(車体や人間)と
検知すべきでない物体(例えば犬や猫等の小動物)とを
識別できる。A moving object to be detected (vehicle or human) and an object not to be detected (for example, a small animal such as a dog or a cat) can be identified based on the size of the image area including the moving object 2 detected as described above.
【0013】ここで、上記移動体形状検出器5は、図2
0に示すように移動体領域6に対して外接する四角形の
縦と横の各長さh、wの縦横比r r=w/h …(3) を演算する。Here, the moving body shape detector 5 is shown in FIG.
As shown in FIG. 0, the aspect ratio rr = w / h (3) of the vertical and horizontal lengths h and w of the rectangle circumscribing the moving object area 6 is calculated.
【0014】そして、上記移動体識別器7は、縦横比r
の値と予め設定された閾値(例えば1)とを比較し、縦
横比rが閾値以上であれば、移動体2の形状は横長であ
るとして車体と判定し、閾値未満であれば縦長であると
して人間と判定し、車体と人間とを識別できるものとな
っている。The moving object discriminator 7 has an aspect ratio r
Is compared with a preset threshold value (for example, 1). If the aspect ratio r is equal to or greater than the threshold value, the shape of the moving body 2 is determined to be horizontal and the vehicle body is determined. Is determined as a human, and the vehicle body and the human can be distinguished.
【0015】[0015]
【発明が解決しようとする課題】しかしながら、車体を
正面から観測した場合や人間が両手、両足を大きく広げ
て歩行する場合、そのときの各画像データは、それぞれ
図21(a)(b)に示すような画像となり、これらの縦横比
rの値はいずれも1に近い値となり、単に1より大きい
か小さいかで車体か人間かを識別すると、識別ミスの可
能性が高くなってしまう。However, when the vehicle body is observed from the front or when a human walks with both hands and legs wide open, the respective image data at that time are shown in FIGS. 21 (a) and 21 (b), respectively. An image as shown is obtained, and the values of these aspect ratios r are all close to 1, and if a vehicle body or a person is simply identified as being larger or smaller than 1, the possibility of an identification error increases.
【0016】又、閾値として、縦横比rがr≧rth1 ≧
1とのとき車体、r<rth2 <1のとき人間、rth2 ≦
r<rth1 のときそれら以外、として識別しているが、
これでは単にそれら以外に属する場合を増加させるだけ
であり、縦横比rが1付近の場合、正確に車体と人間と
を識別することは困難である。そこで本発明は、正確に
車体と人間とを識別できる移動体識別装置を提供するこ
とを目的とする。As a threshold value, the aspect ratio r is r ≧ r th1 ≧
When 1, the vehicle body, when r <r th2 <1, human, when r th2 ≦
When r <r th1 , other than these are identified as
This simply increases the number of cases belonging to other than these, and when the aspect ratio r is close to 1, it is difficult to accurately distinguish a vehicle body from a person. Therefore, an object of the present invention is to provide a moving object identification device that can accurately identify a vehicle body and a human.
【0017】[0017]
【課題を解決するための手段】請求項1によれば、撮像
装置により移動体を撮像したときに得られる画像データ
から所定サンプリング時間差の各画像データの差分画像
データを求め、この差分画像データにおける移動体の含
まれる移動体領域の形状に基づいて移動体の種別を識別
する移動体識別装置において、移動体領域内の画像デー
タから移動体全体の移動方向の分布を求め、この移動方
向の分布の程度を表す均一度を求める均一度処理手段を
備え、この均一度及び移動体領域の形状に基づいて移動
体の種別を識別する移動体識別装置である。According to the first aspect, difference image data of each image data having a predetermined sampling time difference is obtained from image data obtained when an image of a moving object is picked up by an imaging device. In a moving object identification device for identifying a type of a moving object based on a shape of a moving object region including the moving object, a distribution of a moving direction of the entire moving object is obtained from image data in the moving object region, and a distribution of the moving direction is obtained. The moving body identification device is provided with uniformity processing means for obtaining a degree of uniformity indicating the degree of the moving body, and identifies the type of the moving body based on the uniformity and the shape of the moving body region.
【0018】請求項2によれば、請求項1記載の移動体
識別装置において、均一度処理手段は、移動体領域を複
数の小領域に分割してこれら小領域の各移動ベクトルを
検出し、かつこれら移動ベクトルの方向分布に対する均
一性の程度を表す均一度を求める移動方向分布検出手段
としての機能を有する。According to a second aspect of the present invention, in the moving body identification apparatus according to the first aspect, the uniformity processing means divides the moving body area into a plurality of small areas and detects each movement vector of these small areas. Further, it has a function as a moving direction distribution detecting means for obtaining a degree of uniformity indicating a degree of uniformity with respect to the direction distribution of these moving vectors.
【0019】請求項3によれば、請求項1記載の移動体
識別装置において、均一度処理手段は、移動体領域の各
画素ごとにエッジ方向を検出し、かつこれらエッジ方向
の方向分布に対する均一性の程度を表す均一度を求める
エッジ方向分布検出手段としての機能を有する。According to a third aspect of the present invention, in the moving body identification apparatus according to the first aspect, the uniformity processing means detects an edge direction for each pixel of the moving body area, and detects uniformity in the direction distribution of the edge directions. It has a function as an edge direction distribution detecting means for obtaining the degree of uniformity representing the degree of the nature.
【0020】請求項4によれば、請求項1記載の移動体
識別装置において、均一度処理手段は、移動体領域を複
数の小領域に分割してこれら小領域の各移動ベクトルを
検出し、かつこれら移動ベクトルの方向分布に対する均
一性の程度を表す均一度を求める移動方向分布検出手段
と、移動体領域の各画素ごとにエッジ方向を検出し、か
つこれらエッジ方向の方向分布に対する均一性の程度を
表す均一度を求めるエッジ方向分布検出手段とを備え
た。According to a fourth aspect of the present invention, in the moving object identification apparatus according to the first aspect, the uniformity processing means divides the moving object region into a plurality of small regions, and detects respective movement vectors of these small regions. A moving direction distribution detecting means for obtaining a degree of uniformity representing a degree of uniformity with respect to the direction distribution of the moving vectors; and an edge direction for each pixel of the moving body region, and the uniformity with respect to the direction distribution of these edge directions. Edge direction distribution detecting means for obtaining the degree of uniformity representing the degree.
【0021】[0021]
【発明の実施の形態】(1) 以下、本発明の第1の実施の
形態について図面を参照して説明する。なお、図17と
同一部分には同一符号を付してある。図1は移動体識別
装置の構成図である。(1) Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. The same parts as those in FIG. 17 are denoted by the same reference numerals. FIG. 1 is a configuration diagram of a moving object identification device.
【0022】TVカメラ1の出力端子には、A/D変換
器3を介して移動体検知器4が接続されている。この移
動体検知器4は、サンプリング時間Δtの間隔だけ離れ
た2つのタイミング時刻tとt+Δtとでそれぞれ得ら
れた2枚の画像データI(t) とI(t+Δt)との差分画像
データを求め、この差分画像データ中から移動体2を含
む移動体領域6を抽出して移動体形状検出器5及び移動
方向分布検出器10に送出する機能を有している。A moving object detector 4 is connected to an output terminal of the TV camera 1 via an A / D converter 3. The moving object detector 4 obtains difference image data between two image data I (t) and I (t + Δt) obtained at two timing times t and t + Δt separated by an interval of the sampling time Δt. And a function of extracting a moving body region 6 including the moving body 2 from the difference image data and transmitting the extracted moving body region 6 to the moving body shape detector 5 and the moving direction distribution detector 10.
【0023】このうち移動体形状検出器5は、移動体検
知器4により抽出された移動体領域6を入力し、この移
動体領域6の面積とこの移動体領域6に外接する長方形
の縦横比rの値を求める機能を有している。The moving body shape detector 5 receives the moving body area 6 extracted by the moving body detector 4 and inputs the area of the moving body area 6 to the aspect ratio of a rectangle circumscribing the moving body area 6. It has a function to find the value of r.
【0024】一方、移動方向分布検出器10は、移動体
領域6を複数の小領域に分割してこれら小領域の各移動
ベクトルを検出し、かつこれら移動ベクトルの方向分布
に対する均一性の程度を表す均一度fを求める機能を有
している。On the other hand, the moving direction distribution detector 10 divides the moving body area 6 into a plurality of small areas, detects each moving vector of these small areas, and determines the degree of uniformity of the moving vector with respect to the direction distribution. It has a function to find the uniformity f to be represented.
【0025】移動体識別器11は、移動体形状検出器5
により得られた移動体領域6の面積とこの移動体領域6
に外接する長方形の縦横比rの値を入力すると共に、移
動方向分布検出器10により求められた均一度を入力
し、これら移動体領域6の面積、縦横比r及び均一度f
に基づいて車体、人間、これら以外とを識別する機能を
有している。The moving body identifier 11 is a moving body shape detector 5
And the area of the moving body region 6 obtained by
The values of the aspect ratio r of the circumscribed rectangle and the uniformity obtained by the moving direction distribution detector 10 are input, and the area, aspect ratio r, and uniformity f of the moving body region 6 are input.
Has a function of identifying a vehicle body, a person, and others based on the information.
【0026】次に上記の如く構成された装置の作用につ
いて説明する。TVカメラ1は、走行する移動体2を撮
像し、その画像信号を出力する。この画像信号は、A/
D変換器3によりディジタルの画像データに変換され、
上記図18(a) に示すような量子化された時刻tの画像
データI(t,i,j) として移動体検知器4に送られる。Next, the operation of the above-configured device will be described. The TV camera 1 captures an image of the moving object 2 that travels and outputs an image signal of the image. This image signal is A /
It is converted into digital image data by the D converter 3,
It is sent to the moving object detector 4 as quantized image data I (t, i, j) at time t as shown in FIG.
【0027】続いてサンプリング時間Δt秒後、TVカ
メラ1から出力された画像信号は、A/D変換器3によ
りディジタルの画像データに変換され、上記図18(b)
に示すような量子化された画像データI(t+Δt ,i,j)
として移動体検知器4に送られる。Subsequently, after a sampling time Δt seconds, the image signal output from the TV camera 1 is converted into digital image data by the A / D converter 3 and the above-mentioned FIG.
Quantized image data I (t + Δt, i, j) as shown in
Is sent to the moving object detector 4.
【0028】この移動体検知器4は、2つの画像データ
I(t,i,j) とI(t+Δt ,i,j) とを入力し、上記式(2)
に示す演算を実行して差分画像データJ(t+Δt ,i,j)
を得る。The moving object detector 4 receives two image data I (t, i, j) and I (t + Δt, i, j) and obtains the above equation (2).
And the difference image data J (t + Δt, i, j)
Get.
【0029】次に移動体検知器4は、この差分画像デー
タJ(t+Δt ,i,j) と予め設定された閾値とを比較し、
差分画像データJ(t+Δt ,i,j) における閾値よりも大
きい画素すなわち明るさが大きく変化する画素を値
「1」に、又小さい画素すなわち明るさがあまり変化し
ない画素を値「0」に変換し、移動体形状検出器5及び
移動方向分布検出器10に上記図19に示すような2値
画像データK(t+Δt ,i,j) として送出する。Next, the moving object detector 4 compares the difference image data J (t + Δt, i, j) with a preset threshold value.
In the difference image data J (t + Δt, i, j), a pixel larger than the threshold value, that is, a pixel whose brightness changes greatly, is converted into a value “1”, and a small pixel, ie, a pixel whose brightness does not change much, is converted into a value “0”. Then, the image data is sent to the moving object shape detector 5 and the moving direction distribution detector 10 as binary image data K (t + Δt, i, j) as shown in FIG.
【0030】このうち移動体形状検出器5は、2値画像
データK(t+Δt ,i,j) の値「1」を1つの塊である移
動体領域6として抽出し、この移動体領域6の面積sを
画素単位で演算する。The moving object shape detector 5 extracts the value “1” of the binary image data K (t + Δt, i, j) as one moving object region 6 as one lump. The area s is calculated for each pixel.
【0031】又、移動体形状検出器5は、上記図20に
示すように移動体領域6に対して外接する四角形の縦と
横の各長さh、wの縦横比r r=w/h …(4) を演算する。As shown in FIG. 20, the moving body shape detector 5 has an aspect ratio rr = w / h of each of the vertical and horizontal lengths h and w of the rectangle circumscribing the moving body area 6. Calculate (4).
【0032】一方、移動方向分布検出器10は、図2に
示すように移動体領域6を複数の小領域に分割してこれ
ら小領域の各移動ベクトルを検出し、かつこれら移動ベ
クトルの方向分布に対する均一性の程度を表す均一度を
求める。On the other hand, the moving direction distribution detector 10 divides the moving body region 6 into a plurality of small regions as shown in FIG. 2, detects each moving vector of these small regions, and detects the direction distribution of these moving vectors. Is obtained, which represents the degree of uniformity with respect to.
【0033】この移動方向分布検出器10の動作ついて
具体的に説明すると、図2に示すように移動体領域6を
複数の正方形状の小領域Rk に分割する。ここに、k=
1,2,3,…,Kである。The operation of the moving direction distribution detector 10 will be specifically described. As shown in FIG. 2, the moving body region 6 is divided into a plurality of square small regions Rk . Where k =
.., K.
【0034】これら小領域Rk の1つの大きさは、一片
の長さが例えば5乃至20画素程度となっている。そし
て、移動体領域6の境界付近の小領域Rk は、その形状
が正方形状でないものは除外するか、又は小領域Rk の
形状が正方形状になるように移動体領域6を拡大処理す
る。The size of one of the small regions R k is such that the length of one piece is, for example, about 5 to 20 pixels. Then, as for the small region R k near the boundary of the moving body region 6, the one having a non-square shape is excluded, or the moving body region 6 is enlarged so that the small region R k has a square shape. .
【0035】すなわち、このような移動体領域6の拡大
処理は、正方形の領域中にその一部が少しでも含まれる
ものは全て選択し、それを新たな移動体領域とする。図
2に示す点線により新たな移動体領域が示されている。That is, in the enlargement processing of the moving body area 6 as described above, all of the square areas that are included at least in part are selected and set as a new moving body area. A new moving object area is indicated by a dotted line shown in FIG.
【0036】次に、個々の小領域Rk に対してそれに含
まれる画像データに対する移動ベクトル(uk ,vk )
を求める。この移動ベクトル(uk ,vk )の導出は、
次の方程式を解くことにより得られる。Next, for each small region R k , a movement vector (u k , v k ) for the image data contained therein
Ask for. The derivation of this movement vector (u k , v k )
It can be obtained by solving the following equation.
【0037】[0037]
【数1】 ここに、Ix(i,j)、Iy(i,j)、It(i,j)は、それぞれ画
像I(t,i,j) のi方向の空間微分画像、j方向の空間微
分画像、及び画像I(t,i,j) の時間微分画像である。(Equation 1) Here, Ix (i, j), Iy (i, j) and It (i, j) are the spatial differential image in the i direction, the spatial differential image in the j direction of the image I (t, i, j), respectively. And a time differential image of the image I (t, i, j).
【0038】又、記号Σは、小領域Rk の中に含まれる
全ての画素についての和を取ることを意味する。これら
の微分画像は、具体的には以下に示すような計算式(6)
乃至(8) により求められる。The symbol Σ means that the sum of all the pixels included in the small area R k is to be calculated. These differential images are calculated using the following formula (6).
To (8).
【0039】 Ix(i,j)=I(i+1,j) −I(i,j) …(6) Iy(i,j)=I(i,j+1) −I(i,j) …(7) It(i,j)=I( t+Δt,i,j,) −I(t,i,j) …(8) しかるに移動ベクトル(uk ,vk )は、小領域Rk 中
に含まれる移動体2の一部分が時刻tから時刻t+Δt
の間に空間的にi方向、j方向に進む距離(画素/Δ
t)を示している。Ix (i, j) = I (i + 1, j) −I (i, j) (6) Iy (i, j) = I (i, j + 1) −I (i, j) ) ... (7) It (i , j) = I (t + Δt, i, j,) -I (t, i, j) ... (8) However the motion vector (u k, v k) is a small area Part of the moving object 2 included in R k is shifted from time t to time t + Δt.
Distance spatially traveling in the i and j directions (pixels / Δ
t).
【0040】この結果、図3に示すように全ての小領域
Rk に対して移動ベクトルの集合(uk ,vk )(k=
1,2,3,…,K)が得られる。次に、この移動ベク
トル(uk ,vk )の方向θk を次式(9) 乃至(14)によ
り計算する。 (a) uk >0、vk ≧0のとき、 θk =tan-1( vk /uk ) …(9) (b) uk <0、vk ≧0のとき、 θk =(π/2)+tan-1|vk /uk | …(10) (c) uk <0、vk <0のとき、 θk =π+tan-1|vk /uk | …(11) (d) uk >0、vk <0のとき、 θk =(3π/2)+tan-1|vk /uk | …(12) (e) uk =0、vk >0のとき、 θk =π/2 …(13) (f) uk =0、vk <0のとき、 θk =3π/2 …(14) (g) uk =vk =0のとき、θk は定義はせず。その小
領域Rk のデータは除外する。[0040] As a result, a set of motion vectors for all of the small region R k as shown in FIG. 3 (u k, v k) (k =
1, 2, 3,..., K) are obtained. Next, the direction θ k of the movement vector (u k , v k ) is calculated by the following equations (9) to (14). (a) When u k > 0 and v k ≧ 0, θ k = tan −1 (v k / u k ) (9) (b) When u k <0 and v k ≧ 0, θ k = (π / 2) + tan -1 | v k / u k | ... (10) (c) when u k <0, v k < 0, θ k = π + tan -1 | v k / u k | ... (11 ) (in the case of d) u k> 0, v k <0, θ k = (3π / 2) + tan -1 | v k / u k | ... (12) (e) u k = 0, v k> 0 , Θ k = π / 2 (13) (f) When u k = 0, v k <0, θ k = 3π / 2 (14) (g) When u k = v k = 0 , Θ k are not defined. The data of the small region R k are excluded.
【0041】これら式(9) 乃至(14)により各小領域Rk
の移動ベクトル(uk ,vk )の方向θk は、図4に示
すような値を持つものとなる。この移動ベクトル(u
k ,vk )の方向θk (k=1,2,3,…,K)の値
から図5及び図6に示すような移動方向ヒストグラムが
生成される。すなわち、角度0乃至2πを適当な幅Δθ
で量子化し、それぞれの方向毎に移動ベクトルの数を累
積加算して移動方向ベクトルを作成する。From these equations (9) to (14), each small area R k
The direction θ k of the motion vector (u k , v k ) has a value as shown in FIG. This movement vector (u
A moving direction histogram as shown in FIGS. 5 and 6 is generated from the value of the direction θ k (k = 1, 2, 3,..., K) in the direction k , v k ). That is, the angle 0 to 2π is set to an appropriate width Δθ
, And the number of movement vectors is cumulatively added for each direction to create a movement direction vector.
【0042】この移動方向ベクトルの最大値を与える方
向θM を求め、この方向θM を中心に幅θW の範囲に入
る移動ベクトルの総数をLとし、移動ベクトルの方向分
布の均一度fを次式で定義する。A direction θ M that gives the maximum value of the moving direction vector is obtained, and the total number of moving vectors falling within the range of the width θ W around the direction θ M is defined as L, and the uniformity f of the direction distribution of the moving vector is defined as L. It is defined by the following equation.
【0043】 f=L/K …(15) この移動ベクトルの方向分布の均一度fは、以下のこと
を示している。図3に示すように移動体2として車体の
場合は、サンプリング時間Δtの間に、ある方向に移動
するが、その形状の変形は見られない。F = L / K (15) The uniformity f of the direction distribution of the movement vector indicates the following. As shown in FIG. 3, when the moving body 2 is a vehicle body, the moving body 2 moves in a certain direction during the sampling time Δt, but its shape is not changed.
【0044】従って、移動ベクトルの方向はほぼ同一方
向に向くので、移動方向ヒストグラムは、上記図5に示
すように最大値を与える方向θM の頻度が高くなってい
る。一方、移動体2として人間の場合は、歩行している
とき、図7に示すようにサンプリング時間Δtの間に、
全体としては同一進行方向に移動するが、身体の各部位
について細かく観ると、歩行時は様様な方向に動くの
で、その移動方向ヒストグラムは、図6に示すように最
大値を与える方向θM の頻度が低くなっている。Therefore, since the directions of the movement vectors are substantially in the same direction, the movement direction histogram has a high frequency in the direction θ M giving the maximum value as shown in FIG. On the other hand, in the case of a human being as the moving body 2, when walking, as shown in FIG.
As a whole, they move in the same traveling direction, but if we look closely at each part of the body, they move in various directions when walking, and the moving direction histogram shows the maximum value of the direction θ M as shown in FIG. Frequency is low.
【0045】従って、車体に対する移動ベクトルの方向
分布の均一度fは1に近く、人間に対する均一度fは小
さい値を取る。次に、移動体識別器11は、移動体形状
検出器5により得られた移動体領域6の面積s及び縦横
比rの値を入力すると共に、移動方向分布検出器10に
より求められた均一度fを入力し、これら移動体領域6
の面積s、縦横比r及び均一度fに基づいて車体、人
間、これら以外とを識別する。Therefore, the uniformity f of the direction distribution of the movement vector with respect to the vehicle body is close to 1, and the uniformity f with respect to the human takes a small value. Next, the moving body discriminator 11 inputs the values of the area s and the aspect ratio r of the moving body region 6 obtained by the moving body shape detector 5 and the uniformity obtained by the moving direction distribution detector 10. f, and these moving body areas 6
The vehicle body, the person, and the others are identified based on the area s, the aspect ratio r, and the uniformity f.
【0046】これら車体、人間、これら以外との識別
は、次の関係により行なわれる。 (a) s≧sth、かつr≧rth1 、かつf≧fthのとき車
体と識別 (b) s≧sth、かつr<rth2 、かつf<fthのとき人
間と識別 (c) これら(a) 及び(b) 以外のとき車体、人間以外と識
別する。The following distinction is made between the vehicle body, the human, and the others. (a) When s ≧ s th , r ≧ r th1 , and f ≧ f th , it is identified as a vehicle body. (b) When s ≧ s th , r <r th2 , and f <f th , it is identified as a person. ) In cases other than these (a) and (b), it is identified as a body other than a human body.
【0047】ここで、sth、rth1 、rth2 、fthは、
それぞれ予め設定された閾値である。なお、rth1 <
1、rth2 >1に設定可能である。このように上記第1
の実施の形態においては、サンプリング時間Δtの間隔
だけ離れた2つのタイミング時刻tとt+Δtとでそれ
ぞれ得られた2枚の画像データI(t) とI(t+Δt)との
差分画像データ中から移動体2を含む移動体領域6を抽
出した後に、移動移動体領域6を複数の小領域Rk に分
割してこれら小領域Rk の各移動ベクトルを検出し、か
つこれら移動ベクトルの方向分布に対する均一性の程度
を表す均一度fを求める移動方向分布検出器10を備え
たので、移動体2として例えば車体を正面から観測した
場合や人間が両手、両足を大きく広げて歩行する場合で
も、車体の動きと人間の動きとの均一性の違いから車体
と人間とを正確に識別できる。 (2) 次に本発明の第2の実施の形態について図面を参照
して説明する。なお、図1と同一部分には同一符号を付
してありその詳しい説明は省略する。Here, s th , r th1 , r th2 , and f th are:
Each is a preset threshold. Note that r th1 <
1, r th2 > 1 can be set. Thus, the first
In this embodiment, the image data I (t) and I (t + Δt) are moved from the difference image data between two pieces of image data I (t) and I (t + Δt) obtained at two timing times t and t + Δt separated by an interval of the sampling time Δt. After extracting the moving body region 6 including the body 2, the moving moving body region 6 is divided into a plurality of small regions R k to detect respective movement vectors of these small regions R k , and to determine the direction distribution of these movement vectors. Since the moving direction distribution detector 10 for obtaining the degree of uniformity f representing the degree of uniformity is provided, the moving body 2 can be used, for example, when the vehicle body is observed from the front or when a person walks with both hands and both legs wide open. The body and the person can be accurately distinguished from the difference in the uniformity between the movement of the person and the movement of the person. (2) Next, a second embodiment of the present invention will be described with reference to the drawings. The same parts as those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof will be omitted.
【0048】図8は移動体識別装置の構成図である。エ
ッジ方向分布検出器12は、移動体検知器4により得ら
れた移動体領域6の各画素ごとにエッジ方向を検出し、
かつこれらエッジ方向の方向分布に対する均一性の程度
を表す均一度gを求める機能を有している。FIG. 8 is a configuration diagram of the moving object identification device. The edge direction distribution detector 12 detects an edge direction for each pixel of the moving body region 6 obtained by the moving body detector 4,
In addition, it has a function of obtaining a uniformity g representing a degree of uniformity with respect to the direction distribution of these edge directions.
【0049】移動体識別器13は、移動体形状検出器5
により得られた移動体領域6の面積sとこの移動体領域
6に外接する長方形の縦横比rの値を入力すると共に、
エッジ方向分布検出器12により求められた均一度gを
入力し、これら移動体領域6の面積s、縦横比r及び均
一度gに基づいて車体、人間、これら以外とを識別する
機能を有している。The moving body discriminator 13 includes a moving body shape detector 5
And the value of the aspect ratio r of the rectangle circumscribing the moving body region 6 and the area s of the moving body region 6 obtained by
It has a function of inputting the uniformity g obtained by the edge direction distribution detector 12 and discriminating the vehicle body, the human, and the others based on the area s, the aspect ratio r, and the uniformity g of the moving body region 6. ing.
【0050】次に上記の如く構成された装置の作用につ
いて説明する。TVカメラ1は、走行する移動体2を撮
像し、上記同様にディジタル化された時刻tの画像デー
タI(t,i,j) {図18(a) }、続いてΔt秒後に画像デ
ータI(t+Δt ,i,j) {図18(b) }として移動体検知
器4に送られる。Next, the operation of the above-configured device will be described. The TV camera 1 captures an image of the traveling moving object 2 and digitizes the image data I (t, i, j) at time t (FIG. 18 (a)) in the same manner as described above. (t + Δt, i, j) is sent to the moving object detector 4 as {FIG. 18 (b)}.
【0051】この移動体検知器4は、2つの画像データ
I(t,i,j) とI(t+Δt ,i,j) とを入力し、上記式(2)
に示す演算を実行して差分画像データJ(t+Δt ,i,j)
を得る。The moving object detector 4 receives two image data I (t, i, j) and I (t + Δt, i, j) and obtains the above equation (2).
And the difference image data J (t + Δt, i, j)
Get.
【0052】次に、この移動体検知器4は、上記同様
に、差分画像データJ(t+Δt ,i,j)と予め設定された
閾値とを比較し、差分画像データJ(t+Δt ,i,j) にお
ける閾値よりも大きい画素を値「1」に、又小さい画素
を値「0」に変換し、移動体形状検出器5及びエッジ方
向分布検出器12に上記図19に示すような2値画像デ
ータK(t+Δt ,i,j) として送出する。Next, the moving object detector 4 compares the difference image data J (t + Δt, i, j) with a preset threshold value in the same manner as described above, and determines the difference image data J (t + Δt, i, j). 19), a pixel larger than the threshold value is converted into a value “1”, and a pixel smaller than the threshold value is converted into a value “0”, and the moving object shape detector 5 and the edge direction distribution detector 12 are converted into a binary image as shown in FIG. It is transmitted as data K (t + Δt, i, j).
【0053】このうち移動体形状検出器5は、2値画像
データK(t+Δt ,i,j) の値「1」を1つの塊である移
動体領域6として抽出してその面積sを画素単位で演算
し、かつ上記図20に示すように移動体領域6に対して
外接する四角形の縦と横の各長さh、wの縦横比rを演
算する。The moving object shape detector 5 extracts the value “1” of the binary image data K (t + Δt, i, j) as one moving object region 6 as one lump, and extracts the area s of the moving object region 6 in pixel units. , And as shown in FIG. 20, the aspect ratio r of the lengths h and w of the rectangle circumscribing the moving body region 6 is calculated.
【0054】一方、エッジ方向分布検出器12は、移動
体検知器4により得られた移動体領域6を入力し、この
移動体領域6の各画素ごとにエッジ方向を検出し、かつ
これらエッジ方向の方向分布に対する均一性の程度を表
す均一度gを求める。On the other hand, the edge direction distribution detector 12 receives the moving body region 6 obtained by the moving body detector 4, detects the edge direction for each pixel of the moving body region 6, and detects the edge direction. Is obtained, which represents the degree of uniformity with respect to the directional distribution.
【0055】このエッジ方向分布検出器12の動作つい
て具体的に説明すると、図2に示すような移動体領域6
の画像データI(t,i,j) に対して、i方向の空間微分画
像Ix(i,j)とj方向の空間微分画像Iy(i,j)とを計算
し、エッジの強さ (Ix 2 +Iy 2 )1/2 …(16) がある閾値Ith以上の画素について、エッジ方向ψ(i,
j) を次式(17)乃至(20)により計算する。The operation of the edge direction distribution detector 12 will be described in detail.
, A spatial differential image Ix (i, j) in the i direction and a spatial differential image Iy (i, j) in the j direction are calculated for the image data I (t, i, j), and the edge strength ( Ix 2 + Iy 2 ) 1/2 (16) For a pixel equal to or larger than a certain threshold value Ith, the edge direction ψ (i,
j) is calculated by the following equations (17) to (20).
【0056】[0056]
【数2】 (Equation 2)
【0057】すなわち、エッジの強さがある閾値Ith以
上の画素を抽出すると、画像上の移動体の輪郭や模様な
どが検出される。又、エッジの方向は、エッジの各画素
において、明るさの変化が最も大きい方向を示してい
る。例えば、図9において明るさが変化する(この場
合、黒部分と白部分)境界がエッジであり、そのエッジ
方向はψは、0°となる。That is, when a pixel whose edge strength is equal to or greater than a certain threshold value Ith is extracted, a contour or a pattern of the moving object on the image is detected. The direction of the edge indicates the direction in which the change in brightness is greatest in each pixel of the edge. For example, in FIG. 9, a boundary where the brightness changes (in this case, a black portion and a white portion) is an edge, and the edge direction of the edge is 0 °.
【0058】これら式(17)乃至(20)により、上記図19
に示す移動体領域6の各画素におけるエッジ方向ψ(i,
j) は、図9に示すようにその画素近傍における明るさ
変化が最も大きい方向と定義される。すなわち、図10
に示すように明るさ変化の境界をエッジとしてそのエッ
ジ方向に対して直交する方向である(0≦ψ<π)。From these equations (17) and (20), the above-mentioned FIG.
, The edge direction ψ (i,
j) is defined as the direction in which the change in brightness near the pixel is the largest as shown in FIG. That is, FIG.
As shown in (1), the boundary is a direction perpendicular to the edge direction with the boundary of the brightness change as an edge (0 ≦ ψ <π).
【0059】このエッジ方向ψ(i,j) の値から図11に
示すエッジ方向ヒストグラムを生成する。すなわち、角
度0乃至πを適当な幅Δψで量子化し、それぞれの方向
にエッジの数を累積加算してエッジ方向ヒストグラムを
作成する。An edge direction histogram shown in FIG. 11 is generated from the value of the edge direction ψ (i, j). That is, angles 0 to π are quantized with an appropriate width Δψ, and the number of edges is cumulatively added in each direction to create an edge direction histogram.
【0060】このエッジ方向ヒストグラムの最大値を与
える方向ψM を求め、その方向ψMを中心に幅ψW の範
囲に入る画素の総数をNe としてエッジの方向分布の均
一度gを次式(21)で定義する。[0060] determine the direction [psi M giving the maximum value of the edge direction histogram, the following equation uniformity g direction distribution of the edge of the total number of pixels that fall within the scope of that direction [psi width M around the [psi W as N e Defined in (21).
【0061】 g=Ne /N …(21) ここにNは移動体領域6に含まれる画素の総数である。
この均一度gの意味は、次の通りである。G = N e / N (21) where N is the total number of pixels included in the moving body area 6.
The meaning of the uniformity g is as follows.
【0062】車体は、上記図21(a) に示すようにエッ
ジが直線状であり、エッジ方向ヒストグラムは、図11
に示すようにある特定の方向ψM 及びその周辺に集まる
傾向があり、均一度gの値は大きくなる。The vehicle body has a straight edge as shown in FIG. 21A, and the edge direction histogram is shown in FIG.
Tend to gather in a specific direction [psi M and around which is as shown in, the value of the uniformity of g is increased.
【0063】一方、人間の場合は、上記図21(b) に示
すようにエッジの方向は、様様な方向を向くので、エツ
ジ方向ヒストグラムは、図12に示すようにある方向に
集中しないので、均一度gの値は小さくなる。On the other hand, in the case of a human, the edge direction is oriented in various directions as shown in FIG. 21B, and the edge direction histogram is not concentrated in a certain direction as shown in FIG. The value of the uniformity g decreases.
【0064】次に移動体識別器13は、移動体形状検出
器5により得られた移動体領域6の面積sとこの移動体
領域6に外接する長方形の縦横比rの値を入力すると共
に、エッジ方向分布検出器12により求められた均一度
gを入力し、これら移動体領域6の面積s、縦横比r及
び均一度gに基づいて車体、人間、これら以外とを識別
する。Next, the moving body discriminator 13 inputs the area s of the moving body area 6 obtained by the moving body shape detector 5 and the value of the aspect ratio r of the rectangle circumscribing the moving body area 6, and The uniformity g obtained by the edge direction distribution detector 12 is input, and a vehicle body, a person, and others are identified based on the area s, the aspect ratio r, and the uniformity g of the moving body region 6.
【0065】これら車体、人間、これら以外との識別
は、次の関係により行なわれる。 (a) s≧sth、かつr≧rth1 、かつg≧gthのとき車
体と識別 (b) s≧sth、かつr<rth2 、かつg<gthのとき人
間と識別 (c) これら(a) 及び(b) 以外のとき車体、人間以外と識
別する。The distinction between the vehicle body, the person, and the others is made according to the following relationship. (a) When s ≧ s th , r ≧ r th1 , and g ≧ g th , it is identified as a vehicle body. (b) When s ≧ s th , r <r th2 , and g <g th , it is identified as a human (c) ) In cases other than these (a) and (b), it is identified as a body other than a human body.
【0066】このように上記第2の実施の形態において
は、サンプリング時間Δtの間隔だけ離れた2枚の画像
データI(t) とI(t+Δt)との差分画像データ中から移
動体2を含む移動体領域6を抽出した後に、この移動体
領域6の各画素ごとにエッジ方向を検出し、かつこれら
エッジ方向の方向分布に対する均一性の程度を表す均一
度gを求め、移動体領域6の面積s、縦横比r及び均一
度gに基づいて車体、人間、これら以外とを識別するよ
うにしたので、上記第1の実施の形態と同様に、移動体
2として例えば車体を正面から観測した場合や人間が両
手、両足を大きく広げて歩行する場合でも、車体の動き
と人間の動きとの均一性の違いから車体と人間とを正確
に識別できる。 (3) 次に本発明の第3の実施の形態について図面を参照
して説明する。なお、図1と同一部分には同一符号を付
してありその詳しい説明は省略する。As described above, in the second embodiment, the moving object 2 is included in the difference image data between the two image data I (t) and I (t + Δt) separated by the interval of the sampling time Δt. After extracting the moving body region 6, the edge direction is detected for each pixel of the moving body region 6, and the degree of uniformity g representing the degree of uniformity with respect to the direction distribution of the edge direction is obtained. Since the vehicle body, the person, and others are distinguished based on the area s, the aspect ratio r, and the uniformity g, for example, the vehicle body was observed from the front as the moving body 2 as in the first embodiment. Even in a case or when a human walks with both hands and both legs wide open, the vehicle body and the human can be accurately distinguished from the difference in uniformity between the movement of the vehicle and the human. (3) Next, a third embodiment of the present invention will be described with reference to the drawings. The same parts as those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof will be omitted.
【0067】図13は移動体識別装置の構成図である。
エッジ方向分布検出器12により求められた均一度g
は、移動体形状検出器5、移動方向分布検出器10及び
エッジ方向分布検出器12に送られるようになってい
る。FIG. 13 is a configuration diagram of a moving object identification device.
Uniformity g found by edge direction distribution detector 12
Are sent to the moving object shape detector 5, the moving direction distribution detector 10, and the edge direction distribution detector 12.
【0068】そして、これら移動体形状検出器5により
求められた2値画像データ中に含まれる移動体領域6の
面積s及び縦横比r、移動方向分布検出器10により求
められた均一度f、及びエッジ方向分布検出器12によ
り求められた均一度gは、識別関数演算器14に送られ
るようになっている。The area s and the aspect ratio r of the moving body region 6 included in the binary image data obtained by the moving body shape detector 5, the uniformity f obtained by the moving direction distribution detector 10, The uniformity g obtained by the edge direction distribution detector 12 is sent to the discriminant function calculator 14.
【0069】この識別関数演算器14は、移動体領域6
の面積s及び縦横比r、均一度f、及び均一度gに基づ
いて車体らしさC、人間らしさHの各値を演算し求める
機能を有している。The discriminant function calculator 14 calculates the moving object area 6
Has a function of calculating and calculating each value of the vehicle-likeness C and the human-likeness H based on the area s, the aspect ratio r, the uniformity f, and the uniformity g of the vehicle.
【0070】移動体識別器13は、識別関数演算器14
により求められた車体らしさC、人間らしさHの各値に
基づいて車体、人間、これら以外とを識別する機能を有
している。The moving object discriminator 13 includes a discriminant function calculator 14
Has the function of identifying a vehicle body, a person, and others based on the values of the vehicle-likeness C and the human-likeness H obtained by the above.
【0071】次に上記の如く構成された装置の作用につ
いて説明する。TVカメラ1は、走行する移動体2を撮
像し、上記同様にディジタル化された時刻tの画像デー
タI(t,i,j) {図18(a) }、続いてΔt秒後に画像デ
ータI(t+Δt ,i,j) {図18(b) }として移動体検知
器4に送られる。Next, the operation of the device configured as described above will be described. The TV camera 1 captures an image of the traveling moving object 2 and digitizes the image data I (t, i, j) at time t (FIG. 18 (a)) in the same manner as described above. (t + Δt, i, j) is sent to the moving object detector 4 as {FIG. 18 (b)}.
【0072】この移動体検知器4は、2つの画像データ
I(t,i,j) とI(t+Δt ,i,j) とを入力し、上記式(2)
に示す演算を実行して差分画像データJ(t+Δt ,i,j)
を得る。The moving object detector 4 inputs two image data I (t, i, j) and I (t + Δt, i, j) and obtains the above equation (2).
And the difference image data J (t + Δt, i, j)
Get.
【0073】次に、この移動体検知器4は、上記同様
に、差分画像データJ(t+Δt ,i,j)と予め設定された
閾値とを比較し、差分画像データJ(t+Δt ,i,j) にお
ける閾値よりも大きい画素を値「1」に、又小さい画素
を値「0」に変換し、移動体形状検出器5、移動方向分
布検出器10及びエッジ方向分布検出器12に上記図1
9に示すような2値画像データK(t+Δt ,i,j) として
送出する。Next, the moving object detector 4 compares the difference image data J (t + Δt, i, j) with a preset threshold value in the same manner as described above, and determines the difference image data J (t + Δt, i, j). ) Is converted to a value “1” and a pixel smaller than the threshold value is converted to a value “0”, and the moving object shape detector 5, the moving direction distribution detector 10, and the edge direction distribution detector 12 are used in FIG.
9 as binary image data K (t + Δt, i, j).
【0074】このうち移動体形状検出器5は、2値画像
データK(t+Δt ,i,j) の値「1」を1つの塊である移
動体領域6として抽出してその面積sを画素単位で演算
し、かつ上記図20に示すように移動体領域6に対して
外接する四角形の縦と横の各長さh、wの縦横比rを演
算する。The moving object shape detector 5 extracts the value “1” of the binary image data K (t + Δt, i, j) as a single moving object region 6 and calculates the area s in units of pixels. , And as shown in FIG. 20, the aspect ratio r of the lengths h and w of the rectangle circumscribing the moving body region 6 is calculated.
【0075】これと共に、移動方向分布検出器10は、
図2に示すように移動体領域6を複数の小領域に分割し
てこれら小領域の各移動ベクトルを検出し、かつこれら
移動ベクトルの方向分布に対する均一性の程度を表す均
一度を求める。At the same time, the moving direction distribution detector 10
As shown in FIG. 2, the moving body region 6 is divided into a plurality of small regions, each movement vector of these small regions is detected, and the degree of uniformity indicating the degree of uniformity of these movement vectors with respect to the direction distribution is obtained.
【0076】さらに、エッジ方向分布検出器12は、移
動体検知器4により得られた移動体領域6を入力し、こ
の移動体領域6の各画素ごとにエッジ方向を検出し、か
つこれらエッジ方向の方向分布に対する均一性の程度を
表す均一度gを求める。Further, the edge direction distribution detector 12 receives the moving object region 6 obtained by the moving object detector 4, detects the edge direction for each pixel of the moving object region 6, and detects the edge direction. Is obtained, which represents the degree of uniformity with respect to the directional distribution.
【0077】そして、これら移動体形状検出器5により
求められた2値画像データ中に含まれる移動体領域6の
面積s及び縦横比r、移動方向分布検出器10により求
められた均一度f、及びエッジ方向分布検出器12によ
り求められた均一度gは、識別関数演算器14に送られ
る。The area s and the aspect ratio r of the moving body region 6 included in the binary image data obtained by the moving body shape detector 5, the uniformity f obtained by the moving direction distribution detector 10, And the uniformity g obtained by the edge direction distribution detector 12 is sent to the discriminant function calculator 14.
【0078】この識別関数演算器14は、移動体領域6
の面積s及び縦横比r、均一度f、及び均一度gに基づ
いて車体らしさC、人間らしさHの各値を演算し求め
る。すなわち、 (a) 車体らしさCは、(S≧Sthのとき) C=a1 ・C1 (r) +a2 ・C2 (f) +a3 ・C3 (g) …(22) (b) 人間らしさHは、(S≧Sthのとき) H=b1 ・H1 (r) +b2 ・H2 (f) +b3 ・H3 (g) …(23) (c) C=H=0 (s<sthのとき) …(24) を演算し求める。The discriminant function calculator 14 calculates the moving object area 6
The values of the vehicle-likeness C and the human-likeness H are calculated and obtained based on the area s, the aspect ratio r, the uniformity f, and the uniformity g of. That is, (a) the vehicle-likeness C is (when S ≧ Sth ) C = a 1 · C 1 (r) + a 2 · C 2 (f) + a 3 · C 3 (g) (22) (b The humanity H is (when S ≧ Sth ) H = b 1 · H 1 (r) + b 2 · H 2 (f) + b 3 · H 3 (g) (23) (c) C = H = 0 (when s <s th ) (24)
【0079】ここに、a1 ,a2 ,a3 及びb1 ,b
2 ,b3 は重み係数であり、C1 ,C2 ,C3 は図14
(a) 乃至同図(c) に示すような関数、H1 ,H2 ,H3
は図15(a) 乃至同図(c) に示すような関数である。Here, a 1 , a 2 , a 3 and b 1 , b
2 and b 3 are weighting factors, and C 1 , C 2 and C 3 are shown in FIG.
(a) to function as shown in FIG. (c), H 1, H 2, H 3
Are functions as shown in FIGS. 15 (a) to 15 (c).
【0080】これら関数は、C1 ,C2 ,C3 について
は、移動体領域6の画像が車体の場合、1又はそれに近
い値を出力する関数であり、H1 ,H2 ,H3 について
は、移動体領域6の画像が人間の場合、1又はそれに近
い値を出力する関数を示している。These functions are functions that output 1 or a value close to 1 when C 1 , C 2 , and C 3 are images of the moving body area 6 of a vehicle body. For H 1 , H 2 , and H 3 , Indicates a function that outputs a value of 1 or a value close thereto when the image of the moving body region 6 is a human.
【0081】ここでは比較的単純な関数形を示したが、
上記性質を有する関数であれば、同じ効果を得ることが
できる。従って、移動体領域6の縦横比rが大きく、移
動方向分布の均一度fが1に近く、エッジ方向分布の均
一度gが1に近いほど、車体らしさCの値は大きくな
り、人間らしさHの値は小さくなる。Although a relatively simple function form has been shown here,
The same effect can be obtained with a function having the above properties. Therefore, as the aspect ratio r of the moving body region 6 is larger, the uniformity f of the moving direction distribution is closer to 1, and the uniformity g of the edge direction distribution is closer to 1, the value of the vehicle-likeness C becomes larger and the human-likeness H Becomes smaller.
【0082】次に移動体識別器15は、識別関数演算器
14により求められた車体らしさC、人間らしさHの各
値に基づいて車体、人間、これら以外とを識別する。こ
れら車体、人間、これら以外との識別は、次に示す関係
により行なわれ、かつ図16に示す通りとなる。 (a) C≧Cth1 、かつH<Hth2 のとき車体と識別 (b) C<Cth2 、かつH≧Hth1 のとき人間と識別 (c) これら(a) 及び(b) 以外のとき車体、人間以外と識
別する。Next, the moving object discriminator 15 discriminates the vehicle body, the human, and the others based on the values of the vehicle-likeness C and the human-likeness H obtained by the identification function calculator 14. The distinction between the vehicle body, the person, and the others is performed according to the following relationship, and is as shown in FIG. (a) Identified as a vehicle body when C ≧ C th1 and H <H th2 (b) Identified as a human body when C <C th2 and H ≧ H th1 (c) In cases other than these (a) and (b) Identify the vehicle as a non-human.
【0083】このように上記第3の実施の形態において
は、移動体領域6の面積s及び縦横比r、均一度f、及
び均一度gに基づいて車体らしさC、人間らしさHの各
値を演算し求め、これら車体らしさC、人間らしさHの
各値に基づいて車体、人間、これら以外とを識別するよ
うにしたので、上記第1の実施の形態と同様に、移動体
2として例えば車体を正面から観測した場合や人間が両
手、両足を大きく広げて歩行する場合でも、車体の動き
と人間の動きとの均一性の違いから車体と人間とを正確
に識別できる。As described above, in the third embodiment, based on the area s and the aspect ratio r, the uniformity f, and the uniformity g of the moving body region 6, the values of the vehicle-likeness C and the human-likeness H are calculated. The vehicle body, the person, and the others are distinguished based on the values of the body-likeness C and the human-likeness H by calculation. Therefore, as in the first embodiment, for example, the vehicle 2 Even when observing from the front or when a human walks with both hands and legs wide open, the vehicle body and the human can be accurately distinguished from the difference in uniformity between the motion of the vehicle and the motion of the human.
【0084】なお、本発明は、上記第1乃至第3の実施
の形態に限定されるものでなく次の通り変形してもよ
い。例えば、上記第1乃至第3の実施の形態では、車
体、人間、これら車体及び人間以外とを識別するものと
なつているが、これらに限らず他の移動体の識別に適用
できることは言うまでもない。The present invention is not limited to the first to third embodiments, but may be modified as follows. For example, in the above-described first to third embodiments, the vehicle body and the person are distinguished from each other, but it is needless to say that the present invention is not limited to these and can be applied to other moving bodies. .
【0085】[0085]
【発明の効果】以上詳記したように本発明の請求項1乃
至4によれば、撮像装置により移動体を撮像したときに
得られる所定サンプリング時間差の各画像データの差分
画像データにおける移動体の含まれる移動体領域の形状
に基づいて移動体の種別を識別する場合、この移動体領
域内の画像データから移動体全体の移動方向の分布を求
め、この移動方向の分布の程度を表す均一度を求める均
一度処理手段、例えば移動体領域を複数の小領域に分割
してこれら小領域の各移動ベクトルを検出し、かつこれ
ら移動ベクトルの方向分布に対する均一性の程度を表す
均一度を求める移動方向分布検出手段、移動体領域の各
画素ごとにエッジ方向を検出し、かつこれらエッジ方向
の方向分布に対する均一性の程度を表す均一度を求める
エッジ方向分布検出手段とのいずれか一方又は両方を備
えたので、正確に車体と人間とを識別できる移動体識別
装置を提供できる。As described in detail above, according to the first to fourth aspects of the present invention, the moving object in the difference image data of each image data of a predetermined sampling time difference obtained when the moving object is imaged by the imaging device. When the type of the moving object is identified based on the shape of the moving object region included, the distribution of the moving direction of the entire moving object is obtained from the image data in the moving object region, and the uniformity representing the degree of the distribution in the moving direction is obtained. For example, dividing the moving object area into a plurality of small areas, detecting each movement vector of these small areas, and obtaining uniformity representing the degree of uniformity of the direction distribution of these movement vectors. Direction distribution detecting means for detecting an edge direction for each pixel in the moving object area, and detecting an edge direction distribution for obtaining a degree of uniformity indicating a degree of uniformity with respect to the direction distribution of the edge directions. Since with either or both of the means, can provide a mobile identification device capable of accurately identify the vehicle body and human.
【図1】本発明に係わる移動体識別装置の第1の実施の
形態を示す構成図。FIG. 1 is a configuration diagram showing a first embodiment of a moving object identification device according to the present invention.
【図2】同装置における移動方向分布検出器での移動体
領域を複数の小領域に分割する作用を示す模式図。FIG. 2 is a schematic diagram showing an operation of dividing a moving body region into a plurality of small regions by a moving direction distribution detector in the same device.
【図3】車体の全ての小領域に対する移動ベクトルの集
合を示す模式図。FIG. 3 is a schematic diagram showing a set of movement vectors for all small areas of the vehicle body.
【図4】小領域の移動ベクトル(uk ,vk )の方向θ
k を示す図。[4] subregion motion vector (u k, v k) direction θ
shows a k.
【図5】車体に対する移動方向ヒストグラムを示す図。FIG. 5 is a diagram showing a moving direction histogram for a vehicle body.
【図6】人間に対する移動方向ヒストグラムを示す図。FIG. 6 is a diagram showing a movement direction histogram for a human.
【図7】人間の全ての小領域に対する移動ベクトルの集
合を示す模式図。FIG. 7 is a schematic diagram showing a set of motion vectors for all human small areas.
【図8】本発明に係わる移動体識別装置の第2の実施の
形態を示す構成図。FIG. 8 is a configuration diagram showing a second embodiment of the moving object identification device according to the present invention.
【図9】移動体領域の各画素におけるエッジ方向を示す
模式図。FIG. 9 is a schematic diagram illustrating an edge direction of each pixel in a moving body region.
【図10】エッジ方向を示すベクトル図。FIG. 10 is a vector diagram showing an edge direction.
【図11】車体に対する移動方向ヒストグラムを示す
図。FIG. 11 is a diagram showing a movement direction histogram for a vehicle body.
【図12】人間に対する移動方向ヒストグラムを示す
図。FIG. 12 is a diagram showing a movement direction histogram for a human.
【図13】本発明に係わる移動体識別装置の第3の実施
の形態を示す構成図。FIG. 13 is a configuration diagram showing a third embodiment of the moving object identification device according to the present invention.
【図14】移動体領域の画像が車体の場合に1又はそれ
に近い値を出力する関数を示す図。FIG. 14 is a diagram showing a function for outputting a value of 1 or a value close to 1 when an image of a moving body region is a vehicle body.
【図15】移動体領域の画像が人間の場合に1又はそれ
に近い値を出力する関数を示す図。FIG. 15 is a diagram illustrating a function that outputs a value of 1 or a value close to 1 when an image of a moving body region is a human.
【図16】移動体識別器による車体、人間、これら以外
との識別を示す模式図。FIG. 16 is a schematic diagram showing identification of a vehicle body, a person, and others by a moving object identifier.
【図17】従来の移動体識別装置の構成図。FIG. 17 is a configuration diagram of a conventional moving object identification device.
【図18】サンプリング時間Δtの間隔だけ離れた2つ
の画像データの模式図。FIG. 18 is a schematic diagram of two image data separated by an interval of a sampling time Δt.
【図19】2値画像データの模式図。FIG. 19 is a schematic diagram of binary image data.
【図20】移動体形状検出器による移動体領域に外接す
る四角形の縦横比を示す図。FIG. 20 is a diagram showing the aspect ratio of a rectangle circumscribing a moving body region by the moving body shape detector.
【図21】車体を正面から観測した場合及び人間が両手
両足を大きく広げて歩行する場合の各画像データの模式
図。FIG. 21 is a schematic diagram of each image data when the vehicle body is observed from the front and when a human walks with both hands and feet wide open.
1:TVカメラ、 2:移動体、 3:A/D変換器、 4:移動体検知器、 5:移動体形状検出器、 10:移動方向分布検出器、 11,13:移動体識別器、 12:エッジ方向分布検出器、 14:識別関数演算器、 15:移動体識別器。 1: TV camera, 2: Moving object, 3: A / D converter, 4: Moving object detector, 5: Moving object shape detector, 10: Moving direction distribution detector, 11, 13: Moving object discriminator, 12: Edge direction distribution detector, 14: Discriminant function calculator, 15: Moving object discriminator.
Claims (4)
得られる画像データから所定サンプリング時間差の各画
像データの差分画像データを求め、この差分画像データ
における前記移動体の含まれる移動体領域の形状に基づ
いて前記移動体の種別を識別する移動体識別装置におい
て、 前記移動体領域内の画像データから前記移動体全体の移
動方向の分布を求め、この移動方向の分布の程度を表す
均一度を求める均一度処理手段を備え、 この均一度及び前記移動体領域の形状に基づいて前記移
動体の種別を識別することを特徴とする移動体識別装
置。1. A method for obtaining difference image data of each image data having a predetermined sampling time difference from image data obtained when an image of a moving object is picked up by an imaging device, and determining a shape of a moving object region including the moving object in the difference image data. In the moving object identification device that identifies the type of the moving object based on the following, a distribution in the moving direction of the entire moving object is obtained from image data in the moving object region, and a uniformity representing a degree of the distribution in the moving direction is obtained. A moving object identification apparatus, comprising: a uniformity processing means for determining the type of the moving object based on the uniformity and the shape of the moving object region.
を複数の小領域に分割してこれら小領域の各移動ベクト
ルを検出し、かつこれら移動ベクトルの方向分布に対す
る均一性の程度を表す均一度を求める移動方向分布検出
手段としての機能を有することを特徴とする請求項1記
載の移動体識別装置。2. The uniformity processing means divides the moving body region into a plurality of small regions, detects respective movement vectors of the small regions, and indicates a degree of uniformity of the movement vectors with respect to a directional distribution. 2. The moving object identification device according to claim 1, wherein the moving object identification device has a function as a moving direction distribution detecting means for obtaining uniformity.
の各画素ごとにエッジ方向を検出し、かつこれらエッジ
方向の方向分布に対する均一性の程度を表す均一度を求
めるエッジ方向分布検出手段としての機能を有すること
を特徴とする請求項1記載の移動体識別装置。3. An edge direction distribution detecting means for detecting an edge direction for each pixel of the moving body area and obtaining a degree of uniformity indicating a degree of uniformity with respect to a direction distribution of the edge direction. The mobile object identification device according to claim 1, having a function as (1).
を複数の小領域に分割してこれら小領域の各移動ベクト
ルを検出し、かつこれら移動ベクトルの方向分布に対す
る均一性の程度を表す均一度を求める移動方向分布検出
手段と、 前記移動体領域の各画素ごとにエッジ方向を検出し、か
つこれらエッジ方向の方向分布に対する均一性の程度を
表す均一度を求めるエッジ方向分布検出手段と、を備え
たことを特徴とする請求項1記載の移動体識別装置。4. The uniformity processing means divides the moving body region into a plurality of small regions, detects respective movement vectors of the small regions, and indicates a degree of uniformity of the movement vectors with respect to a directional distribution. Moving direction distribution detecting means for obtaining uniformity; and edge direction distribution detecting means for detecting an edge direction for each pixel of the moving object area and obtaining uniformity representing a degree of uniformity with respect to the directional distribution of the edge directions. The moving object identification device according to claim 1, further comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP00863398A JP3377743B2 (en) | 1998-01-20 | 1998-01-20 | Mobile object identification device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP00863398A JP3377743B2 (en) | 1998-01-20 | 1998-01-20 | Mobile object identification device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH11203481A true JPH11203481A (en) | 1999-07-30 |
| JP3377743B2 JP3377743B2 (en) | 2003-02-17 |
Family
ID=11698364
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP00863398A Expired - Fee Related JP3377743B2 (en) | 1998-01-20 | 1998-01-20 | Mobile object identification device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3377743B2 (en) |
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6810132B1 (en) | 2000-02-04 | 2004-10-26 | Fujitsu Limited | Traffic monitoring apparatus |
| JP2005115932A (en) * | 2003-09-16 | 2005-04-28 | Matsushita Electric Works Ltd | Human body sensing device using image |
| JP2007288460A (en) * | 2006-04-17 | 2007-11-01 | Nissan Motor Co Ltd | Object detection method and object detection apparatus |
| JP2008538623A (en) * | 2005-04-20 | 2008-10-30 | フェデラシオン イタリアーナ ジョッコ カルチオ | Method and system for detecting and classifying events during motor activity |
| JP2010204860A (en) * | 2009-03-02 | 2010-09-16 | Hitachi Ltd | Video-monitoring system |
| JP2010231256A (en) * | 2009-03-25 | 2010-10-14 | Hitachi Ltd | Data recognition apparatus, data recognition method and program |
| JP2010230443A (en) * | 2009-03-26 | 2010-10-14 | Japan Research Institute Ltd | Direction detection device |
| JP2011123563A (en) * | 2009-12-08 | 2011-06-23 | Sony Corp | Image processor, image processing method and program |
| US8103091B2 (en) | 2006-08-30 | 2012-01-24 | Nec Corporation | Object identification parameter learning system |
| JP2012084140A (en) * | 2010-09-30 | 2012-04-26 | Toshiba Corp | Video analysis method and system |
| JP2018151940A (en) * | 2017-03-14 | 2018-09-27 | 株式会社デンソーテン | Obstacle detection device and obstacle detection method |
| WO2019082652A1 (en) * | 2017-10-25 | 2019-05-02 | 株式会社 東芝 | Image sensor, person detection method, program, and control system |
| JP2022033202A (en) * | 2017-10-25 | 2022-02-28 | 株式会社東芝 | Image sensors, motion detection methods, programs and control systems |
-
1998
- 1998-01-20 JP JP00863398A patent/JP3377743B2/en not_active Expired - Fee Related
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6810132B1 (en) | 2000-02-04 | 2004-10-26 | Fujitsu Limited | Traffic monitoring apparatus |
| JP2005115932A (en) * | 2003-09-16 | 2005-04-28 | Matsushita Electric Works Ltd | Human body sensing device using image |
| JP2008538623A (en) * | 2005-04-20 | 2008-10-30 | フェデラシオン イタリアーナ ジョッコ カルチオ | Method and system for detecting and classifying events during motor activity |
| JP2007288460A (en) * | 2006-04-17 | 2007-11-01 | Nissan Motor Co Ltd | Object detection method and object detection apparatus |
| US8103091B2 (en) | 2006-08-30 | 2012-01-24 | Nec Corporation | Object identification parameter learning system |
| JP2010204860A (en) * | 2009-03-02 | 2010-09-16 | Hitachi Ltd | Video-monitoring system |
| JP2010231256A (en) * | 2009-03-25 | 2010-10-14 | Hitachi Ltd | Data recognition apparatus, data recognition method and program |
| JP2010230443A (en) * | 2009-03-26 | 2010-10-14 | Japan Research Institute Ltd | Direction detection device |
| JP2011123563A (en) * | 2009-12-08 | 2011-06-23 | Sony Corp | Image processor, image processing method and program |
| JP2012084140A (en) * | 2010-09-30 | 2012-04-26 | Toshiba Corp | Video analysis method and system |
| US8750614B2 (en) | 2010-09-30 | 2014-06-10 | Kabushiki Kaisha Toshiba | Method and system for classifying features in a video sequence |
| JP2018151940A (en) * | 2017-03-14 | 2018-09-27 | 株式会社デンソーテン | Obstacle detection device and obstacle detection method |
| WO2019082652A1 (en) * | 2017-10-25 | 2019-05-02 | 株式会社 東芝 | Image sensor, person detection method, program, and control system |
| JP2019080177A (en) * | 2017-10-25 | 2019-05-23 | 株式会社東芝 | Image sensor, person detection method, program, and control system |
| JP2022033202A (en) * | 2017-10-25 | 2022-02-28 | 株式会社東芝 | Image sensors, motion detection methods, programs and control systems |
Also Published As
| Publication number | Publication date |
|---|---|
| JP3377743B2 (en) | 2003-02-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6942488B2 (en) | Image processing equipment, image processing system, image processing method, and program | |
| US9495600B2 (en) | People detection apparatus and method and people counting apparatus and method | |
| CN103605953B (en) | Vehicle interest target detection method based on sliding window search | |
| JP4203512B2 (en) | Vehicle periphery monitoring device | |
| EP1217572A3 (en) | Digital image processing method and computer program product for detecting human irises in an image | |
| JP3377743B2 (en) | Mobile object identification device | |
| KR20040089670A (en) | Method and system for classifying object in scene | |
| Ishikura et al. | Saliency detection based on multiscale extrema of local perceptual color differences | |
| US11887331B2 (en) | Information processing apparatus, control method, and non-transitory storage medium | |
| JP4729188B2 (en) | Gaze detection device | |
| CN118799812B (en) | Abnormality identification method and device | |
| JPH05298591A (en) | Object recognition device | |
| Wang et al. | Early smoke detection in video using swaying and diffusion feature | |
| JPH11257931A (en) | Object recognition device | |
| JP4123138B2 (en) | Vehicle detection method and vehicle detection device | |
| Spremolla et al. | RGB-D and thermal sensor fusion-application in person tracking | |
| JPH11278182A (en) | Fog detection system for vehicles | |
| KR102150661B1 (en) | Method and Apparatus for Preprocessing Image for Detecting Objects | |
| CN111339840B (en) | Face detection method and monitoring system | |
| Itu et al. | An efficient obstacle awareness application for android mobile devices | |
| JPH09322153A (en) | Automatic monitoring device | |
| Sabeti et al. | Visual Tracking Using Color Cameras and Time-of-Flight Range Imaging Sensors. | |
| JP7086892B2 (en) | A device, program and method for estimating target information from an image area containing a grounding point. | |
| Cao et al. | Method of Unsupervised Static Recognition and Dynamic Tracking for Vehicles. | |
| KR101081973B1 (en) | Apparatus for detecting Region Of Interest using sound localization estimating, system and method for face detection thereof |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20021029 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071206 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081206 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091206 Year of fee payment: 7 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091206 Year of fee payment: 7 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101206 Year of fee payment: 8 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101206 Year of fee payment: 8 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111206 Year of fee payment: 9 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111206 Year of fee payment: 9 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121206 Year of fee payment: 10 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131206 Year of fee payment: 11 |
|
| LAPS | Cancellation because of no payment of annual fees |