[go: up one dir, main page]

JPH0855220A - Moving object extraction processing method and method - Google Patents

Moving object extraction processing method and method

Info

Publication number
JPH0855220A
JPH0855220A JP6211770A JP21177094A JPH0855220A JP H0855220 A JPH0855220 A JP H0855220A JP 6211770 A JP6211770 A JP 6211770A JP 21177094 A JP21177094 A JP 21177094A JP H0855220 A JPH0855220 A JP H0855220A
Authority
JP
Japan
Prior art keywords
feature
amount
image
moving object
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6211770A
Other languages
Japanese (ja)
Inventor
Akinori Kosako
明徳 小迫
Shuichi Nishio
秀一 西尾
Atsushi Inagawa
淳 稲川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
N T T DATA TSUSHIN KK
NTT Data Group Corp
Original Assignee
N T T DATA TSUSHIN KK
NTT Data Communications Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by N T T DATA TSUSHIN KK, NTT Data Communications Systems Corp filed Critical N T T DATA TSUSHIN KK
Priority to JP6211770A priority Critical patent/JPH0855220A/en
Publication of JPH0855220A publication Critical patent/JPH0855220A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 (修正有) 【目的】 撮像環境の変化による画像の変化に追従する
ことができ、更に複数の画像特徴を用いることによっ
て、安定に移動物体の分離・抽出を行なう。 【構成】 動画像がフレーム単位で入力されると、特徴
抽出部101は、複数種類の特徴量を動画像の画素毎若
しくは小領域毎に抽出する。各特徴量は、画像変化情報
抽出部102に入力され、蓄積された特徴量の時系列に
より現フレームの特徴量が、上記系列の時系列変化の傾
向からどの程度逸脱しているかが、特徴量の差として抽
出される。次いで、その変動量が算出され、正規化され
た特徴差が算出される。次に、全ての特徴差が一つの値
に統合され、特徴の変化量となる。更に、特徴の変化量
が画像変換量に変換され、最終的な画像変化情報として
抽出される。閾値処理部104は、得られた画像変化量
に対し、既知の方法を用いて、移動物体の領域を分離・
抽出する。
(57) [Summary] (Modified) [Purpose] It is possible to follow changes in the image due to changes in the imaging environment, and by using multiple image features, it is possible to stably separate and extract moving objects. [Structure] When a moving image is input in frame units, the feature extraction unit 101 extracts a plurality of types of feature amounts for each pixel or each small region of the moving image. Each feature amount is input to the image change information extraction unit 102, and it is determined by the time series of the accumulated feature amount that the feature amount of the current frame deviates from the time series change tendency of the above sequence. Is extracted as the difference. Next, the variation amount is calculated, and the normalized feature difference is calculated. Next, all the feature differences are integrated into one value to obtain the feature change amount. Further, the change amount of the feature is converted into the image conversion amount and extracted as the final image change information. The threshold processing unit 104 separates the area of the moving object from the obtained image change amount using a known method.
Extract.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、撮像装置により取り込
んだ動画像中から、移動物体の領域と背景の領域とを分
離・抽出するための移動物体抽出処理方式の改良に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an improvement of a moving object extraction processing method for separating and extracting a moving object region and a background region from a moving image captured by an image pickup device.

【0002】[0002]

【従来の技術】従来、動画像中の移動物体領域を抽出す
る一般的な方法としては、背景差分法と呼ばれるものが
知られている。この方法は、予め、背景に相当する画像
を撮影して蓄積しておき、入力された動画像をこの蓄積
された画像と比較して両画像間の輝度の差分を算出し、
この差分が或る設定値以上であったときに移動物体によ
る画像変化と見做し、その画像変化と見做した領域を抽
出することにより移動物体を抽出するものである。この
方法について述べられた文献としては、例えば、谷内田
正彦編集の「コンピュータビジョン」が挙げられる。
2. Description of the Related Art Conventionally, as a general method for extracting a moving object area in a moving image, a method called a background subtraction method is known. In this method, an image corresponding to the background is captured and accumulated in advance, and a difference in luminance between both images is calculated by comparing the input moving image with the accumulated image,
When this difference is equal to or larger than a certain set value, it is regarded as an image change due to the moving object, and the moving object is extracted by extracting a region regarded as the image change. As a document describing this method, there is, for example, “Computer Vision” edited by Masahiko Taniuchi.

【0003】[0003]

【発明が解決しようとする課題】ところで、上述した背
景差分法は、比較的簡便に移動物体を抽出することがで
きるという利点を有している。しかしながら、上記背景
差分法は、天候や時刻によって逐次撮像環境が変化する
屋外等における移動物体の画像を抽出対象としたときに
は必ずしも有効ではない。その理由は、入力画像におけ
る移動物体領域だけでなく、背景に相当する領域におい
ても画像の輝度は変化するために、入力画像と蓄積され
た画像との間の輝度差が大きくなり、その結果、背景領
域を移動物体領域として誤抽出してしまう虞があるから
である。
The background subtraction method described above has the advantage that moving objects can be extracted relatively easily. However, the background subtraction method is not always effective when an image of a moving object in an outdoor environment where the imaging environment changes successively depending on the weather or time is targeted for extraction. The reason is that the luminance of the image changes not only in the moving object region in the input image but also in the region corresponding to the background, so that the luminance difference between the input image and the stored image becomes large, and as a result, This is because the background area may be erroneously extracted as the moving object area.

【0004】また、実際の移動物体及び背景は多様であ
るから、それらの輝度値も様々であり、特に移動物体の
輝度値と背景の輝度値とが近接しているときには、上述
したような画像の輝度のみに着目した移動物体の抽出方
法では、抽出の信頼性が低下するという欠点もあった。
Further, since the actual moving object and the background are various, the brightness values thereof are also different. Especially, when the brightness value of the moving object and the brightness value of the background are close to each other, the image as described above is displayed. However, the method of extracting a moving object focusing only on the luminance has a drawback that the reliability of the extraction is lowered.

【0005】従って本発明の主たる目的は、撮像環境の
変化による画像の変化に追従することができる移動物体
抽出処理方式を提供することにある。
Therefore, a main object of the present invention is to provide a moving object extraction processing method capable of following changes in an image due to changes in the imaging environment.

【0006】本発明の更なる目的は、複数の画像特徴を
用いることによって、安定的に移動物体の分離・抽出を
行なうことができる移動物体抽出処理方式を提供するこ
とにある。
A further object of the present invention is to provide a moving object extraction processing system which can stably separate and extract moving objects by using a plurality of image features.

【0007】[0007]

【課題を解決するための手段】本発明は、移動物体を含
む動画像中から移動物体の領域を抽出する移動物体抽出
処理方式において、動画像の各フレームの画像中から画
素毎若しくは小領域毎に1種類以上の画像特徴量を抽出
する特徴量抽出手段と、特徴量抽出手段によって抽出さ
れた過去フレームの特徴量から、特徴量の時系列変化の
傾向を求めることにより、撮像環境の変化を考慮した現
フレームの特徴量を推定する特徴量推定手段と、特徴量
抽出手段によって抽出された現フレームの特徴量と、特
徴量推定手段によって推定された現フレームの特徴量と
を比較することによって、両者の差分を特徴量の変化量
として求める特徴変化量演算手段と、特徴変化量演算手
段により求められた特徴変化量に基づいて、この特徴変
化量を示す領域が移動物体に該当するか否か判断する判
断手段とを備えたことを特徴とする。
According to the present invention, in a moving object extraction processing method for extracting a region of a moving object from a moving image including a moving object, each pixel or each small region is extracted from the image of each frame of the moving image. A feature amount extraction unit that extracts one or more types of image feature amounts, and a tendency of a time-series change of the feature amount from the feature amount of the past frame extracted by the feature amount extraction unit to determine the change in the imaging environment. By comparing the feature amount estimating means for estimating the feature amount of the considered current frame, the feature amount of the current frame extracted by the feature amount extracting means, and the feature amount of the current frame estimated by the feature amount estimating means. Based on the characteristic change amount calculated by the characteristic change amount calculating unit and the characteristic change amount calculating unit that obtains the difference between the two as the amount of change in the characteristic amount, the region showing the characteristic change amount is And further comprising a determining means for determining whether or not corresponding to the animal body.

【0008】この方式は、望ましくは、算出された特徴
変化量を所定の分布関数に基づいて、画像変化量演算手
段により画像の変化量に変換し、前記判断手段におい
て、特徴変化量の代りに画像変化量を用いるように構成
される。
In this system, it is desirable that the calculated feature change amount be converted into an image change amount by the image change amount calculation means based on a predetermined distribution function, and the feature change amount be replaced by the determining means. It is configured to use the image change amount.

【0009】この方式は、更に望ましくは、複数種類の
特徴量を抽出すると共に、それら複数種類の特徴量の時
系列変化から、現フレームでの複数種類の特徴量を推定
し、それら複数種類の特徴量の抽出値と推定量と間の差
を求め、それらの差を統合して前記特徴変化量とするよ
うに構成される。
More preferably, this method extracts a plurality of types of characteristic amounts, estimates a plurality of types of characteristic amounts in the current frame from time-series changes of the plurality of types of characteristic amounts, and It is configured to obtain a difference between the extracted value of the feature amount and the estimated amount and integrate the difference to obtain the feature change amount.

【0010】[0010]

【作用】上記構成において、画素毎に又は小領域毎に現
フレームから抽出された特徴量と、その特徴量の過去の
時系列変化に基づく現フレームでの推定値とを比較する
ことによって、両者の差分が特徴量の変化量として求め
られる。そして、この特徴変化量に基づいて、その特徴
変化量を示す領域が移動物体に該当するか否かが判断さ
れる。
In the above structure, by comparing the feature amount extracted from the current frame for each pixel or each small region with the estimated value in the current frame based on the past time series change of the feature amount, both Is calculated as the change amount of the feature amount. Then, based on the feature change amount, it is determined whether or not the region indicating the feature change amount corresponds to the moving object.

【0011】この方式によれば、撮像環境の変化などに
起因する背景の特徴量の変化が上記推定値に織り込まれ
るため、この推定値と抽出された実際の特徴量との差に
基づいて移動物体を抽出することにより、撮像環境の変
化に追従した移動物体の抽出が可能となる。
According to this method, since the change of the background feature amount due to the change of the image pickup environment is incorporated in the estimated value, the movement is performed based on the difference between the estimated value and the extracted actual feature amount. By extracting an object, it is possible to extract a moving object that follows changes in the imaging environment.

【0012】また、所定の分布関数に基づいて、特徴変
化量を画像変化量に変換し、この画像変化量を用いて移
動物体を検出するようにした場合には、分布関数を適切
に設定しておけば、特徴変化に含まれるノイズの影響を
確率的な観点から除去して、より正確に被写体自体の変
化を画像変化量としてとらえることができ、より精度の
高い移動物体検出が可能となる。
Further, when the feature change amount is converted into an image change amount based on a predetermined distribution function and the moving object is detected using this image change amount, the distribution function is set appropriately. By doing so, the influence of noise included in the feature change can be removed from a probabilistic point of view, and the change of the subject itself can be more accurately captured as the image change amount, which enables more accurate moving object detection. .

【0013】また、複数種類の特徴を用いて、それら特
徴量の抽出値と推定値との差を統合して特徴変化量とす
る場合には、画像中の物体移動が或る種の特徴の変化と
しては顕著に表れない場合でも、他の種類の特徴の変化
として顕著に表れる場合があるため、少なくとも一種類
の特徴に顕著な変化があれば有意な特徴変化量が得られ
るので、1種類の特徴のみを用いる場合に比較して、よ
り安定的に移動物体の抽出を行なうことができる。特
に、或る種の特徴について、背景の特徴値と移動物体の
特徴値とが近接しているような場合に、この方式は有効
である。
Further, when a plurality of types of features are used and the difference between the extracted value and the estimated value of the feature amount is integrated to obtain the feature change amount, the object movement in the image is a certain feature. Even if a change does not appear significantly, it may appear as a change in another type of feature. Therefore, if there is a significant change in at least one type of feature, a significant feature change amount can be obtained. It is possible to more stably extract the moving object as compared with the case of using only the feature of. In particular, this method is effective when the background feature value and the moving object feature value are close to each other for a certain type of feature.

【0014】[0014]

【実施例】以下、本発明の実施例を図面により詳細に説
明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0015】図1は、本発明に係る移動物体抽出処理方
式の一実施例の基本的原理を示したブロック図である。
FIG. 1 is a block diagram showing the basic principle of an embodiment of a moving object extraction processing system according to the present invention.

【0016】本方式は、図示のように、特徴抽出部10
1、画像変化情報抽出部102、特徴量補正処理部10
3及び閾値処理部104を備える。
As shown in the figure, this system uses the feature extraction unit 10
1, image change information extraction unit 102, feature amount correction processing unit 10
3 and a threshold processing unit 104.

【0017】特徴抽出部101は、入力された動画像の
特徴を抽出するもので、TVカメラ等の撮像装置(図示
しない)よりフレーム単位で入力された動画像中から、
必要とする1種類以上の特徴量を前記動画像の画素毎若
しくは小領域毎に抽出する。この特徴量は、上記動画像
のカラー情報や濃淡情報等によって表現される量、又
は、これらの情報に既知の手法を適用して、上記動画像
の画素毎若しくは小領域毎に得られる量のことを指す。
The feature extraction unit 101 extracts the features of the input moving image, and from the moving image input in frame units from an image pickup device (not shown) such as a TV camera,
One or more kinds of required feature quantities are extracted for each pixel or each small area of the moving image. This feature amount is an amount represented by color information or grayscale information of the moving image, or an amount obtained for each pixel or small area of the moving image by applying a known method to these information. It means that.

【0018】画像変化情報抽出部102は、特徴抽出部
101により画素毎若しくは小領域毎に抽出された各特
徴量を入力し、過去から現在まで蓄積された特徴量の系
列を用いて、着目しているフレームの特徴量(即ち、現
在のフレームの特徴量のこと。以下同じ)が、上記系列
の時系列変化の傾向からどの程度逸脱しているかを、特
徴量の差として抽出する。次いで、各特徴量の時系列値
から特徴量の変動量を算出し、算出した変動量を用いて
抽出した特徴量の差を正規化し、正規化された特徴差と
して算出する。
The image change information extraction unit 102 inputs each feature amount extracted for each pixel or each small region by the feature extraction unit 101, and pays attention to it using a series of feature amounts accumulated from the past to the present. The degree of deviation of the feature amount of the current frame (that is, the feature amount of the current frame; the same applies hereinafter) from the tendency of the time series change of the above series is extracted as the difference between the feature amounts. Next, the variation amount of the feature amount is calculated from the time-series value of each feature amount, the difference between the feature amounts extracted using the calculated variation amount is normalized, and the normalized feature difference is calculated.

【0019】次に、このようにして算出された特徴差を
特徴の変化量とする。尚、2種以上の特徴を用いる場合
は、全ての特徴の特徴差を一つの値に統合して特徴の変
化量とする。更に、特徴の変化量と移動物体である可能
性とを関係づけるよう、予め設定された変換曲線を用い
て特徴変化量を変換し、画像変換量として算出する。こ
のようにして算出された画像変化量は、その近傍の画像
変化量を用いて修正され、最終的な画像変化情報として
抽出される。ただし、ここで述べた特徴の変化の傾向と
はある時間間隔における特徴の時系列値の大局的な変化
を表し、特徴の変動とは局所的な変化を表す。このよう
に、特徴量の時系列の変化を考慮して画像変化の情報を
抽出することにより、撮像環境に変化による画像の変化
とは異なる、移動物体による画像の変化をより明確に抽
出できる。
Next, the feature difference calculated in this manner is used as the feature change amount. When two or more types of features are used, the feature differences of all the features are integrated into one value to obtain the feature variation amount. Further, the feature change amount is converted using a preset conversion curve so as to associate the change amount of the feature with the possibility of being a moving object, and is calculated as an image conversion amount. The image change amount calculated in this way is corrected using the image change amount in the vicinity thereof and extracted as final image change information. However, the tendency of the feature change described here indicates a global change of the time-series value of the feature at a certain time interval, and the feature change indicates a local change. As described above, by extracting the information of the image change in consideration of the time-series change of the feature amount, it is possible to more clearly extract the change of the image due to the moving object, which is different from the change of the image due to the change in the imaging environment.

【0020】閾値処理部104は、画像変化情報抽出部
102から得られた画像変化量に対し、一定閾値もしく
は再帰的閾値などの既知の方法を用いて、移動物体の領
域を分離・抽出する。
The threshold value processing unit 104 separates / extracts the area of the moving object from the image change amount obtained from the image change information extraction unit 102 by using a known method such as a constant threshold value or a recursive threshold value.

【0021】一方、特徴量補正処理部103は、画像変
化情報抽出部102において抽出された画像変化量を基
に、その変化が移動物体に起因するものか、撮像環境の
変化に起因するものかを判定し、移動物体の可能性が高
いならば着目フレームの各特徴量を削除もしくは修正し
て、過去から蓄積されている各特徴量の系列に加える。
On the other hand, based on the image change amount extracted by the image change information extraction unit 102, the feature amount correction processing unit 103 determines whether the change is caused by a moving object or a change in the imaging environment. If there is a high possibility of a moving object, each feature quantity of the frame of interest is deleted or modified and added to the series of each feature quantity accumulated from the past.

【0022】上記の画像変化情報抽出及び特徴量補正処
理を、各フレームの各画素に対して逐次行なうことによ
り、撮像環境の変化に追従した変化情報の抽出が行な
え、安定した移動物体の抽出ができる。
By successively performing the above-described image change information extraction and feature amount correction processing on each pixel of each frame, change information can be extracted in accordance with changes in the imaging environment, and stable moving objects can be extracted. it can.

【0023】図2は、画像変化情報抽出部102による
特徴変化量の算出方法の一例を示す。
FIG. 2 shows an example of a method of calculating the feature change amount by the image change information extraction unit 102.

【0024】図2において、横軸には時間が、また、縦
軸には或る一つの特徴量(例えば、輝度値)が夫々示さ
れており、符号Pi(i=T−K…T−1)は過去のフレ
ームでの特徴量を、また、符号PTは着目している現在
のフレームでの特徴量を夫々示している。このように或
る一つの特徴量に着目した場合、得られる特徴量の系列
は図2の黒点のように分布する。曲線Aは、特徴量PT-
1〜PT-kを用いて、フィルタリング手法若しくは多項式
近似の手法等によって得られた特徴量の変化傾向を示す
曲線(関数)であり、符号QTは、この曲線Aによって
推定される着目フレームにおける特徴量を表している。
正規化された特徴変化量は、曲線A及び特徴量PT-1〜
PT-kを用いて算出される分散σTと、特徴量PTと推定
特徴量QTとの間の差DTによって算出される。
In FIG. 2, the horizontal axis represents time, and the vertical axis represents a certain characteristic amount (for example, brightness value), and the symbol Pi (i = TK ... T-). 1) indicates the feature amount in the past frame, and the symbol PT indicates the feature amount in the current frame of interest. Thus, when attention is paid to a certain one feature amount, the obtained feature amount series is distributed like the black dots in FIG. The curve A is the feature value PT-
1 to PT-k is a curve (function) showing a change tendency of the feature amount obtained by a filtering method, a polynomial approximation method, or the like, and a code QT is a feature in the frame of interest estimated by the curve A. It represents the quantity.
The normalized feature change amount is the curve A and the feature amount PT-1 to
The variance σT calculated using PT-k and the difference DT between the feature amount PT and the estimated feature amount QT.

【0025】図3は、本実施例に係る移動物体抽出処理
方式の構成を示したブロック図である。本方式は、画像
から得られる特徴の一つとして輝度情報を用い、これに
より移動物体の抽出処理を行うものである。
FIG. 3 is a block diagram showing the configuration of the moving object extraction processing system according to this embodiment. This method uses luminance information as one of the features obtained from an image, and extracts a moving object by using it.

【0026】本方式は、図示のように、画像蓄積部20
1、画像メモリ202、特徴抽出部203、特徴量メモ
リ204、特徴量推定部205、推定値記憶バッファ2
06、統計量算出部207、統計値記憶バッファ20
8、画像変化量算出部209、特徴変化量メモリ21
0、画像変化量メモリ211、変化量修正部212、閾
値処理部213、移動物体像メモリ214、移動物体出
力部215及び特徴量補正処理部216を備える。
As shown in the figure, this system uses the image storage unit 20.
1, image memory 202, feature extraction unit 203, feature amount memory 204, feature amount estimation unit 205, estimated value storage buffer 2
06, statistic calculation unit 207, statistic value storage buffer 20
8, image change amount calculation unit 209, feature change amount memory 21
0, an image change amount memory 211, a change amount correction unit 212, a threshold value processing unit 213, a moving object image memory 214, a moving object output unit 215, and a feature amount correction processing unit 216.

【0027】まず、動画像が、テレビカメラ等の画像入
力系から画像蓄積部201にフレーム毎に出力され、各
フレーム毎に画像蓄積部201に蓄積される。各フレー
ム画像は、蓄積された順に1フレーム毎に画像蓄積部2
01から画像メモリ202に送出される。そして、この
送出されたフレームについて後述する特徴抽出部203
〜特徴量補正処理部216による一連の処理が完了する
と、次のフレームの画像が画像蓄積部201から画像メ
モリ202に送出されるようになっている。
First, a moving image is output from the image input system such as a television camera to the image storage unit 201 for each frame and stored in the image storage unit 201 for each frame. The frame images are stored in the image storage unit 2 for each frame in the order in which they are stored.
01 to the image memory 202. Then, the feature extraction unit 203, which will be described later, about the transmitted frame.
When the series of processing by the feature amount correction processing unit 216 is completed, the image of the next frame is sent from the image storage unit 201 to the image memory 202.

【0028】特徴抽出部203は、画像蓄積部201か
ら送出された現フレームの画像を画像メモリ202から
読出して、その輝度値を算出し、その算出結果を特徴量
メモリ204に蓄積する。特徴量メモリ204に蓄積さ
れた過去の輝度値は、特徴量推定部205、統計量算出
部207、画像変化量算出部209によって読み出され
る。
The feature extraction unit 203 reads the image of the current frame sent from the image storage unit 201 from the image memory 202, calculates the brightness value thereof, and stores the calculation result in the feature amount memory 204. The past brightness value accumulated in the feature amount memory 204 is read by the feature amount estimating unit 205, the statistic amount calculating unit 207, and the image change amount calculating unit 209.

【0029】特徴量推定部205は、過去の輝度値を特
徴量メモリ204から読出して、それら輝度値の時系列
に対してフィルタ処理若しくは関数による近似を行うこ
とにより輝度値の変化の傾向を算出し、現フレームにお
ける輝度値を推定する。
The feature quantity estimation unit 205 reads the past brightness values from the feature quantity memory 204, and performs a filtering process or a function approximation to the time series of the brightness values to calculate the tendency of the change of the brightness values. Then, the brightness value in the current frame is estimated.

【0030】尚、本実施例では、輝度値の変化の傾向を
算出する方法として2次関数による近似を用いる。ここ
で、この2次関数による輝度値の推定方法について、図
2を参照しながら説明する。特徴量推定部205は、ま
ず、図2に示す過去の輝度値PT-kからPT-1までを用い
て下記の(1)式で表される2次関数の係数a、b、c
を最小二乗法によって算出し、図2に示す関数Aを求め
る。
In the present embodiment, the approximation by the quadratic function is used as the method of calculating the tendency of the change of the brightness value. Here, a method of estimating the brightness value by the quadratic function will be described with reference to FIG. The feature amount estimation unit 205 first uses the past luminance values PT-k to PT-1 shown in FIG. 2 to calculate the coefficients a, b, and c of the quadratic function represented by the following equation (1).
Is calculated by the method of least squares, and the function A shown in FIG. 2 is obtained.

【0031】[0031]

【数1】 ここに、Xは横軸の座標を、Yは縦軸の座標を示す。こ
のようにして関数Aを求めた後、特徴量推定部205
は、下記の(2)式により、現フレームにおける輝度の
推定値QTを求める。
[Equation 1] Here, X indicates the coordinate on the horizontal axis and Y indicates the coordinate on the vertical axis. After the function A is obtained in this way, the feature quantity estimating unit 205
Calculates the luminance estimated value QT in the current frame by the following equation (2).

【0032】[0032]

【数2】 再び図3を参照して、上記(2)式により得られた輝度
の推定値QTは、特徴量推定部205によって推定値記
憶バッファ206に格納される。
[Equation 2] Referring to FIG. 3 again, the estimated luminance value QT obtained by the above equation (2) is stored in the estimated value storage buffer 206 by the feature amount estimation unit 205.

【0033】統計量算出部207は、特徴量推定部20
5による上記処理が終了すると、過去の輝度値を特徴量
メモリ204から読出して、特徴量推定部205で求め
られた関数Aを用いて下記の(3)式、(4)式により
時刻T−Kから時刻T−1までの間の輝度値の関数Aに
対する分散σTを求める。
The statistic calculation unit 207 includes a feature quantity estimation unit 20.
When the above-mentioned processing in 5 is completed, the past brightness value is read from the feature amount memory 204, and the function A obtained by the feature amount estimating unit 205 is used to calculate the time T- by the following equations (3) and (4). The variance σT for the function A of the luminance value from K to time T-1 is obtained.

【0034】[0034]

【数3】 この(3)式及び(4)式によって求められた分散σT
は、統計値記憶バッファ208に格納される。
(Equation 3) The variance σT obtained by the equations (3) and (4)
Are stored in the statistical value storage buffer 208.

【0035】画像変化量算出部209は、統計量算出部
207による上記処理が終了すると、特徴量メモリ20
4、推定値記憶バッファ206、統計値記憶バッファ2
08から、夫々輝度値PT、推定値QT、分散σTを読出
し、これらを用いて下記の(5)式、(6)式、(7)
式により、特徴量の差DT(即ち、図2に示した現時刻
Tにおける輝度値PTと推定値QTとの間の差)、正規化
された特徴量の差NT、及び特徴変化量LTを求める。
When the above-mentioned processing by the statistic calculation unit 207 is completed, the image change amount calculation unit 209 determines the feature amount memory 20.
4, estimated value storage buffer 206, statistical value storage buffer 2
08, the luminance value PT, the estimated value QT, and the variance σT are read out, respectively, and using these, the following equations (5), (6), and (7)
According to the equation, the difference DT in feature amount (that is, the difference between the brightness value PT and the estimated value QT at the current time T shown in FIG. 2), the normalized difference NT in feature amount, and the feature change amount LT Ask.

【0036】[0036]

【数4】 画像変化量算出部209は、この特徴変化量LTを用い
て、図4に示す曲線Gにより、画像変化量RTを求め、
特徴変化量LTを特徴変化量メモリ210に、また、画
像変化量RTを画像変化量メモリ211に夫々格納す
る。ここで、曲線Gは、特徴変化量LTから画像変化量
RTへの変換曲線であり、下記の(8)式で示すことが
できる。
[Equation 4] The image change amount calculation unit 209 uses this feature change amount LT to obtain the image change amount RT from the curve G shown in FIG.
The feature change amount LT is stored in the feature change amount memory 210, and the image change amount RT is stored in the image change amount memory 211. Here, the curve G is a conversion curve from the feature change amount LT to the image change amount RT and can be expressed by the following equation (8).

【0037】[0037]

【数5】 ここに、Xは横軸の座標(X≦0)、Yは縦軸の座標を
示す。
(Equation 5) Here, X indicates the coordinate on the horizontal axis (X ≦ 0), and Y indicates the coordinate on the vertical axis.

【0038】上述した特徴変化量LTは、(5)式、
(6)式、(7)式から明らかなように、特徴量の変化
を直接表す値である。この変化量の0に近い領域は、主
にノイズによるものと思料され、移動物体が存在しない
場合には、変化量と変化の出現頻度とは正規分布に従う
ものと想定される。そこで、正規分布の形状を有する変
換曲線Gにより、特徴変化量LTを画像変化量RTに変換
することによって単純な変化量を確率的な意味を持つ量
に変換する。これによって、得られた画像変化量RTが
どの程度通常とかけ離れた値であるのかが確率的に評価
できるので、後の閾値処理が行い易くなる。
The above-mentioned characteristic change amount LT is expressed by the equation (5),
As is clear from the equations (6) and (7), it is a value that directly represents the change in the feature amount. The region where the amount of change is close to 0 is considered to be mainly due to noise, and when there is no moving object, it is assumed that the amount of change and the frequency of occurrence of change follow a normal distribution. Therefore, a simple change amount is converted into an amount having a probabilistic meaning by converting the feature change amount LT into the image change amount RT by the conversion curve G having the shape of the normal distribution. This makes it possible to probabilistically evaluate how far the obtained image change amount RT is from the normal value, which facilitates the subsequent threshold processing.

【0039】変化量修正部212は、以上のようにして
画像変化量が求まった後、画像上の着目している画素の
画像変化量とその周囲8画素の画像変化量とを平均し、
この平均値を着目画素の画像変化量と置き換えることに
より、周囲と大きく異なる値を修正し、画像変化量メモ
リ211の値を書換える。
After the image change amount is obtained as described above, the change amount correction unit 212 averages the image change amount of the pixel of interest on the image and the image change amounts of the eight surrounding pixels,
By replacing this average value with the image change amount of the pixel of interest, a value greatly different from the surroundings is corrected, and the value of the image change amount memory 211 is rewritten.

【0040】閾値処理部213は、変化量修正部212
による上記処理が終了すると、画像変化量メモリ211
より1フレーム分の画像変化量を読出し、各画素につい
て予め設定された閾値以上の画像変化量があるときに
は、その画素は移動物体領域内に属すると判定し、その
情報を移動物体像メモリ214に書込む。この情報は、
移動物体出力部215によって読出される。
The threshold value processing section 213 has a variation correction section 212.
When the above-mentioned processing by is ended, the image change amount memory 211
The image change amount for one frame is read out, and when there is an image change amount equal to or larger than the threshold value set in advance for each pixel, it is determined that the pixel belongs to the moving object region, and the information is stored in the moving object image memory 214. Write. This information is
It is read by the moving object output unit 215.

【0041】一方、特徴量補正処理部216は、変化量
修正部212による上記処理が終了すると、特徴変化量
メモリ210から現フレームの特徴変化量Lを、また、
画像変化量メモリ211から画像変化量Rを夫々読取
る。読出した特徴変化量Lの値が閾値1を超えていると
判定すると、特徴量補正処理部216は、次のフレーム
での処理動作において、統計量算出部207が現フレー
ムの輝度値を使用しないようにするための情報を、特徴
量メモリ204に書込む。また、読出した画像変化量R
については、その値を基に現フレームの輝度値Pと推定
値Qを用い、下記の(9)式で補正値Hを求め、特徴量
メモリ204に書き加える。
On the other hand, when the above-mentioned processing by the change amount correction unit 212 is completed, the feature amount correction processing unit 216 outputs the feature change amount L of the current frame from the feature change amount memory 210, and
The image change amount R is read from the image change amount memory 211, respectively. When it is determined that the value of the read characteristic change amount L exceeds the threshold value 1, the characteristic amount correction processing unit 216 does not use the luminance value of the current frame by the statistical amount calculation unit 207 in the processing operation in the next frame. The information for doing so is written in the feature amount memory 204. In addition, the read image change amount R
With respect to, the luminance value P and the estimated value Q of the current frame are used to obtain a correction value H by the following equation (9), and the correction value H is added to the feature amount memory 204.

【0042】[0042]

【数6】 ここで、特徴変化量Lが大きいということは、移動物体
による特徴量の変化である可能性が大きいということで
ある。従って、定常状態の画像特徴の時系列分散を算出
するための値としては、現在の特徴量は不適切であり、
本実施例では現在の特徴量を排除する必要から「1」を
閾値として設定した。この「1」は、正規分布で言うと
ころの「1σ」に対応しており、移動物体の影響がなけ
れば、特徴変化量の約90%が1以下にあることから設
定したものである。また、補正値Hは、現在の画像の処
理が終了した後、特徴量補正処理部216によって図2
で示す実際の特徴量PTと置換えられるものである。補
正値Hを算出する理由を、以下に説明する。
(Equation 6) Here, the fact that the feature change amount L is large means that there is a high possibility that the feature amount is changed by a moving object. Therefore, the current feature quantity is inappropriate as a value for calculating the time-series variance of steady-state image features,
In this embodiment, "1" is set as the threshold because it is necessary to exclude the current feature amount. This “1” corresponds to “1σ” in the normal distribution, and is set because about 90% of the feature change amount is 1 or less if there is no influence of the moving object. In addition, the correction value H is set by the feature amount correction processing unit 216 after the processing of the current image is completed.
It is replaced with the actual feature amount PT indicated by. The reason for calculating the correction value H will be described below.

【0043】現在の画像の変化量検出結果が大きな場
合、そのときの実際の特徴量PTは、移動物体による特
徴量を示している可能性が大きい。従って、定常状態時
の変化傾向を示す関数Aを求めるためには、上記PTは
不適切な値となる。一方、現在の画像について予測され
た特徴値QTはおよそ妥当な値であると思料される。そ
こで、PT、QTのどちらの値を用いるかということにな
る。
When the current image change amount detection result is large, there is a high possibility that the actual feature amount PT at that time indicates the feature amount of the moving object. Therefore, in order to obtain the function A indicating the change tendency in the steady state, the above-mentioned PT is an inappropriate value. On the other hand, the feature value QT predicted for the current image is considered to be a reasonable value. Therefore, which of PT and QT is to be used is decided.

【0044】即ち、画像変化量RTが小さなときは、PT
は適切な値である(PTの値は、ノイズ若しくは緩やか
な環境の変化に起因するからである)。これに対して画
像変化量RTが大きくなるに従い、PTよりもQTが適切
値となる(PTの値は、移動物体に起因するからであ
る)。このように、画像変化量RTが小さなときに適合
する性質と画像変化量RTが大きくなったときに適合す
る性質の、2つの性質を反映した値を算出する必要があ
る。補正値Hの式は、この性質を簡単に記述したもので
ある。
That is, when the image change amount RT is small, PT
Is an appropriate value (because the value of PT is due to noise or a gradual change in the environment). On the other hand, as the image change amount RT becomes larger, QT becomes more appropriate than PT (because the value of PT is due to the moving object). As described above, it is necessary to calculate a value that reflects two properties, a property that is suitable when the image change amount RT is small and a property that is suitable when the image change amount RT is large. The formula for the correction value H is a simple description of this property.

【0045】このような意義を持つ補正値Hは、次のフ
レームでの処理動作において、特徴量推定部205が、
図2に示した関数Aを求める際に、輝度値Pの代りとし
て用いられることとなる。
The correction value H having such a meaning is obtained by the feature quantity estimating unit 205 in the processing operation in the next frame.
When the function A shown in FIG. 2 is obtained, it is used instead of the brightness value P.

【0046】以上説明したような処理手順を、入力され
るフレームについて逐次実行することにより、複数の画
像特徴を用い、撮像環境の変化に追従することが可能と
なり、移動物体の抽出を安定的に行うことが可能にな
る。
By sequentially executing the processing procedure as described above for input frames, it is possible to use a plurality of image features to follow changes in the imaging environment, and to stably extract moving objects. It will be possible to do.

【0047】ところで、上記の実施例では、1種類の画
像特徴つまり輝度値だけを用いたが、2種以上の画像特
徴を用いることも可能である。この場合における画像変
化量の算出方法を、2種類の特徴を用いた場合を例にと
って、図5により説明する。
By the way, in the above embodiment, only one type of image feature, that is, the brightness value is used, but it is also possible to use two or more types of image features. The method of calculating the image change amount in this case will be described with reference to FIG. 5, taking as an example the case of using two types of features.

【0048】2種類の特徴についての画像特徴量をP
1、P2、推定値をQ1、Q2、特徴量の差をD1、D2で表
すと、正規化された特徴量の差N1、N2は夫々の特徴の
分散σ1、σ2を用いて、下記の(10)式、(11)式
で表すことができる。
The image feature amount for two types of features is P
1, P2, the estimated value is Q1, Q2, and the feature amount difference is D1, D2. The normalized feature amount difference N1, N2 uses the respective feature variances σ1, σ2 as follows ( It can be expressed by equations (10) and (11).

【0049】[0049]

【数7】 この正規化された特徴量の差N1、N2の値を用い、既知
の距離算出法により、特徴変化量Lを算出し、図4に示
すグラフにより画像変化量Rを求める。例えば、ユーク
リッド距離を用いれば、特徴変化量Lは、下記の(1
2)式で求められる。
(Equation 7) The feature change amount L is calculated by a known distance calculation method using the values of the normalized feature amount differences N1 and N2, and the image change amount R is obtained from the graph shown in FIG. For example, if the Euclidean distance is used, the feature change amount L is
It is calculated by the equation (2).

【0050】[0050]

【数8】 尚、輝度値以外の画像特徴としては、例えば、輝度の相
関値、分散値、色相等が挙げられる。
[Equation 8] The image features other than the brightness value include, for example, a brightness correlation value, a dispersion value, and a hue.

【0051】ここで、輝度の相関値とは、現在の画像と
一時刻前の画像との間の領域内の輝度構造の相違を表す
値で、一時刻前の画像と現在の画像の同一位置の或る領
域について下記の(13)式で求められる。
Here, the luminance correlation value is a value representing the difference in the luminance structure in the area between the current image and the image one time before, and is the same position between the image one time before and the current image. Is calculated by the following equation (13).

【0052】 相関値=σa・σb/(σab・σab)…………(13) ここに、σaは一時刻前の画像における領域内での輝度
の分散、σbは現在の画像における領域内での輝度の分
散、σabは両画像における領域内での輝度の共分散であ
る。
Correlation value = σaσb / (σabσab) (13) where σa is the variance of the luminance in the area in the image one time before, and σb is the area in the current image. , Σab is the covariance of the brightness in the regions in both images.

【0053】また、輝度の分散値とは、現在の画像の或
る領域について求められる単純な輝度の分散であり、領
域内の輝度構造の複雑さを表している。
The luminance variance value is a simple luminance variance obtained for a certain area of the current image, and represents the complexity of the luminance structure in the area.

【0054】また、色相とは、例えば単純に、RGB夫
々の値の比率を求めることによって表される値である。
The hue is, for example, a value expressed simply by calculating the ratio of the RGB values.

【0055】このように、複数の特徴を用いることによ
り、一つの特徴だけでは検出されなかった特徴の変化
も、他の特徴により検出することができ、これが特徴変
化量を算出する際に反映されて、結果的に変化の情報を
検出し損なう不具合を低減することができる。例えば赤
色と灰色は、輝度では近い値になるため、輝度だけでは
区別し難いが、色相若しくは彩度では異なっているの
で、両者は区別できる。
As described above, by using a plurality of features, a change in a feature that is not detected by only one feature can be detected by another feature, which is reflected when calculating the feature change amount. As a result, it is possible to reduce the trouble of failing to detect change information. For example, since red and gray have similar values in terms of luminance, it is difficult to distinguish them by luminance alone, but since they differ in hue or saturation, they can be distinguished.

【0056】このように特徴が1つでも変化したことを
示す情報が抽出されたならば、特徴に真の変化があった
と見做してよいので、このような複数の特徴の利用が有
効となる。
If the information indicating that even one feature has changed is extracted in this way, it can be considered that there is a true change in the feature. Therefore, it is effective to use such a plurality of features. Become.

【0057】以上説明したように、本発明の実施例によ
れば、撮像環境の変化に対して追従でき、且つ複数の異
なる性質を持つ画像特徴を統合して扱うことができるの
で、移動物体の抽出を安定的に行えるだけでなく、対象
とする移動物体に適応した画像特徴を組合せて選択、使
用することによって、適宜抽出精度の向上を図ることが
可能となり、例えば歩行者の検出や交通事故を起こした
車両の追跡等の様々な用途に適用することが可能であ
る。
As described above, according to the embodiment of the present invention, it is possible to follow changes in the imaging environment, and it is possible to handle a plurality of image features having different characteristics in an integrated manner. Not only can extraction be performed stably, but by selecting and using image features that match the target moving object, it is possible to improve extraction accuracy as appropriate, for example, detection of pedestrians and traffic accidents. It can be applied to various uses such as tracking of a vehicle that has caused

【0058】以上説明した内容は、あくまで本発明の一
実施例に係るものであって、本発明が上記内容のみに限
定されるものでないのは勿論である。
The contents described above are only related to one embodiment of the present invention, and it goes without saying that the present invention is not limited to the above contents.

【0059】[0059]

【発明の効果】以上説明したように、本発明によれば、
撮像環境の変化による画像の変化に追従して、安定的に
移動物体の抽出を行なうことができる。
As described above, according to the present invention,
It is possible to stably extract a moving object by following changes in the image due to changes in the imaging environment.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る移動物体抽出処理方式の一実施例
の基本原理を示したブロック図。
FIG. 1 is a block diagram showing the basic principle of an embodiment of a moving object extraction processing method according to the present invention.

【図2】同実施例における特徴変化量の算出手法の説明
図。
FIG. 2 is an explanatory diagram of a method of calculating a feature change amount according to the same embodiment.

【図3】同実施例の詳細な構成を示したブロック図。FIG. 3 is a block diagram showing a detailed configuration of the embodiment.

【図4】同実施例における画像変化量の算出手法の説明
図。
FIG. 4 is an explanatory diagram of a method of calculating an image change amount according to the embodiment.

【図5】特徴を2つ以上用いた場合の画像変化量の算出
手法の説明図。
FIG. 5 is an explanatory diagram of a method of calculating an image change amount when two or more features are used.

【符号の説明】[Explanation of symbols]

101 特徴抽出部 102 画像変化情報抽出部 103 特徴量補正処理部 104 閾値処理部 201 画像蓄積部 202 画像メモリ 203 特徴抽出部 204 特徴量メモリ 205 特徴量推定部 206 推定値記憶バッファ 207 統計量算出部 208 統計値記憶バッファ 209 画像変化量算出部 210 特徴変化量メモリ 211 画像変化量メモリ 212 変化量修正部 213 閾値処理部 214 移動物体像メモリ 215 移動物体出力部 216 特徴量補正処理部 101 feature extraction unit 102 image change information extraction unit 103 feature amount correction processing unit 104 threshold value processing unit 201 image storage unit 202 image memory 203 feature extraction unit 204 feature amount memory 205 feature amount estimation unit 206 estimated value storage buffer 207 statistical amount calculation unit 208 statistical value storage buffer 209 image change amount calculation unit 210 feature change amount memory 211 image change amount memory 212 change amount correction unit 213 threshold value processing unit 214 moving object image memory 215 moving object output unit 216 feature amount correction processing unit

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 移動物体を含む動画像中から移動物体の
領域を抽出する移動物体抽出処理方式において、 前記動画像の各フレームの画像中から画素毎若しくは小
領域毎に1種類以上の画像特徴量を抽出する特徴量抽出
手段と、 前記特徴量抽出手段によって抽出された過去フレームの
特徴量から、特徴量の時系列変化の傾向を求めることに
より、撮像環境の変化を考慮した現フレームの特徴量を
推定する特徴量推定手段と、 前記特徴量抽出手段によって抽出された現フレームの特
徴量と、前記特徴量推定手段によって推定された現フレ
ームの特徴量とを比較することによって、両者の差分を
特徴量の変化量として求める特徴変化量演算手段と、 前記特徴変化量演算手段により求められた特徴変化量に
基づいて、この特徴変化量を示す領域が移動物体に該当
する否か判断する判断手段と、 を備えたことを特徴とする移動物体抽出処理方式。
1. A moving object extraction processing method for extracting a region of a moving object from a moving image including a moving object, wherein at least one type of image feature is provided for each pixel or each small region in the image of each frame of the moving image. A feature amount extraction unit that extracts the amount, and a feature of the current frame that considers a change in the imaging environment by obtaining a tendency of a time-series change of the feature amount from the feature amount of the past frame extracted by the feature amount extraction unit. By comparing the feature amount estimation unit that estimates the amount, the feature amount of the current frame extracted by the feature amount extraction unit, and the feature amount of the current frame estimated by the feature amount estimation unit. Based on the characteristic change amount calculated by the characteristic change amount calculating means, the region indicating the characteristic change amount is moved. Moving object extraction method characterized by comprising determining means for determining whether or not corresponding to the object, the.
【請求項2】 請求項1記載の移動物体の抽出処理方式
において、 前記特徴変化量を、この特徴変化量のノイズに起因する
出現頻度を示す所定の分布関数に基づいて、画像変化量
に変換する画像変化量変換手段を更に備え、 前記判断手段が、前記画像変化量変換手段により変換さ
れた画像変化量に基づいて前記判断を行うことを特徴と
する移動物体抽出処理方式。
2. The moving object extraction processing method according to claim 1, wherein the feature change amount is converted into an image change amount based on a predetermined distribution function indicating an appearance frequency of the feature change amount due to noise. The moving object extraction processing method, further comprising image change amount conversion means for performing the determination, wherein the determination means makes the determination based on the image change amount converted by the image change amount conversion means.
【請求項3】 請求項1又は2記載の移動物体の抽出処
理方式において、 将来フレームにおける移動物体領域の抽出のために、前
記特徴変化量又は前記画像変化量に基づき、前記現フレ
ームから抽出した前記特徴量を補正する補正手段を更に
備えたことを特徴とする移動物体の抽出処理方式。
3. The moving object extraction processing method according to claim 1, wherein in order to extract a moving object region in a future frame, the moving object region is extracted from the current frame based on the feature change amount or the image change amount. A moving object extraction processing method, further comprising: a correction unit that corrects the characteristic amount.
【請求項4】 請求項1記載の移動物体抽出処理方式に
おいて、 前記特徴量抽出手段が複数種類の特徴量を抽出し、 前記特徴量推定手段が、現フレームでの前記複数種類の
特徴量を推定し、 前記特徴変化量演算手段が、前記現フレームより抽出さ
れた複数種類の特徴量と前記推定された複数種類の特徴
量と間の差を求め、それらの差を統合して前記特徴変化
量とすることを特徴とする移動物体の抽出処理方式。
4. The moving object extraction processing method according to claim 1, wherein the feature amount extraction unit extracts a plurality of types of feature amounts, and the feature amount estimation unit extracts the plurality of types of feature amounts in a current frame. Estimating, the feature change amount calculating means obtains a difference between the plurality of types of feature amounts extracted from the current frame and the estimated plurality of types of feature amounts, and integrates the differences to obtain the feature change. A method for extracting a moving object, which is characterized in that it is a quantity.
【請求項5】 移動物体を含む動画像中から移動物体の
領域を抽出する移動物体抽出処理方法において、 前記動画像の各フレームの画像中から画素毎若しくは小
領域毎に1種類以上の画像特徴量を抽出する特徴量抽出
過程と、 前記特徴量抽出手段によって抽出された過去フレームの
特徴量から、特徴量の時系列変化の傾向を求めることに
より、撮像環境の変化を考慮した現フレームの特徴量を
推定する特徴量推定過程と、 前記特徴量抽出手段によって抽出された現フレームの特
徴量と、前記特徴量推定手段によって推定された現フレ
ームの特徴量とを比較することによって、両者の差分を
特徴量の変化量として求める特徴変化量演算過程と、 前記特徴変化量演算手段により求められた特徴変化量に
基づいて、この特徴変化量を示す画素の属する領域が移
動物体の領域か否か判断する判断過程と、 を備えたことを特徴とする移動物体抽出処理方法。
5. A moving object extraction processing method for extracting a region of a moving object from a moving image including a moving object, wherein at least one type of image feature is provided for each pixel or each small region in the image of each frame of the moving image. The feature amount extraction process for extracting the amount of features, and the feature amount of the current frame in consideration of the change of the imaging environment by obtaining the tendency of the feature amount in time series change from the feature amount of the past frame extracted by the feature amount extraction means. By comparing the feature amount estimation process for estimating the amount, the feature amount of the current frame extracted by the feature amount extracting means, and the feature amount of the current frame estimated by the feature amount estimating means, the difference between the two Based on the feature change amount calculated by the feature change amount calculating means, the characteristic change amount calculation process for obtaining the feature change amount as a change amount of the feature amount. Moving object extraction method area that is characterized in that and a determination process of determining whether an area of the moving object.
JP6211770A 1994-08-12 1994-08-12 Moving object extraction processing method and method Pending JPH0855220A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6211770A JPH0855220A (en) 1994-08-12 1994-08-12 Moving object extraction processing method and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6211770A JPH0855220A (en) 1994-08-12 1994-08-12 Moving object extraction processing method and method

Publications (1)

Publication Number Publication Date
JPH0855220A true JPH0855220A (en) 1996-02-27

Family

ID=16611305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6211770A Pending JPH0855220A (en) 1994-08-12 1994-08-12 Moving object extraction processing method and method

Country Status (1)

Country Link
JP (1) JPH0855220A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11213137A (en) * 1998-01-29 1999-08-06 Matsushita Electric Ind Co Ltd Image processing device
JP2004258927A (en) * 2003-02-25 2004-09-16 Matsushita Electric Works Ltd Human detection method and device
WO2008044524A1 (en) * 2006-10-10 2008-04-17 Nikon Corporation Image classification program, image classification apparatus, and electronic camera
JP2013118002A (en) * 2013-03-06 2013-06-13 Canon Inc Image processing device, image processing method, and program
US8588466B2 (en) 2007-07-05 2013-11-19 Nec Corporation Object area detection system, device, method, and program for detecting an object

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11213137A (en) * 1998-01-29 1999-08-06 Matsushita Electric Ind Co Ltd Image processing device
JP2004258927A (en) * 2003-02-25 2004-09-16 Matsushita Electric Works Ltd Human detection method and device
WO2008044524A1 (en) * 2006-10-10 2008-04-17 Nikon Corporation Image classification program, image classification apparatus, and electronic camera
JPWO2008044524A1 (en) * 2006-10-10 2010-02-12 株式会社ニコン Image classification program, image classification apparatus, and electronic camera
JP2012164345A (en) * 2006-10-10 2012-08-30 Nikon Corp Image classification program, image sorting device, and electronic camera
JP2014013574A (en) * 2006-10-10 2014-01-23 Nikon Corp Image classification program, image classification device and electronic camera
US9036922B2 (en) 2006-10-10 2015-05-19 Nikon Corporation Image classification program, image classification device, and electronic camera
US8588466B2 (en) 2007-07-05 2013-11-19 Nec Corporation Object area detection system, device, method, and program for detecting an object
JP2013118002A (en) * 2013-03-06 2013-06-13 Canon Inc Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
CN109949347B (en) Human body tracking method, device, system, electronic equipment and storage medium
JP6904346B2 (en) Image processing equipment, image processing systems, and image processing methods, and programs
US9092868B2 (en) Apparatus for detecting object from image and method therefor
US20110243383A1 (en) Image processing device, image processing method, and program
US20110243451A1 (en) Image processing apparatus and method, and program
JP2856229B2 (en) Image clipping point detection method
JP7014161B2 (en) Image processing equipment, image processing systems, and image processing methods, and programs
US8098897B2 (en) Multi dimensional imaging system
US8831357B2 (en) System and method for image and video search, indexing and object classification
JPH07302328A (en) Extraction method of moving object area by background subtraction
US20150356743A1 (en) Photographic subject tracking device and camera
CN113542868A (en) Video key frame selection method and device, electronic equipment and storage medium
CN102457724B (en) Image motion detecting system and method
JP2000048211A (en) Moving object tracking device
KR100920918B1 (en) Object tracking system using CB object detection algorithm and object tracking method using the system
EP1931134A1 (en) Imaging device
JP2009260671A (en) Image processing apparatus and imaging device
JP2018049559A (en) Image processor, image processing method, and program
JPH0855220A (en) Moving object extraction processing method and method
US10559091B2 (en) Object counting device, object counting method, object counting program, and object counting system
CN113505860B (en) Screening method and device for blind area detection training set, server and storage medium
JPH10320566A (en) Image processing apparatus, image processing method, and storage medium storing the method
JP2003303346A (en) Target tracking method, target tracking device, target tracking program, and recording medium recording this program
CN112241670B (en) Image processing methods and devices
JP3197633B2 (en) Automatic tracking device for moving objects