JP2009182624A - Target tracking device - Google Patents
Target tracking device Download PDFInfo
- Publication number
- JP2009182624A JP2009182624A JP2008019480A JP2008019480A JP2009182624A JP 2009182624 A JP2009182624 A JP 2009182624A JP 2008019480 A JP2008019480 A JP 2008019480A JP 2008019480 A JP2008019480 A JP 2008019480A JP 2009182624 A JP2009182624 A JP 2009182624A
- Authority
- JP
- Japan
- Prior art keywords
- target
- color
- tracking
- auxiliary
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000002245 particle Substances 0.000 claims abstract description 145
- 238000012545 processing Methods 0.000 claims abstract description 50
- 239000006185 dispersion Substances 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 5
- 238000000034 method Methods 0.000 abstract description 62
- 238000004364 calculation method Methods 0.000 description 14
- 238000005259 measurement Methods 0.000 description 12
- 238000011156 evaluation Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 238000009833 condensation Methods 0.000 description 2
- 230000005494 condensation Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000000342 Monte Carlo simulation Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007850 degeneration Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、連続して取り込まれる画像データ中の目標物体を追尾する目標追尾装置に関する。 The present invention relates to a target tracking device that tracks a target object in continuously captured image data.
映像監視システムやテレビ会議システムに代表されるように、様々な状況下でカメラの撮影画像を利用するカメラシステムが実用化されている。このようなカメラシステムの中には、設定された目標物体を自動的に追尾して撮影領域を変更しながら撮影する追尾機能を備えたものがある。例えば、追尾機能を備えた映像監視システムでは、不審な人物が目標物体として設定されるとこの人物を追尾して映像に収めながら撮影を続けることができる。また、追尾機能を備えたテレビ会議システムでは、設定された人物を追尾した会議画像を撮影することができる。 As represented by video surveillance systems and video conference systems, camera systems that use images taken by cameras in various situations have been put into practical use. Some of such camera systems have a tracking function for automatically tracking a set target object and shooting while changing the shooting area. For example, in a video surveillance system having a tracking function, when a suspicious person is set as a target object, it is possible to continue shooting while tracking the person and storing it in the video. In addition, in a video conference system having a tracking function, it is possible to capture a conference image that tracks a set person.
目標物体を追尾して画像を撮影する際には目標物体が撮影画角から外れないように、目標物体の移動に応じてカメラのパン、チルト、ズーム倍率等を制御する必要がある。これを実現するためには画像中の目標物体を認識して、その移動方向を検出しなければならない。 When shooting an image while tracking the target object, it is necessary to control the pan, tilt, zoom magnification, etc. of the camera according to the movement of the target object so that the target object does not deviate from the shooting angle of view. In order to realize this, it is necessary to recognize the target object in the image and detect its moving direction.
従来、画像中の目標物体を認識して、その移動方向を検出する方法として、輝度差分を利用する背景差分法やフレーム差分法が用いられてきたが、近年、特許文献1、非特許文献1、非特許文献2等に記載されているようにパーティクルフィルタを適用した目標追尾技術が研究されている。 Conventionally, as a method for recognizing a target object in an image and detecting its moving direction, a background difference method or a frame difference method using a luminance difference has been used. As described in Non-Patent Document 2, etc., a target tracking technique using a particle filter has been studied.
パーティクルフィルタは、事後確率を利用するベイズフィルタの近似計算法であり、有限個のパーティクルによって確率分布関数を表現し、それを用いて時系列の予測を行なうものである。すなわち、パーティクルフィルタはサンプリングに基づいた逐次モンテカルロ法といえ、時系列の分布をパーティクルの位置と重みによる集合表現で近似するため、ガウス分布で近似できないような分布でも追尾することが可能である。また、時系列の様々な特徴量を尤度として扱うことができるために応用範囲が広い。特に、特許文献1等にも記載されているように、目標物体の追尾に適用する場合には、目標物体の色を用いて尤度を測定することが行なわれている。この場合、目標物体の色に近い色の画素がパーティクルの近傍にどれだけ存在するかで尤度を測定し、測定結果に基づいて目標物体の位置を推定することができる。
上述のように、パーティクルフィルタを用いた目標物体の追尾処理では、目標物体の色を設定し、その色に近い部分に配置されたパーティクルの尤度を高くすることで目標物体を追尾する。 As described above, in the target object tracking process using the particle filter, the color of the target object is set, and the target object is tracked by increasing the likelihood of the particles arranged in the portion close to the color.
しかしながら、目標物体の色に近い色の物体が複数個存在している場合は、どちらの物体についてもパーティクルの尤度が高く測定されることになり、目標物体の追尾の精度が落ちたり、目標物体の追尾に失敗したりすることが起こり得る。 However, if there are multiple objects with colors close to the color of the target object, both objects will be measured with a high likelihood of particles and the tracking accuracy of the target object will be reduced. Failure to track an object can occur.
本発明は、このような状況を鑑みてなされたものであり、追尾対象物の色に近い色の物体が複数個存在している場合にも精度の高い追尾処理が行える目標追尾装置を提供することを目的とする。 The present invention has been made in view of such a situation, and provides a target tracking device that can perform tracking processing with high accuracy even when there are a plurality of objects having colors close to the color of the tracking target. For the purpose.
上記課題を解決するため、本発明の第1の態様の目標追尾装置は、時系列的に取り込まれる画像データ中の目標物体を追尾する目標追尾装置であって、画像データ中における前記目標物体となる追尾対象の指定を受け付ける追尾対象指定受付手段と、前記画像データ中における追尾対象に付随する補助領域の指定を受け付ける補助領域指定受付手段と、指定された前記追尾対象に係る画像データ中の色を目標色として設定する目標色設定手段と、指定された前記補助領域に係る色を補助目標色として設定する補助目標色設定手段と、所定の規則にしたがって画像データ中を移動するパーティクルを用いて、パーティクル周辺の色と前記設定された目標色との比較によって求められる尤度を測定し、測定された尤度を、パーティクルごとに前記指定された補助領域に基づいて定められる領域における色と前記補助目標色との比較によって求められる尤度によって補正し、補正された尤度に基づいて画像データ中の前記追尾対象の領域を推定するパーティクルフィルタ処理手段と、を備える。 In order to solve the above-described problem, a target tracking device according to a first aspect of the present invention is a target tracking device that tracks a target object in image data that is captured in time series, and the target tracking device in the image data A tracking target designation receiving unit that receives a tracking target designation, an auxiliary region designation receiving unit that receives a designation of an auxiliary region associated with the tracking target in the image data, and a color in the image data relating to the specified tracking target Target color setting means for setting the target color as the target color, auxiliary target color setting means for setting the color of the designated auxiliary region as the auxiliary target color, and particles that move in the image data according to a predetermined rule , Measure the likelihood obtained by comparing the color around the particle and the set target color, the measured likelihood for each particle Correction is performed by the likelihood obtained by comparing the color in the region determined based on the determined auxiliary region and the auxiliary target color, and the tracking target region in the image data is estimated based on the corrected likelihood. Particle filter processing means.
本態様では、追尾対象に付随する補助領域の色を補助目標色とし、補助領域においても補助目標色を用いて尤度を測定する。そして、この尤度により目標色を用いて測定された尤度を修正することで、追尾対象物の色に近い色の物体が複数個存在している場合にも精度の高い追尾処理が行えるようになる。 In this aspect, the color of the auxiliary area associated with the tracking target is set as the auxiliary target color, and the likelihood is measured using the auxiliary target color also in the auxiliary area. Then, by correcting the likelihood measured using the target color based on the likelihood, it is possible to perform a highly accurate tracking process even when there are a plurality of objects having a color close to the color of the tracking target object. become.
上記課題を解決するため、本発明の第2の態様の目標追尾装置は、時系列的に取り込まれる画像データ中の目標物体を追尾する目標追尾装置であって、画像データ中における前記目標物体となる追尾対象の指定を受け付ける追尾対象指定受付手段と、前記画像データ中における追尾対象に付随する補助領域の指定を受け付ける補助領域指定受付手段と、指定された前記追尾対象に係る画像データ中の色を目標色として設定する目標色設定手段と、指定された前記補助領域に係る色を補助目標色として設定する補助目標色設定手段と、所定の規則にしたがって画像データ中を移動するパーティクルを用いて、パーティクル周辺の色と前記設定された目標色との比較によって求められる尤度を測定し、測定された尤度を、測定された尤度の分布状況と前記指定された補助領域とに基づいて定められる領域における色と、前記補助目標色との近似の度合いによって補正し、補正された尤度に基づいて画像データ中の前記追尾対象の領域を推定するパーティクルフィルタ処理手段と、を備える。 In order to solve the above-described problem, a target tracking device according to a second aspect of the present invention is a target tracking device that tracks a target object in image data that is captured in time series, and the target tracking device includes: A tracking target designation receiving unit that receives a tracking target designation, an auxiliary region designation receiving unit that receives a designation of an auxiliary region associated with the tracking target in the image data, and a color in the image data relating to the specified tracking target Target color setting means for setting the target color as the target color, auxiliary target color setting means for setting the color of the designated auxiliary region as the auxiliary target color, and particles that move in the image data according to a predetermined rule The likelihood obtained by comparing the color around the particle and the set target color is measured, and the measured likelihood is distributed in the measured likelihood distribution. And a color in an area determined based on the designated auxiliary area and the degree of approximation of the auxiliary target color, and the tracking target area in the image data is estimated based on the corrected likelihood Particle filter processing means.
本態様では、追尾対象に付随する補助領域の色を補助目標色とし、補助領域において補助目標色との近似度を算出する。そして、この近似度により目標色を用いて測定された尤度を修正することで、追尾対象物の色に近い色の物体が複数個存在している場合にも精度の高い追尾処理が行えるようになる。 In this aspect, the color of the auxiliary area associated with the tracking target is set as the auxiliary target color, and the degree of approximation with the auxiliary target color is calculated in the auxiliary area. Then, by correcting the likelihood measured using the target color based on this approximation, a highly accurate tracking process can be performed even when there are a plurality of objects having a color close to the color of the tracking target object. become.
上記課題を解決するため、本発明の第3の態様の目標追尾装置は、時系列的に取り込まれる画像データ中の目標物体を追尾する目標追尾装置であって、画像データ中における前記目標物体となる追尾対象の指定を受け付ける追尾対象指定受付手段と、指定された前記追尾対象に係る画像データ中の色を目標色として設定する目標色設定手段と、前に取り込まれた画像データ中の追尾対象とされる領域付近から分散するパーティクルを用いて、パーティクル周辺の色と、前記設定された目標色との比較によって求められる尤度を測定し、測定された尤度に基づいて後に取り込まれた画像データ中の前記追尾対象の領域を推定するパーティクルフィルタ処理手段とを備え、このパーティクルフィルタ処理手段は、前に取り込まれた画像データ中の追尾対象とされる領域と、前記目標色に類似する色の領域との距離を求め、求めた距離に応じて前記パーティクルの分散における移動量を変化させることを特徴とする。 In order to solve the above-described problem, a target tracking device according to a third aspect of the present invention is a target tracking device that tracks a target object in image data that is captured in time series, and the target tracking device includes: A tracking target designation receiving unit that receives a tracking target designation, a target color setting unit that sets a color in the image data related to the specified tracking target as a target color, and a tracking target in the previously captured image data The image obtained later is measured based on the measured likelihood by measuring the likelihood obtained by comparing the color around the particle with the set target color using particles dispersed from the vicinity of the region assumed Particle filter processing means for estimating the tracking target area in the data, and the particle filter processing means A region that is the tail object, obtains a distance between the color of a region similar to the target color, characterized in that changing the movement amount in the dispersion of the particles in accordance with the distance obtained.
本態様では、パーティクルの分散の際の移動量を、目標物体の領域と、目標物体の色と近似する色の領域との距離に応じて変化させるために、目標物体の色と近似する色の領域の影響による追尾精度の低下を防ぐことができる。 In this aspect, in order to change the movement amount at the time of particle dispersion according to the distance between the target object region and the color region that approximates the color of the target object, the color of the color that approximates the color of the target object A decrease in tracking accuracy due to the influence of the area can be prevented.
本発明の実施の形態について図面を参照して詳細に説明する。まず、第1実施形態について説明する。図1は、本発明の第1実施形態である目標追尾装置100を含む目標追尾システム10の構成を示すブロック図である。本図に示すように目標追尾システム10は、目標追尾装置100と、撮影を行なって画像信号を出力するカメラ200と、目標追尾装置100からの制御信号に従ってカメラ200のパン・チルト制御およびズーム倍率制御を行なう制御装置210を備えている。ただし、これらの装置を一体型として目標追尾システム10を構成してもよい。 Embodiments of the present invention will be described in detail with reference to the drawings. First, the first embodiment will be described. FIG. 1 is a block diagram showing a configuration of a target tracking system 10 including a target tracking device 100 according to the first embodiment of the present invention. As shown in the figure, the target tracking system 10 includes a target tracking device 100, a camera 200 that performs shooting and outputs an image signal, and pan / tilt control and zoom magnification of the camera 200 according to control signals from the target tracking device 100. A control device 210 that performs control is provided. However, the target tracking system 10 may be configured by integrating these devices.
目標追尾装置100は、カメラ200が出力する画像信号を入力する画像入力部110と、入力された画像信号に基づく映像を表示する表示部120と、パーティクルフィルタを用いて目標物の追尾処理を行なうパーティクルフィルタ処理部130と、追尾結果に基づいてカメラ200を制御する信号を生成して制御装置210に出力するカメラ制御信号出力部140と、表示部120に表示されている画像中の追尾対象となる物体の指定を受け付ける追尾対象物指定受付部150と、指定された追尾対象物に応じた目標色を設定する目標色設定部160と、補助目標色を設定する補助目標色設定部170とを備えている。 The target tracking device 100 performs target tracking processing using an image input unit 110 that inputs an image signal output from the camera 200, a display unit 120 that displays an image based on the input image signal, and a particle filter. The particle filter processing unit 130, the camera control signal output unit 140 that generates a signal for controlling the camera 200 based on the tracking result and outputs the signal to the control device 210, and the tracking target in the image displayed on the display unit 120 A tracking target designation receiving unit 150 that receives designation of an object to be configured, a target color setting unit 160 that sets a target color according to the designated tracking target, and an auxiliary target color setting unit 170 that sets an auxiliary target color I have.
パーティクルフィルタ処理部130は、パーティクルフィルタを用いた目標物の追尾処理を行なうために処理対象の画像データを格納する画像格納部131と、設定された目標色を格納する目標色格納部132と、設定された補助目標色を格納する補助目標色格納部133とを備えている。 The particle filter processing unit 130 includes an image storage unit 131 that stores image data to be processed in order to perform tracking processing of a target using a particle filter, a target color storage unit 132 that stores a set target color, And an auxiliary target color storage unit 133 that stores the set auxiliary target color.
なお、目標追尾装置100は、CPU、メモリ、入出力装置、通信処理装置等を備えた汎用的な情報処理装置を用いて構成することができる。パーソナルコンピュータ等の汎用的な情報処理装置は、特定用途向きに開発されたプログラムを実行することで、目標追尾装置100として機能することができる。もちろん目標追尾装置100は専用装置として構成してもよい。 The target tracking device 100 can be configured using a general-purpose information processing device including a CPU, a memory, an input / output device, a communication processing device, and the like. A general-purpose information processing device such as a personal computer can function as the target tracking device 100 by executing a program developed for a specific application. Of course, the target tracking device 100 may be configured as a dedicated device.
ここで、非特許文献1、非特許文献2等に紹介されているパーティクルフィルタによる画像追尾アルゴリズムについて簡単に説明する。画像追尾アルゴリズムであるパーティクルフィルタは、時刻tにおける画像フレーム中の目標物体の位置の推定量である事後確率密度
を、状態xの重みπのN個の組から成るパーティクル群
により近似することで、目標物体を追尾する方法である。ここで、時刻tにおける画像フレーム中のi番目のパーティクルの状態量
は、その尤度である重みを示している。
Here, an image tracking algorithm using a particle filter introduced in Non-Patent Document 1, Non-Patent Document 2, and the like will be briefly described. The particle filter that is an image tracking algorithm is a posteriori probability density that is an estimated amount of the position of the target object in the image frame at time t.
Is a particle group consisting of N sets of weights π of state x
This is a method of tracking a target object by approximating by. Here, the state quantity of the i-th particle in the image frame at time t
Indicates the weight which is the likelihood.
時刻tにおいて画像フレームから尤度の観測値ztが得られると、追尾対象の状態xtを確率変数とする確率密度は、上記の事後確率密度[数1]として表わされる。この[数1]は、ベイズの法則を用いて以下のように表わすことができる。
ここで、αは正規化のための定数である。
When the likelihood observation value z t is obtained from the image frame at time t, the probability density using the tracking target state x t as a random variable is expressed as the posterior probability density [Equation 1]. This [Equation 1] can be expressed as follows using Bayes' law.
Here, α is a constant for normalization.
非特許文献1に示されているCondensationアルゴリズムは、各フレームに対して対象物体を追跡する処理を、Select(選択)、Predict(予測)、Measure(測定)の3つのステップに分けて繰り返し実行している。 The Condensation algorithm shown in Non-Patent Document 1 repeatedly executes the process of tracking the target object for each frame in three steps: Select, Predict, and Measure. ing.
具体的には、選択ステップでは、対象物体の周辺にパーティクルを分散して配置し、各パーティクルで尤度を測定して、尤度が高い順番で尤度の高さに比例する確率でN個のパーティクルを選択する。予測ステップでは、選択ステップで選ばれた尤度の高いパーティクルをランダムに分散させて再配置する。測定ステップでは、各パーティクルについて近傍にどれだけ目標物体と近似した色の画素があるかを計算し、それをパーティクルの尤度とする。そして、すべてのパーティクルの尤度の重み付け平均により目標物体の位置を推定する。 Specifically, in the selection step, particles are distributed and arranged around the target object, the likelihood is measured for each particle, and N particles are probable in the order of the likelihood in proportion to the likelihood height. Select the particle. In the prediction step, particles with high likelihood selected in the selection step are randomly dispersed and rearranged. In the measurement step, for each particle, the number of pixels in the color approximate to the target object is calculated in the vicinity, and this is used as the likelihood of the particle. Then, the position of the target object is estimated by a weighted average of the likelihoods of all particles.
本実施形態における目標追尾装置100は、このようなアルゴリズムのパーティクルフィルタ処理の目標物追尾性能を向上するものであり、以下に説明する処理を行なう。ただし、本発明はパーティクルフィルタを用いた画像追尾処理であれば、上述のアルゴリズムには限定されず、種々の変形アルゴリズムに適用することができる。 The target tracking device 100 according to the present embodiment improves the target tracking performance of the particle filter processing of such an algorithm, and performs the processing described below. However, the present invention is not limited to the above algorithm as long as it is an image tracking process using a particle filter, and can be applied to various deformation algorithms.
図2は、目標追尾装置100の処理の流れを説明するフローチャートである。目標追尾装置100は、カメラ200が出力する画像信号をフレーム単位で入力する(S101)。目標追尾装置100は、入力された画像信号を表示部120に映像として逐次表示し、追尾対象物が指定されるのを待つ(S102)。この状態で、監視者は、画像中の追尾対象としたい目標物体を指定することができる。 FIG. 2 is a flowchart for explaining the flow of processing of the target tracking device 100. The target tracking device 100 inputs an image signal output from the camera 200 in units of frames (S101). The target tracking device 100 sequentially displays the input image signal as an image on the display unit 120, and waits for the tracking target to be designated (S102). In this state, the supervisor can specify a target object that is desired to be tracked in the image.
追尾対象物の指定受け付けは、例えば、マウス、ポインタ等の入力装置を介して、表示部120に表示されている追尾対象物に対応する領域の指示を監視者から受け付けることで行なうことができる。また、表示部120をタッチパネル式の表示装置で構成し、監視者からのタッチを認識することで指定を受け付けるようにしてもよい。あるいは、その他の外部装置等を介して追尾対象物の指定を受け付けるようにしてもよい。 The designation of the tracking object can be received, for example, by receiving an instruction from the monitor corresponding to the tracking object displayed on the display unit 120 via an input device such as a mouse or a pointer. Further, the display unit 120 may be configured by a touch panel display device, and designation may be received by recognizing a touch from a supervisor. Or you may make it receive designation | designated of a tracking target object through another external device etc.
追尾対象の指定を受け付けると(S102:Yes)、目標色設定部160は、画像フレーム中の指定を受け付けた領域に対応する画素の色を取得し、目標色として設定する(S103)。目標色は、指定された領域の単一画素のRGB値に基づいて設定してもよいし、複数画素のRGB平均値等に基づいて設定してもよい。あるいは、指定された領域に含まれる画素でヒストグラムを作成して目標色として設定してもよい。目標色を設定すると目標色格納部132に記録する。また、画像フレームを画像格納部131に記録する。 When the specification of the tracking target is received (S102: Yes), the target color setting unit 160 acquires the color of the pixel corresponding to the area in which the specification in the image frame is received and sets it as the target color (S103). The target color may be set based on the RGB value of a single pixel in the designated area, or may be set based on the RGB average value of a plurality of pixels. Alternatively, a histogram may be created with pixels included in a designated area and set as a target color. When the target color is set, it is recorded in the target color storage unit 132. The image frame is recorded in the image storage unit 131.
本実施形態で、パーティクルフィルタ処理部130は、色相(H)と彩度(S)と明度(V)とで表現するHSV色空間上で処理を行なうため、目標色を設定する際に、RGB色空間をHSV色空間に変換する。ヒストグラムを作成する場合には、HSV色空間で作成する。ただし、RGB色空間のまま処理を行なったり、YUV色空間等で処理を行なったりするようにしてもよい。 In this embodiment, the particle filter processing unit 130 performs processing in the HSV color space expressed by hue (H), saturation (S), and lightness (V). Convert color space to HSV color space. When creating a histogram, it is created in the HSV color space. However, the processing may be performed in the RGB color space or may be performed in the YUV color space.
本実施形態では、目標色を設定すると、目標物体の追尾の精度を高めるために補助目標色を設定する(S104)。ここで、本実施形態の特徴的な処理である補助目標色の設定について詳細に説明する。図3は、補助目標色の設定処理について説明するためのフローチャートである。また、図4は、補助目標色の設定処理における画像フレームとパーティクルの例を示す図である。図4に示した例では、追尾対象として人物の顔が指定され、顔の色が目標色として設定されているものとする。 In this embodiment, when the target color is set, the auxiliary target color is set in order to increase the tracking accuracy of the target object (S104). Here, the setting of the auxiliary target color, which is a characteristic process of the present embodiment, will be described in detail. FIG. 3 is a flowchart for explaining auxiliary target color setting processing. FIG. 4 is a diagram illustrating an example of image frames and particles in the auxiliary target color setting process. In the example illustrated in FIG. 4, it is assumed that a person's face is specified as a tracking target, and the face color is set as a target color.
図2における処理(S102)で追尾対象物の指定を受け付けた初期状態の画像フレームを対象に、パーティクルフィルタ処理部130は、追尾対象として指定された領域付近にパーティクルを生成する(S201)。生成するパーティクルの数による追尾の精度と処理速度とはトレードオフの関係となる。図4(a)は、追尾対象である人物の顔付近に生成された多数のパーティクルを示している。 The particle filter processing unit 130 generates particles near the area designated as the tracking target for the image frame in the initial state in which the designation of the tracking target is received in the process (S102) in FIG. 2 (S201). The tracking accuracy and processing speed depending on the number of particles to be generated are in a trade-off relationship. FIG. 4A shows a large number of particles generated near the face of a person to be tracked.
次いで、生成された各パーティクルを、目標色の領域を推定するために、所定の規則にしたがって移動させる(S202)。ここでは、各パーティクルが指定された追尾対象から分散するように標準正規分布する乱数により距離を決められて移動する。この結果、図4(b)に示すように、人物の顔を中心にパーティクルが分散することになる。ただし、追尾対象としてすでに目標色に対応する領域が指定されている場合は、目標色の領域推定のための処理は必要ない。 Next, each generated particle is moved according to a predetermined rule in order to estimate a target color region (S202). Here, the distance is determined by a random number with a standard normal distribution so that each particle is dispersed from the specified tracking target. As a result, as shown in FIG. 4B, particles are dispersed around the human face. However, if a region corresponding to the target color has already been specified as the tracking target, processing for estimating the target color region is not necessary.
分散した各パーティクルは、画像フレームにおいて、それぞれの位置の近傍の画素、例えば、周辺の矩形領域内の画素について目標色と近い色の画素の割合を算出し、その結果をそれぞれのパーティクルの尤度とする測定を行なう(S203)。目標色をヒストグラムで表現している場合には、矩形領域内のHSVヒストグラムを作成し、目標色との類似度を算出して尤度を測定することができる。図4(c)の黒いパーティクルは測定された尤度が高いパーティクルを示しており、顔の領域に存在している。尤度が測定されると、各パーティクルの尤度の重み付け平均を算出し、処理対象の画像フレームにおける追尾対象物の領域を推定する(S204)。追尾対象物の領域は、例えば、ある閾値により尤度を二値化したり、EMアルゴリズムにより混合正規分布を推定し、さらにその分散値から推定することができる。 For each dispersed particle, the ratio of pixels near the target color is calculated for the pixels in the vicinity of each position in the image frame, for example, pixels in the surrounding rectangular area, and the result is the likelihood of each particle. Is measured (S203). When the target color is expressed by a histogram, an HSV histogram in a rectangular area can be created, the similarity to the target color can be calculated, and the likelihood can be measured. The black particles in FIG. 4C indicate particles with a high measured likelihood and are present in the face area. When the likelihood is measured, the weighted average of the likelihood of each particle is calculated, and the area of the tracking target in the image frame to be processed is estimated (S204). For example, the region of the tracking object can be estimated by binarizing the likelihood using a certain threshold value, estimating the mixed normal distribution using the EM algorithm, and further estimating the variance.
本実施形態では、追尾対象物の領域は矩形で表現するものとする。図4(d)は、追尾対象物の領域として推定されたFrameを示している。本図においてFrameは、縦H、横Wの大きさを有している。 In the present embodiment, the area of the tracking target object is expressed by a rectangle. FIG. 4D shows the frame estimated as the area of the tracking target object. In this figure, Frame has a size of vertical H and horizontal W.
そして、推定された追尾対象の領域を基準に、補助追尾対象領域の指定を受け付ける(S205)。補助追尾対象領域とは、追尾対象物に近い色の領域が画像フレーム中に複数存在する場合に、追尾対象物を識別するために用いる領域である。すなわち、本実施形態では、目標色により追尾対象の領域を推定する際に、さらに追尾対象物の領域に付随する補助目標領域において色の尤度の測定を行なうことで目標物体追尾の精度を高めるようにする。 Then, the designation of the auxiliary tracking target area is accepted on the basis of the estimated tracking target area (S205). The auxiliary tracking target area is an area used for identifying the tracking target object when there are a plurality of color areas close to the tracking target object in the image frame. That is, in the present embodiment, when estimating the tracking target area based on the target color, the accuracy of the target object tracking is improved by further measuring the color likelihood in the auxiliary target area associated with the tracking target area. Like that.
補助追尾対象領域は、例えば、図4(e)に示すように、追尾対象領域Frameに隣接する4つの矩形領域、すなわち、上側の領域subFrT、下側の領域subFrB、右側の領域subFrR、左側の領域subFrLのいずれかとすることができる。各領域の大きさは追尾対象領域Frameに接する辺は、追尾対象領域Frameに対応させ、接しない辺については適宜定めるものとする。例えば、あらかじめ定めておいてもよいし、追尾対象領域Frameの大きさに応じて定めるようにしてもよい。 For example, as shown in FIG. 4E, the auxiliary tracking target area includes four rectangular areas adjacent to the tracking target area Frame, that is, an upper area subFrT, a lower area subFrB, a right area subFrR, and a left area It can be any of the regions subFrL. The size of each region is such that the side in contact with the tracking target region Frame is made to correspond to the tracking target region Frame, and the side that is not in contact is determined appropriately. For example, it may be determined in advance or may be determined according to the size of the tracking target area Frame.
どの領域を補助追尾対象領域として設定するかは、例えば、監視者からの指示に基づいて定めることができる。一般に、服の色により人物を識別することができるため、追尾対象を顔とすると、補助追尾対象領域は服を含む領域が望ましい。このため、下側の領域subFrBをあらかじめ設定しておくようにしてもよい。また、例えば、顔と帽子とで追尾対象を識別する場合には、上側の領域subFrTを補助追尾対象領域として設定することができる。色の特徴が横方向にあるトラック、自動車等を追尾する場合には、右側の領域subFrRあるいは左側の領域subFrLを補助追尾対象領域として設定することができる。 Which area is set as the auxiliary tracking target area can be determined based on an instruction from the supervisor, for example. In general, since a person can be identified by the color of clothes, if the tracking target is a face, the auxiliary tracking target area is preferably an area including clothes. For this reason, the lower region subFrB may be set in advance. For example, when the tracking target is identified by the face and the hat, the upper area subFrT can be set as the auxiliary tracking target area. When tracking a truck, a car, or the like whose color feature is in the horizontal direction, the right area subFrR or the left area subFrL can be set as the auxiliary tracking target area.
補助目標色設定部170は、補助追尾対象領域の指定を受け付けると、補助追尾対象領域となった領域の色を補助目標色として設定し、補助目標色格納部133に格納する(S206)。ここで、補助目標色は、補助追尾対象領域Frameに含まれる画素の平均色、あるいは、ヒストグラム等とすることができる。いずれの形式で設定するかは目標色の設定形式に対応させるものとする。 When the auxiliary target color setting unit 170 receives the designation of the auxiliary tracking target region, the auxiliary target color setting unit 170 sets the color of the region that has become the auxiliary tracking target region as the auxiliary target color and stores it in the auxiliary target color storage unit 133 (S206). Here, the auxiliary target color can be an average color of pixels included in the auxiliary tracking target area Frame, a histogram, or the like. Which format is set corresponds to the target color setting format.
そして、処理(S203)において測定されたパーティクルの尤度に基づいて、尤度の高いパーティクルが確率的に多くなるように、尤度の低いパーティクルを尤度が高くなる位置に移動させる。この結果、図4(f)に示すようにパーティクルは追尾対象物の領域に集まってくることになる。 Then, based on the likelihood of the particles measured in the process (S203), the particles with low likelihood are moved to positions where the likelihood becomes high so that the particles with high likelihood are probabilistically increased. As a result, as shown in FIG. 4 (f), the particles gather in the region of the tracking target object.
以上の補助目標色設定処理(S104)を終えると、目標色と補助目標色とを用いて、逐次入力される画像フレーム中の追尾対象物を認識して、カメラ200を制御する目標追尾処理を行なう(S105)。 When the above auxiliary target color setting process (S104) is completed, the target tracking process for recognizing the tracking object in the sequentially input image frame using the target color and the auxiliary target color and controlling the camera 200 is performed. This is performed (S105).
ここで、本実施形態における目標追尾処理について詳細に説明する。図5は、目標追尾処理について説明するためのフローチャートである。上述のように本発明は、ここで説明するパーティクルフィルタ物体追尾アルゴリズムには限定されない。また、図6は、目標追尾処理における画像フレームとパーティクルの例を示す図である。図6の例は、図4に示した例に続くものであり、追尾対象として人物の顔が指定され、顔の色が目標色として設定されているものとする。 Here, the target tracking process in the present embodiment will be described in detail. FIG. 5 is a flowchart for explaining the target tracking process. As described above, the present invention is not limited to the particle filter object tracking algorithm described here. FIG. 6 is a diagram illustrating an example of image frames and particles in the target tracking process. The example in FIG. 6 is a continuation of the example shown in FIG. 4, and it is assumed that the face of a person is designated as the tracking target and the face color is set as the target color.
まず、図3におけるの処理(S201)で生成され、処理(S207)で追尾対象物領域に集約されたパーティクルを、所定の規則にしたがって移動させる(S401)。ここで、追尾対象物の運動方向が予測可能な場合には、予測される移動方向に応じてパーティクルの移動方向を決めることができる。本実施形態では追尾対象物は主として監視画像中の不審人物を想定しており、運動ダイナミクスはランダムと仮定される。このため、各パーティクルは標準正規分布する乱数により距離を決められて移動する。この結果、図6(a)に示すように、人物の顔を中心にパーティクルが分散することになる。 First, the particles generated in the process (S201) in FIG. 3 and aggregated in the tracking target area in the process (S207) are moved according to a predetermined rule (S401). Here, when the movement direction of the tracking target can be predicted, the movement direction of the particles can be determined according to the predicted movement direction. In the present embodiment, the tracking target is mainly assumed to be a suspicious person in the monitoring image, and the motion dynamics is assumed to be random. For this reason, each particle moves with a distance determined by random numbers with a standard normal distribution. As a result, as shown in FIG. 6A, particles are dispersed around the human face.
そして、次の画像フレームを入力する(S402)。この画像フレームが追尾対象物の移動等を検出する処理対象の画像フレームとなる。図6(b)は、分散したパーティクルに対して次の画像フレームが入力された場合の様子を示している。入力された画像フレームでは、追尾対象物である人物の顔が右方向に移動している。 Then, the next image frame is input (S402). This image frame becomes a processing target image frame for detecting the movement of the tracking target. FIG. 6B shows a state when the next image frame is input to the dispersed particles. In the input image frame, the face of the person who is the tracking target is moving in the right direction.
各パーティクルは、処理対象の画像フレームにおいて、それぞれの位置の近傍の画素、例えば、周辺の矩形領域内の画素について目標色と近い色の画素の割合を算出し、その結果をそれぞれのパーティクルの尤度とする測定を行なう(S403)。このとき、例えば、矩形領域内のHSVヒストグラムを作成して目標色との類似度を算出して尤度を測定することができる。この場合、各パーティクルに対応する画素の色の値を目標色ヒストグラムにおける頻度に置き換えたものを尤度とすることもできる。図6(c)の黒いパーティクルは、測定の結果、尤度の高いパーティクルを示している。 Each particle calculates the ratio of pixels close to the target color for pixels in the vicinity of each position in the image frame to be processed, for example, pixels in the surrounding rectangular area, and the result is the likelihood of each particle. Measurement is performed (S403). At this time, for example, the likelihood can be measured by creating an HSV histogram in a rectangular area and calculating the similarity to the target color. In this case, the likelihood obtained by replacing the color value of the pixel corresponding to each particle with the frequency in the target color histogram can be used. The black particles in FIG. 6C indicate particles with high likelihood as a result of the measurement.
本実施形態では、目標色を用いて尤度の測定を行なった後に、さらに補助目標色を用いて尤度の測定を行なう(S404)。ここで、補助目標色を用いた尤度の測定について図7を参照して説明する。図7は、二人の人物が画像フレームに含まれている場合を示している。人物の顔が追尾対象として指定されている場合、図7(a)に示すように、一方の人物Ob1と他方の人物Ob2の顔部分に分散しているパーティクル(p1、p2、p3、p4、p5、p6)で尤度が高く測定される。 In this embodiment, after the likelihood is measured using the target color, the likelihood is further measured using the auxiliary target color (S404). Here, the measurement of likelihood using the auxiliary target color will be described with reference to FIG. FIG. 7 shows a case where two persons are included in the image frame. When a person's face is designated as a tracking target, as shown in FIG. 7A, particles (p1, p2, p3, p4, dispersed on the face portions of one person Ob1 and the other person Ob2). High likelihood is measured at p5, p6).
なお、このとき補助追尾対象領域として、図4(d)に示す追尾対象領域Frameの下側の領域subFrBが設定されているものとする。このため、人物Ob1の服の色が補助目標色として設定されている。 At this time, it is assumed that the area subFrB below the tracking target area Frame shown in FIG. 4D is set as the auxiliary tracking target area. For this reason, the color of the clothes of the person Ob1 is set as the auxiliary target color.
補助目標色を用いた尤度の測定では、各パーティクルについて、補助追尾対象領域が設定されている方向に、距離dだけ離れた箇所に補助パーティクルを設定し、補助目標色を用いて尤度の測定を行なう。ここで、距離dは、例えば、追尾対象領域Frameの補助追尾対象領域が設定されている方向についての長さの1/2とすることができる。すなわち、本例では、追尾対象領域Frameの縦方向の長さHの1/2となる。もちろん、距離dは、他の方法で決定してもよい。 In the measurement of the likelihood using the auxiliary target color, auxiliary particles are set at positions separated by a distance d in the direction in which the auxiliary tracking target area is set for each particle, and the likelihood is calculated using the auxiliary target color. Measure. Here, the distance d can be, for example, ½ of the length in the direction in which the auxiliary tracking target area of the tracking target area Frame is set. That is, in this example, it becomes 1/2 of the length H in the vertical direction of the tracking target area Frame. Of course, the distance d may be determined by other methods.
この結果、図7(a)に示すように、人物Ob1については、補助目標色に対応する服の位置で尤度を測定しているパーティクルp2、p3の補助パーティクルで尤度が高くなる。一方、人物Ob2については、補助目標色と異なる色の服を着ているため、いずれの補助パーティクルとも低い尤度となる。 As a result, as shown in FIG. 7A, the likelihood of the person Ob1 is increased by the auxiliary particles of the particles p2 and p3 whose likelihood is measured at the clothes position corresponding to the auxiliary target color. On the other hand, since the person Ob2 is dressed in a color different from the auxiliary target color, any auxiliary particle has a low likelihood.
補助目標色での尤度測定を行なうと、処理(S403)で測定されたパーティクルの尤度の補正を行なう(S405)。尤度の補正は、例えば、処理(S403)で測定された尤度の高いパーティクルの尤度と、対応する補助パーティクルにおける補助目標色での尤度とを掛け合わせることで行なうことができる。もちろん他の算出方法を用いてもよい。 When the likelihood measurement with the auxiliary target color is performed, the likelihood of the particles measured in the process (S403) is corrected (S405). The likelihood correction can be performed, for example, by multiplying the likelihood of the high likelihood particle measured in the process (S403) and the likelihood of the corresponding auxiliary particle in the auxiliary target color. Of course, other calculation methods may be used.
尤度を補正することにより、目標色に近い色の物体が複数ある場合に、どの物体が追尾対象物であるかを判別することができる。例えば、図7(b)に示した例では、人物Ob1付近のパーティクルp2、p3の尤度は補正後も高いままで、人物Ob2付近のパーティクルp4、p5、p6の尤度は補正後低くなる。この結果、人物Ob1付近のパーティクルが追尾対象付近のパーティクルであると判別することができ、目標物体の追尾を正しく行なうことができる。なお、補助目標色を用いた尤度測定は、目標色に近い色の物体が画像フレーム内に複数存在している場合に限り行なうようにしてもよい。 By correcting the likelihood, it is possible to determine which object is the tracking target when there are a plurality of objects having a color close to the target color. For example, in the example shown in FIG. 7B, the likelihood of the particles p2 and p3 near the person Ob1 remains high after correction, and the likelihood of the particles p4, p5 and p6 near the person Ob2 becomes low after correction. . As a result, it is possible to determine that the particles near the person Ob1 are particles near the tracking target, and the target object can be tracked correctly. The likelihood measurement using the auxiliary target color may be performed only when a plurality of objects having a color close to the target color exists in the image frame.
そして、各パーティクルの尤度の重み付け平均を算出し、処理対象の画像フレームにおける追尾対象物の領域を推定する(S406)。本例では、図6(c)の黒いパーティクルを含む領域が追尾対象物の領域として推定されることになる。 Then, the weighted average of the likelihood of each particle is calculated, and the region of the tracking target in the image frame to be processed is estimated (S406). In this example, the area including the black particles in FIG. 6C is estimated as the area of the tracking target object.
次いで、追尾対象物の領域として推定された領域をカメラ200の画角内に収まらせるための制御信号を生成し、カメラ制御信号出力部140が制御装置210に出力する(S407)。この制御信号に基づいてカメラ200がパン、チルト、ズームすることにより、追尾対象物を追尾することができる。なお、カメラ200の画角等を変化させた場合は、画角の変化等に伴う画像中における追尾対象物の相対的移動量を考慮して以降の画像フレームの処理を行なう。具体的には、パーティクルと追尾対象物との相対位置関係が保持されるようにパーティクルの位置を調整する。この処理は従来の技術を用いることができる。 Next, a control signal for causing the region estimated as the region of the tracking target to fall within the angle of view of the camera 200 is generated, and the camera control signal output unit 140 outputs the control signal to the control device 210 (S407). When the camera 200 pans, tilts, and zooms based on the control signal, the tracking target can be tracked. When the angle of view of the camera 200 is changed, the subsequent image frame processing is performed in consideration of the relative movement amount of the tracking target in the image accompanying the change of the angle of view. Specifically, the position of the particle is adjusted so that the relative positional relationship between the particle and the tracking target is maintained. This process can use conventional techniques.
そして、測定されたパーティクルの尤度に基づいて、尤度の高いパーティクルが確率的に多くなるように、尤度の低いパーティクルを尤度が高くなる位置に移動させる。この結果、図6(d)に示すようにパーティクルは追尾対象物に集まってくることになる。 Then, based on the measured likelihood of particles, particles with low likelihood are moved to positions where the likelihood becomes high so that particles with high likelihood increase stochastically. As a result, as shown in FIG. 6D, the particles gather on the tracking object.
その後、上記と同様に追尾対象物に集まったパーティクルを再度分散させて(S401)、次画像フレームに対する同様の処理を目標追尾処理が終了するまで繰り返す(S409)。目標追尾処理の終了判断基準は、例えば、追尾対象物がカメラ200の追尾範囲から外れた場合、監視者からの終了指示があった場合等とすることができる。 Thereafter, the particles collected on the tracking target are dispersed again in the same manner as described above (S401), and the same processing for the next image frame is repeated until the target tracking processing is completed (S409). The end determination criterion for the target tracking process can be, for example, a case where the tracking object is out of the tracking range of the camera 200, or a case where an end instruction is given from the supervisor.
次に、本発明の第1実施形態の変形例について説明する。上述の第1実施形態では、パーティクルに対応する補助パーティクルで補助目標色についての尤度を測定してパーティクルの尤度を補正した。変形例ではさらに簡略化した処理により補助目標色を用いた目標物体の追尾を行なう。以下では、第1実施形態との相違点を中心に説明する。なお、第1実施形態の変形例は、第1実施形態と同様の構成とすることができる。このため、ブロック図等の図示は省略し、同じ機能部、処理については同じ符号を付して説明する。また、処理内容が異なる機能部については、対応する機能部の符号の末尾に「a」を付して区別するものとする。 Next, a modification of the first embodiment of the present invention will be described. In the first embodiment described above, the likelihood of the auxiliary target color is measured with the auxiliary particles corresponding to the particles, and the likelihood of the particles is corrected. In the modified example, tracking of the target object using the auxiliary target color is performed by a simplified process. Below, it demonstrates centering on difference with 1st Embodiment. In addition, the modification of 1st Embodiment can be set as the structure similar to 1st Embodiment. For this reason, illustration of block diagrams and the like is omitted, and the same functional units and processes will be described with the same reference numerals. Further, functional units having different processing contents are distinguished by adding “a” to the end of the code of the corresponding functional unit.
第1実施形態(図2参照)と同様に、第1実施形態の変形例では、画像フレームを入力し(S101)、監視者から追尾対象の指定を受け付ける(S102)。この指定に基づいて、目標色設定部160が目標色を設定し(S103)、目標色格納部132に格納する。次いで、追尾対象物指定受付部150が補助追尾対象領域の指定を受け付ける。また、補助目標色設定部170が補助追尾対象領域となった領域の色を補助目標色として設定し(S104)、補助目標色格納部133に格納する。そして、パーティクルフィルタ処理部130aが目標追尾処理を行なう(S105)。 Similar to the first embodiment (see FIG. 2), in the modification of the first embodiment, an image frame is input (S101), and designation of the tracking target is received from the supervisor (S102). Based on this designation, the target color setting unit 160 sets a target color (S103) and stores it in the target color storage unit 132. Next, the tracking object designation receiving unit 150 receives designation of the auxiliary tracking target area. Further, the auxiliary target color setting unit 170 sets the color of the area that has become the auxiliary tracking target area as the auxiliary target color (S104), and stores it in the auxiliary target color storage unit 133. Then, the particle filter processing unit 130a performs target tracking processing (S105).
第1実施形態の変形例における目標追尾処理について図8のフローチャートを参照して説明する。変形例における目標追尾処理では、第1実施形態と同様にパーティクルを分散して(S501)、次の画像フレームを入力する(S502)。そして、各パーティクルで目標色を用いた尤度測定を行なう(S503)。 The target tracking process in the modification of 1st Embodiment is demonstrated with reference to the flowchart of FIG. In the target tracking process in the modified example, the particles are dispersed (S501) as in the first embodiment, and the next image frame is input (S502). Then, the likelihood measurement using the target color is performed for each particle (S503).
尤度測定を行なうと、本変形例では、追尾対象物候補の抽出を行なう(S504)。追尾対象物候補の抽出では、処理(S204)の追尾対象物の領域の推定と同様に、各パーティクルの尤度の重み付け平均を算出し、処理対象の画像フレームにおける追尾対象物の領域を推定して、推定された領域を追尾対象物の候補とする。 When the likelihood measurement is performed, the tracking target candidate is extracted in this modified example (S504). In the extraction of the tracking target object candidate, the weighted average of the likelihood of each particle is calculated and the tracking target object area in the processing target image frame is estimated, as in the tracking target object area estimation in the process (S204). Thus, the estimated region is set as a tracking target candidate.
そして、この候補領域が複数個あるかどうかを判断する(S505)。複数個ない場合(S505:No)、すなわち候補領域が1つの場合には、その候補領域を追尾対象として推定し(S508)、推定された位置に基づいてカメラ制御を行なう(S509)。次いで、尤度の低いパーティクルを尤度が高くなる位置に移動させ(S511)、これらの処理を目標追尾処理が終了するまで繰り返す(S512)。 Then, it is determined whether there are a plurality of candidate areas (S505). If there is not more than one (S505: No), that is, if there is one candidate area, the candidate area is estimated as a tracking target (S508), and camera control is performed based on the estimated position (S509). Next, the low likelihood particle is moved to a position where the likelihood becomes high (S511), and these processes are repeated until the target tracking process is completed (S512).
一方、候補領域が複数個あった場合(S505:Yes)は、候補となった追尾対象領域に対応する補助追尾対象領域について補助目標色を用いた評価を行なう(S506)。ここで、図9を参照して本変形例における補助目標色を用いた評価について説明する。図9(a)は、人物の顔が追尾対象として指定されており、二人の人物が画像フレームに含まれている場合を示している。本図に示すように、一方の人物Ob1と他方の人物Ob2の顔部分に分散しているパーティクルで尤度が高く測定されており、人物Ob1の顔部分に対応するFrame1と、人物Ob2の顔部分に対応するFrame2とが追尾対象物の候補となっている。なお、補助追尾対象領域として下側の領域subFrBが設定されているものとする。 On the other hand, when there are a plurality of candidate areas (S505: Yes), an evaluation using the auxiliary target color is performed for the auxiliary tracking target area corresponding to the candidate tracking target area (S506). Here, the evaluation using the auxiliary target color in this modification will be described with reference to FIG. FIG. 9A shows a case where a person's face is designated as a tracking target and two persons are included in the image frame. As shown in this figure, the likelihood of particles dispersed in the face portions of one person Ob1 and the other person Ob2 is measured with high likelihood. Frame1 corresponding to the face portion of the person Ob1 and the face of the person Ob2 Frame 2 corresponding to the part is a candidate for the tracking target. It is assumed that the lower area subFrB is set as the auxiliary tracking target area.
本変形例では、追尾対象領域候補についての補助追尾対象領域の色が、補助目標色と近いかどうかの評価を行なう。ここで、補助目標色と近いかどうかの評価は、例えば、補助追尾対象領域における補助目標色に近い色の画素の割合を算出することで行なうことができる。あるいは、補助追尾対象領域における色の平均と補助目標色との差を算出することで行なうことができる。また、補助目標色がヒストグラムで設定されている場合には、補助追尾対象領域に含まれる画素の色のヒストグラムを求め、補助目標色のヒストグラムとのインターセクションを求めることで行なうことができる。なお、ヒストグラムインターセクションは、下記の式で求めることができる。
ここで、H1iは補助目標色のヒストグラムであり、H2iは補助追尾対象領域の色ヒストグラムである。Sの値が大きいほどヒストグラムが似ていることを示している。
In this modification, it is evaluated whether the color of the auxiliary tracking target area for the tracking target area candidate is close to the auxiliary target color. Here, the evaluation of whether or not it is close to the auxiliary target color can be performed, for example, by calculating a ratio of pixels having a color close to the auxiliary target color in the auxiliary tracking target region. Alternatively, this can be done by calculating the difference between the average color and the auxiliary target color in the auxiliary tracking target area. Further, when the auxiliary target color is set as a histogram, it can be performed by obtaining a histogram of the color of the pixel included in the auxiliary tracking target area and obtaining an intersection with the histogram of the auxiliary target color. The histogram intersection can be obtained by the following equation.
Here, H1i is a histogram of the auxiliary target color, and H2i is a color histogram of the auxiliary tracking target area. The larger the value of S, the more similar the histogram.
このように補助目標色と近いかどうかの評価を行なうと、評価値を、例えば、同じ色が1になるような正規化を行ない、正規化された評価値を、処理(S503)で測定した尤度と掛け合わせることにより、尤度の補正を行なう(S507)。そして、補正された尤度を用いて追尾対象物の領域の推定を行なう(S508)。 When the evaluation is made as to whether or not it is close to the auxiliary target color in this way, the evaluation value is normalized so that, for example, the same color becomes 1, and the normalized evaluation value is measured in the processing (S503). The likelihood is corrected by multiplying with the likelihood (S507). Then, the region of the tracking target is estimated using the corrected likelihood (S508).
図9(a)に示した例では、人物Ob1の補助追尾対象領域subFrB1の評価値の方が、人物Ob2の補助追尾対象領域subFrB2の評価値よりも高くなる。このため、尤度の補正を行なうと、図9(b)に示すように、人物Ob1の顔部分のパーティクルの尤度は高いままで、人物Ob2の顔部分のパーティクルの尤度は低くなる。この結果、人物Ob1の顔部分の領域Frame1が追尾対象物として推定されることになる。 In the example shown in FIG. 9A, the evaluation value of the auxiliary tracking target area subFrB1 of the person Ob1 is higher than the evaluation value of the auxiliary tracking target area subFrB2 of the person Ob2. For this reason, when the likelihood is corrected, as shown in FIG. 9B, the likelihood of the particles of the face portion of the person Ob1 remains high, and the likelihood of the particles of the face portion of the person Ob2 becomes low. As a result, the region Frame1 of the face portion of the person Ob1 is estimated as the tracking target.
追尾対象物が推定されると、推定された位置に基づいてカメラ制御を行なう(S509)。次いで、尤度の低いパーティクルを尤度が高くなる位置に移動させ(S511)、これらの処理を目標追尾処理が終了するまで繰り返す(S512)。 When the tracking target is estimated, camera control is performed based on the estimated position (S509). Next, the low likelihood particle is moved to a position where the likelihood becomes high (S511), and these processes are repeated until the target tracking process is completed (S512).
次に、本発明の第2実施形態について説明する。第2実施形態も第1実施形態とほぼ同様の構成とすることができるため相違点を中心に説明し、第1実施形態と同じ機能部については同じ符号を付して簡略に説明する。 Next, a second embodiment of the present invention will be described. Since the second embodiment can be configured substantially the same as the first embodiment, the differences will be mainly described, and the same functional units as those of the first embodiment will be simply denoted by the same reference numerals.
図10は、本発明の第2実施形態である目標追尾装置100bを含む目標追尾システム10bの構成を示すブロック図である。本図に示すように目標追尾システム10bは、目標追尾装置100bと、撮影を行なって画像信号を出力するカメラ200と、目標追尾装置100bからの制御信号に従ってカメラ200のパン・チルト制御およびズーム倍率制御を行なう制御装置210を備えている。ただし、これらの装置を一体型として目標追尾システム10bを構成してもよい。 FIG. 10 is a block diagram showing a configuration of a target tracking system 10b including the target tracking device 100b according to the second embodiment of the present invention. As shown in the figure, the target tracking system 10b includes a target tracking device 100b, a camera 200 that performs imaging and outputs an image signal, and pan / tilt control and zoom magnification of the camera 200 according to control signals from the target tracking device 100b. A control device 210 that performs control is provided. However, the target tracking system 10b may be configured by integrating these devices.
目標追尾装置100は、画像入力部110と、表示部120と、パーティクルフィルタを用いて目標物の追尾処理を行なうパーティクルフィルタ処理部130bと、カメラ制御信号出力部140と、追尾対象物指定受付部150と、類似色分布距離算出部180とを備えている。パーティクルフィルタ処理部130bは、画像格納部131と、目標色格納部132とを備えている。類似色分布距離算出部180は、画像フレーム中の目標色と類似する色の領域を判別し、追尾対象物との最短距離を算出する処理を行なう。この処理の具体的な内容については後述する。 The target tracking device 100 includes an image input unit 110, a display unit 120, a particle filter processing unit 130b that performs a target tracking process using a particle filter, a camera control signal output unit 140, and a tracking target designation receiving unit. 150 and a similar color distribution distance calculation unit 180. The particle filter processing unit 130 b includes an image storage unit 131 and a target color storage unit 132. The similar color distribution distance calculation unit 180 determines a color region similar to the target color in the image frame, and performs a process of calculating the shortest distance from the tracking target object. Specific contents of this processing will be described later.
図11は、第2実施形態における目標追尾装置100bの処理の流れを説明するフローチャートである。目標追尾装置100bは、カメラ200が出力する画像信号をフレーム単位で入力する(S601)。目標追尾装置100bは、入力された画像信号を表示部120に映像として逐次表示し、追尾対象物が指定されるのを待つ(S602)。この状態で、監視者は、画像中の追尾対象としたい目標物体を指定することができる。 FIG. 11 is a flowchart for explaining the processing flow of the target tracking device 100b in the second embodiment. The target tracking device 100b inputs the image signal output from the camera 200 in units of frames (S601). The target tracking device 100b sequentially displays the input image signal as a video on the display unit 120, and waits for the tracking target to be designated (S602). In this state, the supervisor can specify a target object that is desired to be tracked in the image.
追尾対象の指定を受け付けると(S602:Yes)、目標色設定部160は、画像フレーム中の指定を受け付けた領域に対応する画素の色を取得し、目標色として設定する(S603)。目標色の設定は、第1実施形態と同様に行なうことができる。そして、目標色を用いて逐次入力される画像フレーム中の追尾対象物を認識してカメラ200を制御する目標追尾処理を行なう(S604)。すなわち、第2実施形態では、第1実施形態とは異なり、補助目標色を用いずに目標物追尾処理を行なう。 When the specification of the tracking target is received (S602: Yes), the target color setting unit 160 acquires the color of the pixel corresponding to the area in the image frame that has received the specification, and sets it as the target color (S603). The target color can be set in the same manner as in the first embodiment. Then, target tracking processing for recognizing a tracking target in an image frame sequentially input using the target color and controlling the camera 200 is performed (S604). That is, unlike the first embodiment, the second embodiment performs the target tracking process without using the auxiliary target color.
ここで、本実施形態における目標追尾処理について詳細に説明する。図12は、第2実施形態における目標追尾処理について説明するためのフローチャートである。まず、パーティクルフィルタ処理部130bは、追尾対象として指定された領域付近にパーティクルを生成する(S701)。生成するパーティクルの数による追尾の精度と処理速度とはトレードオフの関係となる。 Here, the target tracking process in the present embodiment will be described in detail. FIG. 12 is a flowchart for explaining target tracking processing in the second embodiment. First, the particle filter processing unit 130b generates particles near the area designated as the tracking target (S701). The tracking accuracy and processing speed depending on the number of particles to be generated are in a trade-off relationship.
そして、画像フレーム中の目標色に近い色の領域の分布を判別し、その領域と追尾対象物との最短距離を算出する(S702)。ここで、図13のフローチャートと図14の画像フレーム例とを参照して、類似色分布距離算出部180が行なう類似色分布距離算出処理について説明する。 Then, the distribution of the color area close to the target color in the image frame is determined, and the shortest distance between the area and the tracking target is calculated (S702). Here, the similar color distribution distance calculation processing performed by the similar color distribution distance calculation unit 180 will be described with reference to the flowchart of FIG. 13 and the image frame example of FIG.
類似色分布距離算出処理では、画像フレーム中の各画素の色(Ht,St,Vt)と目標色(H,S,V)との近似度Aを算出して、算出された近似度Aを所定の閾値Tで2値化する(S801)。近似度Aの算出ならびに色の近似度Aの2値化は、例えば、下式にしたがって行なうことができる。
この結果、p=1の画素で形成される領域が目標色に近い色の領域となる。例えば、図14(a)に示すように二人の人物が画像フレームに含まれている場合に、一方の人物の顔が追尾対象物として指定されると、図14(b)に示すような2値の分布画像が得られる。ここで、白部分はp=1、すなわち目標色である顔の色に近似する色の領域であり、黒部分はp=0、すなわちその他の色の領域である。
In the similar color distribution distance calculation process, the degree of approximation A between the color (Ht, St, Vt) and the target color (H, S, V) of each pixel in the image frame is calculated, and the calculated degree of approximation A is calculated. Binarization is performed with a predetermined threshold T (S801). The calculation of the approximation A and the binarization of the color approximation A can be performed, for example, according to the following equation.
As a result, the area formed by the pixels with p = 1 is a color area close to the target color. For example, as shown in FIG. 14A, when two persons are included in the image frame and the face of one person is designated as the tracking target, as shown in FIG. A binary distribution image is obtained. Here, the white portion is p = 1, that is, a color region that approximates the face color that is the target color, and the black portion is p = 0, that is, a region of other colors.
2値化された分布画像は一般にノイズを含んでいるため、ノイズ除去処理を行なう(S802)。ノイズ除去処理は、例えば、一般的な技術である縮退/膨張処理により行なうことができる。図14(c)は、ノイズ除去後の分布画像を示している。ただし、この処理は省くようにしてもよい。 Since the binarized distribution image generally contains noise, noise removal processing is performed (S802). The noise removal process can be performed by, for example, a degeneration / expansion process that is a general technique. FIG. 14C shows a distribution image after noise removal. However, this process may be omitted.
次に、領域の塊ごとにラベリング処理し、各領域の面積を算出する。そして、面積が所定の閾値以下の小領域を、追尾対象物とはならないものとして削除する(S803)。図14(d)は、ラベリング処理を施して小領域を削除した後の分布画像を示している。 Next, a labeling process is performed for each block of regions, and the area of each region is calculated. Then, the small area whose area is equal to or smaller than the predetermined threshold is deleted as a tracking target object (S803). FIG. 14D shows a distribution image after performing a labeling process and deleting a small region.
最終的に残った近似色の領域について、追尾対象となっている位置からの距離を算出し、最短距離を抽出する(S804)。この際、追尾対象を含む領域は距離の算出から外すものとする。図14(e)に示す例では、左側の人物の顔Xが追尾対象として指定されており、領域Y、領域Zとの距離a、bを算出している。この結果、類似色領域との最短距離として距離aが抽出されることになる。 For the remaining approximate color area, the distance from the position to be tracked is calculated, and the shortest distance is extracted (S804). At this time, the area including the tracking target is excluded from the calculation of the distance. In the example shown in FIG. 14E, the face X of the left person is designated as a tracking target, and distances a and b between the area Y and the area Z are calculated. As a result, the distance a is extracted as the shortest distance from the similar color region.
類似色分布距離算出処理(S702)が終了すると、処理(S701)で生成されたパーティクルを、所定の規則にしたがって移動させる(S703)。ここで、追尾対象物の運動方向が予測可能な場合には、予測される移動方向に応じてパーティクルの移動方向を決めることができる。本実施形態では追尾対象物は主として監視画像中の不審人物を想定しており、運動ダイナミクスはランダムと仮定される。このため、各パーティクルは正規分布する乱数により距離を決められて移動する。 When the similar color distribution distance calculation process (S702) ends, the particles generated in the process (S701) are moved according to a predetermined rule (S703). Here, when the movement direction of the tracking target can be predicted, the movement direction of the particles can be determined according to the predicted movement direction. In the present embodiment, the tracking target is mainly assumed to be a suspicious person in the monitoring image, and the motion dynamics is assumed to be random. For this reason, each particle moves with its distance determined by a normally distributed random number.
本実施形態では、この際に、正規分布の分散を、類似色分布距離算出処理(S702)で得られた類似色領域との最短距離に応じて変化させるものとする。具体的には、正規乱数
における分散σ2を、類似色領域との最短距離の大小に対応させる。ここでrand(x)は0以上1未満の一様乱数である。
In this embodiment, at this time, the dispersion of the normal distribution is changed according to the shortest distance from the similar color area obtained in the similar color distribution distance calculation process (S702). Specifically, regular random numbers
The variance sigma 2 in, to correspond to the magnitude of the shortest distance between the similar color region. Here, rand (x) is a uniform random number from 0 to less than 1.
すなわち、第2実施形態では、目標色と類似色領域との最短距離に応じて正規分布の分散を制御することで、追尾対象物から最短距離内に多くのパーティクルを分散させるようにする。この結果、類似色領域にはパーティクルはあまり存在しないことになる。したがって、以降の処理において本来の追尾対象物を含む領域のパーティクルの尤度を相対的に高めることができる。 That is, in the second embodiment, by controlling the distribution of the normal distribution according to the shortest distance between the target color and the similar color region, many particles are dispersed within the shortest distance from the tracking target. As a result, there are not many particles in the similar color region. Therefore, the likelihood of particles in the region including the original tracking target can be relatively increased in the subsequent processing.
例えば、図15(a)に示すように、追尾対象物Xと近似色領域Yとの最短距離d1が比較的大きい場合は、図15(b)に示すように、追尾対象物Xを中心にパーティクルが広く分散することになる。これにより、追尾対象物Xが大きく移動した場合でも高精度で追尾することができるようになる。一方、図15(c)に示すように、追尾対象物Xと近似色領域Yとの最短距離d2が比較的小さい場合は、図15(d)に示すように、追尾対象物Xを中心にパーティクルが狭く分散することになる。これにより、近似色領域Yの影響による追尾精度の低下を防ぐことができる。 For example, as shown in FIG. 15A, when the shortest distance d1 between the tracking target object X and the approximate color region Y is relatively large, the tracking target object X is centered as shown in FIG. Particles are widely dispersed. Thereby, even when the tracking target object X moves greatly, it becomes possible to track with high accuracy. On the other hand, as shown in FIG. 15C, when the shortest distance d2 between the tracking object X and the approximate color region Y is relatively small, the tracking object X is centered as shown in FIG. Particles are dispersed narrowly. Thereby, it is possible to prevent a decrease in tracking accuracy due to the influence of the approximate color region Y.
以上の処理(S703)により分散を制御してパーティクルを移動させると、次の画像フレームを入力する(S704)。この画像フレームが追尾対象物の移動等を検出する処理対象の画像フレームとなる。各パーティクルは、処理対象の画像フレームにおいて、それぞれの位置の近傍の画素、例えば、周辺の矩形領域内の画素について目標色と近い色の画素の割合を算出し、その結果をそれぞれのパーティクルの尤度とする測定を行なう(S705)。このとき、例えば、矩形領域内のHSVヒストグラムを作成して目標色との類似度を算出して尤度を測定することができる。 When the particles are moved by controlling the dispersion by the above processing (S703), the next image frame is input (S704). This image frame becomes a processing target image frame for detecting the movement of the tracking target. Each particle calculates the ratio of pixels close to the target color for pixels in the vicinity of each position in the image frame to be processed, for example, pixels in the surrounding rectangular area, and the result is the likelihood of each particle. Measurement is performed (S705). At this time, for example, the likelihood can be measured by creating an HSV histogram in a rectangular area and calculating the similarity to the target color.
尤度が測定されると、各パーティクルの尤度の重み付け平均を算出し、処理対象の画像フレームにおける追尾対象物の領域を推定する(S706)。そして、追尾対象物の領域として推定された領域がカメラ200の画角内に収まるような制御信号を生成し、カメラ制御信号出力部140が制御装置210に出力する(S707)。この制御信号に基づいてカメラ200がパン・チルト、ズームすることにより、追尾対象物を追尾することができる。 When the likelihood is measured, the weighted average of the likelihood of each particle is calculated, and the area of the tracking target in the image frame to be processed is estimated (S706). Then, a control signal is generated so that the region estimated as the tracking target region falls within the angle of view of the camera 200, and the camera control signal output unit 140 outputs the control signal to the control device 210 (S707). When the camera 200 pans, tilts, and zooms based on the control signal, the tracking target can be tracked.
そして、測定されたパーティクルの尤度に基づいて、尤度の高いパーティクルが確率的に多くなるように、尤度の低いパーティクルを尤度が高くなる位置に移動させる。その後、上記と同様に、推定された追尾対象物と画像フレーム内の類似色領域との最短距離を算出し(S702)、追尾対象物に集まったパーティクルを最短距離に応じて再度分散させて(S703)、次画像フレームに対する同様の処理を目標追尾処理が終了するまで繰り返す(S709)。 Then, based on the measured likelihood of particles, particles with low likelihood are moved to positions where the likelihood becomes high so that particles with high likelihood increase stochastically. Thereafter, similarly to the above, the shortest distance between the estimated tracking object and the similar color region in the image frame is calculated (S702), and the particles gathered on the tracking object are dispersed again according to the shortest distance ( In step S703, the same process for the next image frame is repeated until the target tracking process is completed (S709).
なお、上述した第1及び第2実施形態においては、目標追尾装置100,100bは、表示部120に表示された画像中の追尾対象物を追尾対象物指定受付部150により受け付ける構成としたが、不図示の制御部による動き検出処理や色検出処理等の結果に基づき、自動的に追尾対象物の位置を指定するようにしてもよい。このようにした場合は、表示部120及び追尾対象指定受付部150を設ける必要はない。 In the first and second embodiments described above, the target tracking devices 100 and 100b are configured to receive the tracking target in the image displayed on the display unit 120 by the tracking target designation receiving unit 150. The position of the tracking object may be automatically specified based on the results of motion detection processing, color detection processing, and the like by a control unit (not shown). In this case, it is not necessary to provide the display unit 120 and the tracking target designation receiving unit 150.
10・10b…目標追尾システム、100・100b…目標追尾装置、110…画像入力部、120…表示部、130・130a・130b…パーティクルフィルタ処理部、131…画像格納部、132…目標色格納部、133…補助目標色格納部、140…カメラ制御信号出力部、150…追尾対象物指定受付部、160…目標色設定部、170…補助目標色設定部、180…類似色分布距離算出部、200…カメラ、210…制御装置 DESCRIPTION OF SYMBOLS 10 * 10b ... Target tracking system 100 * 100b ... Target tracking apparatus 110 ... Image input part 120 ... Display part 130 * 130a * 130b ... Particle filter processing part 131 ... Image storage part 132 ... Target color storage part Reference numeral 133: Auxiliary target color storage unit 140: Camera control signal output unit 150: Tracking target designation receiving unit 160 ... Target color setting unit 170: Auxiliary target color setting unit 180 ... Similar color distribution distance calculation unit 200 ... Camera, 210 ... Control device
Claims (3)
画像データ中における前記目標物体となる追尾対象の指定を受け付ける追尾対象指定受付手段と、
前記画像データ中における追尾対象に付随する補助領域の指定を受け付ける補助領域指定受付手段と、
指定された前記追尾対象に係る画像データ中の色を目標色として設定する目標色設定手段と、
指定された前記補助領域に係る色を補助目標色として設定する補助目標色設定手段と、
所定の規則にしたがって画像データ中を移動するパーティクルを用いて、パーティクル周辺の色と前記設定された目標色との比較によって求められる尤度を測定し、測定された尤度を、パーティクルごとに前記指定された補助領域に基づいて定められる領域における色と前記補助目標色との比較によって求められる尤度によって補正し、補正された尤度に基づいて画像データ中の前記追尾対象の領域を推定するパーティクルフィルタ処理手段と、
を備えたことを特徴とする目標追尾装置。 A target tracking device that tracks a target object in image data captured in time series,
Tracking target designation receiving means for receiving designation of a tracking target to be the target object in image data;
Auxiliary area designation accepting means for accepting designation of an auxiliary area associated with the tracking target in the image data;
Target color setting means for setting a color in the image data relating to the specified tracking target as a target color;
Auxiliary target color setting means for setting a color related to the specified auxiliary area as an auxiliary target color;
Using particles that move in the image data according to a predetermined rule, measure the likelihood obtained by comparing the color around the particle and the set target color, the measured likelihood for each particle Correction is performed by the likelihood obtained by comparing the color in the area determined based on the designated auxiliary area and the auxiliary target color, and the tracking target area in the image data is estimated based on the corrected likelihood. Particle filter processing means;
A target tracking device comprising:
画像データ中における前記目標物体となる追尾対象の指定を受け付ける追尾対象指定受付手段と、
前記画像データ中における追尾対象に付随する補助領域の指定を受け付ける補助領域指定受付手段と、
指定された前記追尾対象に係る画像データ中の色を目標色として設定する目標色設定手段と、
指定された前記補助領域に係る色を補助目標色として設定する補助目標色設定手段と、
所定の規則にしたがって画像データ中を移動するパーティクルを用いて、パーティクル周辺の色と前記設定された目標色との比較によって求められる尤度を測定し、測定された尤度を、測定された尤度の分布状況と前記指定された補助領域とに基づいて定められる領域における色と、前記補助目標色との近似の度合いによって補正し、補正された尤度に基づいて画像データ中の前記追尾対象の領域を推定するパーティクルフィルタ処理手段と、
を備えたことを特徴とする目標追尾装置。 A target tracking device that tracks a target object in image data captured in time series,
Tracking target designation receiving means for receiving designation of a tracking target to be the target object in image data;
Auxiliary area designation accepting means for accepting designation of an auxiliary area associated with the tracking target in the image data;
Target color setting means for setting a color in the image data relating to the specified tracking target as a target color;
Auxiliary target color setting means for setting a color related to the specified auxiliary area as an auxiliary target color;
Using particles that move in the image data according to a predetermined rule, the likelihood obtained by comparing the color around the particle and the set target color is measured, and the measured likelihood is measured. The tracking target in the image data is corrected based on the degree of approximation between the color in the area determined based on the distribution of degrees and the designated auxiliary area and the auxiliary target color, and based on the corrected likelihood Particle filter processing means for estimating the area of
A target tracking device comprising:
画像データ中における前記目標物体となる追尾対象の指定を受け付ける追尾対象指定受付手段と、
指定された前記追尾対象に係る画像データ中の色を目標色として設定する目標色設定手段と、
前に取り込まれた画像データ中の追尾対象とされる領域付近から分散するパーティクルを用いて、パーティクル周辺の色と、前記設定された目標色との比較によって求められる尤度を測定し、測定された尤度に基づいて後に取り込まれた画像データ中の前記追尾対象の領域を推定するパーティクルフィルタ処理手段とを備え、
このパーティクルフィルタ処理手段は、前に取り込まれた画像データ中の追尾対象とされる領域と、前記目標色に類似する色の領域との距離を求め、求めた距離に応じて前記パーティクルの分散における移動量を変化させることを特徴とする目標追尾装置。 A target tracking device that tracks a target object in image data captured in time series,
Tracking target designation receiving means for receiving designation of a tracking target to be the target object in image data;
Target color setting means for setting a color in the image data relating to the specified tracking target as a target color;
Using particles dispersed from the vicinity of the region to be tracked in the previously captured image data, the likelihood obtained by comparing the color around the particle with the set target color is measured and measured. Particle filter processing means for estimating the tracking target area in the image data captured later based on the likelihood,
The particle filter processing unit obtains a distance between a region to be tracked in the previously captured image data and a region of a color similar to the target color, and in the dispersion of the particles according to the obtained distance A target tracking device characterized by changing a movement amount.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008019480A JP2009182624A (en) | 2008-01-30 | 2008-01-30 | Target tracking device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008019480A JP2009182624A (en) | 2008-01-30 | 2008-01-30 | Target tracking device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2009182624A true JP2009182624A (en) | 2009-08-13 |
Family
ID=41036248
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008019480A Pending JP2009182624A (en) | 2008-01-30 | 2008-01-30 | Target tracking device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2009182624A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011002814A (en) * | 2009-05-19 | 2011-01-06 | Nikon Corp | Camera |
| US8184965B2 (en) | 2010-01-05 | 2012-05-22 | Panasonic Corporation | Imaging device |
| US9240053B2 (en) | 2010-03-15 | 2016-01-19 | Bae Systems Plc | Target tracking |
| US9305244B2 (en) | 2010-03-15 | 2016-04-05 | Bae Systems Plc | Target tracking |
| US9323989B2 (en) | 2012-12-07 | 2016-04-26 | Samsung Display Co., Ltd. | Tracking device |
| JP2020136213A (en) * | 2019-02-25 | 2020-08-31 | 株式会社ファンテックス | Tracking type lighting device and lighting tracking system |
-
2008
- 2008-01-30 JP JP2008019480A patent/JP2009182624A/en active Pending
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011002814A (en) * | 2009-05-19 | 2011-01-06 | Nikon Corp | Camera |
| US8184965B2 (en) | 2010-01-05 | 2012-05-22 | Panasonic Corporation | Imaging device |
| US9240053B2 (en) | 2010-03-15 | 2016-01-19 | Bae Systems Plc | Target tracking |
| US9305244B2 (en) | 2010-03-15 | 2016-04-05 | Bae Systems Plc | Target tracking |
| US9323989B2 (en) | 2012-12-07 | 2016-04-26 | Samsung Display Co., Ltd. | Tracking device |
| JP2020136213A (en) * | 2019-02-25 | 2020-08-31 | 株式会社ファンテックス | Tracking type lighting device and lighting tracking system |
| JP7219915B2 (en) | 2019-02-25 | 2023-02-09 | 株式会社ファンテックス | Tracking lighting device and lighting tracking system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9684835B2 (en) | Image processing system, image processing method, and program | |
| US20230410493A1 (en) | Image processing system, image processing method, and program storage medium | |
| US10810438B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
| US11450114B2 (en) | Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects | |
| US20190149770A1 (en) | Information processing system, information processing method, and program | |
| JP4730431B2 (en) | Target tracking device | |
| JP6616521B2 (en) | Image processing device | |
| US8923553B2 (en) | Image processing apparatus, image processing method, and storage medium | |
| JP7272024B2 (en) | Object tracking device, monitoring system and object tracking method | |
| JP5088279B2 (en) | Target tracking device | |
| KR102295183B1 (en) | object tracking method for CCTV video by use of CCTV projection model | |
| EP2570992A1 (en) | Image processing apparatus, image processing method, and program | |
| US20230095568A1 (en) | Object tracking device, object tracking method, and program | |
| JPWO2013005815A1 (en) | Object detection apparatus, object detection method, and program | |
| JP2020149111A (en) | Object tracking device and object tracking method | |
| US9742992B2 (en) | Non-uniform curve sampling method for object tracking | |
| JP2009182624A (en) | Target tracking device | |
| JP6255944B2 (en) | Image analysis apparatus, image analysis method, and image analysis program | |
| JP2020109644A (en) | Fall detection method, fall detection apparatus, and electronic device | |
| JP5177030B2 (en) | Target tracking device | |
| JP5177068B2 (en) | Target tracking device, target tracking method | |
| CN107958202B (en) | Human body detection apparatus, control method of human body detection apparatus, and storage medium | |
| KR101690050B1 (en) | Intelligent video security system | |
| JP7279892B2 (en) | FACE POSITION DETECTION DEVICE, FACE POSITION DETECTION METHOD, AND PROGRAM | |
| JP2013164643A (en) | Image recognition device, image recognition method, and image recognition program |