[go: up one dir, main page]

JP3401512B2 - Moving object tracking device - Google Patents

Moving object tracking device

Info

Publication number
JP3401512B2
JP3401512B2 JP30818799A JP30818799A JP3401512B2 JP 3401512 B2 JP3401512 B2 JP 3401512B2 JP 30818799 A JP30818799 A JP 30818799A JP 30818799 A JP30818799 A JP 30818799A JP 3401512 B2 JP3401512 B2 JP 3401512B2
Authority
JP
Japan
Prior art keywords
tracking
moving object
observation
information
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP30818799A
Other languages
Japanese (ja)
Other versions
JP2000348181A (en
Inventor
章 内海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP30818799A priority Critical patent/JP3401512B2/en
Publication of JP2000348181A publication Critical patent/JP2000348181A/en
Application granted granted Critical
Publication of JP3401512B2 publication Critical patent/JP3401512B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、移動物体追跡装置
に関し、さらに詳しくは、非同期で得られる多視点画像
により移動物体を追跡する移動物体追跡装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving object tracking device, and more particularly, to a moving object tracking device for tracking a moving object using multi-viewpoint images obtained asynchronously.

【0002】[0002]

【従来の技術】異なる視点で得られる複数の画像からシ
ーン内の奥行き情報を得るステレオ計測は、画像からの
3次元情報の復元を主要な課題の1つとするコンピュー
タビジョン研究において重要な位置を占めている。
Stereo measurement, which obtains depth information in a scene from a plurality of images obtained from different viewpoints, occupies an important position in computer vision research whose restoration of three-dimensional information from an image is one of the main subjects. ing.

【0003】ステレオ計測において特に重要となるのが
画像間の対応付けであり、誤った対応付けを少なくする
ために特徴量を適切に選択したり(Marr D. And Poggio
T.A theory of human stereo vision. In Roy. Soc. L
ondon, pp. 301−328.1979)、より多くの
視点を有効に利用する手法(Ramakant Nevatia. Depth
measurement by motion stereo. Computer Graphics an
d Image Processing vol. 5, pp.203−214,19
76)が開発されてきた。これらは主に、静的なシーン
を対象としたものであり、この場合のステレオ法の持つ
誤差については既に多くの報告がある(Jeffrey J. Rod
riguez and J. K. Aggarwal. Stochastic Analysis of
stereo quantization error. IEEE Pattern Anal. Mach
ine Intell., Vol.12, No.5,pp.467−470,
5 1992)。
Correspondence between images is particularly important in stereo measurement, and feature amounts are appropriately selected to reduce erroneous correspondence (Marr D. And Poggio
TA theory of human stereo vision. In Roy. Soc. L
ondon, pp. 301-328.1979), a method for effectively utilizing more viewpoints (Ramakant Nevatia. Depth
measurement by motion stereo. Computer Graphics an
d Image Processing vol. 5, pp.203-214, 19
76) has been developed. These are mainly for static scenes, and there are already many reports about the error of the stereo method in this case (Jeffrey J. Rod
riguez and JK Aggarwal. Stochastic Analysis of
stereo quantization error. IEEE Pattern Anal. Mach
ine Intell., Vol.12, No.5, pp.467-470,
5 1992).

【0004】動きを持つシーンを対象とした研究では、
ステレオ観測に基づくロボットのナビゲーション(Larr
y Matthies and Steven A. Shafer. Error Modeling in
stereo navigation. IEEE Rebotics and Automation,
vol. RA-3, No.3, pp.239−248, 1987)、
1台のカメラによる既知形状のトラッキング(Akio Kos
aka and Goichi Nakazawa. Vision-based motion track
ing of rigid objectsusing prediction of uncertaini
es. In Proc. of International Conferenceon Robotic
s and Automation, pp.2637−2644,195
5)、ステレオ計測による既知形状のトラッキング(Ge
m-Sun J. Young and Rama Chellappa. 3-d motion esti
mation using a sequence of noisy stereo images: Mo
dels, estimation, and Uniqueness results. IEEE Pat
tern Anal. Machine Intell., Vol.12,No.8,pp.7
35−759,1990)、ステレオ観測に基づく複数
物体の追跡(Jae-Woong Yi and Jun-Ho Oh. Recursive
resolving algorithm formultiple stereo and motion
matches. Image and Vision Computing, Vol.15, pp.
181−196,1997)などが提案されている。画
像特徴を対象とする物体モデルと関連付けながら複数物
体を追跡するこれらの問題設定は、「動きの対応付け」
(Motion Correspondence)として知られている(Ingem
ar J. Cox.A review of statical data association te
chniques for motion correspondence. International
Journal of Computer Vision, Vol.10:1, pp.53
−66,1993)。
[0004] In the research targeting scenes with motion,
Robot navigation based on stereo observation (Larr
y Matthies and Steven A. Shafer. Error Modeling in
stereo navigation. IEEE Rebotics and Automation,
vol. RA-3, No.3, pp.239-248, 1987),
Tracking known shapes with one camera (Akio Kos
aka and Goichi Nakazawa. Vision-based motion track
ing of rigid objectsusing prediction of uncertaini
es. In Proc. of International Conferenceon Robotic
s and Automation, pp.2637-2644,195
5), tracking of known shape by stereo measurement (Ge
m-Sun J. Young and Rama Chellappa. 3-d motion esti
mation using a sequence of noisy stereo images: Mo
dels, estimation, and Uniqueness results. IEEE Pat
tern Anal. Machine Intell., Vol.12, No.8, pp.7
35-759, 1990), Tracking of multiple objects based on stereo observation (Jae-Woong Yi and Jun-Ho Oh. Recursive
resolving algorithm for multiple stereo and motion
matches. Image and Vision Computing, Vol.15, pp.
181-196, 1997) and the like have been proposed. These problem settings, which track multiple objects while associating image features with the object model of interest, are "motion associations."
Known as (Motion Correspondence) (Ingem
ar J. Cox. A review of statical data association te
chniques for motion correspondence. International
Journal of Computer Vision, Vol.10: 1, pp.53
-66, 1993).

【0005】[0005]

【発明が解決しようとする課題】ところで、上述した従
来の手法はいずれも、一定間隔で複数視点の観測が同時
に行なわれ、または静止シーン(同時観測と等価)であ
ることを前提としている。観測を同時に行なった場合、
同じ物理的特徴を観測することになるので動きの対応付
けが容易になる。
By the way, all of the above-mentioned conventional methods are based on the premise that observations from a plurality of viewpoints are made simultaneously at fixed intervals, or that they are still scenes (equivalent to simultaneous observations). If the observations are made simultaneously,
Since the same physical characteristics will be observed, it becomes easy to associate the movements.

【0006】しかしながら、同時観測を行なう従来の手
法においても、時系列で物体を追跡するためには異なる
時刻間で「動きの対応付け」が依然として必要となる。
However, even in the conventional method of performing simultaneous observation, "movement correspondence" between different times is still necessary in order to track an object in time series.

【0007】さらに、従来の多視点画像を利用したシス
テムの多くは、追跡時の位置情報の獲得のために視点間
で同時に観測が行なわれていることを前提としているた
め、各視点で得られた画像を処理する際には、全体の処
理速度は最も処理の遅いプロセスにより制限されるとい
う問題があった。また、このようなシステムでは画像情
報のやり取りの他に視点間の同期を行なうための手段を
別途必要とする。これら同期を前提とした従来のシステ
ムの持つ問題は、利用する視点数が増加するに伴いより
顕著になる。
Further, since many conventional systems using multi-view images are based on the premise that observations are simultaneously made between the viewpoints in order to acquire position information at the time of tracking, they are obtained at each viewpoint. When processing an image, there is a problem that the overall processing speed is limited by the slowest processing. Further, in such a system, means for synchronizing the viewpoints in addition to the exchange of image information is required separately. The problems of the conventional system based on these synchronizations become more remarkable as the number of viewpoints used increases.

【0008】そこで、本発明はこのような問題を解決す
るためになされたものであり、異なる時刻に観測された
情報を統合し、非同期で高精度な追跡を行なうことがで
きる移動物体追跡装置を提供することである。
Therefore, the present invention has been made in order to solve such a problem, and provides a moving object tracking device capable of performing highly accurate asynchronous tracking by integrating information observed at different times. Is to provide.

【0009】また、本発明のさらなる目的は、簡素化さ
れたシステム構成において、効率よく変化する物体を追
跡することができる移動物体追跡装置を提供することで
ある。
A further object of the present invention is to provide a moving object tracking device capable of efficiently tracking an object that changes in a simplified system configuration.

【0010】[0010]

【課題を解決するための手段】請求項1に係る移動物体
追跡装置は、シーン内を移動する移動物体を追跡する移
動物体追跡装置であって、シーン内を複数の視点から撮
影するための複数の撮影手段と、複数の撮影手段のそれ
ぞれに対応して設けられ、互いに独立して非同期に動作
する複数の観測手段とを備える。複数の観測手段の各々
は、対応する撮影手段から受ける画像から特徴点を抽出
する特徴点抽出手段と、対応する撮影手段から受ける画
像から少なくとも1つの追跡対象である移動物体に固有
の属性値を抽出する属性値抽出手段と、少なくとも1つ
の追跡対象である移動物体と抽出した特徴点との対応づ
けを行ない、対応づけられた特徴点に関する、属性値を
含む第1の観測情報と、対応づけられなかった特徴点に
関する第2の観測情報とを出力する特徴点対応づけ手段
とを含む。移動物体追跡装置は、複数の観測手段のうち
特徴点を抽出した複数の観測手段から非同期に供給され
る第1の観測情報をカルマンフィルタを用いて統合する
ことにより、少なくとも1つの追跡対象である移動物体
の状態を、当該移動物体の追跡モデルに基づいて予測す
る追跡手段をさらに備える。追跡手段は、供給される第
1の観測情報から属性値を抽出する属性値抽出手段と、
抽出された属性値に基づいて追跡対象である移動物体の
状態を推定する状態推定手段と、推定された移動物体の
状態に応じて、移動物体の追跡モデルを決定する追跡モ
デル決定手段とを含む。移動物体追跡装置は、複数の観
測手段のうち特徴点を抽出した複数の観測手段から非同
期に順次供給される第2の観測情報を入力として、カル
マンフィルタの更新処理を時系列的に行なうことにより
予測軌道を算出し、算出された予測軌道に基づいて、新
たに追跡対象となる移動物体の推定位置を検出して追跡
手段に初期発見位置として送信する発見手段とをさらに
備える。特徴点対応づけ手段は、追跡手段から送信され
る少なくとも1以上の追跡対象である移動物体の予測状
態に基づき、抽出した特徴点に対応する追跡対象である
移動物体を検出する。
A moving object tracking device according to claim 1 is a moving object tracking device for tracking a moving object moving in a scene, and a plurality of moving object tracking devices for photographing the scene from a plurality of viewpoints. And a plurality of observing means provided corresponding to each of the plurality of photographic means and operating asynchronously independently of each other. Each of the plurality of observing means extracts a characteristic point from the image received from the corresponding photographing means, and a characteristic point extracting means for extracting a characteristic point from the image received from the corresponding photographing means and at least one attribute value unique to the moving object to be tracked. The attribute value extracting means for extracting is associated with at least one tracking target moving object and the extracted feature points, and is associated with the first observation information including the attribute value regarding the associated feature points. And feature point associating means for outputting the second observation information regarding the feature points that have not been obtained. The moving object tracking device integrates, using a Kalman filter, first observation information that is asynchronously supplied from a plurality of observing means that have extracted feature points from among a plurality of observing means, and thus moves at least one tracking target. The apparatus further includes a tracking unit that predicts the state of the object based on the tracking model of the moving object. The tracking means includes attribute value extraction means for extracting an attribute value from the supplied first observation information,
Includes state estimation means for estimating the state of the moving object that is the tracking target based on the extracted attribute value, and tracking model determination means for determining the tracking model of the moving object according to the estimated state of the moving object. . The moving object tracking device predicts by performing a Kalman filter update process in chronological order with the second observation information that is asynchronously and sequentially supplied from the plurality of observation means that have extracted the feature points among the plurality of observation means. Further, there is further provided a finding unit that calculates a trajectory, detects an estimated position of a moving object that is a tracking target newly based on the calculated predicted trajectory, and transmits the estimated position to the tracking unit as an initial found position. The feature point associating unit detects a moving object as a tracking target corresponding to the extracted feature point, based on the predicted state of at least one moving object as a tracking target transmitted from the tracking unit.

【0011】請求項2に係る移動物体追跡装置では、請
求項1の属性値は移動物体の背たけ情報、行動情報およ
び色情報の少なくともいずれか1つである。
In the moving object tracking device according to a second aspect, the attribute value according to the first aspect is at least one of backrest information, action information and color information of the moving object.

【0012】[0012]

【0013】[0013]

【0014】[0014]

【0015】[0015]

【0016】[0016]

【0017】[0017]

【0018】[0018]

【発明の実施の形態】本発明の実施の形態における移動
物体追跡装置1について、図1を用いて説明する。な
お、以下の説明において、図中同一符号は同一または相
当部分を示す。図1は、本発明の実施の形態における移
動物体追跡装置1の全体構成を示すブロック図である。
図1を参照して、移動物体追跡装置1は、カメラ2♯
1、2♯2、…、2♯n、観測部4♯1、4♯2、…、
4♯n、発見部6および追跡部8を備える。
BEST MODE FOR CARRYING OUT THE INVENTION A moving object tracking device 1 according to an embodiment of the present invention will be described with reference to FIG. In the following description, the same reference numerals in the drawings indicate the same or corresponding parts. FIG. 1 is a block diagram showing the overall configuration of a moving object tracking device 1 according to an embodiment of the present invention.
Referring to FIG. 1, moving object tracking device 1 includes camera 2 #.
1, 2 # 2, ..., 2 # n, observation units 4 # 1, 4 # 2 ,.
4 # n, a discovery unit 6 and a tracking unit 8.

【0019】観測部4♯1、4♯2、…、4♯nのそれ
ぞれは、カメラ2♯1、2♯2、…、2♯nにそれぞれ
対応して設けられる(以下総称的に、カメラ2、観測部
4とそれぞれ記す)。観測部4♯1、4♯2…4♯n、
発見部6および追跡部8のそれぞれは、互いに独立して
動作することが可能である。たとえば、これらは異なる
計算機で構成され、それぞれの計算機をローカルエリア
ネットワークLANで接続する。
Observation units 4 # 1, 4 # 2, ..., 4 # n are provided corresponding to cameras 2 # 1, 2 # 2, ..., 2 # n, respectively (hereinafter collectively referred to as cameras). 2 and observation section 4, respectively). Observation units 4 # 1, 4 # 2 ... 4 # n,
Each of the finding unit 6 and the tracking unit 8 can operate independently of each other. For example, these are composed of different computers, and each computer is connected to the local area network LAN.

【0020】図中、記号A0は、観測部4から追跡部8
に送信される対応点(追跡目標)の観測情報を、記号A
1は、観測部4から発見部6に送信される未対応点(追
跡目標と対応のとれない点)の観測情報を、記号A2
は、追跡部8から観測部4に送信される予測位置情報
を、記号A3は、発見部6から追跡部8に送信される新
規人物の位置情報(初期値)を、記号A4は、追跡部8
から発見部4に送信される位置情報(更新後)を表わし
ている。
In the figure, the symbol A0 indicates the observation section 4 to the tracking section 8.
The observation information of the corresponding point (tracking target) sent to
Reference numeral 1 denotes the observation information of uncorresponding points (points that cannot be traced to the tracking target) transmitted from the observing unit 4 to the discovering unit 6 by the symbol A2.
Is the predicted position information transmitted from the tracking unit 8 to the observation unit 4, the symbol A3 is the position information (initial value) of the new person transmitted from the discovery unit 6 to the tracking unit 8, and the symbol A4 is the tracking unit. 8
The position information (after updating) transmitted from the to the discovery unit 4 is represented.

【0021】観測部4は、対応するカメラ2から得られ
る入力画像に基づき特徴抽出処理を行なう。各観測部4
は独立に動作する。観測部4で得られた特徴量(重心点
および距離変換値)は、後述する追跡部8から送信され
てくる予測位置情報A2をもとに追跡目標と対応付けら
れた後に、観察時間の情報とともに追跡部8に送信され
る。対応がとれなかった特徴量は未対応点の観測情報A
1として、発見部6に送信される。
The observing unit 4 performs a feature extraction process based on the input image obtained from the corresponding camera 2. Each observation section 4
Works independently. The feature amount (the center of gravity point and the distance conversion value) obtained by the observation unit 4 is associated with the tracking target based on the predicted position information A2 transmitted from the tracking unit 8 described later, and then the observation time information is obtained. It is sent together with the tracking unit 8. The feature that could not be matched is the observation information A of the uncorresponding point.
1 is transmitted to the discovery unit 6.

【0022】発見部6では、送信されてきた未対応点の
観測情報A1を用いて、シーンの中に新らたに現れた人
物(新規人物)の検出を行なう。新規人物についての検
出結果、すなわち新規人物の位置情報A3は、追跡部8
に送信される。これにより、新規人物は、新たな追跡目
標として追加される。そして、送信部8において追跡が
開始される。
The finding section 6 detects a person (new person) newly appearing in the scene by using the transmitted observation information A1 of uncorresponding points. The detection result of the new person, that is, the position information A3 of the new person is acquired by the tracking unit 8
Sent to. As a result, the new person is added as a new tracking target. Then, the transmitter 8 starts tracking.

【0023】追跡部8では、新規人物の位置情報A3を
初期値とし、観測情報A0を入力値として、カルマンフ
ィルタを用いて人物の位置情報を更新し、さらに観測モ
デルに基づき位置を予測する。予測位置情報A0は、観
測部4に送信される。発見部6には、後述するように位
置情報(更新後)A4が送信される。
The tracking unit 8 updates the position information of the person using the Kalman filter with the position information A3 of the new person as the initial value and the observation information A0 as the input value, and further predicts the position based on the observation model. The predicted position information A0 is transmitted to the observation unit 4. The location information (after updating) A4 is transmitted to the finding unit 6 as described later.

【0024】ここで、本発明の実施の形態において用い
る人体モデルについて図2を用いて説明する。図2は、
本発明の実施の形態において用いる人体モデルについて
説明するための図である。図中、X、Y、Zは世界座標
系の3軸を示している。人物MANは、楕円柱hでモデ
ル化している。人物モデルhの中心軸Xhを、人物の回
転軸とし、法線軸(回転軸Xhと垂直な短軸方向の軸)
とX軸とがなす角rを人物の姿勢角とする。なお、人物
MANの回転軸Xhは、床面(X軸およびY軸がなす平
面)に対して垂直であると仮定する。カメラ2は、人物
の回転軸Xh、すなわちZ軸に垂直に配置される。
The human body model used in the embodiment of the present invention will be described with reference to FIG. Figure 2
It is a figure for explaining a human body model used in an embodiment of the invention. In the figure, X, Y, and Z indicate the three axes of the world coordinate system. The person MAN is modeled by an elliptic cylinder h. The center axis Xh of the person model h is the rotation axis of the person, and the normal axis (the axis in the minor axis direction perpendicular to the rotation axis Xh)
The angle r between the X-axis and the X-axis is the posture angle of the person. It is assumed that the rotation axis Xh of the person MAN is perpendicular to the floor surface (the plane formed by the X axis and the Y axis). The camera 2 is arranged perpendicular to the rotation axis Xh of the person, that is, the Z axis.

【0025】次に、図1に示す観測部4について説明す
る。図3は、観測部4の構成の概要について説明するた
めの図である。図3を参照して、観測部4は、領域分割
回路10、画素値算出回路12、重心点選択回路14、
および特徴点対応づけ回路16を含む。
Next, the observation section 4 shown in FIG. 1 will be described. FIG. 3 is a diagram for explaining the outline of the configuration of the observation unit 4. Referring to FIG. 3, the observation unit 4 includes an area dividing circuit 10, a pixel value calculating circuit 12, a center of gravity point selecting circuit 14,
And a feature point correspondence circuit 16.

【0026】領域分割回路10、画素値算出回路12お
よび重心点選択回路14は、入力した人物画像に基づき
特徴抽出処理を行なう。特徴点対応づけ回路16は、当
該抽出された特徴点と追跡目標(モデル)間の対応付け
を行なう。
The area division circuit 10, the pixel value calculation circuit 12, and the center-of-gravity point selection circuit 14 perform the feature extraction processing based on the inputted person image. The feature point association circuit 16 associates the extracted feature points with a tracking target (model).

【0027】領域分割回路10は、入力画像を、人物領
域と背景領域とに分割する。たとえば、「連続画像に基
づく階層的適応による人物追跡のための画像分割」コン
ピュータビジョンおよびパターン認識(CVPR′9
8),IEEEコンピュータ学会論文誌,p.911〜
916に、領域分割の手法が記載されている。
The area dividing circuit 10 divides the input image into a person area and a background area. For example, "Image segmentation for person tracking by hierarchical adaptation based on continuous images" Computer Vision and Pattern Recognition (CVPR'9
8), Journal of IEEE Computer Society, p. 911 to
In 916, a method of area division is described.

【0028】具体的には、カメラで撮影した現フレーム
の画像と、前後フレームの画像との差分を2値化し、差
分画像のいくつかのフレームを重ね合せることによりマ
スク画像を生成する(すなわち、粗い分割により大まか
な動物体領域を抽出する)。マスク画像のサイズが一定
範囲にあるときは、さらに輝度情報、色情報、またはピ
クスタ情報、テクスチャ情報ならびにこれらのいずれか
の組合せにより当該パラメータの分布を推定し、さらに
推定されたパラメータの分布によって、新たに得られた
画像上の各画素について当該動物体領域の存在する確率
を算出する(すなわち、精密な分割を行なう)。これに
より、カメラにとらえられる入力画像の中から人物領域
を切り出す。
More specifically, the mask image is generated by binarizing the difference between the image of the current frame captured by the camera and the images of the preceding and following frames, and superimposing some frames of the difference image (that is, Extract a rough body region by coarse division). When the size of the mask image is within a certain range, further estimate the distribution of the parameter by luminance information, color information, or pixel information, texture information and any combination thereof, and further by the estimated parameter distribution, The probability that the moving object region exists for each pixel on the newly obtained image is calculated (that is, precise division is performed). As a result, the person area is cut out from the input image captured by the camera.

【0029】続いて、画素値算出回路12において、得
られた人物画像に対して距離変換を行なう。具体的に
は、人物領域を構成する画素の各々から人物領域の境界
までの最短距離を示す画素値を算出する。重心点選択回
路14は、人物領域内で画素値が最大となる点を当該人
物領域の重心点(すなわち特徴点)として選択する。重
心点における画素値を距離変換値とする。重心点と重心
点の距離変換値(重心点距離変換値)とを特徴量として
用いる。
Subsequently, the pixel value calculation circuit 12 performs distance conversion on the obtained person image. Specifically, a pixel value indicating the shortest distance from each of the pixels forming the person area to the boundary of the person area is calculated. The center-of-gravity point selection circuit 14 selects a point having the maximum pixel value in the person area as a center of gravity (that is, a feature point) of the person area. The pixel value at the center of gravity is used as the distance conversion value. The center-of-gravity point and the distance conversion value of the center-of-gravity point (the center-of-gravity point distance conversion value) are used as the feature amount.

【0030】具体的には、領域分割回路10からは、図
4(a)に示すような2値化画像が出力される。画素値
算出回路12では、図4(a)に示す2値化画像に対し
て、図4(b)に示す距離変換画像を生成する。図4
(b)では、距離変換値が大きい画素ほど黒く表され、
距離変換値が小さい画素ほど白く表されている。人体の
輪郭から遠くなるにつれ画素の色が濃くなっている。重
心点選択回路14は、図4(b)における記号“X”に
相当する画素を、重心点として選択する。当該距離変換
による重心点検出は、人物のポーズの変化の影響を受け
にくいという特徴がある。
Specifically, the area dividing circuit 10 outputs a binarized image as shown in FIG. The pixel value calculation circuit 12 generates a distance conversion image shown in FIG. 4B for the binarized image shown in FIG. Figure 4
In (b), a pixel with a larger distance conversion value is represented in black,
Pixels with smaller distance conversion values are shown in white. The color of the pixel becomes darker as the distance from the contour of the human body increases. The center-of-gravity point selection circuit 14 selects the pixel corresponding to the symbol “X” in FIG. 4B as the center of gravity point. The detection of the center of gravity by the distance conversion is characterized by being less susceptible to changes in the pose of a person.

【0031】続いて、抽出された重心点と既に発見され
ている追跡目標との間の対応付けを行なう特徴点対応づ
け回路16について説明する。図5は、特徴点の対応付
け処理について説明するための図である。図中、記号2
0♯1、20♯2、…、20♯l、…、20♯m、…、
20♯nのそれぞれは、カメラ2♯1、2♯2、…、2
♯l、…、2♯m、…、2♯nにより得られる画像面を
それぞれ表わしている(以下、総称的に、画像面20と
記す)。
Next, the feature point associating circuit 16 for associating the extracted barycentric point with the already-discovered tracking target will be described. FIG. 5 is a diagram for explaining the feature point association processing. Symbol 2 in the figure
0 # 1, 20 # 2, ..., 20 # l, ..., 20 # m ,.
Each of 20 # n has a camera 2 # 1, 2 # 2, ..., 2
The image planes obtained by # 1, ..., 2 # m, ..., 2 # n are respectively represented (hereinafter, generically referred to as image plane 20).

【0032】時刻taにカメラ2♯lにより、時刻tb
にカメラ2♯mにより、観測がそれぞれ行なわれたもの
とする(ただし、ta<tbとする)。時刻taでは、
2人の人物h0,h1が存在し、時刻tbにおいて人物
h2がシーン内に初めて現われたとする。
At the time ta, the time tb is obtained by the camera 2 # l.
It is assumed that the observation is performed by the camera 2 # m (note that ta <tb). At time ta,
It is assumed that there are two persons h0 and h1 and the person h2 first appears in the scene at time tb.

【0033】画像面20に付した記号×は、各画像にお
いて検出された重心点を示している。この場合、時刻t
aにおける画像面20♯lから、2つの重心点(特徴
点)が検出され、時刻tbにおける画像面20♯mか
ら、3つの重心点(特徴点)が検出される。
The symbol x attached to the image plane 20 indicates the center of gravity detected in each image. In this case, time t
Two barycentric points (feature points) are detected from the image plane 20 # l at a, and three barycentric points (feature points) are detected from the image plane 20 # m at time tb.

【0034】人物h0,h1のそれぞれについては、追
跡部8への問合せにより、時刻taまでの観測結果に基
づき時刻tbの予測位置を得る。後述するように、追跡
部8では、人物の動きを等速運動で仮定しており、ある
時刻tにおける人物hjの予測位置は、2次元のガウス
分布で表わされる。世界座標系における人物hjの時刻
tにおける位置を位置Xhj,tとし、当該2次元のガウス
分布の平均を/Xhj,t、共分散行列を/Shj,tと記す。
平均および共分散行列は、予測位置情報A0として、追
跡部8から送信される。
For each of the persons h0 and h1, an inquiry is made to the tracking unit 8 to obtain the predicted position at time tb based on the observation result up to time ta. As will be described later, in the tracking unit 8, the motion of the person is assumed to be a uniform velocity motion, and the predicted position of the person hj at a certain time t is represented by a two-dimensional Gaussian distribution. The position of the person hj in the world coordinate system at time t is defined as the position X hj, t , the average of the two-dimensional Gaussian distribution is represented as / X hj, t , and the covariance matrix is represented as / S hj, t .
The average and covariance matrix are transmitted from the tracking unit 8 as the predicted position information A0.

【0035】なお、式では、/Xhj,tを、記号Xhj,t
上に“−”を付したものとして表現し、/Shj,tを、記
号Shj,tの上に“−”を付したものとして表現する。
In the formula, / X hj, t is expressed as a symbol X hj, t with a "-" added, and / S hj, t is denoted by a symbol S hj, t on ". It is expressed as "-".

【0036】予測位置の分布N(/Xhj,t、/Shj,t
を画像20♯i(i=1、2、…、n)に弱透視投影す
ると、式(1)で示される確率からなる1次元ガウス分
布n(/xhj,t,i、/shj,t,iが得られる。これは、画
像20♯iにおける人物の存在確率を示している。式
(1)において、記号xは、世界座標系での人物位置X
を画像面上に投影したもの、記号/xは、世界座標系に
おける平均/Xを画像面上に投影したもの、記号/s
は、世界座標系における共分散行列/Sを画像面上に投
影したものをそれぞれ表わしている。なお、式では、/
xを、記号xの上に“−”を付したものとして表現し、
/sを、記号sの上に“−”を付したものとして表現す
る。
Predicted position distribution N (/ X hj, t , / S hj, t )
Is weakly perspectively projected onto the image 20 # i (i = 1, 2, ..., N), the one-dimensional Gaussian distribution n (/ x hj, t, i , / s hj, t, i is obtained, which indicates the existence probability of a person in the image 20 # i, where the symbol x is the person position X in the world coordinate system.
Is projected on the image plane, the symbol / x is the average / X in the world coordinate system projected on the image plane, the symbol / s
Represents the projection of the covariance matrix / S in the world coordinate system on the image plane. In the formula, /
x is expressed as a symbol x with "-" added,
/ S is expressed as a symbol s with "-" added.

【0037】[0037]

【数1】 [Equation 1]

【0038】式(1)に表わされる確率を最大にする特
徴点を観測時間での人物hjに対応する観測値とし、当
該特徴点にhjのラベルを付ける。ラベル付けられた特
徴点の観測情報A0は、追跡部8に送信される。ただ
し、複数の人物と対応付けができた特徴点については、
観測時点でオクルージョンが発生していると判断し、送
信を停止する。
The feature point that maximizes the probability expressed by equation (1) is taken as the observed value corresponding to the person hj at the observation time, and the feature point is labeled hj. The observation information A0 of the labeled feature points is transmitted to the tracking unit 8. However, for the feature points that can be associated with multiple people,
It is determined that occlusion has occurred at the time of observation, and transmission is stopped.

【0039】これらの処理の後、対応付けがされていな
い特徴点については、未知の人物、すなわち新規人物に
属するものとし、未対応の観測情報A1として、位置お
よび時間が発見部6に送信される。なお、図5において
は、人物h2についての観測情報A1が、発見部6に送
信される。
After these processes, the feature points that are not associated are assumed to belong to an unknown person, that is, a new person, and the position and time are transmitted to the finding unit 6 as uncorresponding observation information A1. It Note that in FIG. 5, the observation information A1 about the person h2 is transmitted to the discovery unit 6.

【0040】続いて、図1に示す追跡部8について説明
する。追跡部8では、観測部4のそれぞれから送られて
きた観測情報A0に基づき、追跡目標人物の位置・方向
を更新する。
Next, the tracking unit 8 shown in FIG. 1 will be described. The tracking unit 8 updates the position / direction of the tracking target person based on the observation information A0 sent from each of the observation units 4.

【0041】図6は、図1に示す追跡部8の構成の概要
について説明するための図である。図6を参照して、追
跡部8は、位置推定回路22および方向角推定回路24
を含む。位置推定回路22は、観測部4から得られる重
心点位置に基づき、予測位置を推定し、推定結果を方向
推定回路24に出力する。方向角推定回路24は、位置
推定回路22から出力される推定結果に従い、観測部4
から得られる重心点距離変換値に基づき方向角を推定す
る。
FIG. 6 is a diagram for explaining the outline of the configuration of the tracking section 8 shown in FIG. Referring to FIG. 6, tracking unit 8 includes position estimation circuit 22 and direction angle estimation circuit 24.
including. The position estimation circuit 22 estimates the predicted position based on the position of the center of gravity obtained from the observation unit 4, and outputs the estimation result to the direction estimation circuit 24. The direction angle estimation circuit 24 follows the estimation result output from the position estimation circuit 22,
The direction angle is estimated based on the converted value of the distance to the center of gravity obtained from.

【0042】まず、位置推定回路22における位置推定
処理について詳しく述べる。追跡中の人物の位置は、各
観測部4において対応付けられた特徴情報(重心点位
置)を用いて更新される。図7は、位置推定処理につい
て説明するための図である。図7を参照して、カメラ2
♯iと画像面20♯iとの距離を距離li、カメラ2♯
iと人物hjとの距離を距離Lhj,iと記す。エピポーラ
線とY軸とがなす角度をwhj,iと記す。
First, the position estimation processing in the position estimation circuit 22 will be described in detail. The position of the person being tracked is updated by using the feature information (centroid position) associated with each observation unit 4. FIG. 7 is a diagram for explaining the position estimation process. Referring to FIG. 7, the camera 2
The distance between #i and the image plane 20 # i is the distance l i , and the camera 2 #
The distance between i and the person hj is referred to as a distance L hj, i . The angle formed by the epipolar line and the Y axis is denoted by w hj, i .

【0043】位置推定処理においては、人物は等速運動
をしているものと仮定する。時刻tにおける人物hjの
状態を、世界座標(X、Y)上で、式(2)および
(3)で表わす。ただし、初期状態は、発見部6から送
信される新規人物(モデル)の情報によって決定される
ものとする。行列に付される“′”は、転置を表わして
いる。
In the position estimation processing, it is assumed that the person is moving at a constant velocity. The state of the person hj at time t is represented by equations (2) and (3) on world coordinates (X, Y). However, the initial state is determined by the information of the new person (model) transmitted from the discovery unit 6. The “′” attached to the matrix represents transposition.

【0044】∧Xhj,t-1を時刻(t−1)における人物
位置Xhjの推定値とし、∧Shj,t-1を、推定値∧X
hj,t-1の分散行列とすると、時刻tでの状態は式(4)
および式(5)でそれぞれ表わされる。式では、∧X
hj,t-1を、記号Xhj,t-1の上に“∧”を付したものとし
て表現し、∧Shj,t-1を、記号Shj,t-1の上に“∧”を
付したものとして表現する。
Let ∧X hj, t-1 be the estimated value of the person position X hj at time (t-1), and let ∧S hj, t-1 be the estimated value ∧X.
Assuming that hj, t-1 is the covariance matrix, the state at time t is given by equation (4).
And equation (5). In the formula, ∧X
Express hj, t-1 as a symbol X hj, t-1 with "∧" added, and ∧S hj, t-1 on the symbol S hj, t-1 with "∧" It is expressed as the one with.

【0045】なお、遷移行列Fは、式(6)で表わされ
る(△t:t−1→t)。また、記号Qは、遷移におけ
る共分散行列を表わしている。
The transition matrix F is expressed by equation (6) (Δt: t-1 → t). The symbol Q represents the covariance matrix at the transition.

【0046】[0046]

【数2】 [Equation 2]

【0047】ここで、観測部4♯iにより1回目の観測
が行なわれたものとする。観測部4♯iから送られてき
た位置情報により、この観測は、式(7)〜(9)で表
わすことができる。
Here, it is assumed that the observation section 4 # i has made the first observation. This observation can be expressed by equations (7) to (9) based on the position information sent from the observation unit 4 # i.

【0048】H=[1 0 0 0] …(7)H = [1 0 0 0] (7)

【0049】[0049]

【数3】 [Equation 3]

【0050】記号Ciは、カメラの位置を、記号R
hj,t,iは、エピポーラ線とY軸とがなす角度whj,t,i
時計回りの回転を表わしている。なお、記号eは、観測
誤差を表わしており、平均0、標準偏差σhj,t,iとす
る。標準誤差σhj,t,iは、カメラの距離が大きくなるほ
ど増加すると考え、式(9)のように表わす。
The symbol C i indicates the position of the camera, and the symbol R indicates
hj, t, i represents the clockwise rotation of the angle w hj, t, i formed by the epipolar line and the Y axis. The symbol e represents an observation error, and has an average of 0 and a standard deviation σ hj, t, i . The standard error σ hj, t, i is considered to increase as the distance of the camera increases, and is expressed as in equation (9).

【0051】ここでは、カメラの位置Ciと人物(X
hj,t)との間の距離Lhj,t,iは未知数のため、Xhj,t
予測位置/Xhj,tにより算出した距離/Lhj,t,iを近似
値として使用する(式では、/Lhj,t,iを、記号L
hj,t,iの上に“−”を付したものとして表現する)。
Here, the camera position C i and the person (X
Since the distance L hj, t, i from ( hj, t ) is an unknown number , the predicted position of X hj, t / the distance calculated by X hj, t / L hj, t, i is used as an approximate value ( In the formula, / L hj, t, i is the symbol L
It is expressed as hj, t, i with "-" added.

【0052】式(8)の観測式では、左辺は観測情報
を、右辺は人物位置を画像に投影した結果をそれぞれ表
わしている。
In the observation equation of equation (8), the left side represents the observation information, and the right side represents the result of projecting the person position on the image.

【0053】位置推定回路22では、以上の観測モデル
によりカルマンフィルタを構成し、人物hjの状態を更
新する。
The position estimation circuit 22 constitutes a Kalman filter by the above observation model and updates the state of the person hj.

【0054】[0054]

【数4】 [Equation 4]

【0055】各カメラごとに、独立に式(10)および
(11)による更新処理を行ない、状態予測を行なう。
時刻(t+1)における人物hjの状態予測は、平均を
/X hj,t+1、共分散行列を/Shj,t+1とするガウス分布
で与えられる。状態予測の結果は、観測部4の要求に応
じて計算・送信され、上述したとおり特徴点の対応づけ
に利用される。カメラが検出可能な範囲外へ移動した人
物モデルは削除し、その人物の追跡を中止する。
For each camera, equations (10) and
The update process according to (11) is performed to predict the state.
The state prediction of the person hj at time (t + 1) is the average.
/ X hj, t + 1, The covariance matrix / Shj, t + 1Gaussian distribution
Given in. The result of the state prediction meets the request of the observation unit 4.
Correspondence of feature points as described above
Used for. A person who has moved outside the detectable range of the camera
Delete the physical model and stop tracking the person.

【0056】続いて、方向角推定回路24の処理につい
て説明する。方向角推定回路24では、人物の姿勢角r
(図2参照)を、オクルージョンを生じない重心点距離
変換値を用いて推定する。この推定は、図8に示す人体
の観測モデル(楕円体モデル)に基づいて行なう。図8
を参照して、カメラ2で撮影された画像上における楕円
体の幅をsとして重心点距離変換値を用いる。弱透視変
換を仮定すると光軸と楕円体モデル(人物)の回転軸の
法線とがなす角をθとして、観測される重心点距離変換
値sは、式(12)に従うことになる。ここで、式(1
2)における記号Lは、楕円体モデルの回転軸からカメ
ラまでの距離を示しており、記号AおよびBは定数であ
る。観測がガウス誤差を伴うと仮定すると、重心点距離
変換値sが観測される確率P(s|θ)は、式(13)
のように表わされる。なお、定数A,Bと誤差の分散σ
sとは、学習用データにより予め決定しておく。
Next, the processing of the direction angle estimating circuit 24 will be described. In the direction angle estimation circuit 24, the posture angle r of the person
(See FIG. 2) is estimated using the centroid distance conversion value that does not cause occlusion. This estimation is performed based on the human body observation model (ellipsoidal model) shown in FIG. Figure 8
With reference to, the center-of-gravity point distance conversion value is used with the width of the ellipsoid on the image captured by the camera 2 as s. Assuming a weak perspective transformation, the observed center-of-gravity point distance conversion value s follows Equation (12), where θ is the angle formed by the optical axis and the normal to the rotation axis of the ellipsoidal model (person). Here, the formula (1
The symbol L in 2) indicates the distance from the rotation axis of the ellipsoidal model to the camera, and the symbols A and B are constants. Assuming that the observation involves a Gaussian error, the probability P (s | θ) that the transformed value s of the barycentric point distance is observed is given by the equation (13).
It is expressed as. The constants A and B and the variance σ of the error
s is determined in advance based on the learning data.

【0057】[0057]

【数5】 [Equation 5]

【0058】人体の姿勢は、オイラー角(a、e、r)
により表現できる。ここで、rは、方位角(姿勢角)
を、aは方位角を、eは仰角をそれぞれ表わしている。
方位角aおよび仰角eは、人体の回転軸方向により決定
されるため、回転軸回りの回転角rのみが未知数となっ
ている。
The posture of the human body is the Euler angle (a, e, r)
Can be expressed by Where r is the azimuth angle (posture angle)
, A represents an azimuth angle, and e represents an elevation angle.
Since the azimuth angle a and the elevation angle e are determined by the rotation axis direction of the human body, only the rotation angle r around the rotation axis is an unknown number.

【0059】人体の法線ベクトルNは、式(14)で表
わされる。したがって、カメラ2♯iの光軸ベクトルC
と人体の法線ベクトルNとがなす角θi(r)は、式
(15)で表わされることになる。
The normal vector N of the human body is expressed by equation (14). Therefore, the optical axis vector C of the camera 2 # i
The angle θ i (r) formed between the normal vector N of the human body and the normal vector N of the human body is expressed by Expression (15).

【0060】 N=RZ(a)RY(e)RX(r)e …(14) θci(r)=cos-1・NT・C …(15) なお、式(14)において、RZ、RY、RXはそれぞ
れ、Z、Y、X軸に関する回転行列を示し、eZは、Z
軸方向の単位ベクトルを示している。また、式(15)
において、記号NTは、法線ベクトルNの転置ベクトル
を示している。
N = R Z (a) R Y (e) R X (r) e (14) θ ci (r) = cos −1 · N T · C (15) In the formula (14), , R Z , R Y , and R X represent rotation matrices about the Z, Y, and X axes, respectively, and e Z is Z.
A unit vector in the axial direction is shown. Also, equation (15)
In, the symbol N T indicates a transposed vector of the normal vector N.

【0061】n台のカメラ2♯1〜2♯nによって、重
心点距離変換値の組W(s1、s2、…、sn)が観測さ
れる確率Pは、式(13)により、式(16)で表わさ
れる。式(16)における確率P(W|r)を最大とす
る値rを姿勢角の推定値とする。
The probability P that the set W (s 1 , s 2 , ..., Sn) of the barycentric point distance conversion values is observed by the n cameras 2 # 1 to 2 # n is given by the equation (13). It is expressed by equation (16). A value r that maximizes the probability P (W | r) in Expression (16) is used as the estimated value of the posture angle.

【0062】[0062]

【数6】 [Equation 6]

【0063】方位角推定は、上述した位置推定と同様
に、観測が行なわれるごとに更新される。なお、図8に
示す観測モデルは、入力を観測部4から送信される特徴
情報(重心点距離変換値s)とし、式(17)で表わさ
れる状態rhj,tを有することになる。なお、オクルージ
ョンの有無は、特徴点の対応付けの際に判定されてお
り、オクルージョンが生じた場合は観測情報としては用
いられない。
The azimuth angle estimation is updated every time observation is performed, like the position estimation described above. Note that the observation model shown in FIG. 8 has the input as the characteristic information (the center-of-gravity point distance conversion value s) transmitted from the observation unit 4 , and has the state r hj, t expressed by the equation (17). The presence / absence of occlusion is determined at the time of associating feature points, and is not used as observation information when occlusion occurs.

【0064】続いて、図1に示す発見部6の概要につい
て説明する。発見部6では、シーンに新たに登場した人
物(新規人物)を検出し、対応するモデルを追跡部8に
追加する。
Next, an outline of the finding section 6 shown in FIG. 1 will be described. The finding unit 6 detects a person (new person) who newly appears in the scene, and adds a corresponding model to the tracking unit 8.

【0065】観測情報は非同期に獲得されるため、通常
のステレオ対応をそのまま適用することができない。そ
こで、次のような時系列情報による対応(発見)手法を
用いる。
Since the observation information is acquired asynchronously, ordinary stereo correspondence cannot be applied as it is. Therefore, the following correspondence (discovery) method using time series information is used.

【0066】まず、観測部4のそれぞれから送られてき
た未対応点の観測情報のうち、異なる4時刻の観測情報
を各1点ずつ選出する(γと記す)。観測時刻t1,t
2,t3,t4のそれぞれに対して、観測視点をそれぞ
れC1,C2,C3,C4とする。観測情報を入力として、
上述したカルマンフィルタの更新処理(式(8))を行
なう。ただし、初期分散/Shj,t=0とする。
First, of the observation information of uncorresponding points sent from each of the observing units 4, the observation information at different four times is selected one by one (denoted by γ). Observation time t1, t
The observation viewpoints are C 1 , C 2 , C 3 , and C 4 for 2, 2, and t 4 , respectively. With observation information as input,
The above-described Kalman filter update processing (equation (8)) is performed. However, the initial variance / S hj, t = 0.

【0067】この操作により、4回の観測における予測
軌道が得られる。この予測軌道を用いて、式(4)を用
いて位置推定を行なう(ただし、△t=t4−ti:i
=1,2,3のいずれか)。位置推定結果の集合を[∧
t1,∧Xt2,∧Xt3,∧Xt 4]とする。
By this operation, the predicted orbits in the four observations can be obtained. Using this predicted trajectory, position estimation is performed using equation (4) (where Δt = t4-ti: i
= 1, 2, or 3). The set of position estimation results is [∧
X t1, ∧X t2, ∧X t3 , and ∧X t 4].

【0068】上述したように、式(7)の観測式では、
左辺は観測情報を、右辺は人物位置を画像に投影した結
果をそれぞれ表わしている。観測情報と人物位置を画像
に投影した結果との差として、式(17)に示すマハラ
ノビス距離を用いた誤差評価関数f(γ)を定義する。
As described above, in the observation formula of the formula (7),
The left side shows the observation information, and the right side shows the result of projecting the person position on the image. The error evaluation function f (γ) using the Mahalanobis distance shown in Expression (17) is defined as the difference between the observation information and the result of projecting the person position on the image.

【0069】[0069]

【数7】 [Equation 7]

【0070】式(17)に示す評価関数の値が一定のし
きい値以内である組合せは、新規人物に属する特徴点集
合とし、最新観測時刻(ここではt4)における推定位
置を初期発見位置として追跡部8に送信する。
A combination in which the value of the evaluation function shown in Expression (17) is within a certain threshold is a set of feature points belonging to a new person, and the estimated position at the latest observation time (here, t4) is the initial found position. It transmits to the tracking unit 8.

【0071】次に、本発明の有効性を明らかにするた
め、以下のような2つのシミュレーション実験を行なっ
た。図9は、位置追従の精度を確認するためのシミュレ
ーション実験について説明するための図である。図9に
示すシミュレーション実験では、2台のカメラ(2♯
1,2♯2)を用い、半径100の円軌道を周期10×
fで等速円運動する追跡対象物体h0を観測した。tf
は、カメラの撮影間隔である。カルマンフィルタには、
等速直線運動のモデルを与えた。観測は平行射影を仮定
し、実験では2台のカメラ2♯1および2♯2のそれぞ
れの光軸がなす角度θを4通り(0°、30°、45
°、90°)に設定した。それぞれの条件において、カ
メラ2♯1とカメラ2♯2との撮影時間のずれ△tを0
からtf/2まで変化させ、カメラ2♯1の観測からtf
後の(カメラ2♯1の撮影面に平行な方向についての)
位置予測誤差を記録した。
Next, the effectiveness of the present invention will be clarified.
Therefore, we conducted the following two simulation experiments.
It was Figure 9 shows a simulation for checking the accuracy of position tracking.
FIG. 6 is a diagram for explaining a solution experiment. In Figure 9
In the simulation experiment shown, two cameras (2 #
1, 2 # 2) and a circular orbit with a radius of 100 has a cycle of 10 ×
t fThe object h0 to be tracked which moves in a uniform circular motion was observed. tf
Is the shooting interval of the camera. The Kalman filter has
A model of constant velocity linear motion is given. Observation assumes parallel projection
However, in the experiment, each of the two cameras 2 # 1 and 2 # 2
There are four types of angles θ formed by these optical axes (0 °, 30 °, 45
, 90 °). Under each condition,
The time difference Δt between the camera 2 # 1 and the camera 2 # 2 is set to 0.
To tf/ 2, and t from the observation of camera 2 # 1f
Later (for the direction parallel to the shooting surface of camera 2 # 1)
The position prediction error was recorded.

【0072】図10は、図9に対する実験結果を説明す
るための図である。図10において、横軸は撮影時間の
ずれ△tを、縦軸は予測誤差を示している。図10に示
すように、光軸のなす角度θが0°、30°、45°で
ある場合は特に、撮影間隔の増加に伴い予測誤差が減少
し、△t=tf/2において予測誤差は最小値をとっ
た。これにより、追跡対象物体の運動がカルマンフィル
タの前提となる運動モデルから外れる場合に、特に、非
同期観測を行なうことにより同期観測に比べて高い追従
性が得られることがわかる。
FIG. 10 is a diagram for explaining the experimental results for FIG. In FIG. 10, the horizontal axis represents the deviation Δt of the photographing time, and the vertical axis represents the prediction error. As shown in FIG. 10, particularly when the angle θ formed by the optical axes is 0 °, 30 °, and 45 °, the prediction error decreases as the shooting interval increases, and the prediction error at Δt = t f / 2. Has taken the minimum value. From this, it can be seen that when the motion of the tracking target object deviates from the motion model that is the premise of the Kalman filter, a higher followability can be obtained by performing the asynchronous observation, in particular, as compared with the synchronous observation.

【0073】図11は、複数人物の動きを推定する能力
を明らかにするためのシミュレーション実験について説
明するための図である。図11に示すシミュレーション
実験では、5台のカメラ2♯1〜2♯5を配置する。カ
メラはそれぞれ、対応する観測部を構成する1台の計算
機に接続されている。画像処理は、これらの計算機上で
行なわれる。処理速度は約1〜2frame/secである。
FIG. 11 is a diagram for explaining a simulation experiment for clarifying the ability to estimate the movements of a plurality of persons. In the simulation experiment shown in FIG. 11, five cameras 2 # 1 to 2 # 5 are arranged. Each camera is connected to one computer that constitutes the corresponding observation unit. Image processing is performed on these computers. The processing speed is about 1-2 frame / sec.

【0074】各計算機は、ローカルエリアネットワーク
LANに接続されており、内部時計を互いに同期させて
いる。発見部6および追跡部8をそれぞれ構成する図示
しない2台の計算機がローカルエリアネットワークLA
Nに接続されている。
Each computer is connected to the local area network LAN and has its internal clocks synchronized with each other. Two computers (not shown) that respectively configure the finding unit 6 and the tracking unit 8 are local area network LA.
It is connected to N.

【0075】各カメラは予めすべてキャリブレーション
されており、各観測部4のキャリブレーション情報は、
観測情報(観測時間、特徴点)とともに発見部6および
追跡部8にそれぞれ送信される。実験では、2人の人物
h0、h1についての位置追跡を行なった。図11に示
すように、2人の人物h0、h1が順にシーン55内に
現われる。
Each camera has been calibrated in advance, and the calibration information of each observing unit 4 is:
It is transmitted to the discovering unit 6 and the tracking unit 8 together with the observation information (observation time, characteristic points). In the experiment, position tracking of two persons h0 and h1 was performed. As shown in FIG. 11, two persons h0 and h1 appear in the scene 55 in order.

【0076】図12〜図16は、図11に対する実験結
果を説明するための図である。図11に示すシミュレー
ション実験において、各カメラで得られた特徴点の時間
ごとの推移を表わしている。図12はカメラ2♯1に、
図13はカメラ2♯2に、図14はカメラ2♯3に、図
15はカメラ2♯4に、図16はカメラ2♯5にそれぞ
れ対応している。図12〜図16において、横軸は時
間、縦軸は追跡位置とし、記号“+”は、予測位置と対
応付けができた特徴点を表わしている。
12 to 16 are views for explaining the experimental results for FIG. In the simulation experiment shown in FIG. 11, the change over time of the characteristic points obtained by each camera is shown. FIG. 12 shows the camera 2 # 1
13 corresponds to the camera 2 # 2, FIG. 14 corresponds to the camera 2 # 3, FIG. 15 corresponds to the camera 2 # 4, and FIG. 16 corresponds to the camera 2 # 5. 12 to 16, the horizontal axis represents time, the vertical axis represents the tracking position, and the symbol "+" represents the feature point that can be associated with the predicted position.

【0077】図12〜図16を参照して、追跡当初は、
カメラ2♯1以外ではほとんど特徴点が観測されないた
め、人物の発見が行なわれない。1人目の人物が実験環
境(シーン55)の中央に近づくにつれ、他の視点(カ
メラ2♯3、2♯4、2♯5)でも特徴点が得られ、追
跡が開始される(開始から約20秒がすぎ)。同様にし
て、2人目の人物の移動に伴い約37秒すぎに2人目の
人物の追跡が開始される。以上の実験結果から、本発明
により複数人物の追跡が可能であることが示されたとい
える。
Referring to FIGS. 12 to 16, at the beginning of tracking,
Since no characteristic points are observed except for the camera 2 # 1, the person is not found. As the first person approaches the center of the experimental environment (scene 55), feature points are obtained from other viewpoints (cameras 2 # 3, 2 # 4, 2 # 5) and tracking is started (about from the start). 20 seconds have passed). Similarly, tracking of the second person is started about 37 seconds after the movement of the second person. From the above experimental results, it can be said that the present invention makes it possible to track a plurality of persons.

【0078】上述の実施形態では、複数の視点で非同期
に撮影した画像内の特徴点に基づいて、人物の動きを追
跡するようにしたが、次に人物固有の属性値を抽出し、
その抽出結果を観測情報として出力し、抽出した属性値
に基づいて対応する人物の状態を検出し、検出された状
態に応じて人物の追跡モデルを切換えるような実施形態
について説明する。たとえば、人物が着席している間に
移動する可能性は極めて少ないと考えられるので、位置
推定値の信頼度を大きくする。
In the above-mentioned embodiment, the movement of the person is tracked based on the feature points in the images which are photographed asynchronously from a plurality of viewpoints. However, the attribute value peculiar to the person is extracted next,
An embodiment will be described in which the extraction result is output as observation information, the state of the corresponding person is detected based on the extracted attribute value, and the tracking model of the person is switched according to the detected state. For example, since it is considered that there is a very low possibility that a person moves while seated, the reliability of the position estimation value is increased.

【0079】図17はこの発明の第2の実施形態の観測
部と追跡部の概要を示す図であり、第1の実施形態の図
3および図6に対応している。図17において、領域分
割回路10と画素値算出回路12と中心点選択回路14
は図3と同じであるが、この実施形態の観測部4には、
新たにシルエットの高さ検出回路17が設けられる。シ
ルエットの高さ検出回路17は領域分割回路10で2値
化された2値化画像から人物の高さを検出する。
FIG. 17 is a diagram showing an outline of the observation section and the tracking section of the second embodiment of the present invention, and corresponds to FIGS. 3 and 6 of the first embodiment. In FIG. 17, an area dividing circuit 10, a pixel value calculating circuit 12, and a center point selecting circuit 14
Is the same as in FIG. 3, but the observation unit 4 of this embodiment
A silhouette height detection circuit 17 is newly provided. The silhouette height detection circuit 17 detects the height of a person from the binarized image binarized by the area division circuit 10.

【0080】図18は人物が立っているときと着席して
いるときの2値化画像を示す図である。シルエットの高
さ検出回路17は図18(a)に示すように、2値化画
像の高さT1と図18(b)に示す2値化画像の高さT
2を検出する。たとえば、人物が立っている場合にはT
1が180cmであり、人物が着席していればT2が1
40cmというように検出する。シルエットの高さ検出
回路17の検出出力は特徴点対応づけ回路16に与えら
れる。
FIG. 18 is a diagram showing a binarized image when a person is standing and seated. As shown in FIG. 18A, the silhouette height detection circuit 17 detects the height T1 of the binarized image and the height T of the binarized image shown in FIG. 18B.
2 is detected. For example, if a person is standing, T
1 is 180 cm and T2 is 1 if a person is seated
It is detected as 40 cm. The detection output of the silhouette height detection circuit 17 is given to the feature point correspondence circuit 16.

【0081】特徴点対応づけ回路16は第1の実施形態
で説明したように、重心点選択回路14で抽出された重
心点と既に発見されている追跡目標との間の対応づけを
行なうが、シルエットの高さ検出回路17の検出出力に
基づいて、対応づけられた人物の身長を測定した情報を
観測情報に含めて追跡部8に出力する。
As described in the first embodiment, the feature point associating circuit 16 makes correspondence between the barycentric point extracted by the barycentric point selecting circuit 14 and the already-discovered tracking target. Based on the detection output of the silhouette height detection circuit 17, the information obtained by measuring the height of the corresponding person is included in the observation information and output to the tracking unit 8.

【0082】一方、追跡部8は、図6に示した構成に加
えて、図17に示すように高さ情報抽出回路30と背た
け変換回路32と状態推定回路34とを含む。高さ情報
抽出回路30は観測部4から追跡部8に送られてくる観
測情報から高さ情報を抽出し、背たけ変換回路32に与
える。背たけ変換回路32は観測情報から抽出された高
さ情報を背たけに変換する。
On the other hand, tracking section 8 includes a height information extraction circuit 30, a back conversion circuit 32, and a state estimation circuit 34, as shown in FIG. 17, in addition to the configuration shown in FIG. The height information extraction circuit 30 extracts height information from the observation information sent from the observation unit 4 to the tracking unit 8 and supplies it to the backrest conversion circuit 32. The backrest conversion circuit 32 converts the height information extracted from the observation information into a backrest.

【0083】状態推定回路34は、この背たけがたとえ
ば180cmから140cmに変化すれば、人物が立っ
ている状態から着席した状態になったものと推定する。
逆に、背たけが140cmから180cmに変化すれ
ば、人物が着席している状態から立上がったものと推定
する。
If the backrest changes from 180 cm to 140 cm, for example, the state estimating circuit 34 estimates that the person is in a sitting state from a standing state.
On the contrary, if the backrest changes from 140 cm to 180 cm, it is estimated that the person is standing up.

【0084】観測部4と追跡部8は前述の図6と同様に
して動作し、追跡部8は観測部4から得られる観測情報
に含まれる重心点位置に基づいて予測位置を推定し、そ
の推定結果に基づいて方向角を推定し、複数の人物のう
ちの特定の人物を追跡する。
The observation unit 4 and the tracking unit 8 operate in the same manner as in FIG. 6 described above, and the tracking unit 8 estimates the predicted position based on the position of the center of gravity point included in the observation information obtained from the observation unit 4, and The direction angle is estimated based on the estimation result, and a specific person among a plurality of persons is tracked.

【0085】観測部4から追跡部8に送られる観測情報
のうち、高さ情報は高さ情報抽出回路30によって抽出
され、背たけ変換回路32で背たけに変換され、状態推
定回路34によって人物が立っている状態であるかある
いは着席している状態であるかが推定される。追跡部8
では推定された状態に応じて追跡する人物を切換える。
すなわち、追跡していた人物が着席した状態であれば、
もはやその人物は移動することがないので、他の人物を
追跡する。
Among the observation information sent from the observing unit 4 to the tracking unit 8, the height information is extracted by the height information extracting circuit 30, converted into the ignorance by the displacing circuit 32, and the state estimating circuit 34 exemplifies the person. It is estimated whether the person is standing or seated. Tracking unit 8
Then, the person to be tracked is switched according to the estimated state.
That is, if the person being tracked is seated,
The person no longer moves, so he tracks other people.

【0086】なお、上述の説明は人物が立っている状態
と着席している状態を推定するようにしたが、これに限
ることなく人物が停止している状態から移動を開始する
状態または移動している状態から停止する状態のような
行動情報を推定するようにしてもよい。その場合には、
人物の動きが一定以上の速度になれば動いている状態と
推定し、速度が0になれば停止していると推定すればよ
い。この場合、前述の式(4)〜(6)は次の式(1
8)〜(20)に置き換えられる。これらの式は時刻t
aに行なわれた前回の観測までの情報から、時刻tbにお
ける人物h1の状態の予測を行なう場合を示している。
In the above description, the state in which the person is standing and the state in which the person is seated are estimated. However, the present invention is not limited to this. It is also possible to estimate action information such as a state of stopping from a state of being. In that case,
It may be estimated that the person is moving when the speed of the person becomes a certain speed or more, and it is estimated that the person is stopped when the speed becomes zero. In this case, the above equations (4) to (6) are expressed by the following equation (1
8) to (20). These expressions are time t
It shows a case where the state of the person h 1 at time t b is predicted from the information up to the previous observation made in a.

【0087】[0087]

【数8】 [Equation 8]

【0088】上記式でQx,ΔtはΔt間の運動の揺ら
ぎを示しており、この大きさは現在の運動の状態により
変化すると考えられる。上述の実施形態では、この値を
歩行幅は大,停止中は中,着席中は小というように変化
させることが考えられる。このように、運動モデルを変
化させることで、推定結果の信頼性を物体の運動状態に
応じて評価することが可能となる。
In the above equation, Q x and Δt represent the fluctuation of the motion between Δt, and it is considered that the magnitude thereof changes depending on the current motion state. In the above-described embodiment, it is possible to change this value such that the walking width is large, the walking width is medium, and the sitting width is small. In this way, by changing the motion model, the reliability of the estimation result can be evaluated according to the motion state of the object.

【0089】図17に示した第2の実施形態では、人物
が立っているかあるいは着席中であるかの状態推定およ
び人物が停止しているかあるいは移動を開始したかの状
態を推定するようにした。しかし、観測される各画像の
特徴と追跡モデルの対応づけにおいて、位置情報に代え
て画像から観測可能な対象物体固有の属性値を用いるこ
ともできる。ここで、固有の属性値としては、前述の対
象物体の背たけや行動情報に限ることなく服の色なども
考えられる。
In the second embodiment shown in FIG. 17, the state estimation of whether the person is standing or seated and the state of whether the person is stopped or has started moving are estimated. . However, in associating the feature of each observed image with the tracking model, the attribute value peculiar to the target object that can be observed from the image can be used instead of the position information. Here, the unique attribute value is not limited to the backrest of the target object or the action information described above, and the color of clothes may be considered.

【0090】図19はそのような実施形態を示すブロッ
ク図である。図19に示した観測部4には図17に示し
たシルエットの高さ検出回路17に代えて、シルエット
の高さ,色検出回路18が設けられ、追跡部8には図1
7の高さ抽出回路30と背たけ変換回路32に代えて、
高さ,色情報抽出回路36と背たけ,色変換回路38が
設けられる。観測部4のシルエットの高さ,色検出回路
18は図17で説明したように人物の高さを検出すると
ともに、図20に示すように領域分割された画像のうち
の胸の部分(図20の斜線で示す部分)の平均色も検出
して特徴点対応づけ回路16に与える。
FIG. 19 is a block diagram showing such an embodiment. The observation unit 4 shown in FIG. 19 is provided with a silhouette height / color detection circuit 18 in place of the silhouette height detection circuit 17 shown in FIG.
7, instead of the height extraction circuit 30 and the backrest conversion circuit 32,
A height / color information extraction circuit 36 and a color conversion circuit 38 are provided. The silhouette height / color detection circuit 18 of the observation unit 4 detects the height of the person as described with reference to FIG. 17, and at the same time, the chest portion (FIG. 20) of the image divided into regions as shown in FIG. The average color of the shaded area) is also detected and given to the feature point correspondence circuit 16.

【0091】一方、追跡部8の高さ,色情報抽出回路3
6は観測情報から高さ情報と色情報とを抽出し、背た
け,色変換回路38は高さ情報と色情報とから背たけや
色を変換し、状態推定回路34が人物の状態を推定す
る。この場合、前回の観測で得られた色情報Stnと今回
の観測で得られた色情報Stn+1は次式で示される。
On the other hand, the height / color information extraction circuit 3 of the tracking unit 8
The reference numeral 6 extracts height information and color information from the observation information, the backrest / color conversion circuit 38 converts backrest and color from the height information and color information, and the state estimation circuit 34 estimates the state of the person. . In this case, the color information S tn obtained in the previous observation and the color information S tn + 1 obtained in the current observation are expressed by the following equation.

【0092】[0092]

【数9】 [Equation 9]

【0093】このように、観測情報として背たけや色情
報というような対象物体固有の属性値を用いることによ
り、対象物体が接近している場合であっても混同してし
まうことがないという利点がある。
As described above, by using the attribute values peculiar to the target object such as the backrest and the color information as the observation information, there is an advantage that the target object is not confused even when the target object is approaching. is there.

【0094】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
The embodiments disclosed this time are to be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description but by the claims, and is intended to include meanings equivalent to the claims and all modifications within the scope.

【0095】[0095]

【発明の効果】この発明に係る移動物体追跡装置によれ
ば、複数の視点で非同期に撮影した画像内の画像特徴に
基づきカルマンフィルタによる物体追跡を行なうことに
より、同期撮影に比べて移動物体を高精度に追従するこ
とが可能となる。
As described above, according to the moving object tracking device of the present invention, the object tracking by the Kalman filter is performed based on the image features in the images asynchronously taken from a plurality of viewpoints. It is possible to follow the accuracy.

【0096】また、視点毎に独立して観測を行うように
構成することにより、システムの実装を簡素化すること
が可能となり、また処理効率を向上させることが可能と
なる。
Further, by making the observation independently for each viewpoint, it becomes possible to simplify the system implementation and improve the processing efficiency.

【0097】さらに、ローカルエリアネットワークLA
Nに接続された計算機それぞれにカメラを接続し、入力
画像から得られた2次元特徴をローカルエリアネットワ
ークLANを通して通信するように構成することによ
り、観測視点の追加・削除を容易に行なうことが可能と
なる。
Furthermore, the local area network LA
By connecting a camera to each of the computers connected to N and configuring the two-dimensional features obtained from the input image to communicate via the local area network LAN, it is possible to easily add or delete observation viewpoints. Becomes

【0098】さらに、移動物体の背たけ情報や行動情報
や色情報などの属性値に基づいて対応する移動物体の状
態を検出し、検出した状態に応じて追跡に用いる運動モ
デルを切換えることにより、より精緻な追跡を行なうこ
とができる。
Further, the state of the corresponding moving object is detected based on the attribute values such as the backrest information, the action information, and the color information of the moving object, and the motion model used for tracking is switched according to the detected state. More precise tracking can be performed.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の実施の形態による移動物体追跡装置
1の全体構成を示すブロック図である。
FIG. 1 is a block diagram showing an overall configuration of a moving object tracking device 1 according to an embodiment of the present invention.

【図2】 本発明の実施の形態において用いた人体モデ
ルについて説明するための図である。
FIG. 2 is a diagram for explaining a human body model used in the embodiment of the present invention.

【図3】 観測部4の構成の概要について説明するため
の図である。
FIG. 3 is a diagram for explaining an outline of a configuration of an observation unit 4.

【図4】 観測部における特徴抽出処理について説明す
るための図である。
FIG. 4 is a diagram for explaining a feature extraction process in an observation unit.

【図5】 特徴点の対応付け処理について説明するため
の図である。
FIG. 5 is a diagram for explaining a feature point association process.

【図6】 図1に示す追跡部8の構成の概要について説
明するための図である。
FIG. 6 is a diagram for explaining an outline of the configuration of a tracking unit 8 shown in FIG.

【図7】 位置推定処理について説明するための図であ
る。
FIG. 7 is a diagram for explaining position estimation processing.

【図8】 方向角推定回路24における処理を説明する
ための図である。
FIG. 8 is a diagram for explaining processing in the direction angle estimation circuit 24.

【図9】 位置追従の精度を確認するためのシミュレー
ション実験について説明するための図である。
FIG. 9 is a diagram for explaining a simulation experiment for confirming the accuracy of position tracking.

【図10】 図9に対する実験結果を説明するための図
である。
FIG. 10 is a diagram for explaining an experimental result for FIG. 9.

【図11】 複数人物の動きを推定する能力を明らかに
するためのシミュレーション実験について説明するため
の図である。
FIG. 11 is a diagram for explaining a simulation experiment for clarifying the ability to estimate the movements of a plurality of persons.

【図12】 図11に対する実験結果を説明するための
図である。
FIG. 12 is a diagram for explaining an experimental result for FIG. 11.

【図13】 図11に対する実験結果を説明するための
図である。
FIG. 13 is a diagram for explaining an experimental result for FIG. 11.

【図14】 図11に対する実験結果を説明するための
図である。
FIG. 14 is a diagram for explaining an experimental result for FIG. 11.

【図15】 図11に対する実験結果を説明するための
図である。
FIG. 15 is a diagram for explaining an experimental result for FIG. 11.

【図16】 図11に対する実験結果を説明するための
図である。
FIG. 16 is a diagram for explaining an experimental result for FIG. 11.

【図17】 この発明の第2の実施形態の観測部と追跡
部の態様を示す図である。
FIG. 17 is a diagram showing aspects of an observation unit and a tracking unit according to the second embodiment of the present invention.

【図18】 人物が立っているときと着席しているとき
の2値化画像を示す図である。
FIG. 18 is a diagram showing a binarized image when a person is standing and when a person is seated.

【図19】 この発明の第3の実施形態の観測部と追跡
部の態様を示す図である。
FIG. 19 is a diagram showing aspects of an observation unit and a tracking unit according to the third embodiment of the present invention.

【図20】 領域分割された画像のうちの胸の部分の平
均色を検出する状態を示す図である。
FIG. 20 is a diagram showing a state in which an average color of a chest portion in an image obtained by region division is detected.

【符号の説明】[Explanation of symbols]

1 移動物体追跡装置、2♯1〜2♯n カメラ、4♯
1〜4♯n 観測部、6 発見部、8 追跡部、10
領域分割回路、12 画素値算出回路、14重心点選択
回路、16 特徴点対応づけ回路、17 シルエットの
高さ検出回路、18 シルエットの高さ,色検出回路、
22 位置推定回路、24 方向角推定回路、30 高
さ情報抽出回路、32 背たけ変換回路、34 状態推
定回路、36 高さ,色情報抽出回路、38 背たけ,
色変換回路。
1 Moving Object Tracking Device, 2 # 1-2 # n Cameras, 4 #
1-4 # n Observation part, 6 Discovery part, 8 Tracking part, 10
Area dividing circuit, 12 pixel value calculating circuit, 14 barycentric point selecting circuit, 16 feature point associating circuit, 17 silhouette height detecting circuit, 18 silhouette height, color detecting circuit,
22 position estimation circuit, 24 direction angle estimation circuit, 30 height information extraction circuit, 32 back conversion circuit, 34 state estimation circuit, 36 height and color information extraction circuit, 38 back support,
Color conversion circuit.

フロントページの続き (56)参考文献 特開 平5−205052(JP,A) 森大樹,内海章,大谷淳,谷内田正 彦,多様な人物情報の獲得が可能な多視 点システムの提案と構築,電子情報通信 学会技術研究報告,日本,電子情報通信 学会,1999年 3月24日,VOL.98 No.684,pp.41−48(Mve98− 103) 内海章,大谷淳,非同期多視点画像に よる人物追跡手法の検討,電子情報通信 学会情報・システムソサイエティ大会講 演論文集,日本,電子情報通信学会, 1998年 9月 7日,pp.274(D− 12−52) (58)調査した分野(Int.Cl.7,DB名) G06T 7/20 H04N 7/18 JICSTファイル(JOIS)Continuation of the front page (56) References JP-A-5-205052 (JP, A) Daiki Mori, Akira Utsumi, Atsushi Otani, Masahiko Taniuchida, Proposal and construction of a multi-viewpoint system capable of acquiring diverse human information , IEICE Technical Report, Japan, The Institute of Electronics, Information and Communication Engineers, March 24, 1999, VOL. 98 No. 684, pp. 41-48 (Mve98-103) Akira Utsumi, Atsushi Otani, A Study on Human Tracking Method Using Asynchronous Multi-view Image, Proceedings of IEICE Information and Systems Society Conference, Japan, The Institute of Electronics, Information and Communication Engineers, 1998 9 7th, pp. 274 (D-12-52) (58) Fields surveyed (Int.Cl. 7 , DB name) G06T 7/20 H04N 7/18 JISST file (JOIS)

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 シーン内を移動する移動物体を追跡する
移動物体追跡装置であって、 前記シーン内を複数の視点から撮影するための複数の撮
影手段と、 前記複数の撮影手段のそれぞれに対応して設けられ、互
いに独立して非同期に動作する複数の観測手段とを備
え、 前記複数の観測手段の各々は、 対応する撮影手段から受ける画像から特徴点を抽出する
特徴点抽出手段と、 前記対応する撮影手段から受ける画像から少なくとも1
つの追跡対象である移動物体に固有の属性値を抽出する
属性値抽出手段と、 前記少なくとも1つの追跡対象である移動物体と前記抽
出した特徴点との対応づけを行ない、対応づけられた特
徴点に関する、前記属性値を含む第1の観測情報と、対
応づけられなかった特徴点に関する第2の観測情報とを
出力する特徴点対応づけ手段とを含み、 前記複数の観測手段のうち前記特徴点を抽出した複数の
観測手段から非同期に供給される前記第1の観測情報を
カルマンフィルタを用いて統合することにより、前記少
なくとも1つの追跡対象である移動物体の状態を、当該
移動物体の追跡モデルに基づいて予測する追跡手段をさ
らに備え、 前記追跡手段は、 前記供給される前記第1の観測情報から前記属性値を抽
出する属性値抽出手段と、 前記抽出された属性値に基づいて前記追跡対象である移
動物体の状態を推定する状態推定手段と、 前記推定された移動物体の状態に応じて、前記移動物体
の追跡モデルを決定する追跡モデル決定手段とを含み、 前記複数の観測手段のうち前記特徴点を抽出した複数の
観測手段から非同期に順次供給される前記第2の観測情
報を入力として、カルマンフィルタの更新処理を時系列
的に行なうことにより予測軌道を算出し、前記算出され
た予測軌道に基づいて、新たに追跡対象となる移動物体
の推定位置を検出して前記追跡手段に初期発見位置とし
て送信する発見手段とをさらに備え、 前記特徴点対応づけ手段は、 前記追跡手段から送信される前記少なくとも1以上の追
跡対象である移動物体の予測状態に基づき、前記抽出し
た特徴点に対応する追跡対象である移動物体を検出す
る、移動物体追跡装置。
1. A moving object tracking device for tracking a moving object moving in a scene, comprising: a plurality of photographing means for photographing the scene from a plurality of viewpoints; and a plurality of photographing means. And a plurality of observing means that operate independently of each other and asynchronously, each of the plurality of observing means extracts a feature point from an image received from a corresponding photographing means, and At least 1 from the images received from the corresponding photographing means
Attribute value extraction means for extracting an attribute value unique to one tracking target moving object, and the at least one tracking target moving object and the extracted feature points are associated with each other The first observation information including the attribute value and the second observation information regarding the feature point that is not associated with the feature point associating unit, the feature point among the plurality of observing units. By integrating the first observation information supplied asynchronously from the plurality of observing means extracted by using a Kalman filter, the state of the moving object as the at least one tracking target is converted into a tracking model of the moving object. Further comprising: a tracking unit that makes a prediction based on the attribute value extraction unit that extracts the attribute value from the supplied first observation information; State estimating means for estimating the state of the moving object that is the tracking target based on the attribute value obtained, and tracking model determining means for determining the tracking model of the moving object according to the estimated state of the moving object. A prediction by performing a Kalman filter update process in chronological order with the second observation information that is asynchronously and sequentially supplied from the plurality of observation means that extracted the feature points among the plurality of observation means. Further comprising a finding means for calculating a trajectory, and based on the calculated predicted trajectory, detecting an estimated position of a moving object to be newly tracked and transmitting it to the tracking means as an initial found position, The associating unit, based on the predicted state of the at least one or more moving objects to be tracked, transmitted from the tracking unit, a tracking pair corresponding to the extracted feature point. Detecting a moving object is, the moving object tracking device.
【請求項2】 前記属性値は、前記移動物体の背たけ情
報、行動情報および色情報の少なくともいずれか1つで
ある、請求項1に記載の移動物体追跡装置。
2. The moving object tracking device according to claim 1, wherein the attribute value is at least one of backrest information, action information, and color information of the moving object.
JP30818799A 1999-03-26 1999-10-29 Moving object tracking device Expired - Fee Related JP3401512B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30818799A JP3401512B2 (en) 1999-03-26 1999-10-29 Moving object tracking device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP8436399 1999-03-26
JP11-84363 1999-03-26
JP30818799A JP3401512B2 (en) 1999-03-26 1999-10-29 Moving object tracking device

Publications (2)

Publication Number Publication Date
JP2000348181A JP2000348181A (en) 2000-12-15
JP3401512B2 true JP3401512B2 (en) 2003-04-28

Family

ID=26425414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30818799A Expired - Fee Related JP3401512B2 (en) 1999-03-26 1999-10-29 Moving object tracking device

Country Status (1)

Country Link
JP (1) JP3401512B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3520050B2 (en) 2001-01-17 2004-04-19 株式会社国際電気通信基礎技術研究所 Moving object tracking device
JP2003279315A (en) * 2002-01-16 2003-10-02 Advanced Telecommunication Research Institute International Automatic camera calibration method
US20060125920A1 (en) * 2004-12-10 2006-06-15 Microsoft Corporation Matching un-synchronized image portions
JP4042750B2 (en) * 2005-02-21 2008-02-06 住友電気工業株式会社 Image processing apparatus, computer program, and image processing method
US7418113B2 (en) * 2005-04-01 2008-08-26 Porikli Fatih M Tracking objects in low frame rate videos
JP4799910B2 (en) * 2005-06-02 2011-10-26 ノルベルト・リンク Apparatus and method for detecting a person in a survey area
JP4725233B2 (en) * 2005-08-02 2011-07-13 日産自動車株式会社 Overhead image display system
JP6157436B2 (en) * 2014-11-07 2017-07-05 セコム株式会社 Alignment apparatus and program
JP7425223B2 (en) * 2020-10-28 2024-01-30 京セラ株式会社 Object tracking device and object tracking method
JP2024063919A (en) 2022-10-27 2024-05-14 富士通株式会社 Location prediction program, information processing device, and location prediction method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
内海章,大谷淳,非同期多視点画像による人物追跡手法の検討,電子情報通信学会情報・システムソサイエティ大会講演論文集,日本,電子情報通信学会,1998年 9月 7日,pp.274(D−12−52)
森大樹,内海章,大谷淳,谷内田正彦,多様な人物情報の獲得が可能な多視点システムの提案と構築,電子情報通信学会技術研究報告,日本,電子情報通信学会,1999年 3月24日,VOL.98 No.684,pp.41−48(Mve98−103)

Also Published As

Publication number Publication date
JP2000348181A (en) 2000-12-15

Similar Documents

Publication Publication Date Title
JP4148281B2 (en) Motion capture device, motion capture method, and motion capture program
Theobalt et al. Combining 2D feature tracking and volume reconstruction for online video-based human motion capture
JP7499345B2 (en) Markerless hand motion capture using multiple pose estimation engines
JP7379065B2 (en) Information processing device, information processing method, and program
JP2009536731A (en) Modeling of humanoid shape by depth map
JP2009536731A5 (en)
CN114627491A (en) Single three-dimensional attitude estimation method based on polar line convergence
JP2007310707A (en) Attitude estimation apparatus and method
JP7498404B2 (en) Apparatus, method and program for estimating three-dimensional posture of subject
JP3401512B2 (en) Moving object tracking device
KR101193223B1 (en) 3d motion tracking method of human&#39;s movement
JP3411889B2 (en) Automatic camera calibration method
JP3520050B2 (en) Moving object tracking device
CN113487674A (en) Human body pose estimation system and method
CN115546829B (en) Pedestrian Spatial Information Perception Method and Device Based on ZED Stereo Camera
Cordea et al. 3D head pose recovery for interactive virtual reality avatars
JP4670010B2 (en) Mobile object distribution estimation device, mobile object distribution estimation method, and mobile object distribution estimation program
Mamania et al. Markerless Motion Capture from Monocular Videos.
JP4027294B2 (en) Moving object detection apparatus, moving object detection method, and moving object detection program
Ababsa Toward a real-time 3D reconstruction system for urban scenes using georeferenced and oriented images
Hahn et al. 3D pose estimation and motion analysis of the articulated human hand-forearm limb in an industrial production environment
Mukasa et al. Complex human motion estimation using visibility
CN115965673A (en) Centralized multi-robot positioning method based on binocular vision
Kim et al. Recursive Method for Absolute Stereo SFM without Stereo Correspondence
Schrotter et al. Markerless Model Based Surface Measurement and Motion Tracking

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030204

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees