[go: up one dir, main page]

JP2001094975A - Moving object tracking method and apparatus - Google Patents

Moving object tracking method and apparatus

Info

Publication number
JP2001094975A
JP2001094975A JP26503699A JP26503699A JP2001094975A JP 2001094975 A JP2001094975 A JP 2001094975A JP 26503699 A JP26503699 A JP 26503699A JP 26503699 A JP26503699 A JP 26503699A JP 2001094975 A JP2001094975 A JP 2001094975A
Authority
JP
Japan
Prior art keywords
camera
moving object
moving
angle
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26503699A
Other languages
Japanese (ja)
Inventor
Yoshiaki Usami
芳明 宇佐美
Norito Watanabe
範人 渡辺
Masanori Miyoshi
雅則 三好
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP26503699A priority Critical patent/JP2001094975A/en
Publication of JP2001094975A publication Critical patent/JP2001094975A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

(57)【要約】 【課題】物体像の重なりにより追跡が困難となるオクル
ージョン現象を回避しつつ、広域を移動する物体を追跡
する。 【解決手段】C1〜C8のカメラで、計測領域(監視領域)
3の担当領域a1〜a8を分担し、カメラ毎に追跡する移動
物体mの候補を定め(まず、担当領域内から抽出される
物体)る。担当する候補が複数の場合、カメラ位置と移
動物体を結ぶ直線同士がなす角度を算出し、角度の評価
(しきい値との大小)により候補を変更する。例えば、
カメラC5とその領域a5の候補物体m6及びm7とを結ぶ直線
のなす角度θがしきい値より小さいとオクルージョン発
生の可能性ありと判断して、無担当のカメラC7にm6及び
m7の計測を代行させる。または、距離的に近いカメラC4
を選択し、C4とm6及びm7とを結ぶ直線のなす角度θがし
きい値より大きければ、その計測を代行させる。
(57) [Problem] To track an object moving in a wide area while avoiding an occlusion phenomenon in which tracking becomes difficult due to overlapping of object images. [MEANS FOR SOLVING PROBLEMS] A measurement area (monitoring area) using cameras C1 to C8.
The three assigned areas a1 to a8 are assigned, and a candidate for a moving object m to be tracked for each camera is determined (first, an object extracted from the assigned area). When there are a plurality of candidates to be in charge, an angle between straight lines connecting the camera position and the moving object is calculated, and the candidates are changed based on the angle evaluation (the magnitude of the threshold). For example,
If the angle θ formed by the straight line connecting the camera C5 and the candidate objects m6 and m7 in the area a5 is smaller than the threshold value, it is determined that occlusion may occur, and the unassigned camera C7 outputs m6 and m6.
Substitute m7 measurement. Or camera C4 which is close in distance
Is selected, and if the angle θ formed by the straight line connecting C4 and m6 and m7 is larger than the threshold value, the measurement is substituted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は人物や車両などの移
動物体の画像を抽出して軌跡する装置に係わり、特に複
数の物体がランダムに移動する広域のエリアで個々の物
体を継続して追跡する移動物体追跡装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for extracting and tracing an image of a moving object such as a person or a vehicle, and more particularly to continuously tracking individual objects in a wide area where a plurality of objects move at random. Moving object tracking device.

【0002】[0002]

【従来の技術】テレビカメラなどの画像を利用して、多
数の人間が行き交うイベント会場等における不審者の監
視を行うセキュリティ管理や、スポーツ競技で全体の動
きと共に特定ないし個々の選手やボールなどを追跡して
観戦や分析等を行う場合、最大の問題点は追跡中の人や
物体が他と交錯して遮蔽され、いわゆるオクルージョン
が発生することである。このオクルージョンが起こる
と、見かけ上で物体像の分岐や併合が生じるので、物体
像を追跡していくことが非常に困難となる。
2. Description of the Related Art Security management for monitoring suspicious persons in event venues where a large number of people come and go using images from a television camera or the like, or identifying specific or individual players or balls along with the entire movement in a sports competition. The greatest problem in tracking, watching, analyzing, and the like is that the person or object being tracked is intersected and shielded, causing so-called occlusion. When this occlusion occurs, the object image apparently branches or merges, so that it is very difficult to track the object image.

【0003】最近、オクルージョンの解決のために、複
数のカメラを用いた分散協調処理が提案されている。た
とえば、文献「複数の首振りカメラによる移動物体の協
同注視(日本学術振興会未来開拓学術研究推進事業‐知
能情報・高度情報処理研究分野,1997年度研究成果報告
書,1998年3月)」においては、複数の物体の移動を首
振り可能な複数のカメラで追跡する方法が述べられてい
る。この方法では、個々の物体に対してその追跡を担当
するカメラをマスターと呼び、そのカメラにマスター権
限と呼ぶ権限を持たせる。もしも、オクルージョンが発
生して追跡が不可能になった場合には、追跡が可能な他
の位置にあるカメラに、このマスター権限を委譲し、権
限を委譲されたカメラが代行して追跡を継続する。
Recently, a distributed cooperative processing using a plurality of cameras has been proposed for solving the occlusion. For example, in the document "Joint gaze of moving objects by multiple swing cameras (JSPS Future Research Scientific Research Promotion Project-Intelligent Information and Advanced Information Processing Research Field, 1997 1997 Research Results Report, March 1998)" Describes a method of tracking the movement of a plurality of objects with a plurality of cameras capable of swinging. In this method, a camera that is in charge of tracking an individual object is called a master, and the camera has authority called master authority. If tracking becomes impossible due to occlusion, the master authority is delegated to cameras at other positions that can be tracked, and the delegated camera takes over and continues tracking. I do.

【0004】また、特開平9−331520号には、カメラ毎
に予め追跡範囲を決定しておき範囲を超えて移動した場
合は他のカメラが引き継ぐ方法、特開平10−276351号に
は、あるカメラで追跡している物体が画像上の重なりを
生じて追跡困難な場合に別の方向から撮影している補助
カメラで追跡を続ける方法が開示されている。
Japanese Patent Application Laid-Open No. 9-331520 discloses a method in which a tracking range is determined in advance for each camera and another camera takes over when the camera moves beyond the range. A method is disclosed in which, when an object being tracked by a camera causes an overlap on an image and tracking is difficult, the tracking is continued by an auxiliary camera shooting from another direction.

【0005】[0005]

【発明が解決しようとする課題】上記した従来技術で
は、カメラの代行手続きが自動化されているが、この方
法をそのまま広域での処理に適用することは難しい。広
域の場合には、一つのカメラで対象領域全体を見渡すこ
とは困難になるため、領域全体を幾つかの小領域に分割
し、小領域毎に担当するカメラを割り付けねばならな
い。しかし、特開平9−331520号記載のようにカメラ毎
に担当領域を固定したのでは、物体とカメラの位置関係
により生じるオクルージョンを回避できなくなる。この
ように領域を空間的に分割した上で、さらにオクルージ
ョン回避のためにカメラの代行処理を実行することが課
題となっている。
In the above-mentioned prior art, the proxy procedure of the camera is automated, but it is difficult to apply this method as it is to processing in a wide area. In the case of a wide area, it is difficult to view the entire target area with one camera. Therefore, the entire area must be divided into several small areas, and a camera in charge must be assigned to each small area. However, if the assigned area is fixed for each camera as described in JP-A-9-331520, occlusion caused by the positional relationship between the object and the camera cannot be avoided. It is an issue to execute the proxy processing of the camera for the purpose of avoiding occlusion after spatially dividing the area in this way.

【0006】また、従来技術では、オクルージョン発生
時に、代行するカメラを選択するための基準が明確にな
っておらず、物体が観測可能でさえあればマスター権限
の委譲を受けることが可能と思われる。しかしながら、
カメラと物体の位置関係により、例えば撮影距離が遠い
ために計算誤差が生じやすいなど、不適切なカメラが選
択されてしまう可能性もある。したがって、代行カメラ
の選択時に、カメラの評価基準を定め、常に最適なカメ
ラが選択されるようにすることが課題となる。
In the prior art, when occlusion occurs, the standard for selecting a substitute camera is not clear, and it is considered that master authority can be delegated as long as an object can be observed. . However,
Depending on the positional relationship between the camera and the object, an inappropriate camera may be selected, for example, a calculation error is likely to occur due to a long shooting distance. Therefore, when selecting a substitute camera, it is necessary to determine the evaluation criteria of the camera so that the optimal camera is always selected.

【0007】本発明の目的は、上記した従来技術の課題
を解決し、複数のカメラにより広域を移動する物体を追
跡して、あるカメラで追跡中にオクルージョンが発生し
た際には、処理を代行できる最適な他のカメラが選択さ
れるような、画像による移動物体追跡装置を提供するこ
とにある。
SUMMARY OF THE INVENTION An object of the present invention is to solve the above-mentioned problems of the prior art, and to track an object moving in a wide area by a plurality of cameras, and to perform processing when occlusion occurs during tracking by a certain camera. It is an object of the present invention to provide an image-based moving object tracking device in which another optimal camera is selected.

【0008】[0008]

【課題を解決するための手段】上記目的を達成する本発
明は、計測エリアを移動する複数の物体を複数のカメラ
で異なる方向から撮影し、撮影した画像から個々の物体
の移動軌跡を求める移動物体追跡方法において、各カメ
ラと各移動物体を結ぶ直線同士がなす角度を求め、この
角度から当該物体の画像が重なることのないカメラと担
当物体の対応関係を求め、この対応関係に基づいて各カ
メラが計測する物体の担当を時々刻々に最適化すること
を特徴とする。
SUMMARY OF THE INVENTION In order to achieve the above object, the present invention is directed to a moving method for photographing a plurality of objects moving in a measurement area from a plurality of directions with a plurality of cameras and obtaining a moving locus of each object from the photographed images. In the object tracking method, an angle formed by straight lines connecting each camera and each moving object is obtained, and from this angle, a correspondence relationship between the camera and the object in which the image of the object does not overlap is obtained, and based on this correspondence relationship, It is characterized in that the charge of the object measured by the camera is optimized every moment.

【0009】あるいは、計測エリア内を分割して各カメ
ラの担当領域を設定し、カメラ毎に自身の担当領域に存
在する移動物体を担当する候補物体とし、この候補物体
が複数となる場合にカメラと各候補物体を結ぶ直線同士
がなす角度を求め、この角度が所定値より小さい場合は
当該候補物体の担当を他のカメラへ代行させることを特
徴とする。前記担当領域は、各カメラが自身に近い領域
となるようにボロノイ分割により行う。
Alternatively, the measurement area is divided to set an area in charge of each camera, and a moving object existing in its own area is set as a candidate object to be assigned to each camera. And an angle formed by straight lines connecting the candidate objects and each candidate object. If this angle is smaller than a predetermined value, another camera is substituted for the candidate object. The assigned area is determined by Voronoi division so that each camera is close to itself.

【0010】前記他のカメラへの代行は、当該候補物体
に近いカメラの順に選択し、選択したカメラと各候補物
体を結ぶ直線同士がなす角度が最大となる位置のカメ
ラ、または前記所定値より大きくなる位置のカメラによ
って行うことを特徴とする。
The proxy to the other camera is selected in the order of the camera closest to the candidate object, and the camera at the position where the angle formed by the straight line connecting the selected camera and each candidate object is the largest or the predetermined value It is characterized in that it is performed by a camera at a position where it becomes larger.

【0011】また、前記他のカメラへの代行は、自身の
担当領域に移動物体の存在していない無担当のカメラに
よって行うことを特徴とする。この場合、代行するカメ
ラのズーム量、パン量、チルト量の少なくとも一つを変
化させて、当該候補物体を大きく撮影する。さらに、前
記代行するカメラの担当領域を一時的に他のカメラの担
当領域に変更する。
[0011] Further, the substitute for the other camera is performed by an unassigned camera in which a moving object does not exist in its own area. In this case, at least one of the zoom amount, the pan amount, and the tilt amount of the substitute camera is changed, and the candidate object is photographed in a large size. Further, the assigned area of the surrogate camera is temporarily changed to the assigned area of another camera.

【0012】本発明の方法が適用可能な移動物体追跡装
置は、移動する複数の物体を異なる方向から撮影する複
数のカメラと、撮影した画像から物体が移動する軌跡を
算出する移動物体追跡部と、追跡結果を表示するディス
プレイを備え、前記移動物体追跡部は、各カメラと各移
動物体を結ぶ直線同士がなす角度を求め、該角度の評価
により当該物体の画像が重畳する可能性を判定する角度
検出手段を有することを特徴とする。さらに、前記角度
検出手段が可能性有りと判定した場合に、当該物体の画
像が重畳しない角度関係となるカメラを選択して当該物
体の担当を代行させる担当カメラ検出手段を有すること
を特徴とする。
A moving object tracking apparatus to which the method of the present invention can be applied includes a plurality of cameras for photographing a plurality of moving objects from different directions, and a moving object tracking unit for calculating a trajectory of the moving object from the photographed images. And a display for displaying a tracking result. The moving object tracking unit obtains an angle between straight lines connecting each camera and each moving object, and determines a possibility that an image of the object is superimposed by evaluating the angle. It has an angle detecting means. Further, when the angle detecting means determines that there is a possibility, the image processing apparatus has a responsible camera detecting means for selecting a camera having an angular relationship in which an image of the object does not overlap and acting in charge of the object. .

【0013】本発明によれば、複数の移動物体と各カメ
ラを結ぶ直線同士がなす角度から、オクルージョン発生
の可能性を事前に検知し、オクルージョンを回避するよ
うに対象物体と計測するカメラの担当関係を変更できる
ので、広範な測定エリアでの移動物体の追跡処理を精度
よく継続できる。
According to the present invention, a camera in charge of detecting a possibility of occurrence of occlusion in advance from an angle formed by a straight line connecting a plurality of moving objects and each camera and measuring the target object so as to avoid occlusion. Since the relationship can be changed, tracking processing of a moving object in a wide measurement area can be continued with high accuracy.

【0014】[0014]

【発明の実施の形態】以下、本発明の一実施形態につい
て、図面により詳細に説明する。図2に本発明の一適用
例であるセキュリティシステムの概略を示す。本システ
ムは、複数のカメラ1を用いてイベント会場などの計測
エリア3を撮影し、移動物体2(ここでは人物)の移動軌
跡21を計算機4で抽出し、ディスプレイ5に表示モデ
ル20とともに表示する。カメラ1には動画像処理を行
うのでビデオカメラを用い、その映像信号を例えばリア
ルタイムに計算機4に取り込んで、後述する追跡処理を
ビデオフレーム間の時間帯に実行して移動物体2を追跡
する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below in detail with reference to the drawings. FIG. 2 schematically shows a security system which is an application example of the present invention. This system uses a plurality of cameras 1 to photograph a measurement area 3 such as an event venue, extracts a movement trajectory 21 of a moving object 2 (here, a person) by a computer 4, and displays it along with a display model 20 on a display 5. . A video camera is used as the camera 1 for performing moving image processing, and the video signal is taken into the computer 4 in real time, for example, and a tracking process described later is executed in a time zone between video frames to track the moving object 2.

【0015】図3は、本発明の移動物体追跡装置のカメ
ラ配置の一実施例を示す説明図である。例えば、8台の
カメラ1(C1〜C8)を用いて、矢印の方向に移動し
ている7つの移動物体2を追跡している。図中の矩形領
域3を計測範囲とし、この中にある移動物体2を追跡の
対象とする。ここで、計測範囲内は平面であるものと
し、物体2はこの平面上だけを移動する。また、カメラ
1の位置は固定であり、カメラ位置、カメラ方向、カメ
ラ画角(2本の細い点線で示すカメラ視野の角度)、お
よび平面の方向はすべて既知であるとする。
FIG. 3 is an explanatory diagram showing one embodiment of the camera arrangement of the moving object tracking device of the present invention. For example, eight cameras 1 (C1 to C8) are used to track seven moving objects 2 moving in the directions of the arrows. The rectangular area 3 in the figure is a measurement range, and the moving object 2 in this area is a tracking target. Here, the inside of the measurement range is a plane, and the object 2 moves only on this plane. It is also assumed that the position of the camera 1 is fixed, and the camera position, the camera direction, the camera angle of view (the angle of the camera field of view indicated by two thin dotted lines), and the plane direction are all known.

【0016】ここで、カメラ方向が計測範囲の平面と平
行でないものとすると、カメラ位置を始点とする直線
で、カメラの画角内にあるものは、平面とすべて一点で
交わることになり、その交点座標を求めることができ
る。すなわち、カメラ画角内に写っている物体に関して
は、画像上の座標値から移動している平面上での座標値
が算出できる。本実施例ではこの関係を利用して、画像
から移動物体の座標を計算するものとする。
Here, assuming that the camera direction is not parallel to the plane of the measurement range, straight lines starting from the camera position and within the angle of view of the camera all intersect the plane at one point. Intersection coordinates can be determined. That is, with respect to the object appearing in the camera view angle, the coordinate value on the moving plane can be calculated from the coordinate value on the image. In this embodiment, the coordinates of the moving object are calculated from the image using this relationship.

【0017】たとえば、平面の座標系をX−Yとし、ス
クリーン5の座標をU−Vとすると、スクリーン5に投
影された点(u1,v1)は、平面上の点(x1,y1)に存在する
ことがわかる。なお、本来のスクリーンはカメラの撮像
面であり、レンズの後方に位置しているが、ここでは説
明を簡単にすためにレンズの前方にあるものとして図示
している。
For example, if the coordinate system of the plane is XY, and the coordinates of the screen 5 are UV, the point (u1, v1) projected on the screen 5 becomes the point (x1, y1) on the plane. You can see it exists. Although the original screen is the imaging surface of the camera and is located behind the lens, it is illustrated here as being located in front of the lens for the sake of simplicity.

【0018】図4は、カメラ担当領域の決定方法の一実
施例を示す説明図である。c1〜c8が8台のカメラ1
の各位置、m1〜m7は各移動物体、a1〜a8は決定
された各カメラの担当領域である。例えば、カメラ位置
c1のカメラ1は、担当領域a1の範囲内にある移動物
体m1の追跡を担当する。画像で計測する場合、誤差の
関係から、カメラに最も近い領域を担当することが適当
であるので、この考え方により担当領域を決定する。
FIG. 4 is an explanatory diagram showing an embodiment of a method for determining a camera assigned area. 8 cameras c1 to c8
, M1 to m7 denote moving objects, and a1 to a8 denote areas determined by the cameras. For example, the camera 1 at the camera position c1 is responsible for tracking the moving object m1 within the area of the assigned area a1. When measuring with an image, it is appropriate to take charge of the area closest to the camera from the relationship of errors, so the area in charge is determined based on this concept.

【0019】各カメラに最も近い領域を決定するため
に、例えばボロノイ分割による手法を用いる。まず、計
測範囲だけでなく、カメラ位置も包含するような全範囲
を考え、最も近いカメラ位置間での垂直二等分線を計算
する。すると、これらの垂直二等分線の集合がボロノイ
分割線となる。例えば、c6とc7の垂直二等分線は、
a6とa7の分割線を定めることになる。このボロノイ
分割によれば、いかなるカメラ配置であっても領域の分
割が可能である。当然ながら、各カメラ1は自身の担当
領域については、その全域を撮影できるように、カメラ
の向きや画角などを設定される。そして、スクリーン上
の位置と平面上の座標は1対1に対応しているので、担
当領域がスクリーン上に投影される位置も計算できる。
したがって、スクリーン上の座標で担当領域内の移動物
体のみを抽出し、その平面上での位置座標を計算する。
In order to determine a region closest to each camera, for example, a technique based on Voronoi division is used. First, not only the measurement range but also the entire range including the camera position is considered, and a vertical bisector between the closest camera positions is calculated. Then, a set of these perpendicular bisectors becomes a Voronoi dividing line. For example, the vertical bisector of c6 and c7 is
A dividing line between a6 and a7 is determined. According to this Voronoi division, it is possible to divide an area with any camera arrangement. As a matter of course, the camera 1 sets its camera direction and angle of view so as to capture the entire area of its own area. Since the position on the screen and the coordinates on the plane correspond one-to-one, the position where the assigned area is projected on the screen can also be calculated.
Therefore, only the moving object in the assigned area is extracted by the coordinates on the screen, and the position coordinates on the plane are calculated.

【0020】図1は、本発明のオクルージョンの判定方
法の一実施例を示す説明図である。同図で、例えばカメ
ラ位置c1と移動物体m1を結ぶ直線は、担当領域a1
において、c1のカメラがm1の位置計測を担当してい
ることを示している。a1からa3のように、担当領域
内に一つの移動物体しかない場合には、その領域で物体
像同士が重なることはないため、オクルージョンは発生
しない。しかし担当領域a4やa5のように、複数の移
動物体が存在する場合には、オクルージョンの有無を判
定することが必要となる。
FIG. 1 is an explanatory diagram showing an embodiment of a method for determining occlusion according to the present invention. In the figure, for example, a straight line connecting the camera position c1 and the moving object m1 is the assigned area a1.
Indicates that the camera c1 is in charge of measuring the position of m1. When there is only one moving object in the assigned area as in a1 to a3, no occlusion occurs because the object images do not overlap in that area. However, when there are a plurality of moving objects such as the assigned areas a4 and a5, it is necessary to determine the presence or absence of occlusion.

【0021】例えば担当領域a4の場合では、直線c4
−m4と直線c4−m5のなす角度θは十分に大きく、
オクルージョンは発生していないので、c4のカメラに
よる計測が可能である。一方、a5の場合では、直線c
5−m6と直線c5−m7のなす角度θは小さすぎ、オ
クルージョンが発生する直前にあるので、もはやc5の
カメラ位置では十分な計測ができない。この場合、オク
ルージョンが発生していない他のカメラに計測を代行し
てもらう。
For example, in the case of the assigned area a4, a straight line c4
−m4 and the straight line c4-m5 make an angle θ that is sufficiently large,
Since occlusion has not occurred, measurement by c4 camera is possible. On the other hand, in the case of a5, the straight line c
Since the angle θ formed between 5-m6 and the straight line c5-m7 is too small and exists immediately before occlusion occurs, sufficient measurement cannot be performed at the camera position c5. In this case, another camera in which occlusion has not occurred is substituted for measurement.

【0022】このように、本実施例では担当領域内のカ
メラ位置と計測を担当する各移動物体とを結ぶ複数の直
線間のなす角度θを算出し、予め設定してあるしきい値
(θth)との大小を比較して、オクルージョンの有無を
判断している。なお、これ以前の画像のフレームで角度
θを記憶しておき、角度θの増加傾向あるいは減少傾向
といった変化量により、オクルージョンの有無を判断す
ることも可能である。
As described above, in this embodiment, the angle θ between a plurality of straight lines connecting the camera position in the assigned area and each moving object in charge of measurement is calculated, and a predetermined threshold value (θth ) To determine the presence or absence of occlusion. Note that it is also possible to store the angle θ in a frame of an image before this, and determine the presence or absence of occlusion based on a change amount such as an increasing tendency or a decreasing tendency of the angle θ.

【0023】図5は、計測を代行させるカメラの選択方
法の一実施例を示す説明図である。本実施例では、代行
させる領域に近い順にカメラを選択し、代行カメラでの
オクルージョンの有無を判断する。上述したオクルージ
ョンの場合(図1)、まず、領域a5に対して次に近い
カメラc4が選択される。
FIG. 5 is an explanatory diagram showing an embodiment of a method of selecting a camera to perform measurement. In the present embodiment, the cameras are selected in the order of proximity to the area to be substituted, and the presence or absence of occlusion by the substitute camera is determined. In the case of the occlusion described above (FIG. 1), first, the camera c4 that is next to the area a5 is selected.

【0024】すなわち、カメラc5による計測が困難と
なった物体m6とm7を、c5の次に近いカメラc4で
代行可能か判定する。このとき、カメラc4はすでにm
4とm5の計測を担当しているので、c5に代わってc
4が代行可能であるか否かは、カメラc4と物体m4、
m5、m6およびm7を接続する直線間のなす角度θ1
〜θ3を算出し、それぞれの角度がしきい値θthより大
きければ、代行可能であると判断し、以降のm6とm7
の計測をカメラc4が代行して継続する。このとき、領
域a5にオクルージョンを生じていない物体が存在して
いれば、その計測は引続きカメラc5が担当する。ま
た、角度θ1〜θ3にしきい値θth以下となるものがあ
れば、c4の次に近いカメラc6での代行可能性が調べ
られる。
That is, it is determined whether or not the objects m6 and m7 which have become difficult to measure by the camera c5 can be substituted by the camera c4 next to c5. At this time, the camera c4 is already m
I'm in charge of measuring 4 and m5, so c instead of c5
Whether or not 4 can be substituted is determined by the camera c4 and the object m4,
Angle θ1 between straight lines connecting m5, m6 and m7
Is calculated, and if each angle is larger than the threshold value θth, it is determined that the proxy can be performed, and the subsequent m6 and m7
Is continued by the camera c4 on behalf of the camera c4. At this time, if an object that does not cause occlusion exists in the area a5, the camera c5 continues to take charge of the measurement. If any of the angles θ1 to θ3 is equal to or smaller than the threshold value θth, the possibility of substitution by the camera c6 which is next to c4 is checked.

【0025】なお、物体の座標値が三次元で与えられ、
カメラ視点からの奥行きを示すz値が計算できる場合
は、オクルージョンを発生した物体の一方、すなわち陰
に隠れて見えなくなる物体のみを、他のカメラで代行さ
せるようにしてもよい。
Note that the coordinate values of the object are given in three dimensions,
If the z value indicating the depth from the camera viewpoint can be calculated, one of the objects that have caused occlusion, that is, only the object that is hidden behind the shadow and cannot be seen, may be substituted by another camera.

【0026】図6は、計測を代行させるカメラの選択方
法の他の例を示す説明図で、移動物体2の計測を担当し
ていないカメラが優先的に計測を代行する。移動物体2
は常に計測領域3の全域に一様に分布するとは限らず、
存在する位置が局在化する場合がある。図示の例では、
担当領域a6、a7およびa8には移動物体が一つも存
在していない。このときカメラc6、c7およびc8は
担当する物体のない、無担当の状態となっている。本実
施例では、オクルージョンを回避するために、これら無
担当のカメラを活用する。例えば、直線c7−m6と直
線c7−m7のなす角度θを計算して、しきい値θth
以上であれば、計測が可能なものとして、処理を代行す
る。
FIG. 6 is an explanatory diagram showing another example of a method of selecting a camera to perform measurement for. A camera not in charge of measurement of the moving object 2 performs measurement on a priority basis. Moving object 2
Is not always uniformly distributed over the entire measurement area 3,
The existing position may be localized. In the example shown,
No moving object exists in the assigned areas a6, a7, and a8. At this time, the cameras c6, c7, and c8 are in a non-assigned state without an assigned object. In the present embodiment, these unassigned cameras are used to avoid occlusion. For example, the angle θ between the straight line c7-m6 and the straight line c7-m7 is calculated, and the threshold θth
If so, the processing is performed on behalf of those that can be measured.

【0027】また、無担当のカメラで代行する場合は、
他に追跡している物体が存在していないので、図示のよ
うにカメラc7のズーム量を変化させて、追跡対象物体
m6やm7だけを大きく撮影することができる。さら
に、カメラのパン量やチルト量を変化させてカメラの方
向をかえ、対象物体を最も見やすい角度から大きく撮影
することもできる。これにより、移動物体の各部分の動
作などについて詳細な情報を取得することも可能とな
る。ただし、この場合のカメラc7は自身の担当領域a
7の撮影をしていないので、この間に他領域からの移動
物体の流入などに対処するために、領域a7は他のカメ
ラの担当領域に含まれるように変更しておく。図6で
は、代行前にカメラc7の担当領域a7であった部分は
(図1)、ボロノイの分割線を削除して、カメラc6の
担当領域a6に変更している。
In the case where an unassigned camera is used instead,
Since there is no other object being tracked, only the tracking target objects m6 and m7 can be photographed large by changing the zoom amount of the camera c7 as shown. Furthermore, the direction of the camera can be changed by changing the pan amount and the tilt amount of the camera, and the target object can be photographed in a large angle from the most easily viewable angle. Thereby, it is also possible to obtain detailed information on the operation of each part of the moving object. However, the camera c7 in this case has its own area a
Since the image of No. 7 is not taken, the area a7 is changed so as to be included in the assigned area of another camera in order to cope with the inflow of a moving object from another area during this time. In FIG. 6, the portion that was the assigned area a7 of the camera c7 before the substitution (FIG. 1) is changed to the assigned area a6 of the camera c6 by deleting the Voronoi dividing line.

【0028】図7は、本発明の移動体追跡方法の一実施
例によるアルゴリズムを示すフローチャートである。ス
テップs101では、撮影台数や位置座標などのカメラ条件
を入力する。これらの値を定義することで、カメラ1や
物体2が移動する平面などの幾何的関係が決定される。
ステップs102では、ボロノイ分割により各カメラに担当
領域を割り当てる。図4に示したように、隣接するカメ
ラ位置を結ぶ線の中点からの垂直二等分線を計算し、計
算領域3に延びた各二等分線とそれらの交点から、ボロ
ノイ分割線とする。
FIG. 7 is a flowchart showing an algorithm according to an embodiment of the moving object tracking method of the present invention. In step s101, camera conditions such as the number of shots and position coordinates are input. By defining these values, a geometric relationship such as a plane on which the camera 1 and the object 2 move is determined.
In step s102, a responsible area is assigned to each camera by Voronoi division. As shown in FIG. 4, a vertical bisector from the midpoint of the line connecting the adjacent camera positions is calculated, and from each of the bisectors extending to the calculation area 3 and their intersection, a Voronoi dividing line is calculated. I do.

【0029】ステップs103は、以下の処理をビデオの1
フレーム単位に繰り返すことを示している。ステップs1
04は以下の処理を各カメラ毎に繰り返すことを示してい
る。ステップs105では、担当する物体の候補を選択す
る。ここでは、担当領域に含まれるすべての移動物体を
抽出して、これらを担当候補とする。あとで他のカメラ
が担当を代行する場合があるので、この時点ではあくま
でも候補である。カメラの撮影画像から移動物体を抽出
するためには、一般に知られているように、背景画像と
の差分を計算すればよい。
In step s103, the following processing is performed for video 1
This indicates that the operation is repeated for each frame. Step s1
04 indicates that the following processing is repeated for each camera. In step s105, a candidate for the object to be assigned is selected. Here, all the moving objects included in the assigned area are extracted, and these are set as assigned candidates. At this point, it is a candidate only, since another camera may be in charge of the charge later. In order to extract a moving object from an image captured by a camera, a difference from a background image may be calculated, as is generally known.

【0030】ステップs106では、担当領域内の物体候補
が複数であるか否かを判断する。物体候補の数は、ステ
ップs105で抽出した移動物体の画像を周知のようにラベ
ル付けして分類し、その個数をカウントして求める。も
しその個数が複数でなければオクルージョンは発生しな
いので、ステップs111に進む。
In step s106, it is determined whether there are a plurality of object candidates in the assigned area. The number of object candidates is obtained by labeling and classifying the image of the moving object extracted in step s105 as is well known, and counting the number. If the number is not plural, occlusion does not occur, and the process proceeds to step s111.

【0031】ステップs107では、図5のように複数の物
体候補とカメラ位置とを結ぶ各直線同士のなす角度が、
しきい値θthよりも小さいか否かを判断する。もし小さ
くなければオクルージョンは発生しないので、ステップ
s111に進む。
In step s107, as shown in FIG. 5, the angle formed by each straight line connecting the plurality of object candidates and the camera position is
It is determined whether it is smaller than the threshold value θth. If it is not small, occlusion does not occur, so step
Proceed to s111.

【0032】ステップs108では、図6のように計測を担
当する物体のない、無担当のカメラが存在するか否かを
判断する。もし存在しなければ、図5のように次に当該
領域または当該物体に近い他担当のカメラが代行するも
のとし、ステップs111に進む。ステップs109は無担当の
カメラが代行する場合で、このときには移動物体をクロ
ーズアップで捉えて精度を向上させるために、ズーム、
パンおよびチルト量などを最適に制御する。
In step s108, it is determined whether or not there is an unassigned camera having no object in charge of measurement as shown in FIG. If not, it is assumed that another camera in charge close to the area or the object next takes place as shown in FIG. 5, and the process proceeds to step s111. Step s109 is a case in which an unassigned camera substitutes.In this case, in order to capture the moving object in close-up and improve the accuracy, zoom
Optimum control of pan and tilt amount.

【0033】ステップs110では、クローズアップ時に自
身の担当領域の全域は撮影できなくなるので、当該領域
は隣接領域を担当する他のカメラの担当領に変更する。
ステップs111では担当する物体を決定する。この時点で
はじめて、各カメラが計測を担当する移動物体が確定す
ることになる。ステップs112ではカメラでビデオの1フ
レーム分を撮影するまで、s105からの処理を繰り返す。
In step s110, the entire area of its own area cannot be photographed at the time of close-up, so the area is changed to another area in charge of the adjacent camera.
In step s111, the responsible object is determined. Only at this point does the moving object for which each camera is in charge of measurement be determined. In step s112, the processing from s105 is repeated until one frame of the video is shot by the camera.

【0034】ステップs113では、図3に示したようにス
クリーン座標から物体の位置を算出し、物体の位置情報
を更新する。ステップs114では、更新された物体の位置
情報をもとに、図2のように計算機に接続されたディス
プレイ上の表示モデルの位置を更新する。その後、s103
に戻って、次フレームに対し同様の処理を繰り返す。
In step s113, the position of the object is calculated from the screen coordinates as shown in FIG. 3, and the position information of the object is updated. In step s114, the position of the display model on the display connected to the computer is updated as shown in FIG. 2 based on the updated position information of the object. Then s103
And the same processing is repeated for the next frame.

【0035】上記では、オクルージョンが発生している
物体の代行担当は、無担当のカメラを優先しているが、
距離的に近いカメラを優先するようにしてもよい。な
お、距離的に近いカメラを選択する場合は、オクルージ
ョンが発生している物体を含む複数の物体候補とカメラ
位置とを結ぶ各直線同士のなす角度が、しきい値θthよ
りも小さいか否かを判断することが必要になる。
In the above description, the agent in charge of the object in which occlusion has occurred gives priority to the camera in charge of the object.
A camera closer in distance may be given priority. Note that when selecting a camera that is close in distance, it is determined whether or not the angle formed by each straight line connecting the plurality of object candidates including the object in which occlusion has occurred and the camera position is smaller than the threshold value θth. It is necessary to judge.

【0036】図8は本発明の移動物体追跡装置の一実施
例を示すシステム構成図である。移動物体追跡部200は
パソコンなどのバス上に接続され、CPU、メモリ、ディ
スク、マウス、キーボード、およびディスプレイ等との
データの入出力を図りながら、移動物体を追跡する処理
を実行する。移動物体追跡部200は画像処理装置などを
含み、たとえばLSIで構成される。
FIG. 8 is a system configuration diagram showing one embodiment of the moving object tracking device of the present invention. The moving object tracking unit 200 is connected to a bus such as a personal computer, and executes a process of tracking a moving object while inputting and outputting data to and from a CPU, a memory, a disk, a mouse, a keyboard, a display, and the like. The moving object tracking unit 200 includes an image processing device and the like, and is configured by, for example, an LSI.

【0037】ここで、カメラ制御部201は映像信号の入
力、カメラのズーム・パン・チルト量などを制御する。物
体像抽出部202は背景画像との差分演算により移動物体
像を検出する。物体位置算出部203はスクリーン座標か
ら物体位置を算出する。物体数検出部204は担当領域内
の移動物体像の数を、ラベル数をカウントして検出す
る。角度検出部205はカメラ位置と移動物体を結ぶ直線
同士のなす角度を検出する。担当カメラ検出部206は移
動物体が存在しない領域を担当するカメラを検出する。
あるいは、距離的に近く、代行によってオクルージョン
が発生しないカメラを検出する。画像メモリ207はカメ
ラからの映像信号を、差分演算などの画像処理を施すた
めに画像データとして記憶する。
Here, the camera control unit 201 controls the input of a video signal, the amount of zoom, pan, and tilt of the camera. The object image extraction unit 202 detects a moving object image by calculating a difference from the background image. The object position calculator 203 calculates the object position from the screen coordinates. The object number detection unit 204 detects the number of moving object images in the assigned area by counting the number of labels. The angle detection unit 205 detects an angle between straight lines connecting the camera position and the moving object. The assigned camera detection unit 206 detects a camera assigned to an area where no moving object exists.
Alternatively, a camera that is close in distance and does not generate occlusion by proxy is detected. The image memory 207 stores a video signal from the camera as image data in order to perform image processing such as a difference operation.

【0038】図9は、計算機とリアルタイムに情報をや
りとりする移動物体追跡部の説明図である。複数のカメ
ラC1〜C3で撮影している物体m1,m2が図示の位
置関係にあるとき、移動物体追跡部200の角度検出部205
はカメラ位置と各物体のなす角度を検出し、各カメラに
対応してθ1、θ2、θ3の角度検出情報を計算機4に
入力する。物体像同士が重ならないようにするため、最
大の角度を持つ位置にあるカメラを最適なものと計算機
4が判断し(ここではカメラC2)、移動物体追跡部20
0に物体とカメラの最適関係を示すカメラ制御情報を出
力する。担当カメラ検出部206はこの最適関係からカメ
ラを選択して、移動物体の追跡を継続する。
FIG. 9 is an explanatory diagram of a moving object tracking unit that exchanges information with a computer in real time. When the objects m1 and m2 photographed by the plurality of cameras C1 to C3 are in the illustrated positional relationship, the angle detection unit 205 of the moving object tracking unit 200
Detects the angle between the camera position and each object, and inputs angle detection information of θ1, θ2, and θ3 to the computer 4 corresponding to each camera. In order to prevent the object images from overlapping each other, the computer 4 determines that the camera at the position having the maximum angle is the optimum camera (here, the camera C2), and the moving object tracking unit 20
The camera control information indicating the optimum relationship between the object and the camera is output to 0. The assigned camera detection unit 206 selects a camera from this optimal relationship and continues tracking the moving object.

【0039】このように、フレーム毎に各物体とカメラ
の角度情報を計算機に渡し、計算機でフレーム毎にカメ
ラと物体の最適な担当を求めておけば、移動物体追跡部
は計測領域の全状態から各カメラが担当する物体を直ち
に、かつ最適に決定できる。
As described above, the angle information of each object and the camera is passed to the computer for each frame, and the computer is used to determine the optimal charge of the camera and the object for each frame. From this, the object in charge of each camera can be determined immediately and optimally.

【0040】[0040]

【発明の効果】本発明によれば、移動物体の測定範囲を
カメラ毎の担当領域に分割した上で、オクルージョン発
生の可能性のある物体に対し他のカメラによる代行を行
うので、広域な測定範囲での移動物体追跡を精度よく継
続できる効果がある。
According to the present invention, since the measurement range of a moving object is divided into areas in charge for each camera, an object having a possibility of occurrence of occlusion is substituted by another camera. There is an effect that the moving object tracking in the range can be continued with high accuracy.

【0041】また、オクルージョンの発生可能性は、カ
メラ位置と移動物体を結ぶ直線同士のなす角度により判
定しているので、この角度の大小を考慮することによ
り、代行すべきカメラを定量的に評価でき、常に最適な
カメラを選択できる。
Also, since the possibility of occlusion is determined by the angle between the camera position and the straight line connecting the moving object, the camera to be substituted is quantitatively evaluated by considering the magnitude of this angle. You can always select the best camera.

【0042】さらに、フレーム毎に各物体とカメラの角
度情報を計算してカメラと物体の最適な担当を求めてい
るので、各カメラが担当する物体をリアルタイムに、か
つ最適に決定できる。
Furthermore, since the angle information between each object and the camera is calculated for each frame to determine the optimum assignment of the camera and the object, the object assigned to each camera can be determined in real time and optimally.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の移動物体検出装置によるオクルージョ
ンの判定方法を示す説明図。
FIG. 1 is an explanatory diagram showing a method for determining occlusion by a moving object detection device of the present invention.

【図2】本発明を適用するセキュリティシステムの概略
図。
FIG. 2 is a schematic diagram of a security system to which the present invention is applied.

【図3】本発明の移動物体検出装置におけるカメラ配置
と座標関係を示す説明図。
FIG. 3 is an explanatory diagram showing a camera arrangement and a coordinate relationship in the moving object detection device of the present invention.

【図4】一実施例によるカメラの担当領域の決定方法を
示す説明図。
FIG. 4 is an explanatory diagram showing a method for determining a region in charge of a camera according to one embodiment.

【図5】オクルージョン発生可能性時に、代行する他カ
メラの選択方法の説明図。
FIG. 5 is an explanatory diagram of a method of selecting another camera to be substituted when an occlusion may occur.

【図6】オクルージョン発生可能性時に、無担当カメラ
による代行の説明図。
FIG. 6 is an explanatory diagram of proxy by an unassigned camera when an occlusion may occur.

【図7】一実施例による移動体追跡方法のアルゴリズム
を示すフローチャート。
FIG. 7 is a flowchart illustrating an algorithm of a moving object tracking method according to an embodiment.

【図8】一実施例による移動物体追跡装置を含む移動物
体検出装置の構成図。
FIG. 8 is a configuration diagram of a moving object detection device including a moving object tracking device according to one embodiment.

【図9】移動物体追跡装置による角度検出情報と、計算
機による最適な担当関係情報をやりとりするシステムの
説明図。
FIG. 9 is an explanatory diagram of a system for exchanging angle detection information by a moving object tracking device and optimal charge relationship information by a computer.

【符号の説明】[Explanation of symbols]

1…カメラ、2…移動物体、3…計算領域(監視領
域)、4…計算機、5…ディスプレイ、20…表示モデ
ル、21…移動軌跡、200…移動物体追跡装置、201…カ
メラ制御部、202…物体像抽出部、203…物体位置算出
部、204…物体数検出部、205…角度検出部、206…担当
カメラ検出部、207…画像メモリ、C1〜C8…カメラ位
置、a1〜a8…担当領域、m1〜m7…移動物体。
DESCRIPTION OF SYMBOLS 1 ... Camera, 2 ... Moving object, 3 ... Calculation area (monitoring area), 4 ... Computer, 5 ... Display, 20 ... Display model, 21 ... Moving locus, 200 ... Moving object tracking device, 201 ... Camera control part, 202 ... Object image extraction unit, 203 ... Object position calculation unit, 204 ... Number of object detection unit, 205 ... Angle detection unit, 206 ... Camera in charge, 207 ... Image memory, C1-C8 ... Camera position, a1-a8 ... In charge Area, m1 to m7: Moving objects.

フロントページの続き (72)発明者 三好 雅則 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 Fターム(参考) 5C054 CF06 CG02 CH10 EA01 FC12 FC15 FD03 FF02 HA18 HA19 HA31 Continuation of the front page (72) Inventor Masanori Miyoshi 7-1-1, Omika-cho, Hitachi City, Ibaraki Prefecture F-term in Hitachi Research Laboratory, Hitachi Ltd. 5C054 CF06 CG02 CH10 EA01 FC12 FC15 FD03 FF02 HA18 HA19 HA31

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 計測エリアを移動する複数の物体を複数
のカメラで異なる方向から撮影し、撮影した画像から個
々の物体の移動軌跡を求める移動物体追跡方法におい
て、 各カメラと各移動物体を結ぶ直線同士がなす角度を求
め、この角度から当該物体の画像が重なることのないカ
メラと担当物体の対応関係を求め、この対応関係に基づ
いて各カメラが計測する物体の担当を時々刻々に最適化
することを特徴とする移動物体追跡方法。
1. A moving object tracking method in which a plurality of objects moving in a measurement area are photographed by a plurality of cameras from different directions, and a moving trajectory of each object is obtained from the photographed images. Obtain the angle between the straight lines, find the correspondence between the camera and the object in charge that the image of the object does not overlap from this angle, and optimize the responsibility of the object measured by each camera from time to time based on this correspondence A moving object tracking method, comprising:
【請求項2】 計測エリアを移動する複数の物体を複数
のカメラで異なる方向から撮影し、撮影した画像から個
々の物体の移動軌跡を求める移動物体追跡方法におい
て、 計測エリア内を分割して各カメラの担当領域を設定し、
カメラ毎に自身の担当領域に存在する移動物体を担当す
る候補物体とし、この候補物体が複数となる場合にカメ
ラと各候補物体を結ぶ直線同士がなす角度を求め、この
角度が所定値より小さい場合は当該候補物体の担当を他
のカメラへ代行させることを特徴とする移動物体追跡方
法。
2. A moving object tracking method in which a plurality of objects moving in a measurement area are photographed by a plurality of cameras from different directions, and a moving trajectory of each object is obtained from the photographed image. Set the camera area,
For each camera, a moving object present in its own area is taken as a candidate object to be assigned, and when there are a plurality of candidate objects, an angle between straight lines connecting the camera and each candidate object is obtained, and this angle is smaller than a predetermined value. In such a case, a moving object tracking method is characterized in that another camera is in charge of the candidate object.
【請求項3】 請求項2において、 前記担当領域は、各カメラが自身に近い領域となるよう
にボロノイ分割により行う移動物体追跡方法。
3. The moving object tracking method according to claim 2, wherein the assigned area is a Voronoi division so that each camera is an area close to itself.
【請求項4】 請求項2または3において、 前記他のカメラへの代行は、当該候補物体に近いカメラ
の順に選択し、選択したカメラと各候補物体を結ぶ直線
同士がなす角度が最大となる位置のカメラによって行う
ことを特徴とする移動物体追跡方法。 【請求項4】 請求項2または3において、 前記他のカメラへの代行は、当該候補物体に近いカメラ
の順に選択し、選択したカメラと各候補物体を結ぶ直線
同士がなす角度が前記所定値より大きくなる位置のカメ
ラによって行うことを特徴とする移動物体追跡方法。
4. The method according to claim 2, wherein the proxy to the other camera is selected in the order of cameras closest to the candidate object, and the angle between straight lines connecting the selected camera and each candidate object is maximized. A moving object tracking method, which is performed by a camera at a position. 4. The surrogate for another camera according to claim 2, wherein the camera is selected in the order of cameras closest to the candidate object, and an angle formed by a straight line connecting the selected camera and each candidate object is the predetermined value. A moving object tracking method performed by a camera at a larger position.
【請求項5】 請求項2または3において、 前記他のカメラへの代行は、自身の担当領域に移動物体
の存在していない無担当のカメラによって行うことを特
徴とする移動物体追跡方法。
5. The moving object tracking method according to claim 2, wherein the proxy for another camera is performed by an unassigned camera having no moving object in its own area.
【請求項6】 請求項5において、 代行するカメラのズーム量、パン量、チルト量の少なく
とも一つを変化させて、当該候補物体を撮影する移動物
体追跡方法。
6. The moving object tracking method according to claim 5, wherein at least one of a zoom amount, a pan amount, and a tilt amount of a surrogate camera is changed to photograph the candidate object.
【請求項7】 請求項6において、 前記代行するカメラの担当領域を一時的に他のカメラの
担当領域に変更することを特徴とする移動物体追跡方
法。
7. The moving object tracking method according to claim 6, wherein the assigned area of the surrogate camera is temporarily changed to the assigned area of another camera.
【請求項8】 移動する複数の物体を異なる方向から撮
影する複数のカメラと、撮影した画像から物体が移動す
る軌跡を算出する移動物体追跡部と、追跡結果を表示す
るディスプレイを備える移動物体追跡装置において、 前記移動物体追跡部は、各カメラと各移動物体を結ぶ直
線同士がなす角度を求め、該角度の評価により当該物体
の画像が重畳する可能性を判定する角度検出手段を有す
ることを特徴とする移動物体追跡装置。
8. A moving object tracking system comprising: a plurality of cameras for photographing a plurality of moving objects from different directions; a moving object tracking unit for calculating a trajectory of the moving object from the captured images; and a display for displaying a tracking result. In the apparatus, the moving object tracking unit obtains an angle formed by straight lines connecting each camera and each moving object, and has an angle detection unit that determines a possibility that an image of the object is superimposed by evaluating the angle. Characteristic moving object tracking device.
【請求項9】 請求項8において、 前記移動物体追跡部は、前記角度検出手段が可能性有り
と判定した場合に、当該物体の画像が重畳しない角度関
係となるカメラを選択して当該物体の担当を代行させる
担当カメラ検出手段を有することを特徴とする移動物体
追跡装置。
9. The moving object tracking unit according to claim 8, wherein the moving object tracking unit selects a camera having an angle relationship in which an image of the object does not overlap when the angle detection unit determines that there is a possibility. A moving object tracking device, comprising a responsible camera detecting means for acting for a responsible person.
【請求項10】 請求項8または9において、 前記移動物体追跡部は、前記カメラで撮影した物体の画
像が前記ディスプレイ上に投影される二次元位置に基づ
いて、前記物体が移動している三次元空間の位置を求め
ることにより移動軌跡を算出する物体位置算出手段を有
する移動物体追跡装置。
10. The tertiary moving object according to claim 8, wherein the moving object tracking unit is configured to move the object based on a two-dimensional position where an image of the object captured by the camera is projected on the display. A moving object tracking device having an object position calculating means for calculating a moving trajectory by obtaining a position in an original space.
JP26503699A 1999-09-20 1999-09-20 Moving object tracking method and apparatus Pending JP2001094975A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26503699A JP2001094975A (en) 1999-09-20 1999-09-20 Moving object tracking method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26503699A JP2001094975A (en) 1999-09-20 1999-09-20 Moving object tracking method and apparatus

Publications (1)

Publication Number Publication Date
JP2001094975A true JP2001094975A (en) 2001-04-06

Family

ID=17411704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26503699A Pending JP2001094975A (en) 1999-09-20 1999-09-20 Moving object tracking method and apparatus

Country Status (1)

Country Link
JP (1) JP2001094975A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002358526A (en) * 2001-06-01 2002-12-13 Nhk Engineering Services Inc Video object detection and tracking device
JP2004343718A (en) * 2003-04-22 2004-12-02 Matsushita Electric Ind Co Ltd Surveillance device by camera cooperation
JP2005012556A (en) * 2003-06-19 2005-01-13 Sigma:Kk Particular object tracking and monitoring system
JP2005033827A (en) * 2004-09-10 2005-02-03 Hitachi Kokusai Electric Inc Object monitoring device and monitoring system
WO2005076621A1 (en) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. Monitoring system and camera terminal
WO2005076620A1 (en) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. Detection range adjustment device
WO2006067947A1 (en) * 2004-12-21 2006-06-29 Matsushita Electric Industrial Co., Ltd. Camera terminal and monitoring system
WO2006068049A1 (en) * 2004-12-21 2006-06-29 Matsushita Electric Industrial Co., Ltd. Camera terminal and imaged area adjusting device
JP2006304342A (en) * 2004-02-03 2006-11-02 Matsushita Electric Ind Co Ltd Detection area adjustment device
WO2006132029A1 (en) * 2005-06-07 2006-12-14 Matsushita Electric Industrial Co., Ltd. Monitoring system, monitoring method, and camera terminal
WO2007013231A1 (en) * 2005-07-29 2007-02-01 Matsushita Electric Industrial Co., Ltd. Imaging region adjustment device
JP2008035367A (en) * 2006-07-31 2008-02-14 Fujitsu Ltd Monitoring device selection program, selection device, and selection method
CN100428781C (en) * 2004-12-21 2008-10-22 松下电器产业株式会社 Camera terminal and shooting area adjusting device
US7787013B2 (en) 2004-02-03 2010-08-31 Panasonic Corporation Monitor system and camera
KR100994722B1 (en) 2008-08-01 2010-11-16 포항공과대학교 산학협력단 Continuous Object Tracking on Multiple Cameras Using Camera Handoff
US7880766B2 (en) 2004-02-03 2011-02-01 Panasonic Corporation Detection area adjustment apparatus
JP2011086995A (en) * 2009-10-13 2011-04-28 Kagoshima Univ Monitoring camera arrangement position evaluation device
JP2018139084A (en) * 2017-02-24 2018-09-06 株式会社リコー Device, moving object device and method
CN111599018A (en) * 2019-02-21 2020-08-28 浙江宇视科技有限公司 A target tracking method, system, electronic device and storage medium
JP7058806B1 (en) * 2021-02-22 2022-04-22 三菱電機株式会社 Video monitoring equipment, video monitoring system, video monitoring method, and video monitoring program

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002358526A (en) * 2001-06-01 2002-12-13 Nhk Engineering Services Inc Video object detection and tracking device
JP2004343718A (en) * 2003-04-22 2004-12-02 Matsushita Electric Ind Co Ltd Surveillance device by camera cooperation
JP2005012556A (en) * 2003-06-19 2005-01-13 Sigma:Kk Particular object tracking and monitoring system
JPWO2005076621A1 (en) * 2004-02-03 2008-01-10 松下電器産業株式会社 Surveillance system and camera terminal
WO2005076621A1 (en) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. Monitoring system and camera terminal
WO2005076620A1 (en) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. Detection range adjustment device
US7880766B2 (en) 2004-02-03 2011-02-01 Panasonic Corporation Detection area adjustment apparatus
JP2006304342A (en) * 2004-02-03 2006-11-02 Matsushita Electric Ind Co Ltd Detection area adjustment device
US7787013B2 (en) 2004-02-03 2010-08-31 Panasonic Corporation Monitor system and camera
JP2005033827A (en) * 2004-09-10 2005-02-03 Hitachi Kokusai Electric Inc Object monitoring device and monitoring system
WO2006068049A1 (en) * 2004-12-21 2006-06-29 Matsushita Electric Industrial Co., Ltd. Camera terminal and imaged area adjusting device
US7677816B2 (en) 2004-12-21 2010-03-16 Panasonic Corporation Camera terminal and imaged area adjusting device
US7924311B2 (en) 2004-12-21 2011-04-12 Panasonic Corporation Camera terminal and monitoring system
JPWO2006068049A1 (en) * 2004-12-21 2008-06-12 松下電器産業株式会社 Camera terminal and photographing area adjusting device
JPWO2006067947A1 (en) * 2004-12-21 2008-06-12 松下電器産業株式会社 Camera terminal and surveillance system
CN100428781C (en) * 2004-12-21 2008-10-22 松下电器产业株式会社 Camera terminal and shooting area adjusting device
WO2006067947A1 (en) * 2004-12-21 2006-06-29 Matsushita Electric Industrial Co., Ltd. Camera terminal and monitoring system
JPWO2006132029A1 (en) * 2005-06-07 2009-01-08 松下電器産業株式会社 Surveillance system, surveillance method, and camera terminal
WO2006132029A1 (en) * 2005-06-07 2006-12-14 Matsushita Electric Industrial Co., Ltd. Monitoring system, monitoring method, and camera terminal
US7929016B2 (en) 2005-06-07 2011-04-19 Panasonic Corporation Monitoring system, monitoring method and camera terminal
US8154599B2 (en) 2005-07-29 2012-04-10 Panasonic Corporation Imaging region adjustment device
WO2007013231A1 (en) * 2005-07-29 2007-02-01 Matsushita Electric Industrial Co., Ltd. Imaging region adjustment device
JPWO2007013231A1 (en) * 2005-07-29 2009-02-05 パナソニック株式会社 Shooting area adjustment device
JP2008035367A (en) * 2006-07-31 2008-02-14 Fujitsu Ltd Monitoring device selection program, selection device, and selection method
KR100994722B1 (en) 2008-08-01 2010-11-16 포항공과대학교 산학협력단 Continuous Object Tracking on Multiple Cameras Using Camera Handoff
JP2011086995A (en) * 2009-10-13 2011-04-28 Kagoshima Univ Monitoring camera arrangement position evaluation device
JP2018139084A (en) * 2017-02-24 2018-09-06 株式会社リコー Device, moving object device and method
CN111599018A (en) * 2019-02-21 2020-08-28 浙江宇视科技有限公司 A target tracking method, system, electronic device and storage medium
CN111599018B (en) * 2019-02-21 2024-05-28 浙江宇视科技有限公司 Target tracking method, system, electronic device and storage medium
JP7058806B1 (en) * 2021-02-22 2022-04-22 三菱電機株式会社 Video monitoring equipment, video monitoring system, video monitoring method, and video monitoring program
WO2022176189A1 (en) * 2021-02-22 2022-08-25 三菱電機株式会社 Video monitor device, video monitor system, video monitor method, and video monitor program

Similar Documents

Publication Publication Date Title
JP2001094975A (en) Moving object tracking method and apparatus
JP4002919B2 (en) Moving body height discrimination device
CN110794405B (en) Target detection method and system based on camera and radar fusion
JP6273685B2 (en) Tracking processing apparatus, tracking processing system including the tracking processing apparatus, and tracking processing method
JP6525453B2 (en) Object position estimation system and program thereof
EP3690800B1 (en) Information processing apparatus, information processing method, and program
US7984995B2 (en) Method and apparatus for inhibiting a subject's eyes from being exposed to projected light
US20040218784A1 (en) Method and apparatus for monitoring a passageway using 3D images
JP4288428B2 (en) Video analysis system and video analysis method
CN111488775B (en) Device and method for judging degree of visibility
CN106572298A (en) Display control apparatus and display control method
CN114155557B (en) Positioning method, positioning device, robot and computer-readable storage medium
CN113223050A (en) Robot motion track real-time acquisition method based on Aruco code
JP7089493B2 (en) Person detectors, methods and programs
CN117315574A (en) Blind area track completion method, blind area track completion system, computer equipment and storage medium
CN112053397A (en) Image processing method, image processing device, electronic equipment and storage medium
JP6655114B2 (en) Image analysis device, image analysis method, and computer program
JP2532985B2 (en) Three-dimensional image evaluation device
JPH06167564A (en) Position measuring system and device using fish eye lens
WO2024022301A1 (en) Visual angle path acquisition method and apparatus, and electronic device and medium
CN115343699A (en) Target detection method, equipment, medium and terminal for multi-sensor information fusion
CN118646857A (en) A method for measuring the response delay of a pan-tilt camera in a video monitoring system
Hörster et al. Calibrating and optimizing poses of visual sensors in distributed platforms
JP2006318064A (en) Image sensor
JP7256032B2 (en) Person counting device, person counting method and person counting program

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040601