[go: up one dir, main page]

JP2005100388A - Object tracking method - Google Patents

Object tracking method Download PDF

Info

Publication number
JP2005100388A
JP2005100388A JP2004254586A JP2004254586A JP2005100388A JP 2005100388 A JP2005100388 A JP 2005100388A JP 2004254586 A JP2004254586 A JP 2004254586A JP 2004254586 A JP2004254586 A JP 2004254586A JP 2005100388 A JP2005100388 A JP 2005100388A
Authority
JP
Japan
Prior art keywords
image
template
size
intruding object
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004254586A
Other languages
Japanese (ja)
Inventor
Wataru Ito
渡 伊藤
Hirotada Ueda
博唯 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kokusai Denki Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2004254586A priority Critical patent/JP2005100388A/en
Publication of JP2005100388A publication Critical patent/JP2005100388A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 撮像手段により得られる画像信号に基づいて画像中の物体を追跡する物体追跡方法で、撮像手段を効果的に制御する。
【解決手段】 画像中における前記物体の特徴量を検出する画像中物体検出ステップと、前記検出結果に基づいて前記撮像手段の撮像レンズを制御する撮像レンズ制御ステップと、前記検出結果に基づいて前記画像の部分画像を設定する部分画像設定ステップと、前記設定された部分画像を所定の大きさに拡大する画像拡大ステップとを備えるようにした。
【選択図】 図1

PROBLEM TO BE SOLVED: To effectively control an imaging means by an object tracking method for tracking an object in an image based on an image signal obtained by an imaging means.
An object-in-image detecting step for detecting a feature amount of the object in an image, an imaging lens control step for controlling an imaging lens of the imaging means based on the detection result, and the detection based on the detection result A partial image setting step for setting a partial image of the image and an image enlargement step for enlarging the set partial image to a predetermined size are provided.
[Selection] Figure 1

Description

本発明は、撮像される画像中の物体を追跡する物体追跡方法に関し、特に、撮像を行う撮像レンズを効果的に制御する技術に関する。   The present invention relates to an object tracking method for tracking an object in an image to be captured, and more particularly to a technique for effectively controlling an imaging lens that performs imaging.

例えば、TVカメラ(テレビジョンカメラ)などの撮像装置を用いた遠隔モニタ方式の監視システムは、従来から広く用いられているが、その多くは、監視員がモニタに表示される画像を見ながら監視を行う、いわゆる有人監視方式の監視システムである。有人監視方式の監視システムでは、監視員が常時モニタに表示される映像を見ていて、監視対象領域内に入り込んでくる人間や自動車などの侵入物体をリアルタイムで識別する必要があり、監視員に大きな負担がかかる。   For example, a remote monitoring type monitoring system using an imaging device such as a TV camera (television camera) has been widely used in the past, and many of them are monitored while watching an image displayed on the monitor. It is a so-called manned monitoring system. In a manned monitoring system, it is necessary for a monitor to constantly monitor the images displayed on the monitor and identify intruders such as humans and cars entering the monitored area in real time. It takes a big burden.

すなわち、人間の集中力には限りがあるため、有人監視方式の監視システムでは、侵入物体の見逃しの発生が無視できず、信頼性の面で問題がある。また、監視カメラの爆発的な普及によって、監視員一人が数多くのTVカメラ映像を複数のモニタで監視する場面も多くなっており、複数のTVカメラで同時に侵入物体を捉えた場合にも侵入物体の見逃しが発生する可能性がある。   In other words, since the human concentration is limited, in the monitoring system of the manned monitoring system, the occurrence of oversight of the intruding object cannot be ignored, and there is a problem in terms of reliability. In addition, with the explosive spread of surveillance cameras, there are also many scenes where one surveillance person monitors a number of TV camera images on multiple monitors. May be missed.

そこで、このような人による監視ではなく、TVカメラで撮像された画像から画像処理により侵入物体を自動的に検出し、当該侵入物体の画像を画面の中央に捉えるようにTVカメラを搭載するカメラ雲台(旋回台)を制御して視野方向及び画角を自動的に調節し、所定の報知や警報処置が得られるようにした、いわゆる自動追跡方式の監視システムが、近年、強く要求されるようになってきている。   Therefore, instead of monitoring by such a person, a camera equipped with a TV camera so that an intruding object is automatically detected by image processing from an image captured by a TV camera and the image of the intruding object is captured at the center of the screen. In recent years, there has been a strong demand for a so-called automatic tracking type monitoring system in which a pan head (a swivel base) is controlled to automatically adjust the viewing direction and the angle of view so as to obtain predetermined notifications and alarms. It has become like this.

ところで、このようなシステムの実現には、所定の監視方式を用い、侵入物体と見なすべき監視対象物体を画像信号から検出し、該侵入物体の動きを検出する機能が必要となる。このような侵入物体検出を行う監視方式の一例に差分法と呼ばれる方法があり、従来から広く用いられている。差分法とは、TVカメラより得られた入力画像と予め作成した基準背景画像、すなわち、検出すべき物体の写っていない画像とを比較し、画素毎に輝度値の差分を求め、その差分値の大きい領域を物体として検出するものである。また、差分法の応用例も検討されている(例えば、特許文献1参照。)。   By the way, in order to realize such a system, a function of detecting a monitoring target object to be regarded as an intruding object from an image signal by using a predetermined monitoring method and detecting the movement of the intruding object is required. One example of a monitoring method for detecting such an intruding object is a method called a difference method, which has been widely used. The difference method is a method in which an input image obtained from a TV camera is compared with a reference background image created in advance, that is, an image in which an object to be detected is not captured, a difference in luminance value is obtained for each pixel, and the difference value is obtained. Is detected as an object. In addition, an application example of the difference method has been studied (for example, see Patent Document 1).

更に、侵入物体の移動量検出を行う監視方式の一例にテンプレートマッチング法と呼ばれる方法があり、差分法と同様に従来から広く用いられている。テンプレートマッチング法とは、差分法などによって検出された侵入物体の画像をテンプレートとして登録し、逐次入力される画像の中でテンプレート画像ともっとも似ている位置を検出する(例えば、非特許文献1参照。)。通常、テンプレートマッチングを用いて対象物体を追跡する場合、対象物体の姿勢の変化に追従するため、マッチング処理によって検出された対象物体の位置の画像を新たにテンプレートとして逐次更新する。
特開平9−73541号公報 田村秀行監修、「コンピュータ画像処理入門」、総研出版、1985年、p.149―153
Furthermore, there is a method called a template matching method as an example of a monitoring method for detecting the amount of movement of an intruding object, which has been widely used conventionally as in the difference method. In the template matching method, an image of an intruding object detected by a difference method or the like is registered as a template, and a position most similar to the template image is detected among images sequentially input (see, for example, Non-Patent Document 1). .) Normally, when tracking a target object using template matching, in order to follow a change in the posture of the target object, an image of the position of the target object detected by the matching process is sequentially updated as a template.
JP-A-9-73541 Supervised by Hideyuki Tamura, “Introduction to Computer Image Processing”, Soken Publishing, 1985, p.149-153

ところで、物体追跡方式の監視システムでは、機械式/光学式追跡と呼ばれる、カメラ雲台及び撮像レンズの機械的及び/又は光学的な制御を伴うシステムが存在する。しかしながら、監視システムのMPU(Micro Processing Unit)等の処理装置がカメラ雲台の制御もしくは撮像レンズの制御を必要だと判断した場合に、実際に制御が開始されるまでに遅れ時間が生じる。また、カメラ雲台及び撮像レンズの制御時間(目的とするカメラ雲台の位置や撮像レンズの焦点距離に制御を完了するまでの時間)は数秒に及ぶ場合があり、その間に処理装置により複数フレームの入力画像の処理が実行される。   By the way, in an object tracking type monitoring system, there is a system called mechanical / optical tracking that involves mechanical and / or optical control of a camera head and an imaging lens. However, when a processing device such as an MPU (Micro Processing Unit) of the monitoring system determines that control of the camera pan head or control of the imaging lens is necessary, there is a delay time until the control is actually started. In addition, the control time of the camera platform and the imaging lens (the time required to complete the control to the target camera platform position and the focal length of the imaging lens) may be several seconds, during which multiple frames are processed by the processing device. The input image is processed.

この様子を図7を参照して、具体的に説明する。図7は、ある時刻t1に検出された人型の侵入物体801aをズームインしながら追跡する例である。なお、同図では、入力画像801を取得した時刻をt1と表し、所定の時間間隔(例えば、100ms)で逐次入力する入力画像の取得時刻を、入力順に(t1+1)、(t1+2)、・・・と表す。   This situation will be specifically described with reference to FIG. FIG. 7 is an example in which a humanoid intruding object 801a detected at a certain time t1 is tracked while zooming in. In the figure, the time when the input image 801 is acquired is denoted by t1, and the acquisition time of the input images that are sequentially input at a predetermined time interval (for example, 100 ms) is (t1 + 1), (t1 + 2), in the order of input.・ It expresses.

まず、時刻t1で得られた入力画像801中の侵入物体801aを差分法によって検出する。侵入物体の画像はテンプレート801bとして登録される。そして、侵入物体801aは入力画像801の中央から左側に存在するため、雲台制御インタフェース手段を介してカメラ雲台を左側に回転(パン)させる命令を送信し、さらに侵入物体の画像の大きさを所定の大きさ(例えば、画面の縦80%)にするためレンズ制御インタフェース手段を介して撮像レンズの焦点距離を長くする命令を送信する。   First, an intruding object 801a in the input image 801 obtained at time t1 is detected by a difference method. The image of the intruding object is registered as a template 801b. Since the intruding object 801a exists on the left side from the center of the input image 801, a command for rotating (panning) the camera head to the left is transmitted via the head control interface means, and the size of the image of the intruding object is further transmitted. A command to increase the focal length of the imaging lens is transmitted via the lens control interface means in order to make the predetermined size (for example, 80% of the screen vertical).

次に、時刻(t1+1)で得られた入力画像802に対してテンプレートマッチング法を適用して侵入物体802aを検出し、その画像をテンプレート802bとして更新する。この時、時刻t1でカメラ雲台及び撮像レンズで送信した命令の動作は完了していない。この場合、再度カメラ雲台及び撮像レンズに対して制御命令を送信する。   Next, the intruding object 802a is detected by applying the template matching method to the input image 802 obtained at time (t1 + 1), and the image is updated as the template 802b. At this time, the operation of the command transmitted from the camera platform and the imaging lens at time t1 is not completed. In this case, a control command is transmitted again to the camera head and the imaging lens.

次に、時刻(t1+2)で得られた入力画像803に対してテンプレートマッチング法を適用して侵入物体803aを検出し、その画像をテンプレート803bとして更新する。ここでは、侵入物体803aは画面の中央に位置しており、カメラ雲台の制御は完了する。しかし、入力画像上の侵入物体の大きさは目標とする所定の大きさに達していない。従って、再々度、撮像レンズに対して制御命令を送信する。   Next, a template matching method is applied to the input image 803 obtained at time (t1 + 2) to detect the intruding object 803a, and the image is updated as a template 803b. Here, the intruding object 803a is located at the center of the screen, and the control of the camera pan head is completed. However, the size of the intruding object on the input image does not reach the target predetermined size. Therefore, the control command is transmitted to the imaging lens again.

次に、時刻(t1+3)で得られた入力画像804に対してテンプレートマッチング法を適用して侵入物体804aを検出し、その画像をテンプレート804bとして更新する。この時点では、入力画像上の侵入物体の大きさは目標とする所定の大きさに達したため、撮像レンズの制御は完了する。   Next, the template matching method is applied to the input image 804 obtained at time (t1 + 3) to detect the intruding object 804a, and the image is updated as the template 804b. At this time, since the size of the intruding object on the input image has reached the target predetermined size, the control of the imaging lens is completed.

このようにして、処理装置の侵入物体の検出結果とカメラ雲台及び撮像レンズの制御には遅れが生じてしまい、この応答性の低さによって監視領域内の侵入物体の動きにカメラ雲台、或いは、撮像レンズが追随できなくなる場合があり、その場合には侵入物体を撮像装置の視野内に捉えなくなるため、物体追跡性能を高くすることが難しい。この問題は、撮像レンズの焦点距離が長い場合(ズームインしている場合)に顕著に現れるため、機械式/光学式追跡を行う際には、撮像レンズの焦点距離を小さく設定しての監視が要求される。   In this way, there is a delay in the detection result of the intruding object of the processing device and the control of the camera pan head and the imaging lens, and due to this low response, the camera pan head in the movement of the intruding object in the monitoring area, Alternatively, the imaging lens may not be able to follow, and in that case, the intruding object cannot be caught in the field of view of the imaging apparatus, and it is difficult to improve the object tracking performance. This problem is noticeable when the focal length of the imaging lens is long (when zoomed in). Therefore, when performing mechanical / optical tracking, monitoring with a small focal length of the imaging lens is required. Required.

以上のような問題に対して、カメラ雲台及び撮像レンズの制御を行わずに入力画像の一部を電子的に拡大して追跡する電子式追跡と呼ばれる物体追跡方法がある。この方法は、入力画像の一部を切り出して拡大するため、切り出し位置を調整すれば擬似的なカメラ雲台の制御を実現できる。さらに、機械的な制御を伴わないため、先に説明した機械式/光学式追跡のように制御する機器の応答性の低さを解決でき、安定な追跡が行える。しかし、この方法は、入力画像の一部を切り出して拡大するため、入力画像の解像度が低い場合、拡大した画像はブロック状(モザイク状)の画像となってしまうという問題がある。   In order to solve the above problems, there is an object tracking method called electronic tracking in which a part of an input image is electronically enlarged and tracked without controlling the camera platform and the imaging lens. Since this method cuts out and enlarges a part of the input image, it is possible to realize pseudo camera pan head control by adjusting the cutout position. Furthermore, since no mechanical control is involved, it is possible to solve the low responsiveness of the controlled device as in the mechanical / optical tracking described above, and to perform stable tracking. However, since this method cuts out and enlarges a part of the input image, there is a problem that when the resolution of the input image is low, the enlarged image becomes a block (mosaic) image.

この問題を図8を参照して、具体的に説明する。図8は、図7で説明した例と同じ時刻t1での入力画像901(入力画像801と同じ)を処理した結果を表している。図8において、入力画像901に対して電子的追跡を実行すると、入力画像901の部分画像901cを電子的に拡大したブロック状の画像902が画像モニタに表示される。同図において、画像902に示すように、電子的な拡大率が高くなると、侵入物体の細かな表情などの情報は得られなくなってしまう。さらに、電子式追跡においては、カメラ雲台及び撮像レンズの制御を行わず、監視領域全体を撮像装置で撮像しなければならないため、画角の広い撮像装置を使用する必要がある。すなわち、電子的追跡を行うためには、解像度の高い、広画角の高価な撮像装置が必要となる。   This problem will be specifically described with reference to FIG. FIG. 8 shows the result of processing the input image 901 (same as the input image 801) at the same time t1 as in the example described in FIG. In FIG. 8, when electronic tracking is performed on the input image 901, a block-like image 902 obtained by electronically enlarging the partial image 901c of the input image 901 is displayed on the image monitor. In the same figure, as shown in an image 902, when the electronic enlargement ratio increases, information such as a fine expression of the intruding object cannot be obtained. Further, in the electronic tracking, since the entire monitoring area must be imaged by the imaging device without controlling the camera platform and the imaging lens, it is necessary to use an imaging device with a wide angle of view. That is, in order to perform electronic tracking, an expensive imaging device with a high resolution and a wide angle of view is required.

ここで、自動追跡方式の監視システムでは、物体追跡機能の信頼性を低下させることなく監視する対象物体をできるだけ大きくズームインして監視することが重要となる。機械式/光学式追跡では、一例として、広い範囲の監視、侵入物体の画像を高解像度で取得できるという利点があるが、一方で、一例として、カメラ雲台、撮像レンズの応答性の低さによって侵入物体を画面中央に適切な大きさで捉えるまでに時間がかかるという問題や、侵入物体が画像の外に外れてしまうと物体追跡処理が行なえなくなってしまうという問題などがある。   Here, in the automatic tracking type monitoring system, it is important to zoom in and monitor the target object to be monitored without reducing the reliability of the object tracking function. In mechanical / optical tracking, for example, there is an advantage that a wide range of monitoring and an image of an intruding object can be acquired with high resolution. On the other hand, as an example, the responsiveness of the camera head and imaging lens is low. There is a problem that it takes time to capture the intruding object with an appropriate size in the center of the screen, and a problem that the object tracking process cannot be performed if the intruding object comes off the image.

また、電子式追跡では、一例として、侵入物体を画面の中央に適切な大きさで高速に捉えられるという利点があるが、一方で、一例として、低い解像度の入力画像で拡大率を高くするとブロック状の画像になってしまい、侵入物体の細かな表情などの情報が得られなくなってしまうという問題や、広画角の撮像装置が必要になるという問題などがある。   Electronic tracking, for example, has the advantage that an intruding object can be captured at an appropriate size in the center of the screen at a high speed. On the other hand, as an example, if the enlargement ratio is increased with a low resolution input image, There is a problem that information such as a fine expression of an intruding object cannot be obtained, and a wide-angle imaging device is required.

本発明は、このような従来の事情に鑑み為されたもので、撮像される画像中の物体を追跡するに際して、撮像手段を効果的に制御することができる物体追跡方法を提供することを目的とする。   The present invention has been made in view of such a conventional situation, and an object of the present invention is to provide an object tracking method capable of effectively controlling an imaging unit when tracking an object in an image to be captured. And

上記目的を達成するため、本発明に係る物体追跡方法は、撮像方向とズーム量が制御可能な撮像手段を用いて物体を追跡する物体追跡方法であって、前記撮像手段から得られた入力画像内の前記物体の画像の特徴量を少なくとも1つ検出し、前記物体の追跡のため、前記検出された特徴量に基づいて前記撮像手段を制御し、前記検出された特徴量に基づいて前記入力画像内に前記物体の画像を含む部分領域の範囲を設定し、
前記設定された部分領域の範囲の画像を拡大する。
In order to achieve the above object, an object tracking method according to the present invention is an object tracking method for tracking an object using an imaging unit capable of controlling an imaging direction and a zoom amount, and an input image obtained from the imaging unit. Detecting at least one feature amount of an image of the object in the image, controlling the imaging means based on the detected feature amount for tracking the object, and inputting the input based on the detected feature amount Set the range of the partial area including the image of the object in the image,
The image of the set partial area is enlarged.

なお、本明細書では、「追跡」という語を用いて説明を行うが、例えば、「追尾」といった語についても、同様な用語であり、本発明に包含される。また、本明細書では、「画像」という語を用いて説明を行うが、例えば、「映像」といった語についても、同様な用語であり、本発明に包含される。また、本明細書に言う画像は、例えば、時間的に連続したものについては動画像のことを言い、例えば、静止した画像については、動画像の中の1フレームの画像や、当該1フレーム中の一部の画像や、動画像とは無関係な静止した画像のことを言っている。   In this specification, the term “tracking” is used for explanation, but for example, the term “tracking” is also a similar term and is included in the present invention. In this specification, the term “image” is used for explanation. For example, the term “video” is a similar term and is included in the present invention. In addition, for example, an image referred to in the present specification refers to a moving image when it is temporally continuous. For example, as to a still image, an image of one frame in the moving image, Some of the images and still images that are unrelated to moving images.

ここで、撮像手段としては、種々なものが用いられてもよく、例えば、カメラなどを用いることができる。また、画像信号としては、NTSC方式、PAL方式等、種々なものが用いられてもよい。また、物体としては、人、車両、動物等、種々なものが対象として用いられてもよい。また、画像中の物体としては、例えば、画像の中に存在する対象となる物体の画像部分に相当する。   Here, various imaging means may be used, and for example, a camera or the like can be used. Various image signals such as an NTSC system and a PAL system may be used. Various objects such as people, vehicles, animals, etc. may be used as objects. Further, the object in the image corresponds to, for example, the image portion of the target object existing in the image.

また、本発明に係る物体追跡方法において、前記少なくとも1つの特徴量は、前記物体の画像の位置、大きさ、移動量の少なくともいずれかを含む。
また、本発明に係る物体追跡方法において、前記物体の画像の位置に基づいて前記部分領域の範囲の位置を設定し、前記物体の画像の大きさに基づいて前記部分領域の範囲の大きさを設定する。
In the object tracking method according to the present invention, the at least one feature amount includes at least one of a position, a size, and a movement amount of the image of the object.
In the object tracking method according to the present invention, the position of the range of the partial area is set based on the position of the image of the object, and the size of the range of the partial area is set based on the size of the image of the object. Set.

また、本発明に係る物体追跡方法において、前記部分領域の範囲の大きさと所定の画像表示サイズとに基づいて設定した拡大率で、前記部分領域の範囲の画像を拡大する。
また、本発明に係る物体追跡方法において、前記物体の画像の大きさに基づいて前記撮像手段の撮像レンズのズーム量の上限を設定し、前記部分領域の範囲の大きさは、前記入力画像の大きさの予め設定した1より小さい割合以下になるように設定される。
In the object tracking method according to the present invention, the image of the range of the partial area is enlarged at an enlargement ratio set based on the size of the range of the partial area and a predetermined image display size.
Further, in the object tracking method according to the present invention, an upper limit of the zoom amount of the imaging lens of the imaging unit is set based on the size of the image of the object, and the size of the range of the partial region is the size of the input image. The size is set to be less than or equal to a predetermined ratio smaller than 1.

また、本発明に係る物体追跡方法において、前記物体の画像の移動量に依存して前記撮像手段のズーム量を変える。
また、本発明に係る物体追跡方法において、前記物体の画像の大きさに依存して前記撮像手段のズーム量を変える。
In the object tracking method according to the present invention, the zoom amount of the imaging unit is changed depending on the movement amount of the image of the object.
In the object tracking method according to the present invention, the zoom amount of the imaging unit is changed depending on the size of the image of the object.

また、上記目的を達成するため、本発明に係る物体追跡装置は、撮像方向とズーム量が制御可能な撮像装置、表示装置、前記撮像装置により得られる入力画像中の物体の画像の特徴量を検出する検出部と、前記物体の追跡のため、検出された前記特徴量に基づいて前記撮像装置を制御する制御部と、前記特徴量に基づいて、前記入力画像内に前記物体を含む部分領域の範囲を設定する設定部と、前記表示装置に表示するため、前記設定された部分領域の範囲の画像を拡大する拡大部から構成される。   In order to achieve the above object, the object tracking device according to the present invention includes an imaging device capable of controlling an imaging direction and a zoom amount, a display device, and a feature amount of an object image in an input image obtained by the imaging device. A detection unit for detecting; a control unit for controlling the imaging device based on the detected feature quantity for tracking the object; and a partial region including the object in the input image based on the feature quantity A setting unit for setting the range of the image, and an enlargement unit for enlarging the image of the range of the set partial area for display on the display device.

また、本発明に係る物体追跡装置において、前記特徴量は、前記物体の画像の位置、大きさ、移動量の少なくともいずれかを含むように構成される。
また、本発明に係る物体追跡装置において、前記設定部は、前記物体の画像の位置に基づいて前記部分領域の範囲の位置を設定し、前記物体の画像の大きさに基づいて前記部分領域の範囲の大きさを設定するように構成される。
In the object tracking device according to the present invention, the feature amount is configured to include at least one of a position, a size, and a movement amount of the image of the object.
In the object tracking device according to the present invention, the setting unit sets a position of the range of the partial area based on the position of the image of the object, and sets the position of the partial area based on the size of the image of the object. Configured to set the size of the range.

また、本発明に係る物体追跡装置において、前記拡大部は、前記部分領域の範囲の大きさと所定の画像表示サイズとに基づいて設定した拡大率で、前記部分領域の範囲の画像を拡大するように構成される。   Further, in the object tracking device according to the present invention, the enlargement unit enlarges the image of the partial area range at an enlargement ratio set based on the size of the partial area range and a predetermined image display size. Configured.

また、本発明に係る物体追跡装置において、前記制御部は、前記物体の画像の大きさに基づいて前記撮像装置の撮像レンズのズーム量の上限を設定し、前記部分領域の範囲の大きさは、前記入力画像の大きさの予め設定した1より小さい割合以下になるように設定されるように構成される。   In the object tracking device according to the present invention, the control unit sets an upper limit of the zoom amount of the imaging lens of the imaging device based on the size of the image of the object, and the size of the range of the partial region is , The input image size is set to be smaller than a preset ratio smaller than 1.

また、本発明に係る物体追跡装置において、前記制御部は、前記物体の画像中の移動量に依存して撮像装置の撮像レンズのズーム量を変えることを含むように構成される。
また、本発明に係る物体追跡装置において、前記制御部は、前記物体の画像の大きさに依存して前記撮像装置のズーム量を変えるように構成される。
In the object tracking device according to the present invention, the control unit is configured to include changing a zoom amount of the imaging lens of the imaging device depending on a movement amount of the object in the image.
In the object tracking device according to the present invention, the control unit is configured to change the zoom amount of the imaging device depending on the size of the image of the object.

また、上記目的を達成するため、本発明に係る計算機のプログラムは、撮像方向とズーム量が制御可能な撮像装置を備えた物体追跡装置物を動作させて物体追跡を行うために以下のステップを実行する計算機のプログラムであって、前記撮像装置から得られた画像内の前記物体の画像の特徴量を少なくとも1つ検出するステップ、前記特徴量は前記物体の画像の位置、大きさ、移動量の少なくともいずれかを含み、前記物体の追跡のため、前記検出された特徴量に基づいて前記撮像装置を制御するステップ、前記検出された特徴量に基づいて前記画像内に前記物体の画像を含む部分領域の範囲を設定するステップ、前記設定された部分領域の範囲の画像を拡大するステップを備える。   In order to achieve the above object, the computer program according to the present invention performs the following steps in order to perform object tracking by operating an object tracking device provided with an imaging device capable of controlling the imaging direction and the zoom amount. A computer program to be executed, the step of detecting at least one feature quantity of the image of the object in the image obtained from the imaging device, wherein the feature quantity is a position, a size, and a movement amount of the image of the object Controlling the imaging device based on the detected feature amount for tracking the object, and including an image of the object in the image based on the detected feature amount A step of setting a range of the partial area, and a step of enlarging an image of the set range of the partial area.

また、本発明に係る計算機のプログラムにおいて、前記部分領域の範囲を設定するステップは、前記物体の画像の位置に基づいて前記部分領域の範囲の位置を設定すること、及び、前記物体の画像の大きさに基づいて前記部分領域の範囲の大きさを設定することを含む。   In the computer program according to the present invention, the step of setting the range of the partial area may include setting the position of the range of the partial area based on the position of the image of the object; and Setting the size of the range of the partial area based on the size.

また、本発明に係る計算機のプログラムにおいて、前記撮像装置を制御するステップは、前記物体の画像の大きさに基づいて前記撮像装置の撮像レンズのズーム量の上限を設定することを含み、前記部分領域の範囲の大きさは、前記入力画像の大きさの予め設定した1より小さい割合以下になるように設定される。   Further, in the computer program according to the present invention, the step of controlling the imaging device includes setting an upper limit of a zoom amount of the imaging lens of the imaging device based on a size of an image of the object. The size of the area range is set to be less than or equal to a preset ratio of 1 to the size of the input image.

また、上記目的を達成するため、本発明に係る計算機読取可能な媒体上に実現された計算機プログラムは、撮像方向とズーム量が制御可能な撮像装置を備えた物体追跡装置物を動作させて物体追跡を行うために以下のステップを実行する、計算機読取可能な媒体上に実現された計算機プログラムであって、前記撮像装置から得られた入力画像内の前記物体の画像の特徴量を少なくとも1つ検出するステップ、前記特徴量は前記物体の画像の位置、大きさ、移動量の少なくともいずれかを含み、前記物体の追跡のため、前記検出された特徴量に基づいて前記撮像装置を制御するステップ、前記検出された特徴量に基づいて前記画像内に前記物体の画像を含む部分領域の範囲を設定するステップ、前記設定された部分領域の範囲の画像を拡大するステップを備える。   In order to achieve the above object, a computer program realized on a computer-readable medium according to the present invention operates an object tracking device provided with an imaging device capable of controlling an imaging direction and a zoom amount. A computer program implemented on a computer-readable medium that performs the following steps to perform tracking: at least one feature amount of an image of the object in an input image obtained from the imaging device Detecting, the feature amount includes at least one of a position, a size, and a movement amount of an image of the object, and controlling the imaging device based on the detected feature amount for tracking the object Setting a partial area range including the object image in the image based on the detected feature amount; enlarging the set partial area range image; Provided with a step.

また、本発明に係る計算機読取可能な媒体上に実現された計算機プログラムにおいて、前記部分領域の範囲を設定するステップは、前記物体の画像の位置に基づいて前記部分領域の範囲の位置を設定すること、及び、前記物体の画像の大きさに基づいて前記部分領域の範囲の大きさを設定することを含む。   In the computer program realized on the computer-readable medium according to the present invention, the step of setting the range of the partial area sets the position of the range of the partial area based on the position of the image of the object. And setting the size of the range of the partial area based on the size of the image of the object.

また、本発明に係る計算機読取可能な媒体上に実現された計算機プログラムにおいて、前記撮像装置を制御するステップは、前記物体の画像の大きさに基づいて前記撮像装置の撮像レンズのズーム量の上限を設定することを含み、前記部分領域の範囲の大きさは、前記入力画像の大きさの予め設定した1より小さい割合以下になるように設定される。   Further, in the computer program realized on the computer-readable medium according to the present invention, the step of controlling the imaging device includes an upper limit of the zoom amount of the imaging lens of the imaging device based on the size of the image of the object. The size of the range of the partial area is set to be equal to or less than a predetermined ratio of the size of the input image.

本発明に係る物体追跡方法によると、撮像方向とズーム量が制御可能な撮像手段を用いて物体を追跡するに際して、物体の画像の特徴量に基づいて撮像手段を制御し、物体の画像を含む部分領域の範囲の画像を拡大するようにしたため、例えば、撮像手段を効果的に制御することができる。   According to the object tracking method of the present invention, when an object is tracked using an imaging unit whose imaging direction and zoom amount can be controlled, the imaging unit is controlled based on the feature amount of the object image, and the object image is included. Since the image in the range of the partial area is enlarged, for example, the imaging means can be controlled effectively.

以下、本発明の実施例につき図面に言及して説明する。同様な部材には同様な参照符号を付す。
図2には、本発明に係る物体追跡装置を適用した画像監視装置のハードウエアの構成例を示してある。本例の画像監視装置は、撮像装置201と、処理装置202と、操作装置203と、外部記憶装置204と、画像モニタ205と、警告灯206を備えて構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. Like members are given like reference numerals.
FIG. 2 shows a hardware configuration example of an image monitoring apparatus to which the object tracking apparatus according to the present invention is applied. The image monitoring apparatus of this example includes an imaging device 201, a processing device 202, an operation device 203, an external storage device 204, an image monitor 205, and a warning lamp 206.

撮像装置は、TVカメラ201aと、例えばズームレンズから構成された撮像レンズ201bと、例えば旋回台から構成されたカメラ雲台201cから構成されている。
処理装置202は、画像入力部202aと、雲台制御部202bと、レンズ制御部202cと、操作入力部202dと、画像メモリ202eと、MPU202fと、ワークメモリ202gと、外部入出力部202hと、画像出力部202iと、警報出力部202jと、データバス202kから構成されている。
The imaging apparatus includes a TV camera 201a, an imaging lens 201b configured by, for example, a zoom lens, and a camera platform 201c configured by, for example, a swivel base.
The processing device 202 includes an image input unit 202a, a pan head control unit 202b, a lens control unit 202c, an operation input unit 202d, an image memory 202e, an MPU 202f, a work memory 202g, an external input / output unit 202h, The image output unit 202i, an alarm output unit 202j, and a data bus 202k are included.

操作装置203は、ジョイスティック203aと、第1のボタン203bと、第2のボタン203cから構成されている。
具体的には、TVカメラ201aの出力は画像入力部202aを介してデータバス202kと接続されており、撮像レンズ201bの制御部はレンズ制御部202cを介してデータバス202kと接続されており、TVカメラ201aを搭載するカメラ雲台201cは雲台制御部202bを介してデータバス202kと接続され、操作装置203の出力は操作入力部202dを介してデータバス202kと接続されている。
The operating device 203 includes a joystick 203a, a first button 203b, and a second button 203c.
Specifically, the output of the TV camera 201a is connected to the data bus 202k via the image input unit 202a, and the control unit of the imaging lens 201b is connected to the data bus 202k via the lens control unit 202c. A camera head 201c on which the TV camera 201a is mounted is connected to a data bus 202k through a head control unit 202b, and an output of the operation device 203 is connected to the data bus 202k through an operation input unit 202d.

また、外部記憶装置204は外部入出力部202hを介してデータバス202k に接続されており、監視用の画像モニタ205は画像出力部202iを介してデータバス202kに接続されており、警告灯206は警報出力部202jを介してデータバス202kに接続されている。なお、MPU202fとワークメモリ202gと画像メモリ202eは、直接的に、データバス202kと接続されている。   The external storage device 204 is connected to the data bus 202k via the external input / output unit 202h, and the monitoring image monitor 205 is connected to the data bus 202k via the image output unit 202i. Is connected to the data bus 202k via an alarm output unit 202j. The MPU 202f, the work memory 202g, and the image memory 202e are directly connected to the data bus 202k.

ここで、TVカメラ201aは、監視の対象となる領域を所定の視野内に捉え、監視対象領域を撮像して画像信号を出力する。このため、TVカメラ201aは、撮像レンズ201bを備え、カメラ雲台201に搭載されている。そして、TVカメラ201aにより撮像された画像信号は、画像入力部202aからデータバス202kを介して画像メモリ202eに蓄積される。   Here, the TV camera 201a captures a region to be monitored within a predetermined field of view, captures the region to be monitored, and outputs an image signal. For this reason, the TV camera 201 a includes an imaging lens 201 b and is mounted on the camera platform 201. The image signal captured by the TV camera 201a is stored in the image memory 202e from the image input unit 202a via the data bus 202k.

外部記憶装置204は、プログラムやデータなどを記憶する働きをし、プログラムやデータなどが必要に応じて外部入出力部202hを介してワークメモリ202gに読み込まれ、また、反対に、プログラムやデータなどがワークメモリ202gから外部記憶装置204に保存される。   The external storage device 204 functions to store programs and data, and the programs and data are read into the work memory 202g via the external input / output unit 202h as necessary. Is stored in the external storage device 204 from the work memory 202g.

MPU202fは、外部記憶装置204に保存されて処理装置202の動作時にワークメモリ202gに読み込まれたプログラムに従って処理を実行し、ワークメモリ202g内で、画像メモリ202eに蓄積された画像の解析を行う。そして、MPU202fは、当該処理結果に応じて、レンズ制御部202cを介して撮像レンズ201bを制御することや、雲台制御部202bを介してカメラ雲台201cを制御することを行い、TVカメラ201aの撮像視野を変えるとともに、必要に応じて画像モニタ205に侵入物体を検出した結果の画像を表示し、警告灯206を点灯させる働きをする。   The MPU 202f executes processing according to a program stored in the external storage device 204 and read into the work memory 202g when the processing device 202 is operated, and analyzes the image stored in the image memory 202e in the work memory 202g. Then, the MPU 202f controls the imaging lens 201b via the lens control unit 202c or the camera pan 201c via the pan control unit 202b according to the processing result, and the TV camera 201a. In addition to changing the imaging field of view, an image as a result of detecting an intruding object is displayed on the image monitor 205 as necessary, and the warning lamp 206 is lit.

なお、上記した画像監視装置については、撮像装置201や、処理装置202等の構成及びこれらの接続形式は、以上の実施例に限られるものではない。例えば、撮像装置201と処理装置202がインターネット等のネットワークを介して接続されるような構成や、TVカメラ201aにより撮像された画像信号をデジタル圧縮処理した画像データが処理装置202に入力されるような構成等を用いることが可能である。   In the above-described image monitoring apparatus, the configuration of the imaging apparatus 201, the processing apparatus 202, and the like and the connection format thereof are not limited to the above-described embodiments. For example, a configuration in which the imaging apparatus 201 and the processing apparatus 202 are connected via a network such as the Internet, or image data obtained by digitally compressing an image signal captured by the TV camera 201a is input to the processing apparatus 202. It is possible to use various configurations.

図1は、本例の画像監視装置により行われる、差分法及びテンプレートマッチング法を用いた物体追跡処理の手順の一例を示す。図1に言及して、この物体追跡処理を説明する。   FIG. 1 shows an example of an object tracking processing procedure using the difference method and the template matching method performed by the image monitoring apparatus of this example. The object tracking process will be described with reference to FIG.

まず、初期化処理ステップ101では、物体追跡処理を実行するための画像メモリ202e、ワークメモリ202g等の初期化を行う。
次に、差分法による侵入物体の検出処理102(ステップ102a〜ステップ102e)を行う。
First, in the initialization processing step 101, the image memory 202e and work memory 202g for executing the object tracking processing are initialized.
Next, an intruding object detection process 102 (step 102a to step 102e) by the difference method is performed.

すなわち、第1の画像入力処理ステップ102aでは、TVカメラ201aから、例えば横320画素、高さ240画素の入力画像を得る。
差分処理ステップ102bでは、第1の画像入力ステップ102aで得た入力画像と予め作成しておいた侵入物体の映っていない基準背景画像との間で各画素毎の輝度値の差分を計算する。
That is, in the first image input processing step 102a, an input image having 320 pixels in width and 240 pixels in height is obtained from the TV camera 201a.
In the difference processing step 102b, a luminance value difference for each pixel is calculated between the input image obtained in the first image input step 102a and a reference background image that is created in advance and does not show an intruding object.

二値化処理ステップ102cでは、差分処理ステップ102bで得られた差分画像の画素値(差分値)が所定のしきい値Th未満である画素の画素値を“0”とし、当該しきい値Th以上である画素の画素値を“255”として二値化画像を得る。ここで、所定のしきい値Thとしては、例えば、Th=20を用いている。また、1画素の画素値を8ビット(“0”〜“255”)で計算している。   In the binarization processing step 102c, the pixel value of the pixel in which the pixel value (difference value) of the difference image obtained in the difference processing step 102b is less than a predetermined threshold Th is set to “0”, and the threshold Th A binary image is obtained by setting the pixel value of the above pixel to “255”. Here, for example, Th = 20 is used as the predetermined threshold Th. Further, the pixel value of one pixel is calculated by 8 bits (“0” to “255”).

ラベリング処理ステップ102dでは、二値化処理ステップ102cで得られた二値化画像中の画素値“255”となる画素のかたまりを検出して各々に番号を付けて区別できるようにする。   In the labeling processing step 102d, a block of pixels having the pixel value “255” in the binarized image obtained in the binarizing processing step 102c is detected so that each can be identified and numbered.

侵入物体存在判定処理ステップ102eでは、ラベリング処理ステップ102dで番号付けされた画素値“255”となる画素のかたまりが所定の条件を満たした場合に、監視対象領域内に侵入物体が存在すると判定する。ここで、所定の条件としては、例えば、横が20画素以上で高さが50画素以上の大きさであるといった条件が用いられる。   In the intruding object presence determination processing step 102e, it is determined that there is an intruding object in the monitoring target area when a group of pixels having the pixel value “255” numbered in the labeling processing step 102d satisfies a predetermined condition. . Here, as the predetermined condition, for example, a condition that the width is 20 pixels or more and the height is 50 pixels or more is used.

そして、侵入物体存在判定処理ステップ102eで侵入物体が存在すると判定された場合には、警報・検出情報表示処理ステップ103へ移行し、侵入物体が存在しないと判定された場合には、再び上記した第1の画像入力処理ステップ102aへ移行して再び差分法による処理を実行する。   If it is determined in step 102e that the intruding object is present, the process proceeds to the alarm / detection information display processing step 103. If it is determined that there is no intruding object, the above-described process is performed again. The process proceeds to the first image input processing step 102a, and the difference method is executed again.

ここで、図3を参照して、上記した侵入物体の検出処理を具体的に説明する。図3には、上記した差分法を用いて侵入物体を検出する処理の一例の概略と、後述する当該侵入物体の画像をテンプレートに登録する処理の一例の概略を模式的に示してある。   Here, with reference to FIG. 3, the above-described intruding object detection processing will be specifically described. FIG. 3 schematically shows an outline of an example of a process for detecting an intruding object using the difference method described above and an example of an example of a process for registering an image of the intruding object described later in a template.

図3において、401は第1の画像入力処理ステップ102aで得られた入力画像を示しており、402は予め作成し画像メモリ202eに記録しておいた基準背景画像を示している。また、406は差分処理ステップ102bの処理を表す減算器を示しており、403は差分処理ステップ102bで得られた差分画像を示しており、407は二値化処理ステップ102cの処理を表す二値化器を示している。また、404は二値化処理ステップ102cで得られた二値化画像を示している。   In FIG. 3, 401 indicates an input image obtained in the first image input processing step 102a, and 402 indicates a reference background image that is created in advance and recorded in the image memory 202e. Reference numeral 406 denotes a subtractor representing the processing of the difference processing step 102b, 403 denotes the difference image obtained in the difference processing step 102b, and 407 denotes a binary representing the processing of the binarization processing step 102c. The generator is shown. Reference numeral 404 denotes a binarized image obtained in the binarization processing step 102c.

そして、減算器406は、入力画像401と基準背景画像402との間における画素の輝度値の差分を画素毎に計算して、差分画像403を出力する。次に、二値化器407は、差分画像403をしきい値Thで画素毎にしきい値処理し、しきい値Th未満の画素値を“0”とし、しきい値Th以上の画素の画素値を“255”として、二値化画像404を得る。これにより、入力画像401に映った人型の物体409は、減算器406によって差分が生じた領域(画像信号の変化領域)410として計算され、二値化器407によって画像411として検出される。   Then, the subtractor 406 calculates the difference in the luminance value of the pixel between the input image 401 and the reference background image 402 for each pixel, and outputs a difference image 403. Next, the binarizer 407 performs threshold processing on the difference image 403 for each pixel with the threshold value Th, sets the pixel value less than the threshold value Th to “0”, and the pixels of the pixels that are equal to or greater than the threshold value Th. A binarized image 404 is obtained with the value “255”. As a result, the humanoid object 409 shown in the input image 401 is calculated as a region (image signal changing region) 410 in which a difference is generated by the subtractor 406, and is detected as an image 411 by the binarizer 407.

次に、上記図1に示した処理手順の続きを説明する。警報・検出情報表示処理ステップ103では、例えば、侵入物体を発見したことを表す警報を監視員に伝えるために、画像出力部202jを介して画像モニタ205に侵入物体の情報を表示することや、警報出力部202jを介して警告灯206を点灯させることなどを行う。ここで、侵入物体の情報としては、例えば、位置や人数などの情報を用いることが可能である。   Next, the continuation of the processing procedure shown in FIG. 1 will be described. In the alarm / detection information display processing step 103, for example, in order to notify the monitor of an alarm indicating that an intruding object has been detected, the intruding object information is displayed on the image monitor 205 via the image output unit 202j. For example, the warning lamp 206 is turned on via the alarm output unit 202j. Here, as the information on the intruding object, for example, information such as the position and the number of people can be used.

また、例えば、入力画像に侵入物体を重畳して画像モニタ205に表示させてもよい。なお、入力画像に重畳する侵入物体の表示形態は、2値化処理ステップ102cで得られた侵入物体の二値化画像そのもの、或いはその外接矩形、或いは侵入物体が人間であれば、その頭上に三角マークを付す、或いは、カラー表示する等々、様々な形態が可能である。   For example, an intruding object may be superimposed on the input image and displayed on the image monitor 205. Note that the display form of the intruding object superimposed on the input image is the binarized image itself of the intruding object obtained in the binarization processing step 102c, its circumscribed rectangle, or if the intruding object is a human, Various forms are possible, such as attaching a triangle mark or color display.

次に、テンプレートマッチング法による侵入物体の移動量の検出処理104(104a〜104f)を行う。
すなわち、テンプレート登録処理ステップ104aでは、上記したラベリング処理ステップ102dで番号付けされた画素値“255”となる画素のかたまりの外接矩形412に基づいて、入力画像中の侵入物体の画像を切り出し、テンプレートとして登録する。
Next, detection processing 104 (104a to 104f) of the amount of movement of the intruding object by the template matching method is performed.
That is, in the template registration processing step 104a, the image of the intruding object in the input image is cut out based on the circumscribed rectangle 412 of the cluster of pixels having the pixel value “255” numbered in the labeling processing step 102d described above. Register as

第2の画像入力処理ステップ104bでは、第1の画像入力処理ステップ102aと同様に、TVカメラ201aから、例えば横320画素、高さ240画素の入力画像を得る。その際、TVカメラ201aの撮像レンズ201bの焦点距離をfとし、ワークメモリ202gに記録する。   In the second image input processing step 104b, as in the first image input processing step 102a, an input image of, for example, 320 pixels wide and 240 pixels high is obtained from the TV camera 201a. At that time, the focal length of the imaging lens 201b of the TV camera 201a is set to f and recorded in the work memory 202g.

テンプレート拡大・縮小処理ステップ104cでは、ワークメモリ202gに記録した焦点距離f’、すなわち例えば前回における後述するテンプレート更新処理ステップ104fの実行時におけるTVカメラ201aの撮像レンズ201bの焦点距離f’と、ワークメモリ202gに記録した現在の焦点距離fとの比に応じて、撮像レンズ201bの焦点距離を変更することによって生じる入力画像とテンプレートに映る追跡対象物体の大きさの違いを補正する。なお、本例では、後述する雲台・レンズ制御処理ステップ105により、撮像レンズ201bが制御されて、焦点距離が変化する。   In the template enlargement / reduction processing step 104c, the focal length f ′ recorded in the work memory 202g, that is, the focal length f ′ of the imaging lens 201b of the TV camera 201a at the time of execution of a template update processing step 104f described later, for example, In accordance with the ratio of the focal length f recorded in the memory 202g, the difference in the size of the tracking target object shown in the template and the input image generated by changing the focal length of the imaging lens 201b is corrected. In this example, the imaging lens 201b is controlled by a pan / lens control processing step 105 described later, and the focal length changes.

テンプレートマッチング処理ステップ104dでは、第2の画像入力ステップ104bで得た入力画像の中でテンプレートと最も一致度が高い画像を検出する。通常、テンプレートと入力画像全体とを比較すると計算時間がかかるため、テンプレートに対して所定の範囲を探索領域として、当該探索領域内でテンプレートと最も一致度が高い画像を検出する。   In the template matching processing step 104d, an image having the highest matching degree with the template is detected from the input images obtained in the second image input step 104b. Usually, since it takes a long time to compare the template and the entire input image, an image having the highest degree of matching with the template is detected in the search region with a predetermined range as the search region.

一致度判定処理ステップ104eでは、後述する一致度r(Δx,Δy)を判定し、後述する式1で表される正規化相関値を用いた場合、例えば、一致度が0.7以上であれば一致度が高いと判定してテンプレート更新処理ステップ104fへ移行し、一致度が0.7未満であれば上記した第1の画像入力処理ステップ102aに移行する。   In the coincidence degree determination processing step 104e, a coincidence degree r (Δx, Δy) described later is determined, and when the normalized correlation value represented by the expression 1 described later is used, for example, the coincidence degree is 0.7 or more If the degree of coincidence is less than 0.7, the process proceeds to the first image input process step 102a.

ここで、一致度が大きいということは、入力画像中でテンプレートに似た画像がある、すなわち監視対象領域内に侵入物体が存在し、その位置が後述するテンプレートの位置(x0、y0)から見て相対的に(Δx,Δy)の位置であることを意味し、この場合には、引き続いて侵入物体の移動量を検出する。また、一致度が小さいということは、入力画像中でテンプレートに似た画像がない、すなわち監視対象領域内に侵入物体が存在しないことを意味し、この場合には、第1の画像入力処理ステップ102aへ移行して、再び、差分法により侵入物体を検出する。   Here, the high degree of coincidence means that there is an image similar to the template in the input image, that is, there is an intruding object in the monitoring target area, and its position is viewed from the template position (x0, y0) described later. This means that the position is relatively (Δx, Δy). In this case, the amount of movement of the intruding object is subsequently detected. Further, the low degree of coincidence means that there is no image similar to the template in the input image, that is, there is no intruding object in the monitoring target region. In this case, the first image input processing step The process moves to 102a, and an intruding object is detected again by the difference method.

テンプレート更新処理ステップ104fでは、新たに求められた侵入物体の位置に基づいて第2の画像入力処理ステップ104bで得られた入力画像を切り出し、新たなテンプレート画像とする。このように、テンプレートを逐次更新することで、テンプレートには最新の侵入物体の画像が記録され、侵入物体が姿勢変化を起こした場合においても、安定に侵入物体の移動量を検出することができる。   In the template update processing step 104f, the input image obtained in the second image input processing step 104b is cut out based on the newly obtained position of the intruding object, and used as a new template image. In this way, by updating the template sequentially, the latest image of the intruding object is recorded in the template, and the amount of movement of the intruding object can be detected stably even when the intruding object changes its posture. .

ここで、図6A、図6Bを参照して、上記したテンプレート拡大・縮小処理ステップ104cについて具体的に説明する。なお、図6A、図6Bの例では、テンプレートを拡大する場合を示すが、テンプレートを縮小する場合についても同様である。   Here, the template enlargement / reduction processing step 104c will be described in detail with reference to FIGS. 6A and 6B. 6A and 6B show a case where the template is enlarged, but the same applies to the case where the template is reduced.

図6Aには、テンプレートの拡大前の画像701の一例を示してあり、図6Bには、テンプレートの拡大後の画像703の一例を示してある。テンプレートのズーム倍率rは、式1のように表される。   FIG. 6A shows an example of an image 701 before enlargement of the template, and FIG. 6B shows an example of an image 703 after enlargement of the template. The zoom magnification r of the template is expressed as Equation 1.

例えば、テンプレート更新処理ステップ104fの実行時におけるTVカメラ201aの撮像レンズ201bの焦点距離f’が20mmであり、現在における焦点距離fが24mmであるとすると、r=24/20=1.2となり、撮像レンズ201bの焦点距離の変化によって対象物体の画像上の大きさが1.2倍になったことになる。すなわち、拡大前と拡大後とでテンプレートの中心位置702、704を一致させるようにして、テンプレート701を1.2倍し、この結果を新たなテンプレート703にすれば、入力画像中の侵入物体の大きさとテンプレートの侵入物体の大きさとを一致させることができる。 For example, if the focal length f ′ of the imaging lens 201b of the TV camera 201a at the time of executing the template update processing step 104f is 20 mm and the current focal length f is 24 mm, then r = 24/20 = 1.2. The size of the target object on the image is increased by 1.2 times due to the change in the focal length of the imaging lens 201b. That is, if the template 701 is multiplied by 1.2 so that the center positions 702 and 704 of the template match before and after enlargement, and this result is used as a new template 703, the intruding object in the input image is displayed. The size and the size of the intruding object of the template can be matched.

なお、図6A、図6Bの例では、X−Y直交座標系において、拡大前のテンプレート701のX軸方向の長さTxをズーム倍率r倍した結果である(r×Tx)の長さを拡大後のテンプレート703のX軸方向の長さとしており、同様に、拡大前のテンプレート81のY軸方向の長さTyをズーム倍率r倍した結果である(r×Ty)の長さを拡大後のテンプレート703のY軸方向の長さとしている。また、これに際して、テンプレート701、703の中心位置702、704が不変であるようにしている。   In the example of FIGS. 6A and 6B, the length (r × Tx), which is the result of multiplying the length Tx in the X-axis direction of the template 701 before enlargement by the zoom magnification r in the XY orthogonal coordinate system, The length of the template 703 after enlargement is the length in the X-axis direction. Similarly, the length (r × Ty), which is the result of multiplying the length Ty of the template 81 before enlargement in the Y-axis direction by a zoom factor r, is enlarged. The length of the subsequent template 703 in the Y-axis direction is used. At this time, the center positions 702 and 704 of the templates 701 and 703 are not changed.

また、上記した侵入物体の検出処理102で侵入物体を検出した直後においては、テンプレート更新処理ステップ104fが実行されていないことから、テンプレート更新時におけるTVカメラ201aの撮像レンズ201bの焦点距離f’が取得されていないため、この場合には、テンプレートの拡大・縮小処理ステップ104cは実行されない。   Further, immediately after detecting an intruding object in the intruding object detection processing 102 described above, the template update processing step 104f is not executed, so that the focal length f ′ of the imaging lens 201b of the TV camera 201a at the time of template updating is In this case, the template enlargement / reduction processing step 104c is not executed because it has not been acquired.

また、本例のようにテンプレート拡大・縮小処理ステップ104cが行われる場合には、テンプレート更新処理ステップ104fでは、処理の実行時に、ワークメモリ202gに記録した焦点距離f’を現在におけるTVカメラ201aの撮像レンズ201bの焦点距離fを用いて更新するようにする。   Further, when the template enlargement / reduction processing step 104c is performed as in this example, the template update processing step 104f uses the focal length f ′ recorded in the work memory 202g at the time of execution of the process of the TV camera 201a. Updating is performed using the focal length f of the imaging lens 201b.

ここで、上記図3及び図4を参照して、上記した侵入物体の移動量の検出処理について具体的に説明する。上記図3には、切り出し器408、テンプレート画像405を示してある。   Here, with reference to FIG. 3 and FIG. 4, the above-described detection processing of the amount of movement of the intruding object will be described in detail. FIG. 3 shows the cutout unit 408 and the template image 405.

そして、入力画像401中に映る侵入物体は、上記したラベリング処理ステップ102dによって二値化画像内の画素値“255”のかたまり(cluster)として得られた侵入物体411の外接矩形412に基づいて切り出し器408で切り出され、これにより、テンプレート画像405が得られる。テンプレート画像405中には、侵入物体409のテンプレート413が含まれており、これがテンプレートマッチング法による侵入物体の移動量の検出処理における初期のテンプレートとなる。次いで、当該初期テンプレートに基づいて、テンプレートマッチングが実行される。   Then, the intruding object reflected in the input image 401 is cut out based on the circumscribed rectangle 412 of the intruding object 411 obtained as a cluster of the pixel value “255” in the binarized image by the labeling processing step 102d. A template image 405 is obtained by cutting out with the device 408. The template image 405 includes a template 413 of the intruding object 409, which becomes an initial template in the detection processing of the intruding object movement amount by the template matching method. Next, template matching is executed based on the initial template.

図4には、テンプレートマッチング法による侵入物体の移動量の検出処理を逐次実行して侵入物体を追跡する処理の流れの一例を模式的に示してある。
図4では、テンプレート画像501を取得した時刻をt0と表し、所定の時間間隔(例えば、100ms)で逐次入力する入力画像の取得時刻を、入力順に(t0+1)、(t0+2)、・・・と表す。
FIG. 4 schematically shows an example of a flow of processing for tracking the intruding object by sequentially executing the detection processing of the moving amount of the intruding object by the template matching method.
In FIG. 4, the time when the template image 501 is acquired is represented as t0, and the acquisition times of input images that are sequentially input at a predetermined time interval (for example, 100 ms) are (t0 + 1), (t0 + 2),. Represent.

図4において、501は時刻t0におけるテンプレート画像を示している。当該テンプレート画像501中に、時刻t0におけるテンプレート501aがある。なお、これらは、それぞれ、上記図3に示したテンプレート画像405、テンプレート413と同一のものである。   In FIG. 4, reference numeral 501 denotes a template image at time t0. The template image 501 includes a template 501a at time t0. These are the same as the template image 405 and the template 413 shown in FIG.

また、502は時刻(t0+1)における入力画像を示している。当該入力画像502において、矩形領域502bは時刻t0における侵入物体の位置(テンプレート501aの位置)、矩形領域502cはテンプレートマッチングの対象となる領域(探索領域)を表している。   Reference numeral 502 denotes an input image at time (t0 + 1). In the input image 502, the rectangular area 502b represents the position of the intruding object (the position of the template 501a) at time t0, and the rectangular area 502c represents the area (search area) to be subjected to template matching.

そして、テンプレートマッチング処理(ステップ104d)509を実行すると、テンプレートマッチングの探索領域502cの中でテンプレート501aに最も一致する画像502aで一致度が最も大きくなり、侵入物体は時刻(t0+1)において画像502aの位置に存在していることが分かる。この位置は、時刻t0におけるテンプレート501aの位置(x0、y0)から見て相対位置(Δx、Δy)で表される。すなわち、侵入物体は矢印502dに示される分だけ移動したことが分かる。   Then, when the template matching process (step 104d) 509 is executed, the degree of coincidence becomes the largest in the image 502a that most closely matches the template 501a in the template matching search area 502c, and the intruding object has an image of the image 502a at time (t0 + 1). It can be seen that it exists at the position. This position is represented by a relative position (Δx, Δy) when viewed from the position (x0, y0) of the template 501a at time t0. That is, it can be seen that the intruding object has moved by the amount indicated by the arrow 502d.

そこで、テンプレート更新処理(ステップ104f)510により、テンプレート501aに最も一致した画像502aを時刻(t0+1)における新たなテンプレートとして更新する。すなわち、図4に示されるように、入力画像502から侵入物体の位置502aを切り出し、これをテンプレート画像503とし、侵入物体の画像502aを時刻(t0+1)における新たなテンプレート503aとして更新する。   Thus, the template update process (step 104f) 510 updates the image 502a that most closely matches the template 501a as a new template at time (t0 + 1). That is, as shown in FIG. 4, the position 502a of the intruding object is cut out from the input image 502, and this is used as the template image 503, and the intruding object image 502a is updated as a new template 503a at time (t0 + 1).

この処理をTVカメラ201aから逐次入力される入力画像に対して適用する。具体的には、図4に示されるように、時刻(t0+2)における入力画像504中にテンプレート503aの位置504bに基づいて探索領域504cを設定し、時刻(t0+1)におけるテンプレート画像503中のテンプレート503aを用いてテンプレートマッチング処理(ステップ104d)509によって侵入物体の位置504aを検出する。すると侵入物体は矢印504dのように移動したことが分かる。   This process is applied to input images sequentially input from the TV camera 201a. Specifically, as shown in FIG. 4, a search region 504c is set based on the position 504b of the template 503a in the input image 504 at time (t0 + 2), and the template 503a in the template image 503 at time (t0 + 1). The position 504a of the intruding object is detected by template matching processing (step 104d) 509 using Then, it can be seen that the intruding object has moved as indicated by an arrow 504d.

更に、図4に示されるように、テンプレート更新処理(ステップ104f)510によって時刻(t0+2)におけるテンプレート画像505及び侵入物体のテンプレート505aを更新する。   Further, as shown in FIG. 4, the template image 505 and the template 505a of the intruding object at the time (t0 + 2) are updated by the template update process (step 104f) 510.

また、図4に示されるように、時刻(t0+3)における入力画像506中にテンプレート505aの位置506bに基づいて探索領域506cを設定し、時刻(t0+2)におけるテンプレート画像505中のテンプレート505aを用いてテンプレートマッチング処理(ステップ104d)509によって侵入物体の位置506aを検出する。すると侵入物体は矢印506dで示されるように移動したことが分かる。   As shown in FIG. 4, a search area 506c is set in the input image 506 at the time (t0 + 3) based on the position 506b of the template 505a, and the template 505a in the template image 505 at the time (t0 + 2) is used. A template matching process (step 104d) 509 detects the position 506a of the intruding object. Then, it can be seen that the intruding object has moved as indicated by the arrow 506d.

更に、図4に示されるように、テンプレート更新処理(ステップ104f)510によって時刻(t0+3)におけるテンプレート画像507及び侵入物体のテンプレート507aを更新する。   Furthermore, as shown in FIG. 4, the template update process (step 104f) 510 updates the template image 507 and the intruding object template 507a at time (t0 + 3).

そして、図4に示されるように、時刻(t0+4)における入力画像508中にテンプレート507aの位置508bに基づいて探索領域507cを設定し、時刻(t0+3)におけるテンプレート画像507中のテンプレート507aを用いてテンプレートマッチング処理(ステップ104d)509によって侵入物体の位置508aを検出する。すると、侵入物体は矢印508dのように移動したことが分かる。   Then, as shown in FIG. 4, a search area 507c is set based on the position 508b of the template 507a in the input image 508 at time (t0 + 4), and the template 507a in the template image 507 at time (t0 + 3) is used. A template matching process (step 104d) 509 detects the position 508a of the intruding object. Then, it can be seen that the intruding object has moved as indicated by an arrow 508d.

このように、テンプレートマッチングを逐次実行することで、侵入物体を追跡することができる。
ここで、上記したテンプレートマッチング処理(ステップ104d)における探索領域や一致度について具体的に説明する。上記した探索領域の範囲は、例えば、テンプレートに登録された対象物体の入力画像上での動きによって決定される。
In this way, an intruding object can be tracked by sequentially executing template matching.
Here, the search area and the degree of coincidence in the template matching process (step 104d) will be specifically described. The range of the search area described above is determined by, for example, the movement of the target object registered in the template on the input image.

具体例として、撮像装置201として1/3インチCCD(撮像素子サイズ 4.8mm×3.6mm)が用いられ、撮像レンズ201bの焦点距離32mmであり、対象物体までの距離が30mであるといった条件で撮像すると、TVカメラ201aの横方向の視野は、30×4.8÷32=4.5mとなる。このTVカメラ201aで、移動速度が時速5km/h(約1.39m/s)の対象物体を、画像サイズ320×240画素、入力間隔0.1s(100ms)で撮像すると、対象物体の入力画像毎の画像上での移動量は、横方向320×1.39×0.1/4.5≒9.88画素となる。   As a specific example, a condition that a 1/3 inch CCD (imaging device size: 4.8 mm × 3.6 mm) is used as the imaging device 201, the focal length of the imaging lens 201b is 32 mm, and the distance to the target object is 30 m. When the image is taken, the horizontal field of view of the TV camera 201a is 30 × 4.8 ÷ 32 = 4.5 m. When a target object with a moving speed of 5 km / h (about 1.39 m / s) is imaged with this TV camera 201a at an image size of 320 × 240 pixels and an input interval of 0.1 s (100 ms), the input image of the target object The moving amount on each image is 320 × 1.39 × 0.1 / 4.5≈9.88 pixels in the horizontal direction.

また、対象物体がTVカメラ201aの方向に向かって移動すると画像上での移動量も大きくなるため、実際の探索領域の範囲は、上記で算出した値の5倍程度の余裕をもって設定する。すなわち、探索領域の横方向の大きさMxを50画素とする。探索領域の縦方向の大きさMyは、TVカメラ201aの仰角に依存して、TVカメラ201aの取り付け位置によって変化するため、横方向の大きさのおよそ40%程度の値とする。従って、探索範囲は、この例では、テンプレートに対して左右Mx=50画素、上下My=20画素だけ広げた領域とすればよい。   Further, when the target object moves in the direction of the TV camera 201a, the amount of movement on the image also increases. Therefore, the actual search area range is set with a margin of about five times the value calculated above. That is, the horizontal size Mx of the search area is 50 pixels. The vertical size My of the search area depends on the elevation angle of the TV camera 201a, and changes depending on the mounting position of the TV camera 201a. Therefore, the search region has a value about 40% of the horizontal size. Therefore, in this example, the search range may be an area that is widened by Mx = 50 pixels on the left and right and My + 20 on the top and bottom with respect to the template.

また、一致度としては、例えば正規化相関値r(Δx,Δy)が適用でき、式2のように表される。   As the degree of coincidence, for example, a normalized correlation value r (Δx, Δy) can be applied, and is expressed as Expression 2.

ここで、f(x,y)は入力画像を表している。また、後述する図5を参照して、g(x,y)はテンプレート画像601を表しており、(x0,y0)はテンプレート602の左上の座標を表しており、Dはテンプレートの大きさを表している。本例では、画像の座標軸としては、画像の左上を原点(0,0)としている。また、図3を参照して、Dは二値化画像404で検出された侵入物体の外接矩形412の大きさに相当し、本例では、横50画素、縦20画素に相当する。 Here, f (x, y) represents an input image. Also, referring to FIG. 5 described later, g (x, y) represents a template image 601, (x0, y0) represents the upper left coordinates of the template 602, and D represents the size of the template. Represents. In this example, the upper left corner of the image is the origin (0, 0) as the coordinate axis of the image. Referring to FIG. 3, D corresponds to the size of the circumscribed rectangle 412 of the intruding object detected in the binarized image 404. In this example, D corresponds to 50 pixels horizontally and 20 pixels vertically.

正規化相関値r(Δx,Δy)は、−1≦r(Δx,Δy)≦1の値を取り、入力画像とテンプレートが全く一致した場合には、“1”となる。
テンプレートマッチングでは、Δx、Δyを探索範囲内で走査させた場合に、すなわち上記した例では、−Mx≦Δx≦Mx、−My≦Δy≦Myと変化させた場合に、正規化相関値r(Δx,Δy)が最も大きくなる位置(Δx,Δy)を検出する処理が行われる。
The normalized correlation value r (Δx, Δy) takes a value of −1 ≦ r (Δx, Δy) ≦ 1, and is “1” when the input image and the template completely match.
In template matching, when Δx and Δy are scanned within the search range, that is, in the above example, when −Mx ≦ Δx ≦ Mx and −My ≦ Δy ≦ My, the normalized correlation value r ( A process of detecting a position (Δx, Δy) where Δx, Δy) is largest is performed.

次に、上記図1で示した処理手順の続きを説明する。焦点距離情報取得処理ステップ105では、ワークメモリ202gに記録した現在の入力画像を取得した時点の撮像レンズ102bの焦点距離fを取得する。   Next, the continuation of the processing procedure shown in FIG. 1 will be described. In the focal length information acquisition processing step 105, the focal length f of the imaging lens 102b at the time when the current input image recorded in the work memory 202g is acquired is acquired.

次に、雲台/レンズ制御ステップ106では、上記した侵入物体の移動量の検出処理104におけるテンプレートマッチング処理ステップ104dによって検出された侵入物体の位置と入力画像の中心との変位に応じて、カメラ雲台201cの制御を行う。また、検出された侵入物体の画像上の大きさと、そのときのTVカメラ201aの焦点距離(ステップ105で取得)とに応じて新たな焦点距離(ズーム倍率)を計算して撮像レンズ201bの焦点距離(ズーム)の制御を行う。ズーム倍率の計算については後述する。   Next, in the camera platform / lens control step 106, the camera is selected according to the displacement between the position of the intruding object detected by the template matching processing step 104d in the detection processing 104 for the amount of movement of the intruding object and the center of the input image. The pan head 201c is controlled. Also, a new focal length (zoom magnification) is calculated according to the size of the detected intruding object on the image and the focal length of the TV camera 201a (obtained in step 105) at that time, and the focal point of the imaging lens 201b. Control the distance (zoom). The calculation of the zoom magnification will be described later.

ここで、図5を参照して、上記したカメラ雲台201cの制御処理を具体的に説明する。一例として、テンプレート画像601において、図5に示すような位置602に侵入物体が検出されたとする。この場合、侵入物体の中心位置をテンプレートの中心603とすると、テンプレート画像601の中心604からのX軸方向の変位dx、Y軸方向の変位dyが算出される。   Here, with reference to FIG. 5, the control process of the camera pan head 201c described above will be specifically described. As an example, it is assumed that an intruding object is detected at a position 602 as shown in FIG. 5 in the template image 601. In this case, assuming that the center position of the intruding object is the center 603 of the template, the displacement dx in the X-axis direction and the displacement dy in the Y-axis direction from the center 604 of the template image 601 are calculated.

そして、テンプレートの中心位置603が入力画像の中心604と比べて所定量 s以上左側(dx<−s)であればカメラ雲台201cを左に回転(パン)させ、所定量s以上右側(dx>s)であればカメラ雲台201cを右に回転(パン)させる。また、テンプレートの中心位置603が入力画像の中心604と比べて、所定量s以上上側(dy<−s)であればカメラ雲台201cを上に傾け(チルト)させ、所定量s以上下側(dy>s)であれば下に傾け(チルト)させる。   If the center position 603 of the template is a predetermined amount s or more on the left side (dx <−s) compared to the center 604 of the input image, the camera head 201c is rotated (panned) to the left, and the right side (dx) > S), the camera head 201c is rotated (panned) to the right. If the center position 603 of the template is higher than the center 604 of the input image by a predetermined amount s or more (dy <−s), the camera platform 201c is tilted upward (tilt), and is lower than the predetermined amount s. If (dy> s), tilt down.

このような所定量sを用いると、侵入物体が画像の中心付近に存在する場合には、カメラ雲台201cを制御する必要がなく、このため、所定量sによってカメラ雲台201cの制御を開始する侵入物体の位置を指定することができる。なお、左、右、上、下のそれぞれについての所定量sとしては、種々な値が用いられてもよく、例えば、左右上下で同一の値が用いられてもよく、或いは、左右上下でそれぞれ任意な値が用いられてもよい。   When such a predetermined amount s is used, it is not necessary to control the camera platform 201c when an intruding object is present near the center of the image. Therefore, the control of the camera platform 201c is started by the predetermined amount s. The position of the intruding object to be specified can be specified. Note that various values may be used as the predetermined amount s for each of left, right, upper, and lower. For example, the same value may be used in the left, right, up, and down directions, or in the left, right, up, and down directions, respectively. Any value may be used.

一例として、左右上下の所定量s=50という値を用いることが可能である。また、例えば、所定量sが小さいほど、侵入物体が少しでも中心から外れたらカメラ雲台201cが制御されてしまって画像が見づらくなってしまう可能性はあるが、上記した所定量s=0といった値や、所定量sとして小さい値を用いることも可能である。   As an example, it is possible to use a value of a predetermined amount s = 50 in the left and right and up and down directions. Further, for example, as the predetermined amount s is smaller, there is a possibility that the camera pan head 201c is controlled if the intruding object deviates from the center even a little, and the image becomes difficult to see, but the predetermined amount s = 0 described above. It is also possible to use a small value as the value or the predetermined amount s.

また、テンプレート画像601の中心604に対する侵入物体のX軸方向の変位dx、Y軸方向の変位dyの絶対値によってパンや、チルトモータの制御速度を変化させるような制御を行うことも可能である。この場合、例えば、X軸方向の変位dx、或いは、Y軸方向の変位dyの絶対値が大きいほど、制御速度を大きくする。   It is also possible to perform control such that the control speed of the panning or tilting motor is changed by the absolute values of the displacement dx in the X-axis direction and the displacement dy in the Y-axis direction with respect to the center 604 of the template image 601. . In this case, for example, the control speed is increased as the absolute value of the displacement dx in the X-axis direction or the displacement dy in the Y-axis direction is larger.

次に、上記した撮像レンズ201bの制御処理を具体的に説明する。撮像レンズ201bの制御では、例えば、検出した侵入物体の画像上の大きさ、すなわちテンプレートの大きさに基づき、一例として、テンプレートの高さが所定の値未満である(又は、所定の値以下である)場合は撮像レンズ201bをズームインし、テンプレートの高さが所定の値以上である(又は、所定の値を超える)場合は撮像レンズ201bをズームアウトする。一例として、所定の値として、400画素(入力画像の大きさを横方向640画素、高さ方向480画素とした場合)という値を用いることが可能である。この場合、例えば、現在のテンプレートの高さが300画素、ワークメモリ202gに記録した現在のズームレンズ201bの焦点距離がf=30mmであったとすると、テンプレートの高さを400画素にするためには、ズームレンズの焦点距離をf=30×(400/300)=40mmにすればよい。即ち、ズーム比率を1.33倍にすれば良い。従って、MPU202fは、レンズ制御部202cを介して、ズームレンズ201bの焦点距離を40mmに制御する。このようにすることで、侵入物体をTVカメラ201aの視野内に適切な大きさで捉えることができる。   Next, the control process of the imaging lens 201b described above will be specifically described. In the control of the imaging lens 201b, for example, based on the size of the detected intruding object on the image, that is, the size of the template, for example, the height of the template is less than a predetermined value (or below a predetermined value). If there is any), the image pickup lens 201b is zoomed in. If the height of the template is equal to or greater than a predetermined value (or exceeds a predetermined value), the image pickup lens 201b is zoomed out. As an example, a value of 400 pixels (when the size of the input image is 640 pixels in the horizontal direction and 480 pixels in the height direction) can be used as the predetermined value. In this case, for example, if the current template height is 300 pixels, and the focal length of the current zoom lens 201b recorded in the work memory 202g is f = 30 mm, the template height is 400 pixels. The focal length of the zoom lens may be f = 30 × (400/300) = 40 mm. That is, the zoom ratio may be increased by 1.33. Accordingly, the MPU 202f controls the focal length of the zoom lens 201b to 40 mm via the lens control unit 202c. In this way, an intruding object can be captured with an appropriate size within the field of view of the TV camera 201a.

代替例として、ズームインとして、焦点距離を1.0mm長くするという処理を行い、ズームアウトとして、焦点距離を1.0mm短くするという簡易的な処理でもズームレンズ201bを制御することができる。侵入物体を追跡する処理は逐次繰り返し実行されるため、このように簡易的な処理でも、焦点距離の制御が足りない場合は、次の処理フレームでも同様に制御が行なわれる。したがって、侵入物体を追跡する処理を繰り返すことで、ズームレンズ201bの焦点距離は適切な値に制御され、テンプレートの高さを所定の大きさに合わせることができる。ここで、焦点距離の変化量1.0mmというのは経験的に算出されるものであって、この値が大きいと、テンプレートの高さを所定の大きさに迅速に合わせることができるが、適切な値付近では焦点距離の振動減少が発生する可能性がある(over damping)。一方、焦点距離の変化量が小さいと、テンプレートの高さが所定の大きさに合うまでに時間がかかる場合がある(under damping)。   As an alternative example, the zoom lens 201b can be controlled by a simple process in which the focal length is increased by 1.0 mm as zoom-in and the focal length is reduced by 1.0 mm as zoom-out. Since the process of tracking the intruding object is repeatedly performed sequentially, even in this simple process, if the control of the focal length is insufficient, the control is similarly performed in the next processing frame. Therefore, by repeating the process of tracking the intruding object, the focal length of the zoom lens 201b is controlled to an appropriate value, and the height of the template can be adjusted to a predetermined size. Here, the change in focal length of 1.0 mm is calculated empirically. If this value is large, the height of the template can be quickly adjusted to a predetermined size. Near the value, there is a possibility that the focal length vibration decreases (over damping). On the other hand, if the amount of change in focal length is small, it may take time until the height of the template matches a predetermined size (under damping).

上記の例では、対象物体の画像上の大きさの判定にテンプレートの高さを使ったが、その理由は、侵入物体はほとんどの場合、縦長に映り、それに対して撮像装置201により入力される画像は横長であるためである。即ち、侵入物体を撮像装置201の視野内に捉える場合、侵入物体の上下、左右端から入力画像の上下、左右端までの間隔をそれぞれ比較すると侵入物体の上下端から入力画像の上下端までの間隔の方が狭い。よって、テンプレートの幅を使って対象物体の画像上の大きさを判定してその結果に基づいて撮像レンズ102bを制御してズームインした場合、侵入物体の上下が画像上の視野の外側へ飛び出してしまうといった問題が生じる可能性があるためである。   In the above example, the height of the template is used to determine the size of the target object on the image. The reason is that the intruding object appears in a portrait in most cases and is input by the imaging device 201 for that. This is because the image is horizontally long. That is, when an intruding object is captured within the field of view of the imaging device 201, the distance from the upper and lower ends of the intruding object to the upper and lower ends of the input image is compared with the upper and lower ends of the input image. The interval is narrower. Therefore, when the size of the target object on the image is determined using the width of the template and the imaging lens 102b is controlled based on the result to zoom in, the top and bottom of the intruding object jumps out of the field of view on the image. This is because there is a possibility that such a problem may occur.

従って、侵入物体の画像上での大きさを評価する場合に、テンプレートの高さを基準に撮像レンズ102bの焦点距離を調整した場合の例では、安定なカメラ雲台201cの制御を維持しながら、ズームイン及びズームアウトが行える。なお、テンプレートの高さ以外、例えば、テンプレートの幅等を基準に撮像レンズ102bの焦点距離を調整することも可能である。例えば、自動車のように侵入物体が横長の場合、テンプレートの幅を用いることができる。   Accordingly, when evaluating the size of the intruding object on the image, in the example where the focal length of the imaging lens 102b is adjusted based on the height of the template, the control of the stable camera pan 201c is maintained. Zoom in and out. In addition to the height of the template, for example, the focal length of the imaging lens 102b can be adjusted based on the width of the template. For example, when the intruding object is horizontally long like a car, the width of the template can be used.

これにより、侵入物体をTVカメラ201aの視野内の中央に捉えながら、カメラ雲台201cを自動的に制御して、侵入物体を追跡することができる。
なお、上記した侵入物体の画像上の大きさ以外の要素、例えば、侵入物体の画像上での移動量に基づいて、撮像レンズ201bの制御を行うことも可能である。具体的には、侵入物体の画像上での移動量が所定の値未満である(又は、所定の値以下である)場合は撮像レンズ201bをズームインし、侵入物体の画像上での移動量が所定の値以上である(又は、所定の値を超える)場合は撮像レンズ201bをズームアウトする。この、侵入物体の画像上での移動量に基づく撮像レンズ201bの制御については別の実施例に関連して後で説明する。
As a result, it is possible to automatically control the camera platform 201c and track the intruding object while capturing the intruding object in the center of the visual field of the TV camera 201a.
Note that the imaging lens 201b can be controlled based on an element other than the above-described size of the intruding object on the image, for example, an amount of movement of the intruding object on the image. Specifically, when the amount of movement of the intruding object is less than a predetermined value (or less than the predetermined value), the imaging lens 201b is zoomed in, and the amount of movement of the intruding object on the image is If it is greater than or equal to a predetermined value (or exceeds a predetermined value), the imaging lens 201b is zoomed out. The control of the imaging lens 201b based on the amount of movement of the intruding object on the image will be described later in connection with another embodiment.

以下で説明する画像切り出し処理ステップ107と画像拡大処理ステップ108では、入力画像内に侵入物体の映像を含む部分領域の範囲を設定し、設定された範囲の部分領域の画像に画像処理(拡大処理)を施す。   In the image cut-out processing step 107 and the image enlargement processing step 108 described below, a partial area range including the video of the intruding object is set in the input image, and image processing (enlargement processing) is performed on the partial area image within the set range. ).

まず、画像切り出し処理ステップ107では、侵入物体の位置とテンプレートの大きさに応じて、入力画像の部分画像を切り出す(部分画像の位置、大きさ等を設定する)。
ここで、図10を参照して、部分画像の切り出し処理を具体的に説明する。図10は、ある時刻の入力画像において検出された侵入物体のテンプレート1101と、切り出す部分画像1103との関係を示している。図10において、部分画像の大きさ、すなわち横Sx画素、縦Sy画素は、一例として、式3のように表される。
First, in the image cutout processing step 107, a partial image of the input image is cut out according to the position of the intruding object and the size of the template (the position, size, etc. of the partial image are set).
Here, with reference to FIG. 10, the partial image clipping process will be described in detail. FIG. 10 shows the relationship between the template 1101 of the intruding object detected in the input image at a certain time and the partial image 1103 to be cut out. In FIG. 10, the size of the partial image, that is, the horizontal Sx pixel and the vertical Sy pixel are expressed as Equation 3 as an example.

ここで、Txはテンプレートの横のサイズ(幅)であり、Tyはテンプレートの縦のサイズ(高さ)である。従って、部分画像の高さSyは、式3に示す例では、テンプレートの縦のサイズTyの120%となるように設定される。ここで、120%という値は一例であり、例えば、80%等、テンプレートの縦のサイズTyよりも小さい値を部分画像の高さSyとして設定することも可能である。 Here, Tx is the horizontal size (width) of the template, and Ty is the vertical size (height) of the template. Accordingly, the height Sy of the partial image is set to be 120% of the vertical size Ty of the template in the example shown in Expression 3. Here, the value of 120% is an example, and a value smaller than the vertical size Ty of the template, such as 80%, can be set as the height Sy of the partial image.

また、部分画像の幅Sxは、一例として、拡大結果を出力する画像モニタ205のアスペクト比に応じて設定する。例えば、画像モニタ205のアスペクト比が4:3である場合には、式3に示す通り、部分画像の幅Sxは、上記設定された部分画像の高さSyの4/3倍に設定される。   Further, as an example, the partial image width Sx is set according to the aspect ratio of the image monitor 205 that outputs the enlargement result. For example, when the aspect ratio of the image monitor 205 is 4: 3, the width Sx of the partial image is set to 4/3 times the set height Sy of the partial image as shown in Expression 3. .

なお、図10において、部分画像の切り出し範囲1103は、テンプレートの中心(座標(Cx,Cy))1102を基準に設定される。すなわち、図10において、部分画像の切り出し範囲1103の左上の座標(x0,y0)は(Cx−Sx/2,Cy−Sy/2)、部分画像の切り出し範囲1103の右下の座標(x1,y1)は(Cx+Sx/2,Cy+Sy/2)と設定される。このようにすると、テンプレートの中心を部分画像の中心と一致させることができる。   In FIG. 10, the partial image clipping range 1103 is set with reference to the center (coordinates (Cx, Cy)) 1102 of the template. That is, in FIG. 10, the upper left coordinates (x0, y0) of the partial image cutout range 1103 are (Cx−Sx / 2, Cy−Sy / 2), and the lower right coordinates (x1, y0) of the partial image cutout range 1103. y1) is set as (Cx + Sx / 2, Cy + Sy / 2). In this way, the center of the template can coincide with the center of the partial image.

なお、上記した式3においては、テンプレートの縦のサイズTyを基準に部分画像の大きさ(高さ、幅)を設定しているが、テンプレートの横のサイズTxを基準に部分画像の大きさを設定してもよい。   In the above-described Expression 3, the size (height and width) of the partial image is set based on the vertical size Ty of the template. However, the size of the partial image is set based on the horizontal size Tx of the template. May be set.

次に、上記図1に示した処理の続きを説明する。画像拡大処理ステップ108では、画像切り出し処理ステップ107で得られた部分画像を画像モニタ205に出力するために、画像モニタ205で出力できる大きさに拡大する。即ち、出力する画像信号の大きさは、画像モニタ205の画面サイズ等に応じて所望の大きさを設定することが可能である。例えば、画像モニタ205がNTSC方式の画像信号を出力できる場合には、一例として、横640画素、縦480画素に拡大する。この場合には、横方向は640/Sx倍、縦方向は480/Sy倍に拡大すれば良いが、拡大の倍率としては種々な値を用いることが可能である。また、拡大の倍率に上限値や下限値を設定することも可能である。また、上記した例では、横640画素、縦480画素という一定の大きさに画像を拡大する場合について示したが、拡大後の画像サイズは一定の大きさでなくてもよい。ここで拡大された画像は、後述する警報/追尾情報表示処理ステップ109において、画像モニタ205に表示される。   Next, the continuation of the process shown in FIG. 1 will be described. In the image enlargement processing step 108, the partial image obtained in the image cutout processing step 107 is enlarged to a size that can be output by the image monitor 205 in order to output it to the image monitor 205. That is, the size of the output image signal can be set to a desired size according to the screen size of the image monitor 205 or the like. For example, when the image monitor 205 can output an NTSC image signal, as an example, the image monitor 205 is enlarged to 640 pixels wide and 480 pixels high. In this case, the horizontal direction may be enlarged by 640 / Sx times, and the vertical direction may be enlarged by 480 / Sy times, but various values can be used as magnifications. It is also possible to set an upper limit value and a lower limit value for the magnification of enlargement. In the above example, the case where the image is enlarged to a certain size of 640 pixels in the horizontal direction and 480 pixels in the vertical direction has been described. However, the image size after the enlargement may not be a constant size. The enlarged image is displayed on the image monitor 205 in an alarm / tracking information display processing step 109 described later.

次に、警報/追尾情報表示処理ステップ109では、画像拡大処理ステップ108で拡大された画像を画像出力部202iを介して画像モニタ205に表示する。また、例えば、侵入物体を追跡中であることを表す警報を監視員に伝えるため、画像出力部202iを介して画像モニタ205に侵入物体の情報を表示することや、警報出力部202jを介して警告灯206を点灯させることなどを行う。ここで、侵入物体の情報としては、例えば、移動量、移動経路などの情報を用いることが可能である。   Next, in the alarm / tracking information display processing step 109, the image enlarged in the image enlargement processing step 108 is displayed on the image monitor 205 via the image output unit 202i. In addition, for example, in order to transmit an alarm indicating that the intruding object is being tracked to the monitor, information on the intruding object is displayed on the image monitor 205 via the image output unit 202i, or via the alarm output unit 202j. For example, the warning lamp 206 is turned on. Here, as the information on the intruding object, for example, information such as a movement amount and a movement route can be used.

このように、本実施例によれば、機械式/光学式追跡でのカメラ雲台/撮像レンズの応答性の低さを電子的な画像の切り出し処理(ステップ107)と画像の拡大処理(ステップ108)で補い、電子式追跡で要求される広画角の撮像装置を機械式のカメラ雲台制御処理(ステップ106)で補い、また、解像度の低さを光学的な撮像レンズ制御処理(ステップ106)で補うことで、侵入物体を画像の中央に高速に捉えながら、できる限り高い解像度で画像モニタに出力しながら追跡処理を行うことができる。   As described above, according to the present embodiment, the low response of the camera head / imaging lens in mechanical / optical tracking is based on electronic image segmentation processing (step 107) and image enlargement processing (step 108), a wide-angle imaging device required for electronic tracking is supplemented by a mechanical camera pan head control process (step 106), and the low resolution is optical imaging lens control process (step 106), the tracking process can be performed while the intruding object is captured at the center of the image at a high speed and output to the image monitor with the highest possible resolution.

次に、図9を参照して、本実施例の効果を具体的に説明する。図9は、図7に示した侵入物体の追尾処理結果と同じ時刻の入力画像に対して、本実施例を適用した場合の一例を示すものである。図9においては、時刻t1、(t1+1)、(t1+2)、(t1+3)の入力画像をそれぞれ1001、1003、1005、1007とし(入力画像801、802、803、804と同じ)、その時の画像モニタ205に出力される部分画像の拡大結果をそれぞれ1002、1004、1006、1008としている。   Next, with reference to FIG. 9, the effect of a present Example is demonstrated concretely. FIG. 9 shows an example when the present embodiment is applied to the input image at the same time as the tracking processing result of the intruding object shown in FIG. In FIG. 9, the input images at times t1, (t1 + 1), (t1 + 2), and (t1 + 3) are 1001, 1003, 1005, and 1007 (same as the input images 801, 802, 803, and 804), and the image monitor at that time The enlargement results of the partial images output to 205 are 1002, 1004, 1006, and 1008, respectively.

図9中、侵入物体の位置1001a、1003a、1005a、1007a、テンプレート1001b、1003b、1005b、1007bは、それぞれ上記図8における侵入物体の位置801a、802a、803a、804a、テンプレート801b、802b、803b、804bと同じである。   9, the positions 1001a, 1003a, 1005a, and 1007a of the intruding objects are the positions 801a, 802a, 803a, and 804a of the intruding objects in FIG. 8 and the templates 801b, 802b, and 803b, respectively. Same as 804b.

図9において、時刻t1において、入力画像1001が得られ、侵入物体1001aが検出されている。この際、画像切り出し処理(ステップ107)では、侵入物体のテンプレート1001bに応じて、上記の通り、部分画像1001cを切り出す。そして、画像拡大処理(ステップ108)では、画像モニタ205に表示するために該部分画像1001cを拡大する。すると、画像モニタ205には、表示結果1002のように表示される。ここで、侵入物体は、1002aのように画面中央に表示される(ステップ109)。   In FIG. 9, an input image 1001 is obtained at time t1, and an intruding object 1001a is detected. At this time, in the image cutout process (step 107), the partial image 1001c is cut out as described above according to the template 1001b of the intruding object. In the image enlargement process (step 108), the partial image 1001c is enlarged for display on the image monitor 205. Then, a display result 1002 is displayed on the image monitor 205. Here, the intruding object is displayed at the center of the screen like 1002a (step 109).

次に、時刻(t1+1)では、部分画像1003cが切り出され(ステップ107)、拡大されて(ステップ108)、画像モニタ205に表示結果1004のように表示される(ステップ109)。さらに時刻(t1+2)では、部分画像1005cが切り出され(ステップ107)、拡大されて(ステップ108)、表示結果1006のように表示される(ステップ109)。時刻(t1+3)では、切り出す部分画像が入力画像と同じ大きさになったため、入力画像1007がそのまま表示結果1008となる。   Next, at time (t1 + 1), the partial image 1003c is cut out (step 107), enlarged (step 108), and displayed on the image monitor 205 as a display result 1004 (step 109). Further, at time (t1 + 2), the partial image 1005c is cut out (step 107), enlarged (step 108), and displayed as a display result 1006 (step 109). At time (t1 + 3), since the partial image to be cut out has the same size as the input image, the input image 1007 becomes the display result 1008 as it is.

なお、切り出す部分画像の大きさを入力画像の大きさより常に小さくするように、例えば、切り出す部分画像の大きさを入力画像の大きさの60%に抑えるようにすることも可能である。また、その際、上記した撮像レンズ201bの制御ではズームインの上限として、一例としてテンプレートの高さが400画素になる値を上限として用いていたが、より小さい値、例えば、テンプレートの高さが入力画像の高さの1/2、即ち、240画素になる値をズームインの上限として用いるようにすることも可能である。この場合、上記した画像拡大処理ステップ108では、必ず、部分画像を拡大しなければならないが、切り出す部分画像(テンプレートの大きさ)に対して、入力画像が大きいため侵入物体の上下、左右端から入力画像の上下端、左右端までの間隔を広くすることができる。したがって、侵入物体の上下、左右が入力画像上の視野の外側へ飛び出してしまうといった問題が生じる可能性が減少し、侵入物体追跡性能を向上させることができる。また、侵入物体の移動に応じて部分画像の切り出し位置を変えることで侵入物体の追尾ができるので物体移動に対する高速な応答を実現できる。   Note that, for example, the size of the partial image to be cut out can be suppressed to 60% of the size of the input image so that the size of the partial image to be cut out is always smaller than the size of the input image. At that time, in the control of the imaging lens 201b, as an upper limit for zooming in, a value at which the template height is 400 pixels is used as an upper limit as an example, but a smaller value, for example, the template height is input. It is also possible to use a value that is 1/2 the height of the image, that is, 240 pixels as the upper limit of zoom-in. In this case, in the image enlargement processing step 108 described above, the partial image must be enlarged. However, since the input image is larger than the partial image to be cut out (the size of the template), The interval between the upper and lower ends and the left and right ends of the input image can be increased. Therefore, the possibility that the top, bottom, left and right of the intruding object will jump out of the field of view on the input image is reduced, and the intruding object tracking performance can be improved. Further, since the intruding object can be tracked by changing the cutout position of the partial image according to the movement of the intruding object, a high-speed response to the object movement can be realized.

また、切り出す部分画像の位置を侵入物体の移動量(Δx,Δy)で補正することで、侵入物体の移動に追随しながら侵入物体の追跡が行え、侵入物体の表示上の見逃しを減少させることができる。この場合、部分画像の切り出し範囲1103の左上の座標(x0,y0)は(Cx−Sx/2+Δx,Cy−Sy/2+Δy)、部分画像の切り出し範囲1103の右下の座標(x1,y1)は(Cx+Sx/2+Δx,Cy+Sy/2+Δy)となる。   In addition, by correcting the position of the partial image to be cut out by the movement amount (Δx, Δy) of the intruding object, the intruding object can be tracked while following the movement of the intruding object, and the oversight of the intruding object on the display can be reduced. Can do. In this case, the upper left coordinates (x0, y0) of the partial image cutout range 1103 are (Cx−Sx / 2 + Δx, Cy−Sy / 2 + Δy), and the lower right coordinates (x1, y1) of the partial image cutout range 1103 are (Cx + Sx / 2 + Δx, Cy + Sy / 2 + Δy).

従って、本発明によれば、カメラ雲台・撮像レンズの応答性の低さの影響を抑えながら検出した侵入物体を画面の中央に捉え、侵入物体の解像度も撮像レンズの焦点距離変化に応じて徐々に高解像度の映像を表示することができる。   Therefore, according to the present invention, the detected intruding object is captured in the center of the screen while suppressing the influence of the low response of the camera head and the imaging lens, and the resolution of the intruding object also depends on the focal length change of the imaging lens. High-resolution video can be displayed gradually.

なお、上記図10に示した処理では、画像の切り出し位置をテンプレートの中央を基準に行ったが、例えば、テンプレートの中央よりも上の方等、テンプレートの中央以外の場所を基準として部分画像の切り出し処理を行うことも可能である。この際、テンプレートが表示結果からはみ出す可能性があるが、処理装置の対象としている画像は切り出し前の入力画像であるため、物体追跡処理ができなくなるようなことはない。例えば、テンプレートの中央よりも上の方に基準を設定した場合、侵入物体の顔を中心とした部分画像が得られる。また、部分画像として侵入物体の顔付近のみを切り出せば、侵入物体の顔のみを拡大した画像を画像モニタ205に出力させるようなことが可能である。   In the process shown in FIG. 10 above, the image cut-out position is determined based on the center of the template. For example, the position of the partial image is determined based on a location other than the center of the template, for example, above the center of the template. It is also possible to perform cutout processing. At this time, there is a possibility that the template protrudes from the display result, but since the target image of the processing apparatus is the input image before being cut out, the object tracking process is not disabled. For example, when the reference is set above the center of the template, a partial image centered on the face of the intruding object is obtained. Further, if only the vicinity of the face of the intruding object is cut out as a partial image, an image in which only the face of the intruding object is enlarged can be output to the image monitor 205.

また、本実施例では、侵入物体の画像モニタ205の表示画像上での大きさを一定に保つように画像拡大処理ステップ108を実行するように構成したが、侵入物体の入力画像上での大きさが小さいと画像の拡大処理によって著しく表示画像の解像度が低下する場合がある。このような場合には、部分画像切り出し処理ステップ107における部分画像の幅Sx及び高さSyに下限を設けることも可能である。例えば、部分画像の幅Sxと高さSyの下限をそれぞれ160、120画素分と設定すると、画像拡大処理ステップ108における拡大の倍率は最大で、640/Sx=640/160=4倍、480/Sy=480/120=4倍、となり、4倍以上の拡大は行われない。従って、侵入物体の表示画像上での大きさは一定ではなくなるものの、表示画像の解像度の低下を抑制することができる。   In this embodiment, the image enlargement processing step 108 is executed so as to keep the size of the intruding object on the display image of the image monitor 205, but the size of the intruding object on the input image is set. If the height is small, the resolution of the displayed image may be significantly reduced by the image enlargement process. In such a case, it is possible to set a lower limit for the width Sx and height Sy of the partial image in the partial image cutout processing step 107. For example, if the lower limits of the width Sx and the height Sy of the partial image are set to 160 and 120 pixels, respectively, the enlargement magnification in the image enlargement processing step 108 is the maximum, 640 / Sx = 640/160 = 4 times, 480 / Sy = 480/120 = 4 times, and enlargement of 4 times or more is not performed. Therefore, although the size of the intruding object on the display image is not constant, it is possible to suppress a decrease in the resolution of the display image.

また、画像モニタ205には、画像拡大処理(ステップ108)により拡大された部分画像の他、電子的な拡大を行ってない画像、すなわち、画像入力処理102a、104bにおける入力画像を表示させることも可能である。この際、入力画像と、拡大した部分画像とを左右に並べて画像モニタ205に表示させることも可能である。また、拡大した部分画像に重ねて、入力画像を縮小した画像を表示させるといったこと等も可能である。   In addition to the partial image enlarged by the image enlargement process (step 108), the image monitor 205 may display an image that has not been electronically enlarged, that is, an input image in the image input processes 102a and 104b. Is possible. At this time, the input image and the enlarged partial image can be displayed side by side on the image monitor 205. It is also possible to display an image obtained by reducing the input image so as to overlap the enlarged partial image.

本発明の別の実施例を以下で説明する。
本発明では上記した侵入物体の画像上の大きさ以外の要素、例えば、侵入物体の画像上での移動量に基づいて、撮像レンズ201bの制御を行うことも可能である。本実施例では侵入物体の画像上での移動量に基づいて、撮像レンズ201bの制御を行う。具体的には、侵入物体の画像上での移動量が所定の値未満である(又は、所定の値以下である)場合は撮像レンズ201bをズームインし、侵入物体の画像上での移動量が所定の値以上である(又は、所定の値を超える)場合は撮像レンズ201bをズームアウトする。以下でこの処理を図11と図12に言及して説明する。
Another embodiment of the present invention is described below.
In the present invention, it is also possible to control the imaging lens 201b based on an element other than the above-described size of the intruding object on the image, for example, an amount of movement of the intruding object on the image. In this embodiment, the imaging lens 201b is controlled based on the amount of movement of the intruding object on the image. Specifically, when the amount of movement of the intruding object is less than a predetermined value (or less than the predetermined value), the imaging lens 201b is zoomed in, and the amount of movement of the intruding object on the image is If it is greater than or equal to a predetermined value (or exceeds a predetermined value), the imaging lens 201b is zoomed out. This process will be described below with reference to FIGS. 11 and 12.

図11は、図2の画像監視装置により行われる差分法及びテンプレートマッチング法を用いた物体追跡処理の手順の別の例を示す。なお、図11に示す手順の内ステップ101から104(及び105)までは図1と同様なので説明を省略する。図12は本実施例におけるズーム倍率の設定の一例を説明する為の図である。   FIG. 11 shows another example of the procedure of the object tracking process using the difference method and the template matching method performed by the image monitoring apparatus of FIG. Note that steps 101 to 104 (and 105) in the procedure shown in FIG. 11 are the same as those in FIG. FIG. 12 is a diagram for explaining an example of setting the zoom magnification in the present embodiment.

図1と同様、ステップ105において、ワークメモリ202gに記録された、現在の入力画像を取得した時点の撮像レンズ201bの焦点距離fを取得する。
次に、テンプレートマッチング処理(ステップ104)で得られた侵入物体の移動量(Δx、 Δy)に基いて、式4によりズーム倍率rfを算出する(ステップ110)。
As in FIG. 1, in step 105, the focal length f of the imaging lens 201b recorded in the work memory 202g when the current input image is acquired is acquired.
Next, based on the movement amount (Δx, Δy) of the intruding object obtained in the template matching process (step 104), the zoom magnification rf is calculated by equation 4 (step 110).

式4において、Mx、Myは、既に説明したとおり、テンプレートマッチング法における探索範囲を表している。Kx,Kyは、安定に追跡することが可能な侵入物体の画像上での最大移動量を表しており、例えば、探索範囲の半分程度、即ち、この例では、Mx=50、My=20とし、Kx=25、Ky=10とする。なお、KxやKyの値は、例えば、物体が探索範囲から外れないように探索範囲の半分程度で余裕をもたせるといった程度の要求を満たす値であればよいが、実際には、シミュレーションや実験などを行って設定する。 In Expression 4, Mx and My represent search ranges in the template matching method as already described. Kx and Ky represent the maximum movement amount on the image of the intruding object that can be stably tracked. For example, about half of the search range, that is, in this example, Mx = 50 and My = 20. , Kx = 25 and Ky = 10. It should be noted that the values of Kx and Ky may be values that satisfy the requirement of, for example, providing a margin at about half of the search range so that the object does not deviate from the search range. To set.

また、式4では、侵入物体の移動量が(Δx、 Δy)=(0、0)の場合には、つまり侵入物体の移動量がゼロである場合には、ズーム倍率rf=1.5としている。
なお、例えば、ズーム倍率rfが所定の値以上になった場合には、ズーム倍率rfを当該所定の値にして、急激にズームインしないようにしてもよい。当該所定の値としては、例えば、1.5を用いることができる。この場合、1回のズームインで最大50%のズームインまで可能となる。
In Expression 4, when the moving amount of the intruding object is (Δx, Δy) = (0, 0), that is, when the moving amount of the intruding object is zero, the zoom magnification rf = 1.5. Yes.
Note that, for example, when the zoom magnification rf is equal to or greater than a predetermined value, the zoom magnification rf may be set to the predetermined value so as not to zoom in rapidly. As the predetermined value, for example, 1.5 can be used. In this case, it is possible to zoom in up to 50% with one zoom-in.

このように、1回のズームインにおける最大のズームイン倍率rf(上限値)を設定すると、例えば、入力画像の端近くで検出された物体はズームインによって画像上の視野の外側に飛び出してしまうといった問題を抑制することができる。   In this way, when the maximum zoom-in magnification rf (upper limit value) in one zoom-in is set, for example, an object detected near the end of the input image jumps out of the field of view on the image due to zoom-in. Can be suppressed.

また、例えば、ズーム倍率rfの上限値を可変とするような構成を用いることも可能である。このような構成では、例えば、入力画像の画面サイズと比べてテンプレートが小さすぎる場合に、ズーム倍率rfの上限値を1.5より大きい値とすることも可能である。   Further, for example, a configuration in which the upper limit value of the zoom magnification rf is variable can be used. In such a configuration, for example, when the template is too small compared to the screen size of the input image, the upper limit value of the zoom magnification rf can be set to a value larger than 1.5.

また、例えば、テンプレートの高さに基づいてズームインを制限するようにしてもよい。例えば、画像の画面の高さがテンプレートの高さの120%以上となる範囲でしかズームインを行わないようにしてもよいし、或いは、画像の画面の幅がテンプレートの幅の120%以上となる範囲でしかズームインを行わないようにしてもよい。これにより、侵入物体の移動量(Δx、 Δy)が小さくて多数回のズームインがなされてテンプレートが画面のサイズを超えてしまうようなことを防ぐことができ、画像を見易くして、安定した動作を確保することができる。   Further, for example, zoom-in may be limited based on the height of the template. For example, zoom-in may be performed only in a range where the image screen height is 120% or more of the template height, or the image screen width is 120% or more of the template width. You may make it zoom in only within the range. As a result, the amount of movement of the intruding object (Δx, Δy) is small, and it is possible to prevent the template from exceeding the size of the screen due to multiple zoom-ins, making it easy to see the image and stable operation. Can be secured.

また、テンプレートと画面の上端、下端、左端、右端までのそれぞれの距離に基いてズームインに上限を設けるようにしてもよい。例えば、図12に示すように、テンプレート172と画面171の上端、下端、左端、右端までの距離をそれぞれdu、db、dl、drとし、テンプレート172の上辺、下辺、左辺、右辺がズームインによって画面の外に超える倍率120/(120−du)、120/(120−db)、160/(160−dl)、160/(160−dr)の中で負の値を除いて最も小さい倍率をズームインの上限とする。ここで、画面サイズとして、幅320画素、高さ240画素を想定した。   In addition, an upper limit may be set for zooming in based on the distance between the template and the upper end, lower end, left end, and right end of the screen. For example, as shown in FIG. 12, the distances between the template 172 and the top, bottom, left, and right edges of the screen 171 are du, db, dl, and dr, respectively, and the top, bottom, left, and right sides of the template 172 are zoomed in on the screen. Zoom out to the smallest magnification except for negative values of 120 / (120-du), 120 / (120-db), 160 / (160-dl), 160 / (160-dr) The upper limit of. Here, the screen size is assumed to be 320 pixels wide and 240 pixels high.

また、対象物体の移動量の予測を行う場合には、前フレームでの対象物体の移動量を(Δx’、 Δy’)とした場合、120/[120−(du+Δy’)]、120/[120−(db−Δy’)]、160/[160−(dl+Δx’)]、160/[160−(dr−Δx’)]として、上記と同様にして、テンプレートの上辺、下辺、左辺、右辺がズームインによって画面の外に超える倍率(ズームインの倍率の上限)を算出する。   Further, when the movement amount of the target object is predicted, when the movement amount of the target object in the previous frame is (Δx ′, Δy ′), 120 / [120− (du + Δy ′)], 120 / [ 120− (db−Δy ′)], 160 / [160− (dl + Δx ′)], 160 / [160− (dr−Δx ′)], the upper side, the lower side, the left side, and the right side of the template in the same manner as described above. Magnification that exceeds the outside of the screen by zooming in (upper limit of zooming-in magnification) is calculated.

なお、例えば、テンプレート172と画面171の上端、下端までの距離du、dbの内で短い方のみに基づきズームインの倍率の上限を算出してもよく、また、テンプレート172と画面171の左端、右端までの距離dl、drの内で短い方のみに基づきズームインの倍率の上限を算出してもよい。   Note that, for example, the upper limit of the zoom-in magnification may be calculated based only on the shorter one of the distances du and db between the template 172 and the upper and lower ends of the screen 171, and the left and right edges of the template 172 and the screen 171 The upper limit of the zoom-in magnification may be calculated based only on the shorter one of the distances dl and dr.

以上のようにして侵入物体の画像上での移動量に基づいて撮像レンズ201bのズーム倍率を算出し、雲台/レンズ制御ステップ106においてレンズ制御部202cを介して撮像レンズ201bの焦点距離をf×rfに調整することになる。   As described above, the zoom magnification of the imaging lens 201b is calculated based on the amount of movement of the intruding object on the image, and the focal length of the imaging lens 201b is set to f via the lens control unit 202c in the pan / lens control step 106. It will be adjusted to xrf.

以上で侵入物体の画像上での移動量に基づいて撮像レンズ201bの制御を行うことについての説明を終える。ステップ107−109は図1の実施例と同様なので説明は省略する。   This is the end of the description of controlling the imaging lens 201b based on the amount of movement of the intruding object on the image. Steps 107-109 are the same as in the embodiment of FIG.

なお、上記実施例では、画像から物体を検出する方法として差分法を例として用い、また、物体の移動量を検出する方法としてテンプレートマッチング法を例として用いたが、例えば、本例と同様に侵入物体の移動量を検出しながら追跡することが可能な方法であれば、種々な方法が用いられてもよい。   In the above embodiment, the difference method is used as an example of a method for detecting an object from an image, and the template matching method is used as an example of a method for detecting the amount of movement of an object. For example, as in this example, Various methods may be used as long as they can be tracked while detecting the amount of movement of the intruding object.

また、上記記載は実施例についてなされたが、本発明はその精神とクレームの範囲で種々の変更及び修正をすることが出来ることは当業者に明らかである。
例えば、本発明に係る物体追跡装置や画像監視装置などの構成としては、必ずしも以上に示したものに限られず、種々な構成が用いられてもよい。
Moreover, although the said description was made | formed about the Example, it is clear to those skilled in the art that this invention can make a various change and correction in the range of the mind and the claim.
For example, the configurations of the object tracking device and the image monitoring device according to the present invention are not necessarily limited to those described above, and various configurations may be used.

更に、例えば、実施例では撮像装置の撮像レンズとしてズームレンズで説明したが、これに限らず種々なものが用いられてもよい。
また、撮像レンズ制御ステップは、入力画像中における物体の大きさが所定範囲を満足するように、或いは、前記画像中における物体の移動量が所定の値範囲を満足するようように撮像手段の撮像レンズのズーム倍率を算出してもよい。
Furthermore, for example, in the embodiments, the zoom lens has been described as the imaging lens of the imaging apparatus, but the present invention is not limited to this, and various types may be used.
In the imaging lens control step, the imaging means performs imaging so that the size of the object in the input image satisfies a predetermined range, or the movement amount of the object in the image satisfies a predetermined value range. The zoom magnification of the lens may be calculated.

また、部分画像設定の設定方法としては種々なものが用いられてもよい。また、画像拡大手段としては、画像を電子的に拡大する手段の他、種々なものが用いられてもよい。
また、入力画像中の物体検出手段による検出結果に基づいて撮像手段の撮像レンズを制御する態様としては、種々な態様が用いられてもよい。また、入力画像中の物体検出手段による検出結果に基づいて撮像手段の撮像レンズのズーム倍率を算出する仕方としては、種々な仕方が用いられてもよい。
Various setting methods for partial image setting may be used. In addition to the means for electronically enlarging the image, various types of image enlargement means may be used.
Various modes may be used as a mode for controlling the imaging lens of the imaging unit based on the detection result by the object detection unit in the input image. Various methods may be used for calculating the zoom magnification of the imaging lens of the imaging unit based on the detection result of the object detection unit in the input image.

また、ズーム倍率の算出結果に基づいて撮像手段の撮像レンズを制御する仕方としては、種々な仕方が用いられてもよく、例えば、算出されるズーム倍率を実現するように撮像手段の撮像レンズを動かすような仕方を用いることができる。   Various methods may be used as a method of controlling the imaging lens of the imaging unit based on the calculation result of the zoom magnification. For example, the imaging lens of the imaging unit is used so as to realize the calculated zoom magnification. A way of moving can be used.

また、画像中における物体の大きさ、移動量としては、例えば、画像のフレーム中において物体の大きさ、物体が移動する量に相当し、一例として、フレームを構成する画素の数を基準として検出することが可能である。 また、画像中における物体の大きさに関する所定範囲としては、種々な値が用いられてもよく、例えば、フレームにおいて物体の大きさが大きすぎないようにすることなどを考慮して設定することができる。また、画像中における物体の移動量に関する所定範囲としては、種々な値が用いられてもよく、例えば、フレームにおいて物体の移動速度が速すぎないようにすることなどを考慮して設定することができる。   The size and amount of movement of an object in the image correspond to, for example, the size of the object and the amount of movement of the object in the frame of the image. For example, the detection is performed based on the number of pixels constituting the frame. Is possible. In addition, various values may be used as the predetermined range related to the size of the object in the image. For example, it may be set in consideration that the size of the object is not too large in the frame. it can. Various values may be used as the predetermined range related to the amount of movement of the object in the image. For example, the predetermined range may be set in consideration of preventing the movement speed of the object from being too fast in the frame. it can.

従って、上記実施例の物体追跡方法及び物体追跡装置によると、撮像により得られた画像信号に基づいて画像中の物体を追跡するに際して、撮像を行う撮像レンズの制御と、画像の電子的拡大処理により、例えば、物体の移動に十分高速に追随して物体の画像を十分な解像度で取得することができる。   Therefore, according to the object tracking method and the object tracking device of the above embodiment, when tracking an object in an image based on an image signal obtained by imaging, control of an imaging lens that performs imaging and electronic enlargement processing of the image Thus, for example, the image of the object can be acquired with sufficient resolution by following the movement of the object at a sufficiently high speed.

ここで、本発明は、例えば本発明に係る処理を実行する方法或いは方式や、このような方法や方式を実現するためのプログラムなどとして提供することも可能であり、また、例えば物体追跡装置などの種々な装置やシステムとして提供することも可能である。   Here, the present invention can be provided as, for example, a method or method for executing the processing according to the present invention, a program for realizing such a method or method, and the like, for example, an object tracking device, etc. It can also be provided as various devices and systems.

また、本発明の適用分野としては、必ずしも以上に示したものに限られず、本発明は、種々な分野に適用することが可能なものである。
また、本発明に係る物体追跡装置や画像監視装置などにおいて行われる各種の処理としては、例えばプロセッサやメモリ等を備えたハードウエア資源においてプロセッサがROM(Read Only Memory)に格納された制御プログラムを実行することにより制御される構成が用いられてもよく、また、例えば当該処理を実行するための各機能手段が独立したハードウエア回路として構成されてもよい。
The application field of the present invention is not necessarily limited to the above-described fields, and the present invention can be applied to various fields.
In addition, as various processes performed in the object tracking device and the image monitoring device according to the present invention, for example, a control program stored in a ROM (Read Only Memory) in a hardware resource including a processor, a memory, etc. A configuration controlled by execution may be used, and for example, each functional unit for executing the processing may be configured as an independent hardware circuit.

また、本発明は上記の制御プログラムを格納したフレキシブルディスクやCD(Compact Disc)−ROM等のコンピュータにより読み取り可能な記録媒体や当該プログラム(自体)として把握することもでき、当該制御プログラムを記録媒体からコンピュータに入力してプロセッサに実行させることにより、本発明に係る処理を遂行させることができる。   Further, the present invention can also be grasped as a computer-readable recording medium such as a flexible disk or a CD (Compact Disc) -ROM storing the above control program, or the program (itself). Then, the processing according to the present invention can be performed by causing the processor to input to the computer.

本発明の一実施例に係る画像監視装置により行われる物体追跡処理の手順の一例を示す図である。It is a figure which shows an example of the procedure of the object tracking process performed by the image monitoring apparatus which concerns on one Example of this invention. 本発明の一実施例に係る画像監視装置の構成例を示す図である。It is a figure which shows the structural example of the image monitoring apparatus which concerns on one Example of this invention. 差分法を用いて侵入者を検出する処理の一例の概略と、当該侵入物体の画像をテンプレートに登録する処理の一例の概略を示す図である。It is a figure which shows the outline of an example of the process which detects an intruder using a difference method, and the outline of an example of the process which registers the image of the said intruding object into a template. テンプレートマッチング法による侵入物体の移動量の検出処理を逐次実行して侵入物体を追跡する処理の流れの一例を示す図である。It is a figure which shows an example of the flow of a process which performs the detection process of the movement amount of the intruding object by a template matching method sequentially, and tracks an intruding object. 検出物体の位置に基づいてカメラ雲台を制御する動作の一例を示す図である。It is a figure which shows an example of the operation | movement which controls a camera platform based on the position of a detection object. テンプレートの拡大・縮小の様子の一例を示す図である。It is a figure which shows an example of the mode of expansion / reduction of a template. テンプレートの拡大・縮小の様子の一例を示す図である。It is a figure which shows an example of the mode of expansion / reduction of a template. カメラ雲台及び撮像レンズを制御する動作の一例の概略を示す図である。It is a figure which shows the outline of an example of the operation | movement which controls a camera pan head and an imaging lens. 入力画像の一部を電子的に拡大する処理の様子の一例を示す図である。It is a figure which shows an example of the mode of the process which expands a part of input image electronically. 本発明の一実施例に係る画像監視装置により行われる物体追跡処理の様子の一例を示す図である。It is a figure which shows an example of the mode of the object tracking process performed by the image monitoring apparatus which concerns on one Example of this invention. 部分画像の切り出し処理の様子の一例を示す図である。It is a figure which shows an example of the mode of the extraction process of a partial image. 本発明の別の実施例による物体追跡処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the object tracking process by another Example of this invention. 図11の実施例における撮像レンズのズーミング倍率設定の一例を説明するための図である。It is a figure for demonstrating an example of the zooming magnification setting of the imaging lens in the Example of FIG.

符号の説明Explanation of symbols

201:撮像装置、201a:TVカメラ、201b:ズームレンズ、201c:カメラ雲台、202:処理装置、202a:画像入力部、202b:雲台制御部、202c:レンズ制御部、202d:操作入力部、202e:画像メモリ、202f:MPU、203g:ワークメモリ、202h:外部入出力部、202i:画像出力部、202j:警報出力部、202k:データバス、203:操作手段、203a:ジョイスティック、203b:ボタン、203c:ボタン、204:外部記憶装置、205:画像モニタ、206:警告灯。
201: Imaging device, 201a: TV camera, 201b: Zoom lens, 201c: Camera head, 202: Processing device, 202a: Image input unit, 202b: Head control unit, 202c: Lens control unit, 202d: Operation input unit 202e: image memory, 202f: MPU, 203g: work memory, 202h: external input / output unit, 202i: image output unit, 202j: alarm output unit, 202k: data bus, 203: operation means, 203a: joystick, 203b: Button 203c: Button 204: External storage device 205: Image monitor 206: Warning light

Claims (7)

撮像方向とズーム量が制御可能な撮像手段を用いて物体を追跡する物体追跡方法であって、
前記撮像手段から得られた入力画像内の前記物体の画像の特徴量を少なくとも1つ検出し、
前記物体の追跡のため、前記検出された特徴量に基づいて前記撮像手段を制御し、
前記検出された特徴量に基づいて前記入力画像内に前記物体の画像を含む部分領域の範囲を設定し、
前記設定された部分領域の範囲の画像を拡大する、
ことを特徴とする物体追跡方法。
An object tracking method for tracking an object using an imaging means capable of controlling an imaging direction and a zoom amount,
Detecting at least one feature quantity of the image of the object in the input image obtained from the imaging means;
For tracking the object, controlling the imaging means based on the detected feature amount,
Setting a range of a partial region including the image of the object in the input image based on the detected feature amount;
Magnifying an image of the set partial area range;
An object tracking method characterized by the above.
請求項1に記載の物体追跡方法において、
前記少なくとも1つの特徴量は、前記物体の画像の位置、大きさ、移動量の少なくともいずれかを含む、
ことを特徴とする物体追跡方法。
The object tracking method according to claim 1,
The at least one feature amount includes at least one of a position, a size, and a movement amount of the image of the object.
An object tracking method characterized by the above.
請求項2に記載の物体追跡方法において、
前記物体の画像の位置に基づいて前記部分領域の範囲の位置を設定し、
前記物体の画像の大きさに基づいて前記部分領域の範囲の大きさを設定する、
ことを特徴とする物体追跡方法。
The object tracking method according to claim 2,
Setting the position of the range of the partial region based on the position of the image of the object;
Setting the size of the range of the partial area based on the size of the image of the object;
An object tracking method characterized by the above.
請求項3に記載の物体追跡方法において、
前記部分領域の範囲の大きさと所定の画像表示サイズとに基づいて設定した拡大率で、前記部分領域の範囲の画像を拡大する、
ことを特徴とする物体追跡方法。
The object tracking method according to claim 3,
Magnifying the image of the partial area range at an enlargement ratio set based on the size of the partial area range and a predetermined image display size;
An object tracking method characterized by the above.
請求項3に記載の物体追跡方法において、
前記物体の画像の大きさに基づいて前記撮像手段の撮像レンズのズーム量の上限を設定し、前記部分領域の範囲の大きさは、前記入力画像の大きさの予め設定した1より小さい割合以下になるように設定される、
ことを特徴とする物体追跡方法。
The object tracking method according to claim 3,
An upper limit of the zoom amount of the imaging lens of the imaging unit is set based on the size of the image of the object, and the size of the range of the partial area is less than a preset ratio of 1 of the size of the input image Set to be
An object tracking method characterized by the above.
請求項2に記載の物体追跡方法において、
前記物体の画像の移動量に依存して前記撮像手段のズーム量を変える、
ことを特徴とする物体追跡方法。
The object tracking method according to claim 2,
Changing the zoom amount of the imaging means depending on the amount of movement of the image of the object;
An object tracking method characterized by the above.
請求項2に記載の物体追跡方法において、
前記物体の画像の大きさに依存して前記撮像手段のズーム量を変える、
ことを特徴とする物体追跡方法。
The object tracking method according to claim 2,
Changing the zoom amount of the imaging means depending on the size of the image of the object;
An object tracking method characterized by the above.
JP2004254586A 2003-09-05 2004-09-01 Object tracking method Pending JP2005100388A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004254586A JP2005100388A (en) 2003-09-05 2004-09-01 Object tracking method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003314263 2003-09-05
JP2004254586A JP2005100388A (en) 2003-09-05 2004-09-01 Object tracking method

Publications (1)

Publication Number Publication Date
JP2005100388A true JP2005100388A (en) 2005-04-14

Family

ID=34467693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004254586A Pending JP2005100388A (en) 2003-09-05 2004-09-01 Object tracking method

Country Status (1)

Country Link
JP (1) JP2005100388A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009055139A (en) * 2007-08-23 2009-03-12 Hitachi Kokusai Electric Inc Person tracking system, person tracking apparatus, and person tracking program
JP2009130878A (en) * 2007-11-28 2009-06-11 Sony Corp Imaging apparatus and method, information processing apparatus and method, and program
JP2011253381A (en) * 2010-06-02 2011-12-15 Toshiba Corp Target tracking device and target tracking method
JP2015097089A (en) * 2014-11-21 2015-05-21 株式会社Jvcケンウッド Object detection device and object detection method
JP2019068184A (en) * 2017-09-29 2019-04-25 セコム株式会社 Monitoring device
CN112446241A (en) * 2019-08-29 2021-03-05 阿里巴巴集团控股有限公司 Method and device for obtaining characteristic information of target object and electronic equipment
JP2023030504A (en) * 2021-08-23 2023-03-08 株式会社デジマース Paddock imaging apparatus and horse information distribution system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009055139A (en) * 2007-08-23 2009-03-12 Hitachi Kokusai Electric Inc Person tracking system, person tracking apparatus, and person tracking program
US8144929B2 (en) 2007-08-23 2012-03-27 Hitachi Kokusai Electric Inc. Human pursuit system, human pursuit apparatus and human pursuit program
JP2009130878A (en) * 2007-11-28 2009-06-11 Sony Corp Imaging apparatus and method, information processing apparatus and method, and program
US8284268B2 (en) 2007-11-28 2012-10-09 Sony Corporation Imaging apparatus and method, information processing apparatus and method, and recording medium storing a program therefor
JP2011253381A (en) * 2010-06-02 2011-12-15 Toshiba Corp Target tracking device and target tracking method
JP2015097089A (en) * 2014-11-21 2015-05-21 株式会社Jvcケンウッド Object detection device and object detection method
JP2019068184A (en) * 2017-09-29 2019-04-25 セコム株式会社 Monitoring device
CN112446241A (en) * 2019-08-29 2021-03-05 阿里巴巴集团控股有限公司 Method and device for obtaining characteristic information of target object and electronic equipment
JP2023030504A (en) * 2021-08-23 2023-03-08 株式会社デジマース Paddock imaging apparatus and horse information distribution system
JP7689337B2 (en) 2021-08-23 2025-06-06 株式会社デジマース Paddock imaging device, horse information distribution system

Similar Documents

Publication Publication Date Title
KR100676232B1 (en) Computer-readable recording medium recording object tracking method, object tracking device and program of calculator for object tracking
JP5810296B2 (en) Image display device and image display method
JP4699040B2 (en) Automatic tracking control device, automatic tracking control method, program, and automatic tracking system
US7548269B2 (en) System for autofocusing a moving object
KR100432870B1 (en) Intruding object monitoring method and intruding object monitoring system
US8248480B2 (en) Imaging apparatus provided with panning mode for taking panned image
US7561790B2 (en) Auto focus system
US20090268074A1 (en) Imaging apparatus and imaging method
US7962029B2 (en) Auto focus system having AF frame auto-tracking function
JP6574645B2 (en) Control device for controlling imaging apparatus, control method for imaging apparatus, and program
US20100277596A1 (en) Automatic tracking apparatus and automatic tracking method
JP2017046355A (en) Imaging apparatus
JP2007166269A (en) Image processing apparatus, imaging apparatus, and image processing method
JP2011091546A (en) Intruding object detection system
JP4745769B2 (en) Camera head unit
JP4948294B2 (en) Imaging apparatus, imaging apparatus control method, and program
JP2005135014A (en) Object detection device
JP4596246B2 (en) Auto focus system
JP2005100388A (en) Object tracking method
JP4444746B2 (en) Object tracking method and object tracking device
JP3828096B2 (en) Object tracking device
JP4866557B2 (en) Video signal processing apparatus, imaging apparatus equipped with the video signal processing apparatus, video signal processing method, and video signal processing program
JPH08116485A (en) Object tracking device and tracking method for video camera
JP4572190B2 (en) Object detection device
JP2000175101A (en) Automatic tracking device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090915