[go: up one dir, main page]

JP2006267220A - Auto focus system - Google Patents

Auto focus system Download PDF

Info

Publication number
JP2006267220A
JP2006267220A JP2005081959A JP2005081959A JP2006267220A JP 2006267220 A JP2006267220 A JP 2006267220A JP 2005081959 A JP2005081959 A JP 2005081959A JP 2005081959 A JP2005081959 A JP 2005081959A JP 2006267220 A JP2006267220 A JP 2006267220A
Authority
JP
Japan
Prior art keywords
image
reference pattern
pattern image
frame
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2005081959A
Other languages
Japanese (ja)
Inventor
Kunio Tanida
邦男 谷田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujinon Corp
Original Assignee
Fujinon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujinon Corp filed Critical Fujinon Corp
Priority to JP2005081959A priority Critical patent/JP2006267220A/en
Priority to US11/317,075 priority patent/US7561790B2/en
Priority to DE602005000987T priority patent/DE602005000987T2/en
Priority to EP05028593A priority patent/EP1677521B1/en
Priority to AT05028593T priority patent/ATE360954T1/en
Publication of JP2006267220A publication Critical patent/JP2006267220A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an auto focus (AF) system capable of setting a range for capturing a reference pattern image in pattern matching to an appropriate range by extracting the image of a target subject by the extraction of a difference between the photographing images of front and rear frames in an automatic follow-up function for following the target subject brought into focus by AF on an image plane by the pattern matching. <P>SOLUTION: A follow-up device 16 in a television camera or the like stores the image of the follow-up target subject as the reference pattern image, and detects the image matching with the reference pattern image in the newly captured photographing images of the frames by the pattern matching, thereby detecting the position of the target subject. The reference pattern image is successively updated, and the range of a reference pattern frame where the reference pattern image is newly captured in such a case is set to a range in accordance with the position and the size of the image of the target subject by the extraction of the difference between the photographing images of the front and rear frames. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明はオートフォーカスシステムに係り、特にカメラの撮影画像の画面上において所望の対象被写体をピント合わせの対象として追尾する自動追尾機能を備えたオートフォーカスシステムに関する。   The present invention relates to an autofocus system, and more particularly to an autofocus system having an automatic tracking function for tracking a desired target subject as a focus target on a screen of a captured image of a camera.

テレビカメラのように撮影素子(CCD等)により被写体の画像を電気信号(画像信号)に変換する撮像システムでは、オートフォーカス(以下、AFと記す)の方式として一般的にコントラスト方式が採用されている。コントラスト方式は、撮像素子により取り込まれた画像信号から被写体画像のコントラストを検出し、そのコントラストが最も高くなるように撮影レンズのフォーカスを制御することによって最良ピント状態(合焦状態)に自動でピント合わせを行う方式である。   In an imaging system that converts an image of a subject into an electrical signal (image signal) by a photographing element (CCD or the like) like a television camera, a contrast method is generally adopted as an autofocus (hereinafter referred to as AF) method. Yes. In the contrast method, the contrast of the subject image is detected from the image signal captured by the image sensor, and the focus of the photographic lens is controlled so that the contrast becomes the highest, thereby automatically focusing on the best focus state (in-focus state). This is a method of matching.

コントラスト方式のようなAFでは、カメラの撮影範囲内にある被写体の全体をAFの対象とするのではなく、撮影範囲のうちの一部の範囲にある被写体のみを対象とすることが多い。コントラスト方式のAFでは、撮像素子の撮像エリア全体により取り込まれた画像信号のうち、AFの対象とする範囲の画像信号を抽出し、その抽出した範囲の画像信号のコントラストが最も高くなるようにフォーカスを制御することによってAFの対象を一部の範囲の被写体のみに限定している。尚、本明細書ではカメラの撮影範囲のうちAFの対象とする被写体の範囲、又は、カメラの撮影画像の画面上においてAFの対象とする被写体の画像範囲をAFエリアといい、そのAFエリアの輪郭を示す枠をAF枠というものとする。   In AF such as a contrast method, the entire subject within the shooting range of the camera is not targeted for AF, but only the subject within a part of the shooting range is often targeted. In contrast-based AF, an image signal in a range targeted for AF is extracted from image signals captured by the entire imaging area of the image sensor, and focus is performed so that the contrast of the image signal in the extracted range is the highest. By controlling this, the target of AF is limited to only a certain range of subjects. In this specification, the range of the subject to be AF in the shooting range of the camera or the image range of the subject to be AF on the screen of the camera shot image is referred to as an AF area, and the AF area A frame indicating an outline is referred to as an AF frame.

また、従来、撮影画像の画面上において単一のAFエリアが所定位置に固定して設定される場合、標準的には矩形のAFエリアが画面中央に設定されるが、操作者の操作によってAFエリアの位置を変更可能にしたものも知られている(例えば、特許文献1参照)。
特開2002−365519号公報
Conventionally, when a single AF area is fixedly set at a predetermined position on the screen of a captured image, a rectangular AF area is normally set at the center of the screen. There is also known one in which the position of the area can be changed (for example, see Patent Document 1).
JP 2002-365519 A

特許文献1のようにAFエリアを所望の位置に変更できるようにした場合において、ピントを合わせたい対象被写体が画面上で移動する物体の場合には、操作者はトラックボールやジョイスティック等の操作装置を操作してその対象被写体の動きに合わせてAFエリアの位置を動かす必要がある。そのため、その操作の手間や注意力を要するという問題があった。   In the case where the AF area can be changed to a desired position as in Patent Document 1, when the target subject to be focused is an object that moves on the screen, the operator operates an operation device such as a trackball or a joystick. To move the position of the AF area in accordance with the movement of the target subject. For this reason, there has been a problem that the operation is troublesome and requires attention.

そこで、移動する対象被写体に対してAFエリアを自動で追尾させるようにすると操作者がAFエリアの位置を操作する手間がなくなるため効果的である。例えば、ソース画像内から特定の基準パターン画像を検出する方法としていわゆるパターンマッチングの技術が知られており、その技術を応用することによって撮影画像の中から特定の対象被写体の画像を検出することができ、検出した対象被写体の位置にAFエリアを移動させることによってAFエリアを対象被写体に追尾させることができるようになる。   Therefore, if the AF area is automatically tracked with respect to the moving subject, it is effective because the operator does not have to operate the position of the AF area. For example, a so-called pattern matching technique is known as a method for detecting a specific reference pattern image from a source image, and an image of a specific target subject can be detected from a captured image by applying the technique. The AF area can be tracked to the target subject by moving the AF area to the position of the detected target subject.

一方、パターンマッチングでは、撮影画像(映像)の画面上における対象被写体の形状や大きさが変化すると、対象被写体の画像として事前に記憶させておいた基準パターン画像と合致しなくなるため、対象被写体の画像を検出することが困難となる。そこで、パターンマッチングにより対象被写体の画像を検出した際に、その対象被写体の画像で基準パターン画像を更新するようにすると、次の検出時における基準パターン画像と対象被写体の画像とに大きな差異が生じることなく、対象被写体の画像を適切に検出することができる。   On the other hand, in pattern matching, if the shape or size of the target subject on the screen of the captured image (video) changes, it will not match the reference pattern image stored in advance as the target subject image. It becomes difficult to detect an image. Therefore, if the reference pattern image is updated with the target subject image when the target subject image is detected by pattern matching, a large difference occurs between the reference pattern image and the target subject image at the next detection. Therefore, it is possible to appropriately detect the image of the target subject.

しかしながら、基準パターン画像を更新する場合であってもその基準パターン画像として撮影画像の中から取り込む画像の大きさが一定であると、例えば対象被写体が遠くに移動した場合やカメラのズームをワイド側に変更した場合のように、画面上での対象被写体の画像が小さくなった場合に、基準パターン画像の中に対象被写体以外の背景画像が多く含まれるようになる。基準パターン画像の中に対象被写体以外の画像が含まれると、対象被写体の画像の検出が難くなるという問題が生じる。   However, even when the reference pattern image is updated, if the size of the image captured from the captured image as the reference pattern image is constant, for example, when the target subject moves far away or the camera zoom is set to the wide side. When the image of the target subject on the screen becomes small as in the case of changing to the reference pattern image, many background images other than the target subject are included in the reference pattern image. If an image other than the target subject is included in the reference pattern image, there arises a problem that it becomes difficult to detect the image of the target subject.

本発明はこのような事情に鑑みてなされたもので、AFによりピントを合わせる対象被写体を画面上で自動で追尾する自動追尾機能において、対象被写体の画像の位置や大きさを考慮してパターンマッチングにおける基準パターン画像を適切な画像に自動で設定することができるオートフォーカスシステムを提供することを目的とする。   The present invention has been made in view of such circumstances. In an automatic tracking function for automatically tracking a target subject to be focused by AF on a screen, pattern matching is performed in consideration of the position and size of the image of the target subject. It is an object of the present invention to provide an autofocus system capable of automatically setting a reference pattern image as an appropriate image.

前記目的を達成するために、請求項1に記載のオートフォーカスシステムは、光学系により結像された被写体像を撮像する撮像手段と、ピントを合わせる対象として追尾する対象被写体の画像を基準パターン画像として記憶する基準パターン画像記憶手段と、前記撮像手段により得られた撮影画像の画面上において前記基準パターン画像記憶手段により記憶されている基準パターン画像と合致する画像を検出し、該検出した画像の画面上での位置を検出する基準パターン画像位置検出手段と、前記基準パターン画像検出手段により検出された位置の被写体にピントが合うように前記光学系のフォーカス調整を行うオートフォーカス手段と、前記撮像手段により順次得られた2つの撮影画像の差分を抽出して差画像を生成する差画像生成手段と、前記差画像生成手段により生成された差画像に基づいて、前記撮像手段により得られた撮影画像から基準パターン画像を取り込む基準パターン画像取込範囲を設定する基準パターン画像取込範囲設定手段と、前記撮像手段により得られた撮影画像から前記基準パターン画像取込範囲設定手段により設定された基準パターン画像取込範囲の画像を基準パターン画像として取り込む基準パターン画像取込手段と、前記基準パターン画像取込手段により取り込まれた基準パターン画像を前記基準パターン画像記憶手段により記憶する基準パターン画像として設定する基準パターン画像設定手段と、を備えたことを特徴としている。   In order to achieve the above object, an autofocus system according to claim 1 is configured such that an image capturing unit that captures an image of a subject formed by an optical system and an image of a target subject to be tracked as a target to be focused are a reference pattern image. And a reference pattern image storage means stored as an image, and an image matching the reference pattern image stored by the reference pattern image storage means on the screen of the photographed image obtained by the imaging means is detected, and the detected image A reference pattern image position detecting means for detecting a position on the screen, an autofocus means for adjusting the focus of the optical system so as to focus on the subject at the position detected by the reference pattern image detecting means, and the imaging Difference image generation means for extracting a difference between two captured images sequentially obtained by the means and generating a difference image; Based on the difference image generated by the difference image generation means, a reference pattern image capture range setting means for setting a reference pattern image capture range for capturing a reference pattern image from a captured image obtained by the imaging means; and Reference pattern image capturing means for capturing, as a reference pattern image, an image of the reference pattern image capturing range set by the reference pattern image capturing range setting means from the captured image obtained by the imaging means, and the reference pattern image capturing And a reference pattern image setting means for setting the reference pattern image captured by the means as a reference pattern image stored by the reference pattern image storage means.

本発明によれば、ピント合わせの対象として追尾する対象被写体が移動物体のような場合に、撮像手段により順次得られる2つの撮影画像の差分を抽出することによってその移動物体のみの画像を抽出する。これによって対象被写体の画面上での位置や大きさを知ることができ、その位置や大きさに基づいて基準パターン画像として記憶する画像の取込範囲を設定することによって対象被写体の位置や大きさに対応した適切な基準パターン画像を設定することができる。   According to the present invention, when a target object to be tracked as a focus target is a moving object, an image of only the moving object is extracted by extracting a difference between two captured images sequentially obtained by the imaging unit. . As a result, the position and size of the target subject on the screen can be known, and the position and size of the target subject are set by setting an image capture range to be stored as a reference pattern image based on the position and size. An appropriate reference pattern image corresponding to can be set.

請求項2に記載のオートフォーカスシステムは、請求項1に記載の発明において、前記基準パターン画像設定手段は、前記基準パターン画像記憶手段により記憶されている基準パターン画像を前記基準パターン画像取込手段により取り込まれた基準パターン画像により更新する手段であることを特徴としている。   According to a second aspect of the present invention, in the invention according to the first aspect, the reference pattern image setting means uses the reference pattern image stored in the reference pattern image storage means as the reference pattern image capture means. It is a means to update with the reference pattern image taken in by (1).

本発明は、基準パターン画像を順次更新するような場合に、その更新ために請求項1の基準パターン画像の設定に関する手段が適用される態様を示している。   The present invention shows a mode in which means relating to setting of the reference pattern image of claim 1 is applied to update the reference pattern image in order.

請求項3に記載のオートフォーカスシステムは、請求項1又は2に記載の発明において、前記基準パターン画像設定手段は、前記基準パターン画像記憶手段により記憶する初期の基準パターン画像を前記基準パターン画像取込手段によって取り込まれた基準パターン画像により設定することを特徴としている。   According to a third aspect of the present invention, in the invention according to the first or second aspect, the reference pattern image setting means stores the initial reference pattern image stored in the reference pattern image storage means as the reference pattern image capture. It is characterized in that it is set by a reference pattern image taken in by the loading means.

本発明は、初期の基準パターン画像を設定する際に、請求項1の基準パターン画像の設定に関する手段が適用される態様を示している。   The present invention shows an aspect in which means for setting a reference pattern image according to claim 1 is applied when setting an initial reference pattern image.

請求項4に記載のオートフォーカスシステムは、請求項1、2、又は、3に記載の発明において、前記差画像生成手段により生成された差画像を2値化する2値化手段と、該2値化手段によって2値化された差画像の各画素について横方向に各画素の画素値を累積した累積値の分布と縦方向に各画素の画素値を累積した累積値の分布とを算出する累積値算出手段とを備え、該累積値算出手段により算出された累積値の分布に基づいて前記基準パターン画像取込範囲を設定することを特徴としている。   According to a fourth aspect of the present invention, there is provided the autofocus system according to the first, second, or third aspect, wherein the binarization unit that binarizes the difference image generated by the difference image generation unit; For each pixel of the difference image binarized by the binarization means, a distribution of cumulative values obtained by accumulating the pixel values of each pixel in the horizontal direction and a distribution of cumulative values obtained by accumulating the pixel values of each pixel in the vertical direction are calculated. And a cumulative value calculating means, wherein the reference pattern image capturing range is set based on a distribution of cumulative values calculated by the cumulative value calculating means.

本発明は、基準パターン画像取込範囲を差画像における横方向と縦方向の画素値の累積値分布に基づいて設定するようにした態様を示している。   The present invention shows an aspect in which the reference pattern image capture range is set based on the cumulative value distribution of the horizontal and vertical pixel values in the difference image.

請求項5に記載のオートフォーカスシステムは、請求項1、2、3、又は、4に記載の発明において、前記オートフォーカス手段は、コントラスト方式のオートフォーカスであって、前記撮像手段により得られた撮影画像のうち所定のAFエリアの範囲内の画像のコントラストに基づいてフォーカス調整を行うと共に、前記基準パターン画像位置検出手段によって検出された位置に前記AFエリアの位置を設定することを特徴としている。   An autofocus system according to a fifth aspect of the present invention is the invention according to the first, second, third, or fourth aspect, wherein the autofocus means is a contrast type autofocus and is obtained by the imaging means. The focus adjustment is performed based on the contrast of an image within a predetermined AF area of the photographed image, and the position of the AF area is set to a position detected by the reference pattern image position detecting means. .

本発明は、オートフォーカス手段がコントラスト方式の場合を示し、AFの対象範囲であるAFエリアの位置を対象被写体の位置に設定することによって対象被写体をピントを合わせる対象として自動追尾する態様を示している。   The present invention shows a case where the autofocus means is a contrast method, and shows a mode in which the target subject is automatically tracked as a target to be focused by setting the position of the AF area that is the target range of AF as the target subject position. Yes.

本発明に係るオートフォーカスシステムによれば、自動追尾機能において対象被写体の画像の位置や大きさを考慮してパターンマッチングにおける基準パターン画像を適切な画像に自動で設定することができるようになる。   According to the autofocus system of the present invention, the reference pattern image in pattern matching can be automatically set to an appropriate image in consideration of the position and size of the image of the target subject in the automatic tracking function.

以下、添付図面に従って本発明に係るオートフォーカスシステムの好ましい実施の形態について詳説する。   Hereinafter, preferred embodiments of an autofocus system according to the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明に係るオートフォーカスシステムが適用される撮像システムの全体構成を示したブロック図である。同図に示す撮像システムは、例えば放送用テレビカメラでの撮影に用いられる撮像システムであり、同図にはレンズ交換可能なカメラヘッド10、カメラヘッド10のレンズマウントに装着される撮影レンズ(光学系)を備えたレンズ装置12、枠操作部14、追尾装置16等が示されている。   FIG. 1 is a block diagram showing the overall configuration of an imaging system to which an autofocus system according to the present invention is applied. The image pickup system shown in FIG. 1 is an image pickup system used for shooting with, for example, a broadcast television camera. In the figure, a camera head 10 with a replaceable lens, and a shooting lens (optical) mounted on a lens mount of the camera head 10 A lens device 12, a frame operation unit 14, a tracking device 16 and the like provided with a system) are shown.

カメラヘッド10には、撮像素子(例えばCCD)や所要の信号処理回路等が搭載されており、レンズ装置12の撮影レンズにより結像された像は、撮像素子により光電変換された後、信号処理回路によって所要の信号処理が施される。信号処理回路によって生成される所定形式の映像信号は、カメラヘッド10の映像信号出力端子等から外部機器に出力される。また、カメラヘッド10には、構図の確認等のためのビューファインダ(モニタ)18が設置されており、そのビューファインダ18にカメラヘッド10からの映像信号が与えられ、カメラヘッド10で撮影されているリアルタイムの画像(映像)がビューファインダ18の画面上に表示されるようになっている。また、ビューファインダ18の画面上にはオートフォーカス(AF)の対象範囲であるAFエリアの情報、例えば、AF枠も表示される。   The camera head 10 is equipped with an image sensor (for example, a CCD), a required signal processing circuit, and the like, and an image formed by the photographing lens of the lens device 12 is photoelectrically converted by the image sensor and then subjected to signal processing. Necessary signal processing is performed by the circuit. A video signal in a predetermined format generated by the signal processing circuit is output from the video signal output terminal of the camera head 10 to an external device. Further, the camera head 10 is provided with a view finder (monitor) 18 for composition confirmation, etc., and a video signal from the camera head 10 is given to the view finder 18 and is photographed by the camera head 10. A real-time image (video) is displayed on the screen of the viewfinder 18. Further, information on an AF area that is a target range of autofocus (AF), for example, an AF frame, is also displayed on the screen of the viewfinder 18.

レンズ装置12は、カメラヘッド10のレンズマウントに装着される図示しない撮影レンズ(光学系)を備えており、その撮影レンズにより被写体の像がカメラヘッド10の撮像素子の撮像面に結像される。撮影レンズには、その構成部としてフォーカスレンズ群、ズームレンズ群、絞りなどの撮影条件を調整するための可動部が設けられており、それらの可動部は、図示しないモータ(サーボ機構)によって電動駆動されるようになっている。例えば、フォーカスレンズ群やズームレンズ群は光軸方向に移動し、フォーカスレンズ群が移動することによってフォーカス(被写体距離)調整が行われ、ズームレンズ群が移動することによって焦点距離(ズーム倍率)調整が行われる。尚、本実施の形態のようにオートフォーカスに関するシステムにおいては、少なくともフォーカスレンズ群が電動で駆動できればよく、その他の可動部は手動でのみ駆動可能であってもよい。また、所定の可動部を操作者の操作に従って電動駆動する場合には、図示しない操作部(レンズ装置12に接続されるコントローラの操作部等)から操作者の操作に従って出力されるコントロール信号に基づいて可動部の動作が制御されるが詳細は省略する。   The lens device 12 includes a photographing lens (optical system) (not shown) attached to a lens mount of the camera head 10, and an image of a subject is formed on the imaging surface of the imaging element of the camera head 10 by the photographing lens. . The photographing lens is provided with movable parts for adjusting photographing conditions such as a focus lens group, a zoom lens group, and a diaphragm as its constituent parts. These movable parts are electrically driven by a motor (servo mechanism) (not shown). It is designed to be driven. For example, the focus lens group and zoom lens group move in the optical axis direction, and the focus (subject distance) adjustment is performed by moving the focus lens group, and the focal length (zoom magnification) adjustment is performed by moving the zoom lens group. Is done. In the system relating to autofocus as in the present embodiment, it is sufficient that at least the focus lens group can be driven electrically, and other movable parts may be driven only manually. Further, when the predetermined movable part is electrically driven in accordance with the operation of the operator, it is based on a control signal output in accordance with the operation of the operator from an operation unit (not shown) (such as an operation unit of a controller connected to the lens device 12). Thus, the operation of the movable part is controlled, but details are omitted.

また、同図に示すように、レンズ装置12には、レンズ装置12全体を統括制御するレンズCPU20、オートフォーカス(AF)処理を実行するAF処理部22、AF用撮像回路24等が搭載されている。AF用撮像回路24は、AF処理用の映像信号を取得するためにレンズ装置12に配置されており、撮像素子(CCD等)や撮像素子の出力信号を所定形式の映像信号として出力する処理回路等を備えている。尚、AF用撮像回路24の撮像素子をAF用撮像素子という。また、AF用撮像回路24から出力される映像信号は輝度信号とする。   As shown in the figure, the lens device 12 is equipped with a lens CPU 20 that performs overall control of the lens device 12, an AF processing unit 22 that executes autofocus (AF) processing, an AF imaging circuit 24, and the like. Yes. The AF image pickup circuit 24 is disposed in the lens device 12 to acquire a video signal for AF processing, and outputs an image pickup device (CCD or the like) or an output signal of the image pickup device as a video signal of a predetermined format. Etc. The image pickup element of the AF image pickup circuit 24 is referred to as an AF image pickup element. The video signal output from the AF imaging circuit 24 is a luminance signal.

AF用撮像素子の撮像面には、撮影レンズの光路上に配置されたハーフミラー等によってカメラヘッド10の撮像素子に入射する被写体光から分岐された被写体光が結像するようになっている。AF用撮像素子の撮像エリアに対する撮影範囲及び被写体距離(ピントが合う被写体の距離)は、カメラヘッド10の撮像素子の撮像エリアに対する撮影範囲及び被写体距離に一致するように構成されており、AF用撮像素子により取り込まれる撮影画像は、カメラヘッド10の撮像素子により取り込まれる撮影画像と一致している。尚、両者の撮影範囲に関しては完全に一致している必要はなく、例えば、AF用撮像素子の撮影範囲の方がカメラヘッド10の撮像素子の撮影範囲を包含する大きな範囲であってもよい。また、AF用撮像素子を設けることなくカメラヘッド10からの映像信号をAF処理部22に与えるようにしてもよい。   On the imaging surface of the AF imaging element, subject light branched from the subject light incident on the imaging element of the camera head 10 is imaged by a half mirror or the like disposed on the optical path of the photographing lens. The shooting range and subject distance (distance of the subject in focus) with respect to the imaging area of the AF imaging element are configured to match the shooting range and subject distance with respect to the imaging area of the imaging element of the camera head 10 and are used for AF. The captured image captured by the image sensor matches the captured image captured by the image sensor of the camera head 10. Note that it is not necessary for the shooting ranges of the two to be completely the same. For example, the shooting range of the AF imaging device may be a larger range including the shooting range of the imaging device of the camera head 10. Further, the image signal from the camera head 10 may be supplied to the AF processing unit 22 without providing an AF image sensor.

AF処理部22は、AF用撮像回路24から映像信号を取得し、その映像信号に基づいて被写体画像のコントラストの高低を示す焦点評価値を算出する。例えば、AF用撮像素子から得られた映像信号の高域周波数成分の信号をハイパスフィルタによって抽出した後、その高域周波数成分の信号のうちAFの対象範囲であるAFエリアに対応する範囲の信号を1画面分ずつ積算する。このようにして1画面分ごとに得られる積算値は被写体画像のコントラストの高低を示し、焦点評価値としてレンズCPU20に与えられる。尚、AFエリアの範囲は後述のようにレンズCPU20により指定される。   The AF processing unit 22 acquires a video signal from the AF imaging circuit 24, and calculates a focus evaluation value indicating the level of contrast of the subject image based on the video signal. For example, after extracting a high-frequency component signal of a video signal obtained from an AF image sensor with a high-pass filter, a signal in a range corresponding to an AF area that is an AF target range among the high-frequency component signal Are accumulated one screen at a time. The integrated value obtained for each screen in this manner indicates the level of contrast of the subject image, and is given to the lens CPU 20 as a focus evaluation value. The AF area range is designated by the lens CPU 20 as will be described later.

レンズCPU20は、詳細を後述するようにAFエリアの範囲(輪郭)を示すAF枠の情報(AF枠情報)を枠操作部14から取得してそのAF枠情報により指定されたAF枠内の範囲をAFエリアとしてAF処理部22に指定する。そして、そのAFエリア内の画像(映像信号)により求められる焦点評価値をAF処理部22から取得する共に、取得した焦点評価値が最大(極大)、即ち、AFエリアの被写体画像のコントラストが最大となるようにフォーカスレンズ群を制御する。例えば、焦点評価値に基づくフォーカスレンズ群の制御方式として山登り方式が一般的に知られており、フォーカスレンズ群を焦点評価値が増加する方向に移動させて行き、焦点評価値が減少し始める点を検出すると、その位置にフォーカスレンズ群を設定する。これにより、AF枠内の被写体に自動でピントが合わせられる。   As will be described in detail later, the lens CPU 20 acquires AF frame information (AF frame information) indicating the range (contour) of the AF area from the frame operation unit 14, and the range within the AF frame designated by the AF frame information. Is designated to the AF processing unit 22 as an AF area. Then, the focus evaluation value obtained from the image (video signal) in the AF area is acquired from the AF processing unit 22, and the acquired focus evaluation value is maximum (maximum), that is, the contrast of the subject image in the AF area is maximum. The focus lens group is controlled so that For example, a hill-climbing method is generally known as a control method for a focus lens group based on a focus evaluation value, and the focus evaluation value starts to decrease by moving the focus lens group in a direction in which the focus evaluation value increases. Is detected, the focus lens group is set at that position. Thereby, the subject in the AF frame is automatically focused.

枠操作部14は、上記AF枠の位置、大きさ、形状等のAF枠の設定内容を操作者が指定するための操作部材を備えている。尚、図2に示すようにAF枠40は、カメラヘッド10の撮像素子での撮影範囲又は撮影画像(の画面)に対してAFの対象範囲であるAFエリア42の輪郭を示す。枠操作部14は、その操作部材が操作者により操作されると、その操作に従ってAF枠の位置等の設定内容を設定、変更する。尚、枠操作部14の操作部材によるAF枠の位置等の設定内容の変更は、操作前におけるAF枠の設定内容を基準にしてその後の操作部材の操作量に対応する変更量分だけ設定内容に変更を加えることによって行われようになっている。例えばAF枠の位置はトラックボールの回転方向及び回転量に対応する方向及び移動量分だけ変位するようになっている。また、撮影範囲(撮影画像の画面)内におけるAF枠の位置(本実施の形態では矩形のAF枠の中心位置)を決める点をAFポイントというものとすると、AF枠の位置はAFポイントの位置を設定することによって決定される。   The frame operation unit 14 includes an operation member for the operator to specify the setting contents of the AF frame such as the position, size, and shape of the AF frame. As shown in FIG. 2, the AF frame 40 shows the outline of the AF area 42 that is the AF target range with respect to the shooting range or the shot image (screen) of the imaging element of the camera head 10. When the operation member is operated by the operator, the frame operation unit 14 sets and changes setting contents such as the position of the AF frame in accordance with the operation. The setting contents such as the position of the AF frame by the operation member of the frame operation unit 14 are set by the change amount corresponding to the operation amount of the subsequent operation member based on the setting contents of the AF frame before the operation. This is done by making changes. For example, the position of the AF frame is displaced by the amount corresponding to the direction and amount of movement of the trackball. Also, if the point that determines the position of the AF frame (the center position of the rectangular AF frame in the present embodiment) within the shooting range (screen of the captured image) is referred to as an AF point, the position of the AF frame is the position of the AF point. Is determined by setting

一方、枠操作部14の操作部材が操作されず、操作者によってAF枠の設定内容の変更が指示さてれない状態では、後述する追尾装置16から与えられるAF枠情報によりAF枠の設定内容を設定、変更する。枠操作部14は、操作者の操作又は追尾装置16からのAF枠情報により設定、変更したAF枠の設定内容を示すAF枠情報をレンズCPU20からの要求に従ってレンズCPU20に送信する。これによってAFの対象範囲が、枠操作部14において設定、変更されたAF枠の範囲に設定される。   On the other hand, when the operation member of the frame operation unit 14 is not operated and the operator is not instructed to change the setting contents of the AF frame, the setting contents of the AF frame are set by the AF frame information given from the tracking device 16 described later. Set and change. The frame operation unit 14 transmits AF frame information indicating the setting contents of the AF frame set or changed by the operation of the operator or the AF frame information from the tracking device 16 to the lens CPU 20 in accordance with a request from the lens CPU 20. As a result, the AF target range is set to the AF frame range set and changed in the frame operation unit 14.

尚、追尾装置16は、操作者が指定した対象物(対象被写体)の画像を撮影画像の画面上で検出しながらその対象物の画面上での移動に合わせてAFエリア(AF枠)の位置を自動で変更(自動追尾)する自動追尾機能を実現するための装置であり、操作者がAF枠の変更のためのマニュアル操作を行っていない場合には追尾装置16によるAF枠の自動追尾が行われ、操作者がAF枠の変更のためのマニュアル操作を行っている場合にはそのマニュアル操作が追尾装置16よりも優先されて操作者のマニュアル操作に従ってAF枠が変更される。自動追尾機能をオフしてマニュアル操作のみを有効にすることもできる。   The tracking device 16 detects the position of the target object (target subject) specified by the operator on the screen of the captured image and adjusts the position of the AF area (AF frame) according to the movement of the target object on the screen. Is a device for realizing an automatic tracking function for automatically changing (automatic tracking), and when the operator does not perform manual operation for changing the AF frame, the tracking device 16 automatically tracks the AF frame. If the operator is performing a manual operation for changing the AF frame, the manual operation has priority over the tracking device 16 and the AF frame is changed according to the manual operation of the operator. It is also possible to turn off the automatic tracking function and enable only manual operation.

また、枠操作部14は、上述のように設定、変更したAF枠の設定内容を示すAF枠情報をカメラヘッド10にも送信し、そのAF枠をビューファインダ18の画面上の対応する位置に表示させる。これによって操作者がビューファインダ18を見ながらその時のAF枠の位置等を認識することができるようになっている。   The frame operation unit 14 also transmits AF frame information indicating the setting contents of the AF frame set and changed as described above to the camera head 10, and places the AF frame at a corresponding position on the screen of the viewfinder 18. Display. As a result, the operator can recognize the position of the AF frame at that time while looking at the viewfinder 18.

追尾装置16は、画像処理部26、画像入力部28、シリアル通信インターフェース30等を備えている。画像入力部28は、上記AF用撮像回路24により得られた映像信号(輝度信号)をAF処理部22を介して取得し、画像処理部26からの要求に応じてその映像信号から得られる撮影画像の画像データを画像処理部26に与える。   The tracking device 16 includes an image processing unit 26, an image input unit 28, a serial communication interface 30, and the like. The image input unit 28 acquires the video signal (luminance signal) obtained by the AF imaging circuit 24 via the AF processing unit 22 and obtains the image obtained from the video signal in response to a request from the image processing unit 26. The image data of the image is given to the image processing unit 26.

画像処理部26は、詳細を後述する画像入力部28から取得した撮影画像に基づいて、操作者によって指定された対象物の画面上での位置をパターンマッチング処理により検出する。その対象物の位置をAF枠の位置(AFポイント)として、AF枠の位置を示すAF枠情報をシリアル通信インターフェース30を介して上記枠操作部14に送信する。   The image processing unit 26 detects the position on the screen of the target object designated by the operator based on the captured image acquired from the image input unit 28 described later in detail by pattern matching processing. Using the position of the object as the position of the AF frame (AF point), AF frame information indicating the position of the AF frame is transmitted to the frame operation unit 14 via the serial communication interface 30.

次に、追尾装置16の画像処理部26における追尾処理について図3のフローチャートを参照しながら詳説する。操作者は、まず、ビューファインダ18の画面に表示された映像及びAF枠を見ながら枠操作部14の操作部材を操作し、ピント合わせの対象として追尾する対象物の全体又は一部をAF枠に納める。これによって、レンズCPU20におけるAFの処理によりその対象物にピントが合わせられる。   Next, the tracking process in the image processing unit 26 of the tracking device 16 will be described in detail with reference to the flowchart of FIG. First, the operator operates the operation member of the frame operation unit 14 while viewing the image displayed on the screen of the viewfinder 18 and the AF frame, and the whole or a part of the object to be tracked as the focus target is displayed in the AF frame. To pay. As a result, the object is brought into focus by AF processing in the lens CPU 20.

続いて、操作者は、枠操作部14の決定ボタンを押す。これによって枠操作部14から基準パターン画像の設定の指示(基準パターン画像の記憶指示)が画像処理部26に与えられる。   Subsequently, the operator presses the determination button of the frame operation unit 14. As a result, a reference pattern image setting instruction (reference pattern image storage instruction) is given from the frame operation unit 14 to the image processing unit 26.

画像処理部26は、基準パターン画像の設定の指示が与えられると、そのときのAF枠の設定内容を示すAF枠情報を枠操作部14からシリアル通信インターフェース30を介して読み取ると共に、レンズ装置12のAF処理部22から画像入力部28に与えられている映像信号から1画面分(1フレーム分)の撮影画像(画像データ)を取り込む(ステップS10)。尚、このとき取り込んだ撮影画像をA画像とする。また、AF処理部22から画像入力部28に与えられる映像信号が、例えば、1画面分(1フレーム分)の撮影画像を2フィールド分の映像信号によって構成するインターレース方式の映像信号とすると、画像入力部28から1画面分として取り込む撮影画像は、1フィールド分の映像信号によって得られる撮影画像であってもよいし、2フィールド分の映像信号によって得られる撮影画像であってもよい。ノンインターレース方式の場合には1フレーム分の映像信号によって得られる撮影画像とする。   When an instruction to set a reference pattern image is given, the image processing unit 26 reads AF frame information indicating the setting contents of the AF frame at that time from the frame operation unit 14 via the serial communication interface 30 and also the lens device 12. The captured image (image data) for one screen (one frame) is taken in from the video signal supplied from the AF processing unit 22 to the image input unit 28 (step S10). The captured image captured at this time is referred to as an A image. Further, when the video signal given from the AF processing unit 22 to the image input unit 28 is, for example, an interlaced video signal composed of two fields of video signals for one screen (one frame). The captured image captured as one screen from the input unit 28 may be a captured image obtained from a video signal for one field, or may be a captured image obtained from a video signal for two fields. In the case of the non-interlace method, the captured image is obtained from a video signal for one frame.

続いて画像処理部26は、ステップS10で取り込んだA画像のうち上記AF枠情報によって指定されたAF枠の範囲を基準パターン枠の範囲としてその範囲内の画像をA画像から抽出し、基準パターン画像として設定(記憶)する(ステップS12)。   Subsequently, the image processing unit 26 extracts the image within the range from the A image by using the range of the AF frame designated by the AF frame information as the range of the reference pattern frame from the A image captured in step S10, and the reference pattern. It is set (stored) as an image (step S12).

ここで、基準パターン画像は、後述のパターンマッチング処理で使用する画像データであり、本実施の形態では初期の基準パターン画像を取り込む基準パターン枠の範囲はAF枠の範囲と一致しているものとする。但し、初期の基準パターン枠をAF枠と異なる大きさ(例えば少し大きめ)の範囲としてもよい。また、AF枠とは別に基準パターン枠をビューファインダ18に表示させると共に、その基準パターン枠の範囲をAF枠とは別の操作によって設定できるようにしてもよい。   Here, the reference pattern image is image data used in a pattern matching process to be described later, and in this embodiment, the range of the reference pattern frame into which the initial reference pattern image is captured matches the range of the AF frame. To do. However, the initial reference pattern frame may be a range having a size (for example, slightly larger) different from the AF frame. In addition, the reference pattern frame may be displayed on the viewfinder 18 separately from the AF frame, and the range of the reference pattern frame may be set by an operation different from the AF frame.

ステップS12における基準パターン画像の設定が終了すると、続いて画像処理部26は、以下のステップS14〜ステップS32の処理を繰り返し実行する。まず、新たに1画面分の撮影画像を画像入力部28から取り込む(ステップS14)。尚、このステップS14で取得した撮影画像をB画像というものとする。   When the setting of the reference pattern image in step S12 is completed, the image processing unit 26 repeatedly executes the following processes of step S14 to step S32. First, a new captured image for one screen is taken from the image input unit 28 (step S14). Note that the captured image acquired in step S14 is referred to as a B image.

次に画像処理部26は、周知のパターンマッチング処理を実行し、B画像の範囲内において、基準パターン画像に合致する画像の範囲(位置)を検出する(ステップS16)。   Next, the image processing unit 26 executes a well-known pattern matching process to detect an image range (position) that matches the reference pattern image within the range of the B image (step S16).

続いて画像処理部26は、パターンマッチング処理により検出した位置に基づいて対象物が画面上で移動したか否かを判定する(ステップS18)。YESと判定した場合には、その対象物が移動した分だけAFエリアの位置(AFポイント)をその移動方向と同一方向に変位させ、そのAFエリアの位置を示すAF枠情報を枠操作部14に送信する。これによってAF枠の設定内容、即ち、AF枠の位置を更新する(ステップS20)。AF枠の位置を更新すると、それに従ってレンズ装置12におけるAFの対象範囲が更新されると共に、ビューファインダ18の画面上に表示されるAF枠の位置が更新される。ステップS18においてNOと判定した場合には、ステップS20の処理は実行しない。   Subsequently, the image processing unit 26 determines whether or not the object has moved on the screen based on the position detected by the pattern matching process (step S18). If YES is determined, the position (AF point) of the AF area is displaced in the same direction as the moving direction by the amount of movement of the object, and AF frame information indicating the position of the AF area is displayed on the frame operation unit 14. Send to. Thereby, the setting content of the AF frame, that is, the position of the AF frame is updated (step S20). When the position of the AF frame is updated, the AF target range in the lens device 12 is updated accordingly, and the position of the AF frame displayed on the screen of the viewfinder 18 is updated. If it is determined as NO in step S18, the process of step S20 is not executed.

次に画像処理部26は、A画像とB画像の差分により抽出される差画像Cを生成する(ステップS22)。即ち、A画像とB画像の対応する画素同士の画素値(輝度値)の差を求めその差の絶対値を各画素の画素値として有する差画像Cを生成する(C=|A−B|)。例えば、A画像、B画像としてそれぞれ図4(A)、(B)に示すような画像が得られたとする。これらの図には、画面上で移動する移動物体Mが追尾する対象物として簡略的に一定輝度で円形の画像により示されており、画面上で変化しない背景の図は省略されている。これらのA画像、B画像に対して差画像Cは図4(C)のような画像として生成される。同図(C)に示すように差画像Cでは変化のない背景画像が除去されてA画像とB画像での移動物体Mの画像に重なりが生じていない部分の画像のみが抽出される。   Next, the image processing unit 26 generates a difference image C that is extracted based on the difference between the A image and the B image (step S22). That is, a difference between pixel values (luminance values) between corresponding pixels of the A image and the B image is obtained, and a difference image C having the absolute value of the difference as the pixel value of each pixel is generated (C = | A−B | ). For example, assume that images as shown in FIGS. 4A and 4B are obtained as an A image and a B image, respectively. In these drawings, a moving object M moving on the screen is simply shown as a target to be tracked by a circular image with a constant luminance, and a background image that does not change on the screen is omitted. For these A and B images, a difference image C is generated as an image as shown in FIG. As shown in FIG. 6C, the background image that does not change is removed from the difference image C, and only the image of the portion where the image of the moving object M in the A image and the B image does not overlap is extracted.

次に画像処理部26は、ステップS22で生成した差画像Cの各画素の画素値について、所定のしきい値以上の場合には1、しきい値未満の場合には0として差画像Cを2値化する(ステップS24)。   Next, the image processing unit 26 sets the difference image C to 1 if the pixel value of each pixel of the difference image C generated in step S22 is equal to or greater than a predetermined threshold value, and 0 if it is less than the threshold value. Binarization is performed (step S24).

次に画像処理部26は、新たに1画面分の撮影画像を画像入力部28から取り込み、その画像を新たなA画像としてA画像を更新する(ステップS26)。尚、このA画像はステップS14〜ステップS32の反復処理に対して次の反復処理における差画像Cの生成(ステップS22)に使用される。続いて、画像処理部26は、2値化した差画像Cに対して2値累積値投影の処理を実行する(ステップS28)。   Next, the image processing unit 26 newly takes a captured image for one screen from the image input unit 28, and updates the A image using the image as a new A image (step S26). The A image is used to generate a difference image C (step S22) in the next iterative process with respect to the iterative process of steps S14 to S32. Subsequently, the image processing unit 26 executes a binary cumulative value projection process on the binarized difference image C (step S28).

ここで、2値累積値投影の処理について説明する。2値累積値投影は、2値化した差画像Cの各画素に対して水平方向(横方向)の同一ライン上に並んだ各画素の画素値を累積(積算)した水平方向累積値と、垂直方向(縦方向)の同一ライン上に並んだ各画素の画素値を累積した垂直方向累積値とを求め、各ラインの水平方向累積値と垂直方向累積値をぞれぞれ画面上に想定したY軸(横軸)とX軸(横軸)に投影する。これによって、Y軸とX軸の各々に水平方向累積値と垂直方向累積値の分布を示す2値累積値投影分布を作成する。例えば、図4(C)のように生成された差画像Cに対して2値累積投影の処理を行うと、図5のような結果が得られる。図5においてX軸の各座標点(X座標値)には、同一X座標値にある画素(垂直方向の同一ライン上に並んだ画素)の画素値を累積した垂直方向累積値が投影され、Y軸の各座標点(Y座標値)には、同一Y座標値にある画素(水平方向のライン上の画素)の画素値を累積した水平方向累積値が投影される。   Here, the binary cumulative value projection process will be described. The binary cumulative value projection is a horizontal cumulative value obtained by accumulating (integrating) the pixel values of the pixels arranged on the same line in the horizontal direction (lateral direction) with respect to each pixel of the binarized difference image C; The vertical direction cumulative value obtained by accumulating the pixel values of each pixel arranged on the same line in the vertical direction (vertical direction) is obtained, and the horizontal direction cumulative value and the vertical direction cumulative value of each line are assumed on the screen. Projected onto the Y axis (horizontal axis) and the X axis (horizontal axis). Thus, a binary cumulative value projection distribution indicating the distribution of the horizontal direction cumulative value and the vertical direction cumulative value is created on each of the Y axis and the X axis. For example, when binary cumulative projection processing is performed on the difference image C generated as shown in FIG. 4C, a result as shown in FIG. 5 is obtained. In FIG. 5, vertical accumulated values obtained by accumulating pixel values of pixels having the same X coordinate value (pixels arranged on the same line in the vertical direction) are projected on each coordinate point (X coordinate value) of the X axis. A horizontal accumulated value obtained by accumulating pixel values of pixels (pixels on a horizontal line) having the same Y coordinate value is projected on each coordinate point (Y coordinate value) of the Y axis.

次に画像処理部26は、ステップS28でのX軸、Y軸への2値累積値投影の結果に基づいて基準パターン枠を更新する(ステップS30)。例えば、X軸に投影された垂直方向累積値の総和(面積)に対して1〜99パーセントの値となる範囲(画面左端及び右端からそれぞれ面積の1パーセント分の値となる範囲を除いた範囲)を基準パターン枠の横幅とし、Y軸に投影された水平方向累積値の総和(面積)に対して1〜99パーセントの値となる範囲(画面上端及び下端からそれぞれ面積の1パーセント分の値となる範囲を除いた範囲)を基準パターン枠の縦幅として矩形状の基準パターン枠を設定する。例えば、図5に示したような2値累積値投影の分布が得られたとすると、図6に示すような基準パターン枠44が設定される。   Next, the image processing unit 26 updates the reference pattern frame based on the result of the binary cumulative value projection onto the X axis and Y axis in step S28 (step S30). For example, a range that is 1 to 99 percent of the total sum (area) of the vertical cumulative values projected on the X-axis (a range that excludes a range that is 1 percent of the area from the left and right ends of the screen, respectively) ) Is the width of the reference pattern frame, and a range of 1 to 99 percent of the total sum (area) of the horizontal direction values projected on the Y-axis (values of 1 percent of the area from the top and bottom of the screen, respectively) A rectangular reference pattern frame is set with the vertical width of the reference pattern frame as a range excluding the range that becomes. For example, if a binary cumulative value projection distribution as shown in FIG. 5 is obtained, a reference pattern frame 44 as shown in FIG. 6 is set.

このようにして基準パターン枠を設定(更新)すると、続いて画像処理部26は、新たに設定した基準パターン枠の範囲を基準パターン画像の取込範囲としてB画像の中からその基準パターン枠内の画像を取り込み、その画像によって基準パターン画像を更新する(ステップS32)。そして、ステップS14に戻り、ステップS14からの処理を繰り返す。   When the reference pattern frame is set (updated) in this way, the image processing unit 26 then uses the newly set reference pattern frame range as the reference pattern image capture range from the B image to within the reference pattern frame. And the reference pattern image is updated with the image (step S32). And it returns to step S14 and repeats the process from step S14.

以上の処理により、ピント合わせの対象として追尾する対象物の画面上の位置や大きさに応じて基準パターン画像が適切な画像に更新され、パターンマッチングによる対象物の追尾が適切に行われるようになる。   With the above processing, the reference pattern image is updated to an appropriate image according to the position and size of the target object to be tracked as the focus target, and the target object is appropriately tracked by pattern matching. Become.

尚、上記処理では、AFエリア(AF枠)の大きさは基準パターン枠の更新とは無関係の大きさに設定されるようになっていたが、基準パターン枠の大きさと連動して(例えば、基準パターン枠の大きさと一致するように)AFエリアの大きさも変更するようにしてもよい。   In the above processing, the size of the AF area (AF frame) is set to a size unrelated to the update of the reference pattern frame. However, in conjunction with the size of the reference pattern frame (for example, The size of the AF area may also be changed (to match the size of the reference pattern frame).

また、上記説明では、対象物が画面上で左右等に移動する場合を例示したが、本処理は、例えば、対象物が前後に移動した場合等に対象物の画像の大きさのみが変化した場合等にも有効である。   Further, in the above description, the case where the object moves left and right on the screen is illustrated, but this processing only changes the size of the image of the object, for example, when the object moves back and forth. It is also effective in cases.

また、2値累積値投影に基づいて基準パターン枠を設定する場合に、上記処理では基準パターン枠の範囲を水平方向累積値の総和と垂直方向累積値の総和の各々が1〜99パーセントとなる範囲としたが、これに限らない。例えば、他のパーセント範囲としてもよい。   Further, when the reference pattern frame is set based on the binary cumulative value projection, in the above process, the range of the reference pattern frame is 1 to 99 percent for each of the sum of the horizontal direction cumulative values and the sum of the vertical direction cumulative values. The range is not limited to this. For example, other percentage ranges may be used.

次に、図3のステップS12において初期の基準パターン画像を設定する際に、図3の基準パターン枠更新の処理と同様にしてその基準パターン画像を取り込む基準パターン枠を自動で適切な範囲に設定できるようにした場合について図7のフローチャートを用いて説明する。   Next, when the initial reference pattern image is set in step S12 in FIG. 3, the reference pattern frame for capturing the reference pattern image is automatically set to an appropriate range in the same manner as the reference pattern frame update process in FIG. The case where it is made possible will be described with reference to the flowchart of FIG.

図3のフローチャートで説明したように画像処理部26は、基準パターン画像の設定の指示が与えられると、画像入力部28から1画面分の撮影画像(A画像)を取り込む(図3のステップS10)。そして、図3のステップS12に移行し、そのステップS12の処理として図7のフローチャートの処理を開始する。   As described with reference to the flowchart of FIG. 3, when an instruction for setting a reference pattern image is given, the image processing unit 26 captures a captured image (A image) for one screen from the image input unit 28 (step S10 in FIG. 3). ). And it transfers to step S12 of FIG. 3, and starts the process of the flowchart of FIG. 7 as the process of the step S12.

図7のフローチャートの処理に移行すると、画像処理部26は、画像入力部28から新たに1画面分の撮影画像をB画像として取り込む(ステップS50)。続いて画像処理部26は、図3のステップS22と同様にA画像とB画像の差分により抽出される差画像Cを生成する(ステップS52)。続いて、図3のステップS24と同様に差画像Cを2値化し(ステップS54)、その2値化した差画像Cの面積を求める(ステップS56)。尚、求めた面積を変数AREAで表すものとする。次に画像処理部26は、面積AREAが所定のしきい値(例えば500)を超えたか否かにより対象物が移動したか否かを判定する(ステップS58)。このステップS58でNOと判定している間は、ステップS50〜ステップS58の処理を繰り返し実行する。   When the process proceeds to the processing of the flowchart of FIG. 7, the image processing unit 26 newly takes a captured image for one screen as a B image from the image input unit 28 (step S <b> 50). Subsequently, the image processing unit 26 generates a difference image C extracted based on the difference between the A image and the B image, similarly to step S22 of FIG. 3 (step S52). Subsequently, the difference image C is binarized as in step S24 of FIG. 3 (step S54), and the area of the binarized difference image C is obtained (step S56). The obtained area is represented by a variable AREA. Next, the image processing unit 26 determines whether or not the object has moved according to whether or not the area AREA has exceeded a predetermined threshold (for example, 500) (step S58). While it is determined NO in step S58, the processes in steps S50 to S58 are repeatedly executed.

ステップS58においてYESと判定した場合、画像処理部26は、図3のステップS28と同様に2値化した差画像Cに対して2値累積値投影の処理を行う(ステップS60)。続いて、図3のステップS30と同様にX軸、Y軸への2値累積値投影の結果に基づいて基準パターン枠を設定する(ステップS62)。そして、基準パターン枠を設定すると、B画像の中からその基準パターン枠内の画像を取り込み、その画像によって基準パターン画像を設定する(ステップS64)。ステップS64の処理が終了すると、図3のステップS14に移行する。   If YES is determined in step S58, the image processing unit 26 performs a binary cumulative value projection process on the binarized difference image C as in step S28 of FIG. 3 (step S60). Subsequently, the reference pattern frame is set based on the result of the binary cumulative value projection onto the X-axis and Y-axis as in step S30 of FIG. 3 (step S62). When the reference pattern frame is set, an image in the reference pattern frame is taken from the B image, and a reference pattern image is set based on the image (step S64). When the process of step S64 ends, the process proceeds to step S14 of FIG.

以上の処理により、ピント合わせの対象として追尾する対象物の画面上の位置や大きさに応じて初期の基準パターン画像が適切な範囲の画像によって設定される。   Through the above processing, the initial reference pattern image is set with an image in an appropriate range according to the position and size of the object to be tracked as the focus target.

尚、図7に示した基準パターン画像の初期設定の処理は、基準パターン画像の更新が図3のように行われない場合であっても適用できる。   Note that the initial setting process of the reference pattern image shown in FIG. 7 can be applied even when the reference pattern image is not updated as shown in FIG.

以上、上記実施の形態では、レンズ装置12、枠操作部14、追尾装置16は別体の装置として図示したが、いずれか2つ又は全ては一体の装置であってもよい。また、上記実施の形態では追尾装置16の処理に関する操作部材(例えば、対象物を決定する決定スイッチ等)も枠操作部14に設けるようにしたが、追尾装置16に設けるようにしてもよい。   As described above, in the above embodiment, the lens device 12, the frame operation unit 14, and the tracking device 16 are illustrated as separate devices, but any two or all of them may be integrated devices. In the above embodiment, an operation member (for example, a determination switch for determining an object) related to the processing of the tracking device 16 is also provided in the frame operation unit 14, but may be provided in the tracking device 16.

また、上記実施の形態では、AF用に映像信号をカメラヘッド10の撮像素子とは別のAF専用の撮像素子により取得するようにしたが、AF用としてカメラヘッド10の撮像素子により得られる映像信号を用いてもよい。但し、上記実施の形態のようにAF用の映像信号をAF専用の撮像素子から得るようにすると、カメラヘッド10が高精細度(HD)テレビジョンシステムに対応のものである場合にそのHD信号を使用することなくAFを行うことができるため小型化・省電力化に有利である。   In the above-described embodiment, the image signal is acquired for the AF by using an image sensor dedicated for AF that is different from the image sensor for the camera head 10, but the image obtained by the image sensor for the camera head 10 for AF is used. A signal may be used. However, if the AF video signal is obtained from the AF-dedicated imaging device as in the above embodiment, the HD signal is obtained when the camera head 10 is compatible with a high-definition (HD) television system. Since it is possible to perform AF without using a lens, it is advantageous for miniaturization and power saving.

また、上記実施の形態ではコントラスト方式のAFを採用した場合について説明したが、コントラスト方式以外のAFを採用した場合であっても本発明を適用することができる。   In the above embodiment, the contrast type AF is used. However, the present invention can be applied even when an AF other than the contrast type is used.

図1は、本発明に係るオートフォーカスシステムが適用される撮像システムの全体構成を示したブロック図である。FIG. 1 is a block diagram showing the overall configuration of an imaging system to which an autofocus system according to the present invention is applied. 図2は、AF枠を例示した図である。FIG. 2 is a diagram illustrating an AF frame. 図3は、追尾装置における追尾処理の処理手順を示したフローチャートである。FIG. 3 is a flowchart showing the procedure of the tracking process in the tracking device. 図4は、差画像の説明に使用した説明図である。FIG. 4 is an explanatory diagram used for explaining the difference image. 図5は、2値累積値投影の処理の説明に使用した説明図である。FIG. 5 is an explanatory diagram used to explain the binary cumulative value projection process. 図6は、基準パターン枠の設定(更新)の説明に使用した説明図である。FIG. 6 is an explanatory diagram used for explaining the setting (updating) of the reference pattern frame. 図7は、初期の基準パターン画像の設定に関する処理の一態様を示したフローチャートである。FIG. 7 is a flowchart showing an aspect of processing related to setting of an initial reference pattern image.

符号の説明Explanation of symbols

10…カメラヘッド、12…レンズ装置、14…枠操作部、16…追尾装置、18…ビューファインダ、20…レンズCPU、22…AF処理部、24…AF用撮像回路、26…画像処理部、28…画像入力部、30…シリアル通信インターフェース、40…AF枠、42…AFエリア、44…基準パターン枠 DESCRIPTION OF SYMBOLS 10 ... Camera head, 12 ... Lens apparatus, 14 ... Frame operation part, 16 ... Tracking apparatus, 18 ... Viewfinder, 20 ... Lens CPU, 22 ... AF process part, 24 ... Imaging circuit for AF, 26 ... Image process part, 28 ... Image input unit, 30 ... Serial communication interface, 40 ... AF frame, 42 ... AF area, 44 ... Reference pattern frame

Claims (5)

光学系により結像された被写体像を撮像する撮像手段と、
ピントを合わせる対象として追尾する対象被写体の画像を基準パターン画像として記憶する基準パターン画像記憶手段と、
前記撮像手段により得られた撮影画像の画面上において前記基準パターン画像記憶手段により記憶されている基準パターン画像と合致する画像を検出し、該検出した画像の画面上での位置を検出する基準パターン画像位置検出手段と、
前記基準パターン画像検出手段により検出された位置の被写体にピントが合うように前記光学系のフォーカス調整を行うオートフォーカス手段と、
前記撮像手段により順次得られた2つの撮影画像の差分を抽出して差画像を生成する差画像生成手段と、
前記差画像生成手段により生成された差画像に基づいて、前記撮像手段により得られた撮影画像から基準パターン画像を取り込む基準パターン画像取込範囲を設定する基準パターン画像取込範囲設定手段と、
前記撮像手段により得られた撮影画像から前記基準パターン画像取込範囲設定手段により設定された基準パターン画像取込範囲の画像を基準パターン画像として取り込む基準パターン画像取込手段と、
前記基準パターン画像取込手段により取り込まれた基準パターン画像を前記基準パターン画像記憶手段により記憶する基準パターン画像として設定する基準パターン画像設定手段と、
を備えたことを特徴とするオートフォーカスシステム。
Imaging means for imaging a subject image formed by an optical system;
Reference pattern image storage means for storing an image of a subject to be tracked as a target to be focused as a reference pattern image;
A reference pattern that detects an image that matches the reference pattern image stored in the reference pattern image storage means on the screen of the captured image obtained by the imaging means, and detects the position of the detected image on the screen. Image position detecting means;
Auto focus means for adjusting the focus of the optical system so that the subject at the position detected by the reference pattern image detection means is in focus;
Difference image generating means for extracting a difference between two captured images sequentially obtained by the imaging means and generating a difference image;
Based on the difference image generated by the difference image generation means, a reference pattern image capture range setting means for setting a reference pattern image capture range for capturing a reference pattern image from a captured image obtained by the imaging means;
A reference pattern image capturing unit that captures, as a reference pattern image, an image of the reference pattern image capturing range set by the reference pattern image capturing range setting unit from the captured image obtained by the imaging unit;
A reference pattern image setting means for setting a reference pattern image captured by the reference pattern image capturing means as a reference pattern image stored by the reference pattern image storage means;
An autofocus system characterized by comprising
前記基準パターン画像設定手段は、前記基準パターン画像記憶手段により記憶されている基準パターン画像を前記基準パターン画像取込手段により取り込まれた基準パターン画像により更新する手段であることを特徴とする請求項1のオートフォーカスシステム。   The reference pattern image setting means is means for updating the reference pattern image stored by the reference pattern image storage means with the reference pattern image captured by the reference pattern image capture means. 1 autofocus system. 前記基準パターン画像設定手段は、前記基準パターン画像記憶手段により記憶する初期の基準パターン画像を前記基準パターン画像取込手段によって取り込まれた基準パターン画像により設定することを特徴とする請求項1又は2のオートフォーカスシステム。   3. The reference pattern image setting means sets an initial reference pattern image stored by the reference pattern image storage means based on a reference pattern image captured by the reference pattern image capture means. Autofocus system. 前記基準パターン画像取込範囲設定手段は、前記差画像生成手段により生成された差画像を2値化する2値化手段と、該2値化手段によって2値化された差画像の各画素について横方向に各画素の画素値を累積した累積値の分布と縦方向に各画素の画素値を累積した累積値の分布とを算出する累積値算出手段とを備え、該累積値算出手段により算出された累積値の分布に基づいて前記基準パターン画像取込範囲を設定することを特徴とする請求項1、2、又は、3のオートフォーカスシステム。   The reference pattern image capturing range setting unit is configured to binarize the difference image generated by the difference image generation unit and each pixel of the difference image binarized by the binarization unit. A cumulative value calculating means for calculating a cumulative value distribution in which the pixel values of each pixel are accumulated in the horizontal direction and a cumulative value distribution in which the pixel values of each pixel are accumulated in the vertical direction; 4. The autofocus system according to claim 1, wherein the reference pattern image capture range is set based on the distribution of the accumulated values. 前記オートフォーカス手段は、コントラスト方式のオートフォーカスであって、前記撮像手段により得られた撮影画像のうち所定のAFエリアの範囲内の画像のコントラストに基づいてフォーカス調整を行うと共に、前記基準パターン画像位置検出手段によって検出された位置に前記AFエリアの位置を設定することを特徴とする請求項1、2、3、又は、4のオートフォーカスシステム。   The autofocus means is contrast-type autofocus, and performs focus adjustment based on the contrast of an image within a predetermined AF area of the captured image obtained by the imaging means, and the reference pattern image 5. The autofocus system according to claim 1, wherein the position of the AF area is set at a position detected by a position detecting means.
JP2005081959A 2004-12-28 2005-03-22 Auto focus system Abandoned JP2006267220A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2005081959A JP2006267220A (en) 2005-03-22 2005-03-22 Auto focus system
US11/317,075 US7561790B2 (en) 2004-12-28 2005-12-27 Auto focus system
DE602005000987T DE602005000987T2 (en) 2004-12-28 2005-12-28 Autofocus System
EP05028593A EP1677521B1 (en) 2004-12-28 2005-12-28 Auto focus system
AT05028593T ATE360954T1 (en) 2004-12-28 2005-12-28 AUTOFOCUS SYSTEM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005081959A JP2006267220A (en) 2005-03-22 2005-03-22 Auto focus system

Publications (1)

Publication Number Publication Date
JP2006267220A true JP2006267220A (en) 2006-10-05

Family

ID=37203319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005081959A Abandoned JP2006267220A (en) 2004-12-28 2005-03-22 Auto focus system

Country Status (1)

Country Link
JP (1) JP2006267220A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009159356A (en) * 2007-12-27 2009-07-16 Casio Comput Co Ltd Object tracking device, object tracking program, and object tracking method
JP2010096963A (en) * 2008-10-16 2010-04-30 Fujinon Corp Auto focus system with af frame auto-tracking function
JP2010096962A (en) * 2008-10-16 2010-04-30 Fujinon Corp Auto focus system with af frame auto-tracking function
KR101054108B1 (en) * 2008-09-04 2011-08-03 후지쯔 가부시끼가이샤 Recording media recording focusing device, focusing method, and focusing program
JP2012199601A (en) * 2011-03-18 2012-10-18 Nikon Corp Image tracking device
JP2015069064A (en) * 2013-09-30 2015-04-13 株式会社ニコン Subject tracking device, imaging device and subject tracking program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001060263A (en) * 1999-06-15 2001-03-06 Hitachi Denshi Ltd Object tracking method and object tracking device
JP2001285695A (en) * 2000-03-30 2001-10-12 Nec Corp Mobile body tracking method and device therefor
JP2003111063A (en) * 2001-10-02 2003-04-11 Hitachi Kokusai Electric Inc Intruding object tracking method and intruding object monitoring device
JP2003235035A (en) * 2001-12-05 2003-08-22 Hitachi Kokusai Electric Inc Object detection method, object detection device using the same, object tracking method, and object tracking device using the same
JP2003241065A (en) * 2002-02-15 2003-08-27 Fuji Photo Optical Co Ltd Autofocusing system
JP2004151609A (en) * 2002-11-01 2004-05-27 Fuji Photo Optical Co Ltd Autofocus system
JP2004213648A (en) * 2002-12-19 2004-07-29 Hitachi Kokusai Electric Inc Object tracking method and object tracking device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001060263A (en) * 1999-06-15 2001-03-06 Hitachi Denshi Ltd Object tracking method and object tracking device
JP2001285695A (en) * 2000-03-30 2001-10-12 Nec Corp Mobile body tracking method and device therefor
JP2003111063A (en) * 2001-10-02 2003-04-11 Hitachi Kokusai Electric Inc Intruding object tracking method and intruding object monitoring device
JP2003235035A (en) * 2001-12-05 2003-08-22 Hitachi Kokusai Electric Inc Object detection method, object detection device using the same, object tracking method, and object tracking device using the same
JP2003241065A (en) * 2002-02-15 2003-08-27 Fuji Photo Optical Co Ltd Autofocusing system
JP2004151609A (en) * 2002-11-01 2004-05-27 Fuji Photo Optical Co Ltd Autofocus system
JP2004213648A (en) * 2002-12-19 2004-07-29 Hitachi Kokusai Electric Inc Object tracking method and object tracking device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009159356A (en) * 2007-12-27 2009-07-16 Casio Comput Co Ltd Object tracking device, object tracking program, and object tracking method
KR101054108B1 (en) * 2008-09-04 2011-08-03 후지쯔 가부시끼가이샤 Recording media recording focusing device, focusing method, and focusing program
JP2010096963A (en) * 2008-10-16 2010-04-30 Fujinon Corp Auto focus system with af frame auto-tracking function
JP2010096962A (en) * 2008-10-16 2010-04-30 Fujinon Corp Auto focus system with af frame auto-tracking function
JP2012199601A (en) * 2011-03-18 2012-10-18 Nikon Corp Image tracking device
JP2015069064A (en) * 2013-09-30 2015-04-13 株式会社ニコン Subject tracking device, imaging device and subject tracking program

Similar Documents

Publication Publication Date Title
JP4525089B2 (en) Auto focus system
US7590343B2 (en) Autofocus system
US7978968B2 (en) Auto focus device
US7561790B2 (en) Auto focus system
JP2010096962A (en) Auto focus system with af frame auto-tracking function
JP5384172B2 (en) Auto focus system
US10659692B2 (en) Image blur correction device, imaging apparatus, control method of imaging apparatus and non-transitory storage medium
JP5455361B2 (en) Auto focus system
JP2010230870A (en) Auto focus system
JP2005338352A (en) Autofocus system
JP4596246B2 (en) Auto focus system
JP2006058431A (en) Autofocusing system
JP2006267221A (en) Auto focus system
JP5426874B2 (en) Auto focus system
JP2009229584A (en) Autofocus system
JP2006113265A (en) Autofocus system
JP2006267220A (en) Auto focus system
JP2009229588A (en) Autofocus system
JP2010096963A (en) Auto focus system with af frame auto-tracking function
JP5384173B2 (en) Auto focus system
JP5965653B2 (en) TRACKING DEVICE AND TRACKING METHOD
JP2006258943A (en) Autofocus system
JP4568916B2 (en) Auto focus system
JP5048559B2 (en) Auto focus system
JP5457008B2 (en) Autofocus system with AF frame auto-tracking function

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080108

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100827

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20101022