[go: up one dir, main page]

JP2017009769A - Imaging device, focus control device and imaging method - Google Patents

Imaging device, focus control device and imaging method Download PDF

Info

Publication number
JP2017009769A
JP2017009769A JP2015124361A JP2015124361A JP2017009769A JP 2017009769 A JP2017009769 A JP 2017009769A JP 2015124361 A JP2015124361 A JP 2015124361A JP 2015124361 A JP2015124361 A JP 2015124361A JP 2017009769 A JP2017009769 A JP 2017009769A
Authority
JP
Japan
Prior art keywords
subject
subject information
information
focus
contrast
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015124361A
Other languages
Japanese (ja)
Inventor
伊織 梅澤
Iori UMEZAWA
伊織 梅澤
秀治 大野
Hideji Ono
秀治 大野
友明 西口
Tomoaki Nishiguchi
友明 西口
敏之 横山
Toshiyuki Yokoyama
敏之 横山
幸利 城田
Yukitoshi SHIROTA
幸利 城田
敏史 井口
Toshifumi Inokuchi
敏史 井口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2015124361A priority Critical patent/JP2017009769A/en
Publication of JP2017009769A publication Critical patent/JP2017009769A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

【課題】コントラスト信号レベルのピークが検出し難い暗所や色が均一の被写体に対してフォーカスレンズを合焦するには時間が掛かっていた。【解決手段】フォーカスレンズを駆動する駆動部と、フォーカスレンズを通じて結像された光学像を撮像して撮像信号を出力する撮像部と、撮像された被写体が合焦している場合における被写体の被写体距離および撮像領域における第1の特徴量が紐づけられた被写体情報を、ズームレンズの倍率毎に記憶する記憶部と、撮影している被写体が合焦出来ないと判断された場合には、撮影している撮像領域における第2の特徴量を取得するとともに、被写体情報のうち撮影している倍率における被写体情報の第1の特徴量と第2の特徴量との類似度を求め、類似度が最大となる第1の特徴量を有する被写体情報を選出する制御部と、を有し、駆動部は、選出された被写体情報が有する被写体距離に基づいて、被写体が合焦状態となるように前記フォーカスレンズを移動させることを特徴とする。【選択図】図13It takes time to focus a focus lens on a dark place where a peak of a contrast signal level is difficult to detect or a subject with a uniform color. A driving unit that drives a focus lens, an imaging unit that captures an optical image formed through the focus lens and outputs an imaging signal, and a subject of the subject when the captured subject is in focus When it is determined that the subject information associated with the distance and the first feature amount in the imaging region is stored for each zoom lens magnification and the subject being photographed cannot be focused, The second feature amount in the imaging area being acquired is obtained, and the similarity between the first feature amount and the second feature amount of the subject information at the magnification of the subject information is obtained. A control unit that selects subject information having the first characteristic amount that is the maximum, and the driving unit is configured to make the subject in a focused state based on the subject distance of the selected subject information. Four It is characterized by moving the slack lens. [Selection] Figure 13

Description

本発明は、被写体に対してオートフォーカス制御を行うフォーカス制御装置、撮像装置及びフォーカス制御方法に関する。   The present invention relates to a focus control apparatus, an imaging apparatus, and a focus control method that perform autofocus control on a subject.

従来、監視カメラやDVD(Digital Versatile Disc)カメラ等のビデオレコーダ付きの多くの撮像装置には、レンズのフォーカスを自動調整するAF(Auto Focus)機能が搭載されている。このようなAF機能における合焦方式として、撮影映像のコントラスト信号の振幅が最大値になる位置を合焦状態であるとしてフォーカスの調整を行う、コントラスト方式がある。   Conventionally, many imaging apparatuses with a video recorder such as a surveillance camera and a DVD (Digital Versatile Disc) camera are equipped with an AF (Auto Focus) function for automatically adjusting the focus of a lens. As a focusing method in such an AF function, there is a contrast method in which the focus is adjusted by assuming that the position where the amplitude of the contrast signal of the captured image is the maximum value is the in-focus state.

撮像装置においては、フォーカスレンズをその光軸方向に移動させることによって、撮影映像が非合焦状態又は合焦状態となるが、これに伴ってコントラスト信号の振幅も変化する。よって、基本的なコントラスト方式では、フォーカスレンズをその光軸方向に移動させ、移動前後のコントラスト信号の振幅の大小に基づいて合焦する方向を検出し、その方向にフォーカスレンズを移動させて合焦を行っている。以下の説明では、AF機能に従ってフォーカスレンズを合焦させる制御を「AF制御」と呼ぶ。また、AF制御によってフォーカスレンズが移動していたり、AF機能を実行するために処理を行っていたりする状態を「AF動作」と呼ぶ。一方、AF機能の実行中であるがフォーカスレンズの移動を停止している状態を「AF待機」と呼ぶ。   In the imaging apparatus, the captured image is brought into an out-of-focus state or in-focus state by moving the focus lens in the optical axis direction, and the amplitude of the contrast signal also changes accordingly. Therefore, in the basic contrast method, the focus lens is moved in the optical axis direction, the focus direction is detected based on the amplitude of the contrast signal before and after the movement, and the focus lens is moved in that direction. I'm singing. In the following description, the control for focusing the focus lens according to the AF function is referred to as “AF control”. A state in which the focus lens is moved by AF control or processing is performed to execute the AF function is referred to as “AF operation”. On the other hand, the state in which the AF function is being executed but the movement of the focus lens is stopped is called “AF standby”.

ところで、このコントラスト方式で注目するコントラストの強弱は被写体に依存する。ここで、図15と図15を参照して低コントラスト被写体を撮像するときの様子を説明する。   By the way, the contrast strength to be noticed in this contrast method depends on the subject. Here, with reference to FIG. 15 and FIG. 15, a state when imaging a low-contrast subject will be described.

図15は、夜間に従来の撮像装置が撮像領域内で撮像する被写体の例を示す。この撮像領域は、撮像装置に接続された表示装置の出力画面の大きさとほぼ同じである。   FIG. 15 shows an example of a subject that is imaged in the imaging region by a conventional imaging device at night. This imaging area is substantially the same as the size of the output screen of the display device connected to the imaging device.

図16は、撮像装置が低コントラスト被写体102を撮像するときに検波したコントラスト信号を示す。   FIG. 16 shows a contrast signal detected when the imaging apparatus images the low contrast subject 102.

従来の撮像装置は、撮像領域100の中心付近にある検波領域101の内側で低コントラスト被写体102(例えば、タワー型の建築物)のコントラスト信号を検波する。しかし、夜間には低コントラスト被写体102自体が暗く、背景も黒であるため、低コントラスト被写体102の輪郭が背景に溶け込んでしまう。   The conventional imaging apparatus detects the contrast signal of the low-contrast subject 102 (for example, a tower type building) inside the detection area 101 near the center of the imaging area 100. However, since the low-contrast subject 102 itself is dark and the background is black at night, the contour of the low-contrast subject 102 blends into the background.

図16に示すように低コントラスト被写体102の鮮鋭度の度合いを表すコントラスト信号レベルの形がなだらかであり、撮像装置がフォーカスレンズを光軸方向に移動させてもコントラスト信号レベルのピークとなる合焦点を見つけにくい。このため、フォーカスレンズがハンチングを起こしたり、合焦しないままAFが停止したりすることがあった。   As shown in FIG. 16, the shape of the contrast signal level representing the degree of sharpness of the low-contrast subject 102 is gentle, and the in-focus point at which the peak of the contrast signal level is obtained even when the imaging device moves the focus lens in the optical axis direction. Hard to find. For this reason, the focus lens may cause hunting, or AF may stop without focusing.

このような理由から、AF機能にコントラスト方式を使用している監視カメラにおいては、色が均一な建物の壁や空には合焦させ難く、特に暗所においては、図16に示したような合焦点が見つからないといった不具合が生じ易い。従って、低コントラストの被写体を撮影する際は、ハンチングを抑え、さらには、合焦点付近まで速やかにフォーカスレンズを移動させたいという要望があった。   For this reason, in a surveillance camera using a contrast method for the AF function, it is difficult to focus on a building wall or sky with uniform colors, especially in a dark place as shown in FIG. Problems such as the infocus cannot be found are likely to occur. Therefore, when photographing a low-contrast subject, there has been a demand to suppress hunting and to quickly move the focus lens to near the in-focus point.

特開平11-38309号公報Japanese Patent Laid-Open No. 11-38309

特許文献1には、現在撮影している被写体が測距可能であった場合、次回以降のAF動作の際に使用する撮影距離最頻値を計算するための過去の合焦位置として、現在撮影している被写体までの距離を倍率ごとに一定数不揮発性のメモリ内に格納する。現在撮影している被写体が測距不可能であった場合、その倍率に応じた撮影距離最頻値を格納されている被写体までの距離の平均値より求め、その平均値の距離へと合焦するようフォーカスレンズを動かす。   In Patent Document 1, when the subject currently being photographed can be measured, the current photographing is used as the past in-focus position for calculating the photographing distance mode value used in the subsequent AF operation. A predetermined number of distances to the subject being photographed are stored in a non-volatile memory for each magnification. If the subject currently being photographed cannot be measured, the mode of the shooting distance corresponding to the magnification is obtained from the average value of the distance to the stored subject and focused on the distance of the average value. Move the focus lens.

このような制御方式では、同じ倍率でも位置情報が大きく異なる被写体を撮影する環境では、撮影距離最頻値はその平均値であるから、フォーカスレンズが合焦点からは遠い位置にて停止することも十分に考えられる。すなわち、合焦させたい距離と参照する値の距離が乖離しやすくなる。この値の乖離を防ぐためには記録された被写体情報より、現在の被写体と相関のある情報を用いて合焦を図る必要がある。   In such a control method, in an environment where subjects with significantly different position information are photographed even at the same magnification, the focus distance mode is the average value, so the focus lens may stop at a position far from the focal point. Think enough. That is, the distance to be focused and the distance of the reference value are likely to deviate. In order to prevent this difference in value, it is necessary to focus using information correlated with the current subject rather than the recorded subject information.

本発明は以上の点を考慮してなされたものであり、低コントラストの被写体に対して適切なフォーカス制御を行うことを目的とする。   The present invention has been made in consideration of the above points, and an object thereof is to perform appropriate focus control on a low-contrast subject.

上記課題を解決するために、本発明は、フォーカスレンズを駆動する駆動部と、フォーカスレンズを通じて結像された光学像を撮像して撮像信号を出力する撮像部と、撮像された被写体が合焦している場合における被写体の被写体距離および撮像領域における第1の特徴量が紐づけられた被写体情報を、ズームレンズの倍率毎に記憶する記憶部と、撮影している被写体が合焦出来ないと判断された場合には、撮影している撮像領域における第2の特徴量を取得するとともに、被写体情報のうち撮影している倍率における被写体情報の第1の特徴量と第2の特徴量との類似度を求め、類似度が最大となる第1の特徴量を有する被写体情報を選出する制御部と、を有し、駆動部は、選出された被写体情報が有する被写体距離に基づいて、被写体が合焦状態となるように前記フォーカスレンズを移動させることを特徴とする。   In order to solve the above problems, the present invention provides a driving unit that drives a focus lens, an imaging unit that captures an optical image formed through the focus lens and outputs an imaging signal, and the captured subject is in focus. A storage unit that stores subject information associated with the subject distance of the subject and the first feature amount in the imaging region for each magnification of the zoom lens, and the subject being photographed cannot be focused. If it is determined, the second feature amount in the imaging region being photographed is acquired, and the first feature amount and the second feature amount of the subject information at the photographing magnification among the subject information are obtained. A control unit that obtains similarity and selects subject information having the first feature amount that maximizes the similarity, and the driving unit determines whether the subject is based on the subject distance included in the selected subject information. In focus The focus lens is moved so as to be in a state.

本発明によれば、低コントラストの被写体に対して適切なフォーカス制御を行うことができる。   According to the present invention, appropriate focus control can be performed on a low-contrast subject.

上記した以外の課題、構成及び効果は、以下の実施の形態例の説明により明らかにされる。   Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

本発明の一実施の形態例に係る撮像装置の全体構成を示すブロック図である。1 is a block diagram illustrating an overall configuration of an imaging apparatus according to an embodiment of the present invention. 本発明の一実施の形態例に係る撮像領域内の検波領域の一例を示す説明図である。It is explanatory drawing which shows an example of the detection area | region in the imaging area which concerns on the example of 1 embodiment of this invention. 本発明の一実施の形態例に係る第2検波領域の一例を示す説明図である。It is explanatory drawing which shows an example of the 2nd detection area | region which concerns on the example of 1 embodiment of this invention. 被写体に合焦している状態を図示したものである。The state in which the subject is in focus is illustrated. 図4(A)の被写体がピンボケ状態になっている時を図示したものである。FIG. 4A illustrates the time when the subject in FIG. 4A is in a defocused state. 検波領域内でのコントラスト信号レベルの例を示したものである。The example of the contrast signal level in a detection area | region is shown. 撮像領域内の被写体の例を示す。The example of the to-be-photographed object in an imaging region is shown. 検波領域内でのコントラスト信号レベルの例を示す。The example of the contrast signal level in a detection area | region is shown. 第2検波領域の例を示す。An example of the second detection region is shown. 撮像領域内の低コントラスト被写体の例を示す。An example of a low-contrast subject in the imaging area is shown. 検波領域内でのコントラスト信号レベルの例を示す。The example of the contrast signal level in a detection area | region is shown. 第2検波領域の例を示す。An example of the second detection region is shown. 撮像領域内の予備用コントラスト被写体の例を示す。An example of a preliminary contrast subject in the imaging area is shown. 検波領域内でのコントラスト信号レベルの例を示す。The example of the contrast signal level in a detection area | region is shown. 第2検波領域の例を示す。An example of the second detection region is shown. 本発明の一実施の形態例に係る制御部が分類した被写体に付与される第1〜第3優先度を示す説明図である。It is explanatory drawing which shows the 1st-3rd priority provided to the to-be-photographed object classified by the control part which concerns on the example of 1 embodiment of this invention. 本発明の一実施の形態例に係るメモリが有する一次被写体情報格納領域、被写体情報格納領域、距離情報テーブル及び各閾値の構成例を示す説明図である。It is explanatory drawing which shows the structural example of the primary object information storage area | region which the memory which concerns on the example of 1 embodiment of this invention has, a to-be-photographed object information storage area, a distance information table, and each threshold value. 本発明の一実施の形態例に係る被写体情報テーブルの構成例を示す説明図である。It is explanatory drawing which shows the structural example of the to-be-photographed object information table which concerns on the example of 1 embodiment of this invention. 本発明の一実施の形態例に係る制御部が被写体情報格納領域に格納する被写体情報を選出するために参照する第3閾値と第4閾値の関係を示す説明図である。It is explanatory drawing which shows the relationship between the 3rd threshold value referred in order that the control part which concerns on one embodiment of this invention stores the subject information stored in a subject information storage area, and a 4th threshold value. 本発明の一実施の形態例に係る撮像装置が行うAF動作の処理例を示す第1のフローチャートである。It is a 1st flowchart which shows the process example of AF operation | movement which the imaging device which concerns on one embodiment of this invention performs. 本発明の一実施の形態例に係る撮像装置が行うAF動作の処理例を示す第2のフローチャートである。It is a 2nd flowchart which shows the process example of AF operation | movement which the imaging device which concerns on one embodiment of this invention performs. 本発明の一実施の形態例に係る撮像装置が行うAF動作の処理例を示す第3のフローチャートである。It is a 3rd flowchart which shows the process example of AF operation | movement which the imaging device which concerns on one embodiment of this invention performs. 夜間に従来の撮像装置が撮像領域内で撮像する被写体の例を示す説明図である。It is explanatory drawing which shows the example of the to-be-photographed object which the conventional imaging device images in an imaging area at night. 従来の撮像装置が低コントラスト被写体を撮像するときに検波したコントラスト信号を示す説明図である。It is explanatory drawing which shows the contrast signal detected when the conventional imaging device imaged the low contrast subject.

以下、本発明の一実施の形態例に係る撮像装置及びフォーカス制御装置について、添付図面を参照して説明する。   Hereinafter, an imaging device and a focus control device according to an embodiment of the present invention will be described with reference to the accompanying drawings.

本明細書及び図面において、実質的に同一の機能又は構成を有する構成要素については、同一の符号を付することにより重複する説明を省略する。   In the present specification and drawings, components having substantially the same function or configuration are denoted by the same reference numerals, and redundant description is omitted.

[(1)本実施の形態に係る撮像装置の構成]
図1は、本実施形態に係る撮像装置1の全体構成を示すブロック図である。
[(1) Configuration of Imaging Device According to this Embodiment]
FIG. 1 is a block diagram illustrating an overall configuration of an imaging apparatus 1 according to the present embodiment.

撮像装置1は、レンズユニット2、撮像素子8、ノイズ除去回路9、自動利得制御回路(AGC:Auto Gain Controller)10、アナログ/ディジタル変換回路(A/D)11及びオートフォーカス制御装置12を備える。また、撮像装置1は、モータドライバ回路41〜43、電子シャッタ47を備える。撮像装置1は、例えば監視カメラとして用いられるが、個人用のカメラとして用いられたり、携帯端末に内蔵されて用いられたりもする。図1では、自動利得制御回路10をAGCと記載し、アナログ/ディジタル変換回路11をA/Dと記載している。   The imaging device 1 includes a lens unit 2, an imaging device 8, a noise removal circuit 9, an automatic gain control circuit (AGC) 10, an analog / digital conversion circuit (A / D) 11, and an autofocus control device 12. . In addition, the imaging apparatus 1 includes motor driver circuits 41 to 43 and an electronic shutter 47. The imaging device 1 is used as, for example, a monitoring camera, but may be used as a personal camera or may be used in a portable terminal. In FIG. 1, the automatic gain control circuit 10 is described as AGC, and the analog / digital conversion circuit 11 is described as A / D.

レンズユニット2は、被写体から受光した光束の変倍を行うことでズーム倍率を調節するバリエータレンズ群3、受光光量を調整するための絞り4及びピント調節機能を有するフォーカスレンズ群5(フォーカスレンズの一例)を備える。レンズユニット2は、被写体の光学像をCCD(Charge Coupled Device)等を用いて構成される撮像素子8の受光面に結像する。   The lens unit 2 includes a variator lens group 3 that adjusts the zoom magnification by changing the magnification of the light beam received from the subject, a stop 4 for adjusting the amount of received light, and a focus lens group 5 that has a focus adjustment function (of the focus lens). An example). The lens unit 2 forms an optical image of a subject on a light receiving surface of an image sensor 8 formed using a CCD (Charge Coupled Device) or the like.

また、レンズユニット2は、例えばフォトインタラプタ等から構成されるレンズ原点検出器6及び温度検出器7を備える。レンズ原点検出器6は、バリエータレンズ群3及びフォーカスレンズ群5の絶対位置(基準位置)を検出し、検出結果をレンズ絶対位置情報として制御部30、又は、撮像装置1と通信を行える外部システムに送信する。以下の説明では、レンズ原点検出器6が検出したバリエータレンズ群3及びフォーカスレンズ群5の絶対位置に対して、フォーカスレンズ群5が移動した位置を「フォーカスレンズ位置」と呼ぶ。そして、被写体に対して合焦したフォーカスレンズ群5の位置を「合焦位置」と呼ぶ。   In addition, the lens unit 2 includes a lens origin detector 6 and a temperature detector 7 that are composed of, for example, a photo interrupter. The lens origin detector 6 detects the absolute position (reference position) of the variator lens group 3 and the focus lens group 5 and uses the detection result as lens absolute position information to communicate with the control unit 30 or the imaging apparatus 1. Send to. In the following description, the position where the focus lens group 5 has moved relative to the absolute positions of the variator lens group 3 and the focus lens group 5 detected by the lens origin detector 6 is referred to as a “focus lens position”. The position of the focus lens group 5 focused on the subject is referred to as a “focus position”.

温度検出器7は、レンズユニット2内の温度を検出し、検出結果をレンズユニット内温度情報として、撮像装置1に搭載されている制御部30又は、撮像装置1と通信を行える外部システムに送信する。外部システムは、例えば制御コンピュータによって構成されており、制御部30を介してレンズ絶対位置情報又はレンズユニット内温度情報を受信することができる。   The temperature detector 7 detects the temperature in the lens unit 2 and transmits the detection result as temperature information in the lens unit to the control unit 30 mounted on the imaging device 1 or an external system that can communicate with the imaging device 1. To do. The external system is configured by a control computer, for example, and can receive lens absolute position information or lens unit internal temperature information via the control unit 30.

さらに、レンズユニット2は、バリエータレンズ群3、絞り4及びフォーカスレンズ群5をそれぞれ駆動させるモータ44〜46を有している。モータ44〜46は、それぞれモータドライバ回路41〜43から入力するモータ制御信号によって駆動される。   Further, the lens unit 2 includes motors 44 to 46 that drive the variator lens group 3, the diaphragm 4, and the focus lens group 5, respectively. The motors 44 to 46 are driven by motor control signals input from the motor driver circuits 41 to 43, respectively.

撮像素子8(撮像部の一例)は、フォーカスレンズ群5を通じて受光面の撮像領域に結像された被写体の光学像を撮像して、この光学像を光電変換し、得られた電気信号(撮像信号)をノイズ除去回路9に出力する。この撮像信号は、ノイズ除去回路9において所定のノイズ除去処理が施され、自動利得制御回路10において最適なレベルに増幅される。そして、撮像信号は、アナログ/ディジタル変換回路11においてディジタル変換された後、ディジタル撮像信号としてカメラ信号処理部13に出力される。   The imaging device 8 (an example of an imaging unit) captures an optical image of a subject imaged in an imaging region on the light receiving surface through the focus lens group 5, photoelectrically converts the optical image, and obtains an electrical signal (imaging) Signal) is output to the noise removal circuit 9. The image pickup signal is subjected to a predetermined noise removal process in the noise removal circuit 9 and amplified to an optimum level in the automatic gain control circuit 10. The imaging signal is digitally converted by the analog / digital conversion circuit 11 and then output to the camera signal processing unit 13 as a digital imaging signal.

オートフォーカス制御装置12は、カメラ信号処理部13と制御部30を備える。   The autofocus control device 12 includes a camera signal processing unit 13 and a control unit 30.

カメラ信号処理部13は、信号変換処理回路14、コントラスト信号生成部15、AE(Auto Exposure)信号生成回路18、被写体情報信号生成回路19、及びAG(Auto Gain)信号生成回路20を備える。   The camera signal processing unit 13 includes a signal conversion processing circuit 14, a contrast signal generation unit 15, an AE (Auto Exposure) signal generation circuit 18, a subject information signal generation circuit 19, and an AG (Auto Gain) signal generation circuit 20.

信号変換処理回路14は、アナログ/ディジタル変換回路11から入力されるディジタル撮像信号に対し、所定の信号処理を施す。このとき、信号変換処理回路14は、ディジタル撮像信号を、例えばNTSC(National Television Standards Committee)規格やPAL(Phase Alternating Line)規格等のテレビジョン方式に準拠した標準的なテレビジョン信号に変換して外部に出力する。例えば、信号変換処理回路14は、このテレビジョン信号を、撮像装置1とネットワークを介して通信を行う外部システムに送信する。外部システムにおいて、テレビジョン信号に基づく画像が表示装置の画面に表示される。   The signal conversion processing circuit 14 performs predetermined signal processing on the digital imaging signal input from the analog / digital conversion circuit 11. At this time, the signal conversion processing circuit 14 converts the digital imaging signal into a standard television signal conforming to a television system such as the NTSC (National Television Standards Committee) standard or the PAL (Phase Alternating Line) standard. Output to the outside. For example, the signal conversion processing circuit 14 transmits the television signal to an external system that communicates with the imaging device 1 via a network. In the external system, an image based on the television signal is displayed on the screen of the display device.

さらに、カメラ信号処理部13は、HPF(ハイパスフィルタ)回路16及び積分器17からなるコントラスト信号生成部15(信号生成部の一例)を備える。HPF回路16は、カットオフ周波数の値を自在に変更できる。そして、HPF回路16は、任意のカットオフ周波数より高い信号を生成し、積分器17に出力する。積分器17は、HPF回路16から入力された信号を積分したコントラスト信号VFを制御部30に送出する。なお、HPF回路16及び積分器17からなるコントラスト信号生成部15は、任意のテレビジョン信号の領域から値を取得することができる。HPF回路16と積分器17との各組み合わせは、後述する図3に示すように撮像素子8の撮像領域に設定される各第2検波領域(複数の検波領域の一例)に対応して設けてもよい。   Further, the camera signal processing unit 13 includes a contrast signal generation unit 15 (an example of a signal generation unit) including an HPF (High Pass Filter) circuit 16 and an integrator 17. The HPF circuit 16 can freely change the value of the cutoff frequency. Then, the HPF circuit 16 generates a signal higher than an arbitrary cutoff frequency and outputs the signal to the integrator 17. The integrator 17 sends a contrast signal VF obtained by integrating the signal input from the HPF circuit 16 to the control unit 30. Note that the contrast signal generation unit 15 including the HPF circuit 16 and the integrator 17 can acquire a value from an area of an arbitrary television signal. Each combination of the HPF circuit 16 and the integrator 17 is provided corresponding to each second detection region (an example of a plurality of detection regions) set in the imaging region of the imaging device 8 as shown in FIG. Also good.

ここで、図2と図3を参照して、コントラスト信号生成部15がコントラスト信号を生成する検波領域について説明する。   Here, with reference to FIG. 2 and FIG. 3, the detection area | region where the contrast signal generation part 15 produces | generates a contrast signal is demonstrated.

図2は、本実施形態に係る撮像領域内の第1検波領域の一例を示す。   FIG. 2 shows an example of the first detection area in the imaging area according to the present embodiment.

撮像装置1から出力されるテレビジョン信号は、外部システムの表示装置の出力画面に表示される。撮像領域50に撮像される画像が、出力画面に表示されることとなる。撮像領域50の中心付近には、矩形枠の第1検波領域51が設けられている。コントラスト信号生成部15は、第1検波領域51内で被写体のコントラストを検波し、コントラスト信号を生成する。   The television signal output from the imaging device 1 is displayed on the output screen of the display device of the external system. An image captured in the imaging area 50 is displayed on the output screen. Near the center of the imaging region 50, a first detection region 51 having a rectangular frame is provided. The contrast signal generation unit 15 detects the contrast of the subject in the first detection area 51 and generates a contrast signal.

図3は、本実施形態に係る撮像領域内の第2検波領域の一例を示す。   FIG. 3 shows an example of the second detection area in the imaging area according to the present embodiment.

コントラスト信号生成部15は、撮像領域50内に設定された9つの第2検波領域52a〜52i(複数の検波領域の一例)に対し、各々の検波領域に対応する撮像信号からコントラスト信号を生成する。そして、制御部30は、第2検波領域52a〜52i毎にコントラスト信号レベルを求める。第2検波領域52a〜52i毎のコントラスト信号レベルは、後述するように制御部30が、被写体を低コントラスト被写体であるかどうかを判別し、この被写体の優先度情報に所定の優先度を付与するために用いられる。そして、制御部30は、被写体情報に設定された優先度に従って、メモリ32に被写体情報を記憶する。   For the nine second detection areas 52a to 52i (an example of a plurality of detection areas) set in the imaging area 50, the contrast signal generation unit 15 generates a contrast signal from the imaging signals corresponding to the respective detection areas. . And the control part 30 calculates | requires a contrast signal level for every 2nd detection area | region 52a-52i. As will be described later, the control unit 30 determines whether or not the subject is a low-contrast subject, and assigns a predetermined priority to the priority information of the subject. Used for. Then, the control unit 30 stores the subject information in the memory 32 according to the priority set in the subject information.

図1の撮像装置1の構成及び動作の説明に戻る。   Returning to the description of the configuration and operation of the imaging apparatus 1 in FIG.

コントラスト信号生成部15は、信号変換処理回路14により生成されたテレビジョン信号(撮像画像)のうちの第1検波領域51における輝度信号の高周波成分を、HPF回路16によって抽出する。ある検波領域における輝度信号の高周波成分は、例えば、当該検波領域内のある画素が出力する輝度信号(輝度値)と隣接する画素又は所定の画素数分だけ離れた画素が出力する輝度信号との差分を取ることにより抽出される。この抽出処理を、第1検波領域51内の全画素について行う。そして、カメラ信号処理部13は、抽出した第1検波領域51内の全画素の輝度信号の高周波成分を、積分器17において積分処理することにより、コントラスト信号VFを生成して制御部30に送出する。   The contrast signal generator 15 uses the HPF circuit 16 to extract high-frequency components of the luminance signal in the first detection region 51 from the television signal (captured image) generated by the signal conversion processing circuit 14. The high-frequency component of the luminance signal in a certain detection region is, for example, the luminance signal (luminance value) output by a certain pixel in the detection region and the luminance signal output by an adjacent pixel or a pixel separated by a predetermined number of pixels. Extracted by taking the difference. This extraction process is performed for all pixels in the first detection region 51. Then, the camera signal processing unit 13 integrates the extracted high-frequency components of the luminance signals of all the pixels in the first detection region 51 by the integrator 17 to generate a contrast signal VF and send it to the control unit 30. To do.

AE信号生成回路18は、入力されたテレビジョン信号に基づき、現在の撮影映像の明るさ、レンズユニット2の絞り4の開き具合及び自動利得制御のゲイン等に応じた信号レベルのオートアイリス信号AEを生成し、これを制御部30に送出する。   Based on the input television signal, the AE signal generation circuit 18 generates an auto iris signal AE having a signal level corresponding to the brightness of the current photographed image, the degree of opening of the aperture 4 of the lens unit 2, the gain of automatic gain control, and the like. It is generated and sent to the control unit 30.

被写体情報信号生成回路19は、入力されたテレビジョン信号の全体、または任意の領域から色信号等を抽出し、被写体情報を制御部30に送出する。この被写体情報には、例えば、被写体のコントラスト値、色信号、被写体距離、輝度信号が含まれる。   The subject information signal generation circuit 19 extracts a color signal or the like from the entire input television signal or an arbitrary region, and sends the subject information to the control unit 30. The subject information includes, for example, a subject contrast value, a color signal, a subject distance, and a luminance signal.

AG信号生成回路20は、入力されたテレビジョン信号に基づき、自動利得制御回路10の利得を制御するためのAG信号を生成し、これを制御部30に送出する。   The AG signal generation circuit 20 generates an AG signal for controlling the gain of the automatic gain control circuit 10 based on the input television signal, and sends it to the control unit 30.

制御部30は、例えば撮像装置1の各部を制御するCPU(Central Processing Unit)31及び不揮発性のメモリ32(記憶部の一例)等の情報処理資源を備える。メモリ32には、本実施の形態に係る機能を実現するためのプログラム、該プログラムに用いられるパラメータや該プログラムの実行により生成されるデータ等が格納される。例えばメモリ32には、オートアイリスデータ処理プログラム(AEP)33及びオートフォーカスデータ処理プログラム(AFP)34が格納されている。また、メモリ32には、後述する図9に示す各データが格納されている。そして、制御部30が行う処理は、CPU31がメモリ32からプログラム、パラメータ、データ等を読み出して、所定の処理を実行することで実現される。   The control unit 30 includes information processing resources such as a CPU (Central Processing Unit) 31 that controls each unit of the imaging apparatus 1 and a nonvolatile memory 32 (an example of a storage unit). The memory 32 stores a program for realizing the functions according to the present embodiment, parameters used for the program, data generated by executing the program, and the like. For example, the memory 32 stores an auto iris data processing program (AEP) 33 and an autofocus data processing program (AFP) 34. The memory 32 stores each data shown in FIG. 9 described later. And the process which the control part 30 performs is implement | achieved when CPU31 reads a program, a parameter, data, etc. from the memory 32, and performs a predetermined process.

また、制御部30は、不図示の通信インターフェースを介して接続される外部システムから制御コマンド等を受信する。なお、メモリ32は、撮像画像の画像データをフレーム単位で一時的に記憶するバッファメモリとしての機能も有する。メモリ32とは別に、バッファメモリを設けてもよい。また、メモリ32は、撮像装置1、フォーカス制御装置12の外部に設けてもよい。   Further, the control unit 30 receives a control command or the like from an external system connected via a communication interface (not shown). The memory 32 also has a function as a buffer memory that temporarily stores image data of captured images in units of frames. A buffer memory may be provided separately from the memory 32. The memory 32 may be provided outside the imaging device 1 and the focus control device 12.

制御部30は、メモリ32からオートアイリスデータ処理プログラム33を呼び出し、AE信号生成回路18で生成されたオートアイリス信号AEによって現在の撮影映像の明るさを求める。併せて、制御部30は、メモリ32からオートフォーカスデータ処理プログラム34を呼び出し、オートアイリス信号AEによって絞り4の開き具合及び自動利得制御のゲイン等に対する評価値であるオートアイリス評価値を算出する。また、制御部30は、コントラスト信号生成部15で生成されたコントラスト信号VFの値であるオートフォーカス評価値を取得する。   The control unit 30 calls the auto iris data processing program 33 from the memory 32, and obtains the brightness of the current captured video by the auto iris signal AE generated by the AE signal generation circuit 18. At the same time, the control unit 30 calls the autofocus data processing program 34 from the memory 32, and calculates an auto iris evaluation value that is an evaluation value for the degree of opening of the aperture 4, the gain of automatic gain control, and the like by the auto iris signal AE. In addition, the control unit 30 acquires an autofocus evaluation value that is a value of the contrast signal VF generated by the contrast signal generation unit 15.

また、制御部30は、コントラスト信号生成部15に対して、撮像領域50内に第2検波領域52a〜52iを設定する指示を行う。また、制御部30は、被写体情報信号生成回路19から入力する被写体情報に、フォーカス位置に対応するフォーカスレンズ群5の合焦時における被写体距離を付加し、メモリ32に被写体情報を格納する処理を実行する。この処理の詳細は後述する。   In addition, the control unit 30 instructs the contrast signal generation unit 15 to set the second detection regions 52 a to 52 i in the imaging region 50. Further, the control unit 30 adds the subject distance when the focus lens group 5 corresponding to the focus position is in focus to the subject information input from the subject information signal generation circuit 19 and stores the subject information in the memory 32. Run. Details of this processing will be described later.

そして、制御部30は、メモリ32から読み出した被写体情報に基づいて駆動部を制御し、フォーカスレンズ群5を合焦状態とする。このために、制御部30は、バリエータレンズ群3及び絞り4の駆動を制御するための第1及び第2のモータ制御信号を生成し、これらをそれぞれモータドライバ回路41、42に出力する。第1及び第2のモータ制御信号は、オートアイリス評価値、レンズ絶対位置情報に基づき得られる現在のズーム倍率を表すズーム倍率情報、レンズユニット内温度情報、及びメモリ32に格納されているトレースカーブデータとに基づいて生成される。このバリエータレンズ群3及び絞り4の駆動は、周知の技術を用いて制御することができる。   Then, the control unit 30 controls the drive unit based on the subject information read from the memory 32 to bring the focus lens group 5 into a focused state. For this purpose, the control unit 30 generates first and second motor control signals for controlling driving of the variator lens group 3 and the diaphragm 4 and outputs them to the motor driver circuits 41 and 42, respectively. The first and second motor control signals include an auto iris evaluation value, zoom magnification information indicating the current zoom magnification obtained based on lens absolute position information, lens unit temperature information, and trace curve data stored in the memory 32. And is generated based on The driving of the variator lens group 3 and the diaphragm 4 can be controlled using a known technique.

モータドライバ回路41は、入力された第1モータ制御信号に基づいて、レンズユニット2のバリエータレンズ群3を光軸方向に移動させるモータ44を駆動制御する。モータドライバ回路42は、入力された第2モータ制御信号に基づいて、レンズユニット2の絞りを駆動するモータ45を駆動制御する。このようにしてオートアイリス制御が行なわれる。なお、第1及び第2のモータ制御信号を生成する際に、レンズユニット内温度情報を用いることでオートアイリス制御の精度を上げることができる。   The motor driver circuit 41 drives and controls a motor 44 that moves the variator lens group 3 of the lens unit 2 in the optical axis direction based on the input first motor control signal. The motor driver circuit 42 drives and controls the motor 45 that drives the diaphragm of the lens unit 2 based on the input second motor control signal. In this way, auto iris control is performed. When generating the first and second motor control signals, the accuracy of auto iris control can be improved by using the lens unit temperature information.

さらに、制御部30は、オートアイリス評価値に基づいて、電子シャッタ47のシャッタ速度を制御することにより、当該撮像素子8の受光面上に結像される被写体の光学像の光量調整を行う。また、制御部30は、オートアイリス評価値に基づいて、自動利得制御回路10におけるゲイン調整を行う。   Further, the control unit 30 controls the shutter speed of the electronic shutter 47 based on the auto iris evaluation value, thereby adjusting the light amount of the optical image of the subject formed on the light receiving surface of the image sensor 8. Further, the control unit 30 performs gain adjustment in the automatic gain control circuit 10 based on the auto iris evaluation value.

さらに、制御部30は、オートフォーカス評価値に基づいて合焦方向及び合焦位置を検出すると共に、第3モータ制御信号を生成し、これをモータドライバ回路43(駆動部の一例)に送出する。モータドライバ回路43は、第3モータ制御信号に基づいてレンズユニット2のフォーカスレンズ群5を光軸方向に移動させるモータ46(駆動部の一例)を駆動制御する。このようにモータドライバ回路43及びモータ46によって、被写体に対して合焦状態を得るためにフォーカスレンズ群5を駆動するオートフォーカス制御が行なわれ、撮影時に被写体に合焦することができる。これらのモータ44〜46として、例えばステッピングモータが用いられる。   Further, the control unit 30 detects the in-focus direction and the in-focus position based on the autofocus evaluation value, generates a third motor control signal, and sends this to the motor driver circuit 43 (an example of the drive unit). . The motor driver circuit 43 drives and controls a motor 46 (an example of a drive unit) that moves the focus lens group 5 of the lens unit 2 in the optical axis direction based on the third motor control signal. As described above, the motor driver circuit 43 and the motor 46 perform autofocus control for driving the focus lens group 5 in order to obtain an in-focus state with respect to the subject, and the subject can be focused during photographing. As these motors 44 to 46, for example, stepping motors are used.

[(2)メモリ32内の被写体情報を利用した低コントラスト被写体のAF方法]
従来の監視用途において多くの撮像装置は、パンニング、チルティング、ズーム動作が可能であるが、ほとんどの撮像装置では撮影条件や撮影する被写体の種類が決まっている。そのため、撮像装置は、対象物の周りの明るさや対象物自体の明るさ、色、コントラスト値、倍率によって、監視対象を推測可能である。
[(2) AF Method for Low Contrast Subject Using Subject Information in Memory 32]
In conventional monitoring applications, many image pickup apparatuses can perform panning, tilting, and zoom operations. However, in most image pickup apparatuses, shooting conditions and types of subjects to be shot are determined. Therefore, the imaging apparatus can estimate the monitoring target based on the brightness around the object, the brightness of the object itself, the color, the contrast value, and the magnification.

本発明を活用するにあたって、メモリ32内には予め低コントラスト被写体の合焦に有利な情報が格納されている。本発明ではこの被写体情報を利用することで本来合焦不能と考えられる被写体に対し合焦を図るものである。   In utilizing the present invention, information advantageous for focusing on a low-contrast subject is stored in the memory 32 in advance. In the present invention, this subject information is used to focus on a subject that is originally considered to be in focus.

なお、本発明の説明においては、複数回のAF動作後、制御部30がメモリ32(後述する図10に示す被写体情報テーブル)に所定の制限個数まで被写体情報を格納した後、低コントラスト被写体の撮影時に有用な被写体情報だけを選択してメモリ32に格納する処理を「最適化」と呼ぶ。   In the description of the present invention, after a plurality of AF operations, the control unit 30 stores subject information up to a predetermined limit number in the memory 32 (subject information table shown in FIG. The process of selecting only subject information useful at the time of shooting and storing it in the memory 32 is called “optimization”.

<AF動作中に被写体が低コントラスト被写体と判定された場合>
本発明のAF動作は、コントラストAF動作に基づいて合焦を行っている時に撮影している被写体が低コントラスト被写体と判定された場合や、一般的なコントラスト方式のAF動作では合焦不可能と判断された場合、測距不可能と判断された場合などに好適なAF動作である。なお、AF動作中に撮影している被写体が低コントラスト被写体と判定する方法は、例えば、一定以上フォーカスレンズ群5を動かした後、コントラスト信号VFの傾きが閾値以下であるといったような方法である。
<When the subject is determined to be a low-contrast subject during AF operation>
According to the AF operation of the present invention, when the subject being photographed is determined to be a low-contrast subject when focusing is performed based on the contrast AF operation, it is impossible to focus on a general contrast AF operation. The AF operation is suitable when it is determined, or when it is determined that ranging is impossible. Note that the method for determining that the subject being photographed during the AF operation is a low-contrast subject is, for example, a method in which the inclination of the contrast signal VF is equal to or less than a threshold value after the focus lens group 5 is moved more than a certain amount. .

以下、本発明のAF動作の説明を行う。制御部30では、現在撮影している被写体が低コントラスト被写体と判定された場合、本発明に基づく方法を用いて被写体の合焦処理を実行する。   Hereinafter, the AF operation of the present invention will be described. When it is determined that the subject currently being photographed is a low-contrast subject, the control unit 30 performs subject focusing processing using the method according to the present invention.

まず、制御部30は過去の合焦した時の被写体情報を格納している被写体情報テーブルから、現在撮影している被写体と最も類似性のある被写体情報を選出する。なお、格納する被写体情報は、過去に合焦した際の被写体情報に限らず、予めユーザーなどが入力して設定した値を用いてもよい。以下の説明においては、過去に合焦した際の被写体情報を格納している場合を用いて説明する。   First, the control unit 30 selects subject information that is most similar to the subject that is currently photographed from a subject information table that stores subject information at the time of focusing in the past. Note that the subject information to be stored is not limited to subject information at the time of focusing in the past, and a value input and set in advance by a user or the like may be used. In the following description, a case in which subject information at the time of focusing in the past is stored will be described.

制御部30は、まず、バリエータレンズ群3の位置から距離情報テーブルを参照し、現在のカメラの倍率を取得する。次に、被写体情報テーブルから、取得した倍率と同じ倍率に紐付けされている過去の被写体情報(OI_x)を被写体情報(pI)として選出する。   First, the control unit 30 refers to the distance information table from the position of the variator lens group 3 and acquires the current magnification of the camera. Next, past subject information (OI_x) linked to the same magnification as the obtained magnification is selected as subject information (pI) from the subject information table.

そして、制御部30は、被写体情報(pI)から色信号値と現在撮影している被写体の色信号値とを比較する。なお、被写体情報として格納される色情報以外にも、センサの観光度度合いである輝度信号値そのもの、動きベクトル、明度、テクスチャ等の特徴量であってもよい。以下では、特徴量の一例として色信号値を用いた場合を例に説明する。   Then, the control unit 30 compares the color signal value from the subject information (pI) with the color signal value of the subject currently being photographed. In addition to the color information stored as the subject information, it may be a feature value such as a luminance signal value itself, which is the degree of tourism of the sensor, a motion vector, brightness, texture, and the like. Hereinafter, a case where a color signal value is used as an example of the feature amount will be described as an example.

色信号値の比較を行う処理は次に示す通りである。まず、現在撮影している被写体の被写体情報を図2に示した第1検波領域より取得する。次に、取得した被写体情報より色信号値を抽出し、前記の被写体情報(pI)の色信号値とのデータ上の距離(d_I)を式(1)を用いてそれぞれ算出する。   The processing for comparing the color signal values is as follows. First, subject information of the subject currently being photographed is acquired from the first detection region shown in FIG. Next, a color signal value is extracted from the acquired subject information, and a distance (d_I) on the data with the color signal value of the subject information (pI) is calculated using Equation (1).

出力されている映像の色味が近ければ、出力されている色信号値の大きさが近しいことは自明である。色信号値の大きさが近しいということは、比較する色信号値同士のデータ空間上の距離が近しいことを示す。即ち、式(1)のような空間上の距離を求める式にて映像の色味の近さ、つまりは色信号値の類似性を計算することが可能となる。   If the color of the output video is close, it is obvious that the size of the output color signal value is close. The fact that the magnitudes of the color signal values are close indicates that the distance in the data space between the color signal values to be compared is close. That is, it is possible to calculate the closeness of the color of the video, that is, the similarity of the color signal values, using an expression for obtaining a spatial distance such as Expression (1).

Figure 2017009769
Figure 2017009769

なお、R0、G0、B0は、現在撮影している被写体の色信号を、Rn、Gn、Bmは、被写体情報テーブルに格納されている現在のカメラ倍率における色信号を表している。 R 0 , G 0 , and B 0 represent color signals of the subject currently being photographed, and Rn, Gn, and Bm represent color signals at the current camera magnification stored in the subject information table.

ここで、本実施例における被写体情報(pI)は、図2に示すような第2検波領域52a〜52iの検波領域のサイズにおいて色信号を検出しているので、図2の題検波領域と、現在撮影している検波領域のサイズが異なる。よって、絶対値による比較は誤った被写体情報の選出を行う原因となるので、サイズの差を打ち消すためそれぞれの検波領域のサイズに応じて色信号値は正規化された値に再計算されたものを使用してデータ上の距離(d_I)を算出する。   Here, since the subject information (pI) in this embodiment detects the color signal in the size of the detection areas of the second detection areas 52a to 52i as shown in FIG. 2, the subject detection area of FIG. The size of the detection area currently being photographed is different. Therefore, the comparison by the absolute value causes the wrong object information to be selected, so that the color signal value is recalculated to a normalized value according to the size of each detection area in order to cancel the size difference. Is used to calculate the distance (d_I) on the data.

正規化は、例えばコントラスト信号や色信号を取得する検波領域ごとのそれぞれの色ごとに色信号値を積算した値を、検波領域ごとの画素数と画素毎に得た色信号の感高度合いの諧調を乗算した値にて除算した値である。即ち、色信号値取得時の諧調をS、検波領域ごとの画素数をP、それぞれの色信号を積算した値をC_Valueとした場合、それぞれ正規化された色信号の値(OC_Value)は次の式(2)となる。   Normalization is performed by, for example, integrating the color signal value for each color for each detection region from which a contrast signal or color signal is acquired, to determine the number of pixels for each detection region and the degree of sensitivity of the color signal obtained for each pixel. It is the value divided by the value obtained by multiplying the gradation. That is, assuming that the gradation at the time of obtaining the color signal value is S, the number of pixels for each detection region is P, and the value obtained by integrating the respective color signals is C_Value, each normalized color signal value (OC_Value) is Equation (2) is obtained.

Figure 2017009769
Figure 2017009769

ただし、CにはR(赤)、B(青)、G(緑)等のそれぞれの色が入る。   However, each color such as R (red), B (blue), and G (green) is entered in C.

そして、制御部30は、被写体情報(pI)のうち、求めた被写体情報データ上の距離(d_I)が最小となる被写体情報(pI_m)を選出する。そして、選出された被写体情報(pI_m)に紐付けされている被写体距離情報を抽出する。その後、制御部30は現在のバリエータレンズ群3の位置及び距離情報テーブルを参照し、前述の抽出した被写体距離情報の距離に合焦する位置へと、フォーカスレンズ群5を移動させAF動作を終了させる。   Then, the control unit 30 selects subject information (pI_m) that minimizes the distance (d_I) on the obtained subject information data from the subject information (pI). Then, subject distance information associated with the selected subject information (pI_m) is extracted. After that, the control unit 30 refers to the current position and distance information table of the variator lens group 3 and moves the focus lens group 5 to a position where the distance of the extracted subject distance information is in focus, thus completing the AF operation. Let

ここで、被写体情報(pI)の中に、データ上の距離(d_I)が最小となる被写体情報が複数あった場合の処理を説明する。すなわち、データ上の距離(d_I)が最小となる状況が、現在撮影している被写体と色味が近い情報が複数格納された場合に起こりうる。この場合、撮像装置が同様の被写体を撮影することが多いことから、現在のAF動作を停止している撮像装置の合焦している位置と、撮影している被写体に対する合焦位置は近い可能性があると考えられる。   Here, a process when there are a plurality of pieces of subject information having the smallest distance (d_I) on the data in the subject information (pI) will be described. In other words, a situation where the distance (d_I) on the data is minimized may occur when a plurality of pieces of information that are close in color to the subject currently being photographed are stored. In this case, since the imaging device often shoots the same subject, the in-focus position of the imaging device that has stopped the current AF operation can be close to the in-focus position for the subject being shot. It is thought that there is sex.

以上の考えを基に、被写体情報(pI)の中からデータ上の距離(d_I)が最小となる被写体情報の被写体情報(pI_m)を選出した結果、被写体情報(pI_m)が複数選出された場合、現在のバリエータレンズ群3及びフォーカスレンズ群5の位置から距離情報テーブルを参照し、現在合焦している被写体距離を算出する。その後、算出した被写体距離と被写体情報(pI_m)のそれぞれに紐付けされている被写体距離情報との差を求める。次に、求めた差の内、最小の差となった被写体距離情報と紐付けられている被写体情報(pI_m2)を参照する情報として選出する。   Based on the above idea, when the subject information (pI_m) of the subject information that minimizes the data distance (d_I) is selected from the subject information (pI), and as a result, a plurality of subject information (pI_m) is selected. Then, the distance information table is referred from the current positions of the variator lens group 3 and the focus lens group 5 to calculate the currently focused subject distance. Thereafter, a difference between the calculated subject distance and the subject distance information associated with each of the subject information (pI_m) is obtained. Next, it is selected as information that refers to subject information (pI_m2) associated with subject distance information that is the smallest difference among the obtained differences.

その後、現在のバリエータレンズ群3の位置及び距離情報テーブルを参照することによって、前述の抽出した被写体距離情報の距離に合焦する位置へと、フォーカスレンズ群5を移動させAF動作を終了させる。   Thereafter, by referring to the current position and distance information table of the variator lens group 3, the focus lens group 5 is moved to a position where the distance of the extracted subject distance information is in focus, and the AF operation is terminated.

ここで、上述の被写体距離と被写体情報(pI_m)のそれぞれに紐付けされている被写体距離情報との差が最小となる被写体情報が複数あった場合、被写体情報(pI_m2)は複数選出されることとなる。この場合、被写体情報(pI_m2)の内もっとも最新の被写体情報を参照する情報として選出し、前述の抽出した被写体距離情報の距離に合焦する位置へと、フォーカスレンズ群5を移動させAF動作を終了させる。   Here, when there are a plurality of pieces of subject information that minimize the difference between the subject distance and the subject distance information associated with each of the subject information (pI_m), a plurality of pieces of subject information (pI_m2) are selected. It becomes. In this case, the most recent subject information in the subject information (pI_m2) is selected as information that is referred to, and the focus lens group 5 is moved to a position that focuses on the distance of the extracted subject distance information described above to perform the AF operation. Terminate.

制御部30は、これらの動作によって、最適化された被写体情報テーブルを活用し、コントラスト方式に基づくAF動作よりも、低コントラスト被写体に対しより正確にすばやく合焦を行うことが可能となる。   With these operations, the control unit 30 can use the optimized subject information table to focus on a low-contrast subject more accurately and quickly than the AF operation based on the contrast method.

上述のアルゴリズムを図4を用いて具体的な例を示す。   A specific example of the above algorithm will be described with reference to FIG.

また、図10に示すような、本例における被写体情報テーブルには、図6(A)に示すような被写体の被写体情報が格納されているとする。図6(A)に示すように被写体54は、例えば、昼間の空を背景としたタワー型の建築物であり、第1検波領域51内において、空と建築物には色味や明るさに違いがある。本被写体に対しては、コントラストAFにて合焦が可能である。AF動作後、本被写体においては、後述の被写体情報取得方法によって、カメラの倍率、合焦距離、及び画像内の低コントラスト部分である背景の空の特徴量の色信号値が被写体情報として格納されることとなる。前述の特徴量は、例として、図10の被写体情報テーブルにおいては倍率がn、番号が5に相当するものとする。つまり、例の被写体の被写体情報は、合焦した際の被写体までの距離を示す情報(被写体距離情報)はD20とし、映像信号の中の赤、緑、青の信号値(色信号値(R)、色信号値(G)、色信号値(B))はそれぞれR20、G20、B20とする。また、優先度情報の詳細は後述するが、本被写体は優先度を2として情報を記録する。   Further, it is assumed that subject information of the subject as shown in FIG. 6A is stored in the subject information table in this example as shown in FIG. As shown in FIG. 6A, the subject 54 is, for example, a tower-type building against the background of the daytime sky. In the first detection area 51, the sky and the building have colors and brightness. There is a difference. The subject can be focused by contrast AF. After the AF operation, the subject's magnification, the focusing distance, and the color signal value of the background sky feature amount, which is a low-contrast portion in the image, are stored as subject information in the subject by the subject information acquisition method described later. The Rukoto. For example, in the subject information table of FIG. 10, the above-described feature amount corresponds to a magnification of n and a number of 5. That is, in the subject information of the subject in the example, the information indicating the distance to the subject when focused (subject distance information) is D20, and the red, green, and blue signal values (color signal values (R ), Color signal value (G), and color signal value (B)) are R20, G20, and B20, respectively. Although details of priority information will be described later, this subject records information with a priority of 2.

図4(A)に示すのは、図6の被写体に対しn倍のまま水平方向左側へ僅かにカメラを動かし、中心の第1検波領域51を空に合わせて撮影している状態を示している。図4(B)は、図4(A)を撮影した際に、フォーカスレンズ群5を移動させ、合焦位置からずれた状態、即ちピンボケの状態の映像である。コントラスト方式に基づくAF動作では図4(B)のピンボケの状態から、図4(A)のような合焦状態にさせることは難しい。これは、空のように一面同じ色や明るさである場合、図4(C)のグラフの様にコントラスト信号レベルの形がなだらかであり、撮像装置がフォーカスレンズを光軸方向に移動させてもコントラスト信号レベルのピークとなる合焦点を見つけにくいためである。   FIG. 4A shows a state where the camera is moved slightly to the left in the horizontal direction while being n times as large as the subject of FIG. 6 and the first detection area 51 at the center is imaged in the sky. Yes. FIG. 4B is an image in a state where the focus lens group 5 is moved and shifted from the in-focus position, that is, out of focus, when FIG. 4A is photographed. In the AF operation based on the contrast method, it is difficult to bring the in-focus state as shown in FIG. 4A from the out-of-focus state shown in FIG. In the case of the same color and brightness as in the sky, the shape of the contrast signal level is gentle as in the graph of FIG. 4C, and the imaging device moves the focus lens in the optical axis direction. This is because it is difficult to find the focal point at which the contrast signal level peaks.

ここで、本発明を用いて、図4(B)のように低コントラストな被写体にピンボケした状態からAFにて合焦させる場合を説明する。   Here, a case will be described in which the present invention is used to focus with AF from a state in which a low-contrast subject is out of focus as shown in FIG.

制御部30はAF開始の信号を受け取った後、コントラスト方式に基づくAF動作を行い、一定の距離フォーカスレンズ群5を駆動させる。この時、フォーカスレンズ群5を動かしたとしても、コントラスト信号レベルがほとんど変わらないため、現在撮影している被写体が低コントラストと判断される。そして、コントラスト方式に基づくAFを停止し、本発明に基づくAF処理を実行する。   After receiving the AF start signal, the control unit 30 performs an AF operation based on the contrast method to drive the fixed distance focus lens group 5. At this time, even if the focus lens group 5 is moved, the contrast signal level is hardly changed, so that the subject currently photographed is determined to have low contrast. Then, AF based on the contrast method is stopped, and AF processing based on the present invention is executed.

本発明に基づくAF処理は、まず、図4(B)における第1検波領域51より色信号値(赤=Rb、緑=Gb、青=Bb)を取得する。取得した色信号値は、上述の式(2)によって、正規化される。   In the AF processing according to the present invention, first, color signal values (red = Rb, green = Gb, blue = Bb) are acquired from the first detection region 51 in FIG. The acquired color signal value is normalized by the above equation (2).

次に、現在のカメラの倍率はn倍であることからn倍に紐付けられている被写体情報を被写体情報テーブルより抽出する。その後、正規化した色信号値と倍率を基に抽出された被写体情報の色信号値を式(1)を用いてそれぞれ比較し、特徴量の距離が最も小さくなる被写体情報を参照する情報として選出する。   Next, since the magnification of the current camera is n times, subject information associated with n times is extracted from the subject information table. Thereafter, the normalized color signal value and the color signal value of the subject information extracted based on the magnification are respectively compared using the formula (1), and selected as information for referring to the subject information having the smallest feature amount distance. To do.

この時、図4(B)は上述の図4(A)の空とほぼ同色と考えられる。そのため、取得された色信号値(Rb、Gb、Bb)は、図10中の被写体情報の色信号値(R20、G20、B20)とほぼ一致する。結果として、上記の処理において参照情報としては倍率n、番号5の被写体情報が最終的に選出される。   At this time, FIG. 4B is considered to be substantially the same color as the sky of FIG. 4A described above. Therefore, the acquired color signal values (Rb, Gb, Bb) substantially match the color signal values (R20, G20, B20) of the subject information in FIG. As a result, the subject information having the magnification n and number 5 is finally selected as reference information in the above processing.

そして、選出された倍率n、番号5と紐付けされている被写体距離情報であるD20が抽出され、この距離(D20)と合焦するようにフォーカスレンズ群5を移動させることで、最終的に空に対し合焦状態を得る。   Then, D20 which is subject distance information linked to the selected magnification n and number 5 is extracted, and finally the focus lens group 5 is moved so as to focus on this distance (D20). Get focused on the sky.

以上の様に、例え被写体が低コントラスト被写体だとしても、その特徴量から現在撮影されている被写体と過去に合焦した被写体の情報を比較することで、現在の被写体を推測し、得た情報からカメラを合焦状態とすることが可能となる。   As described above, even if the subject is a low-contrast subject, the information obtained by estimating the current subject by comparing the information of the subject currently photographed and the subject focused on in the past from the feature amount. Thus, the camera can be brought into focus.

[(3)メモリ32内の被写体情報を最適化する方法]
以下では、上述のAF動作を行うに当たって、メモリ32内の被写体情報を最適化する方法を記載する。以下の方法によって記録する被写体情報を最適化することで、より本発明の効果が発揮されることとなる。
[(3) Method for optimizing subject information in the memory 32]
Hereinafter, a method for optimizing subject information in the memory 32 in performing the above-described AF operation will be described. By optimizing the subject information to be recorded by the following method, the effect of the present invention can be further exerted.

前記の通り、撮像装置は、対象物の周りの明るさや対象物自体の明るさ、コントラスト値、倍率によって、監視対象を推測可能である。   As described above, the imaging apparatus can estimate the monitoring target based on the brightness around the object, the brightness of the object itself, the contrast value, and the magnification.

後述する図9に示す被写体情報格納領域には、倍率ごとに複数の過去の合焦履歴が被写体情報として格納される。この被写体情報格納領域には、合焦した可能性が高いと考えられ、かつ、低コントラストと考えられる被写体の情報が優先して格納される。これは、撮像装置1が測距不能な低コントラスト被写体に対して合焦を図る際に、測距可能な低コントラスト被写体に対し合焦したときの過去の合焦履歴を含む被写体情報を参照することが好適だからである。   In a subject information storage area shown in FIG. 9 described later, a plurality of past focusing histories are stored as subject information for each magnification. In this subject information storage area, information on a subject considered to have a high possibility of being in focus and considered to have low contrast is preferentially stored. This refers to subject information including past in-focus history when the imaging apparatus 1 focuses on a low-contrast subject that cannot be measured, when focusing on a low-contrast subject that can be measured. This is because it is preferable.

このため、制御部30は、合焦時に撮像信号から得た情報を用いて、被写体を第1低コントラスト被写体、第2低コントラスト被写体及び予備用被写体に分け、さらに被写体の種類に応じて優先順位を付ける。そして、制御部30は、優先順位に応じて、被写体情報を被写体情報格納領域に格納する。   For this reason, the control unit 30 divides the subject into the first low-contrast subject, the second low-contrast subject, and the preliminary subject using information obtained from the imaging signal at the time of focusing, and further, according to the type of subject, the priority order Add. Then, the control unit 30 stores the subject information in the subject information storage area according to the priority order.

ここで、本実施の形態例で用いる第1低コントラスト被写体、第2低コントラスト被写体、予備用コントラスト被写体について、図5〜図7を参照して説明する。図5〜図7に示す各被写体は撮像装置1によって昼間に撮影されたものとする。   Here, the first low-contrast subject, the second low-contrast subject, and the preliminary contrast subject used in the present embodiment will be described with reference to FIGS. Each of the subjects shown in FIGS. 5 to 7 is taken by the imaging device 1 in the daytime.

図5は、第1低コントラスト被写体の例を示す。図5Aは、被写体53の例を示し、図5Bは第1検波領域51内でのコントラスト信号レベルの例を示し、図5Cは第2検波領域52a〜52iの例を示す。なお、図5Cの説明は後述する。   FIG. 5 shows an example of a first low-contrast subject. 5A shows an example of the subject 53, FIG. 5B shows an example of the contrast signal level in the first detection area 51, and FIG. 5C shows examples of the second detection areas 52a to 52i. The description of FIG. 5C will be described later.

図5Aに示す撮像領域50内の被写体53は、例えば、多数の窓が設けられたビルの壁面であり、コントラスト信号検波枠によって示される第1検波領域51内における色味や明るさの変化に乏しい被写体である。そして、図5Bに示すように、制御部30がコントラスト信号生成部15から取得するコントラスト信号のレベル変化の形はなだらかである。このような被写体53を「第1低コントラスト被写体」と呼ぶ。制御部30は、明るい環境下ではフォーカスレンズ群5を合焦するために十分なコントラスト信号を第1低コントラスト被写体から取得可能である。しかし、明るさの変化等の僅かな環境変化が起こると、制御部30は、フォーカスレンズ群5が合焦するには不十分なコントラスト信号しか第1低コントラスト被写体から取得できず、フォーカスレンズ位置を合焦点に合わせにくくなる。このため、記録する低コントラスト被写体としては好適なものの、場合によっては、撮像装置1が第1低コントラスト被写体を撮像する際には、後述するように被写体情報格納領域に格納された被写体情報に基づいて、AF制御を行う必要がある。   A subject 53 in the imaging region 50 shown in FIG. 5A is, for example, a wall surface of a building provided with a large number of windows, and changes in color and brightness in the first detection region 51 indicated by the contrast signal detection frame. It is a scarce subject. As shown in FIG. 5B, the level change of the contrast signal acquired by the control unit 30 from the contrast signal generation unit 15 is gentle. Such a subject 53 is referred to as a “first low contrast subject”. The control unit 30 can acquire a sufficient contrast signal from the first low-contrast subject in order to focus the focus lens group 5 in a bright environment. However, when a slight environmental change such as a change in brightness occurs, the control unit 30 can acquire from the first low-contrast subject only a contrast signal that is insufficient for the focus lens group 5 to focus, and the focus lens position. Is difficult to focus on. Therefore, although it is suitable as a low-contrast subject to be recorded, in some cases, when the imaging device 1 images the first low-contrast subject, it is based on subject information stored in the subject information storage area as will be described later. Therefore, it is necessary to perform AF control.

図6は、第2低コントラスト被写体の例を示す。図6Aは、被写体54の例を示し、図6Bは第1検波領域51内でのコントラスト信号レベルの例を示し、図6Cは第2検波領域52a〜52iの例を示す。なお、図6Cの説明は後述する。   FIG. 6 shows an example of a second low contrast subject. 6A shows an example of the subject 54, FIG. 6B shows an example of the contrast signal level in the first detection region 51, and FIG. 6C shows an example of the second detection regions 52a to 52i. The description of FIG. 6C will be described later.

図6Aに示すように被写体54は、例えば、昼間の空を背景としたタワー型の建築物であり、第1検波領域51内において、空と建築物には色味や明るさに違いがある。制御部30は、撮像領域50の中心付近に捉えた被写体54から十分なコントラスト信号を得られるため、フォーカスレンズ群5を被写体54に合焦させることが可能である。しかし、第1検波領域51内には、低コントラスト部分である空が広い範囲に含まれている。このとき、図6Bに示すように、コントラスト信号レベルの変化の形は低いピークの山となっている。このような被写体54を「第2低コントラスト被写体」と呼ぶ。そこで、制御部30は、後述する第2検波領域52a〜52iを用いる方法により、第1検波領域51内の低コントラスト部分の被写体情報を抽出することで、合焦位置に信頼性がある低コントラスト被写体情報を被写体情報格納領域に格納する。   As shown in FIG. 6A, the subject 54 is, for example, a tower-type building against the background of the daytime sky. In the first detection area 51, the sky and the building are different in color and brightness. . Since the control unit 30 can obtain a sufficient contrast signal from the subject 54 captured near the center of the imaging region 50, the focus lens group 5 can be focused on the subject 54. However, the first detection region 51 includes the sky which is a low contrast portion in a wide range. At this time, as shown in FIG. 6B, the shape of the change in the contrast signal level is a peak of a low peak. Such a subject 54 is referred to as a “second low contrast subject”. Therefore, the control unit 30 extracts subject information of a low-contrast portion in the first detection region 51 by a method using second detection regions 52a to 52i, which will be described later, so that the in-focus position has low reliability. The subject information is stored in the subject information storage area.

図7は、予備用コントラスト被写体の例を示す。図7Aは、被写体55の例を示し、図7Bは第1検波領域51内でのコントラスト信号レベルの例を示し、図7Cは第2検波領域52a〜52iの例を示す。なお、図7Cの説明は後述する。   FIG. 7 shows an example of a preliminary contrast subject. 7A shows an example of the subject 55, FIG. 7B shows an example of the contrast signal level in the first detection area 51, and FIG. 7C shows examples of the second detection areas 52a to 52i. The description of FIG. 7C will be described later.

図7Aに示すように被写体55は、例えば、昼間の空を背景としたタワー型の建築物、ビル、雲であり、第1検波領域51内において、空と建築物の色味や明るさに違いがある。そして、図7Cに示すように、コントラスト信号レベルの変化の形は高いピークの山となっている。このような被写体55を「予備用コントラスト被写体」と呼ぶ。予備用コントラスト被写体は、第1検波領域51内で低コントラスト部分の占める範囲が狭く、コントラスト方式においてフォーカスレンズ群5が合焦しやすい。このため、予備用コントラスト被写体は、上述した第1及び第2低コントラスト被写体との類似度合いは比較的低いものの、フォーカスレンズ群5の合焦位置に関しては信頼性が高いと考えられる。そこで、制御部30は、第1及び第2低コントラスト被写体のいずれの被写体情報もメモリ32の被写体情報格納領域に履歴として格納されていない場合に、フォーカスレンズ位置の調整を補助するための予備情報として予備用コントラスト被写体を使用する。   As shown in FIG. 7A, the subject 55 is, for example, a tower-type building, building, or cloud against the background of the daytime sky, and in the first detection area 51, the color and brightness of the sky and the building There is a difference. As shown in FIG. 7C, the shape of the change in the contrast signal level is a high peak. Such a subject 55 is called a “preliminary contrast subject”. The range of the low-contrast portion in the first detection area 51 is narrow in the preliminary contrast subject, and the focus lens group 5 is easily focused in the contrast method. For this reason, the preliminary contrast subject is considered to be highly reliable with respect to the in-focus position of the focus lens group 5 although the degree of similarity with the first and second low-contrast subjects is relatively low. Therefore, the control unit 30 reserves information for assisting the adjustment of the focus lens position when neither subject information of the first and second low-contrast subjects is stored as a history in the subject information storage area of the memory 32. As a preliminary contrast object.

<被写体情報の記録方法>
次に、制御部30がメモリ32に被写体情報を記録する方法について説明する。
<Subject information recording method>
Next, a method by which the control unit 30 records subject information in the memory 32 will be described.

制御部30は、フォーカスレンズ群5が合焦状態にあると判定したことをトリガーとして、AF動作完了時に合焦している可能性を表す数値として、AF動作時にフォーカスレンズ群5が合焦しているかの度合いを表す信頼度を求める。この信頼度は、AF動作開始からAF動作停止までの制御部30より送信されたフォーカスレンズ群5への指示履歴とコントラスト信号レベルとに基づいて制御部30により算出される。制御部30が信頼度を算出する処理は既知である。   The control unit 30 uses the determination that the focus lens group 5 is in an in-focus state as a trigger, and the focus lens group 5 is in focus during the AF operation as a numerical value indicating the possibility of being in focus when the AF operation is completed. Find the degree of confidence that represents the degree of The reliability is calculated by the control unit 30 based on the instruction history to the focus lens group 5 and the contrast signal level transmitted from the control unit 30 from the start of the AF operation to the stop of the AF operation. The process by which the control unit 30 calculates the reliability is known.

その後、制御部30は、算出した信頼度を、フォーカスレンズ群5が合焦しているか否かを判定するための基準値である信頼度閾値(r_th)と比較する。そして、制御部30は、算出した信頼度が信頼度閾値(r_th)以上であれば、カメラ信号処理部13に対して第1検波領域51を第2検波領域52a〜52iに切り替える指示を行い、カメラ信号処理部13から各領域のコントラスト信号と色信号を取得する。   Thereafter, the control unit 30 compares the calculated reliability with a reliability threshold (r_th) that is a reference value for determining whether or not the focus lens group 5 is in focus. If the calculated reliability is equal to or higher than the reliability threshold (r_th), the control unit 30 instructs the camera signal processing unit 13 to switch the first detection region 51 to the second detection regions 52a to 52i. A contrast signal and a color signal of each area are acquired from the camera signal processing unit 13.

次に、制御部30が第1検波領域51を切り替えた第2検波領域52a〜52iを用いて被写体を分類し、被写体情報に優先度を付与する様子を説明する。   Next, how the control unit 30 classifies subjects using the second detection regions 52a to 52i in which the first detection region 51 is switched and gives priority to the subject information will be described.

図8は、制御部30が分類した被写体に付与される第1〜第3優先度の例を示す。   FIG. 8 shows an example of the first to third priorities given to the subject classified by the control unit 30.

上述したように制御部30は、信頼度が信頼度閾値(r_th)以上である被写体を、それぞれ第1低コントラスト被写体、第2低コントラスト被写体、予備用コントラスト被写体に分類し、各被写体の被写体情報に第1〜第3優先度のいずれかを付与する。制御部30が第1〜第3優先度を決定するために、図8の数直線にはレベル閾値の一例として用いられる第1閾値(d_th1)と、第1閾値(d_th1)より大きい第2閾値(d_th2)が設けられる。   As described above, the control unit 30 classifies subjects whose reliability is greater than or equal to the reliability threshold (r_th) into first low-contrast subjects, second low-contrast subjects, and preliminary contrast subjects, and subject information on each subject. Is assigned one of the first to third priorities. In order for the control unit 30 to determine the first to third priorities, the number line in FIG. 8 includes a first threshold (d_th1) used as an example of a level threshold and a second threshold greater than the first threshold (d_th1). (D_th2) is provided.

図9は、メモリ32が有する一次被写体情報格納領域、被写体情報格納領域、距離情報テーブル及び各閾値の構成例を示す。   FIG. 9 shows a configuration example of a primary subject information storage area, a subject information storage area, a distance information table, and threshold values that the memory 32 has.

メモリ32は、撮像装置1が現在撮像する被写体の被写体情報を一時的に格納する一次被写体情報格納領域、過去に撮像した被写体情報の複数の被写体情報を格納する被写体情報格納領域、距離情報テーブルを有する。また、メモリ32には、信頼度閾値、第1〜第4閾値が記憶される。撮像装置1が被写体を撮像すると、制御部30がコントラスト信号生成部15から取得した新たな被写体情報(NI)を一次被写体情報格納領域に格納する。   The memory 32 includes a primary subject information storage area that temporarily stores subject information of a subject that is currently imaged by the imaging apparatus 1, a subject information storage area that stores a plurality of subject information of subject information captured in the past, and a distance information table. Have. In addition, the memory 32 stores a reliability threshold value and first to fourth threshold values. When the imaging device 1 images a subject, the control unit 30 stores new subject information (NI) acquired from the contrast signal generation unit 15 in the primary subject information storage area.

一方、被写体情報格納領域には、制御部30が過去にコントラスト信号生成部15から取得した過去の被写体情報(OI_x:x=1、2、3、…n)を格納する被写体情報テーブル(後述する図10を参照)が構成される。距離情報テーブルには、バリエータレンズ群3の位置とフォーカスレンズ位置との関係が距離情報として格納される。信頼度閾値は、制御部30が第1検波領域51の切り替え可否を判断する処理で参照する。第1及び第2閾値は、制御部30が被写体情報に第1〜第3優先度のいずれかを付与する処理で参照され、第3及び第4閾値は、制御部30が新たな被写体情報(NI)の被写体情報格納領域への格納可否を判断する処理で参照される。   On the other hand, in the subject information storage area, a subject information table (described later) that stores past subject information (OI_x: x = 1, 2, 3,... N) acquired by the control unit 30 from the contrast signal generation unit 15 in the past. (See FIG. 10). In the distance information table, the relationship between the position of the variator lens group 3 and the focus lens position is stored as distance information. The reliability threshold value is referred to in the process in which the control unit 30 determines whether the first detection region 51 can be switched. The first and second threshold values are referred to when the control unit 30 assigns any of the first to third priorities to the subject information. The third and fourth threshold values are determined by the control unit 30 as new subject information ( (NI) is referred to in the process for determining whether or not it can be stored in the subject information storage area.

再び、被写体情報の記録方法の説明に戻る。   Returning to the description of the subject information recording method again.

制御部30は、第2検波領域52a〜52iから取得するコントラスト信号より、最大のコントラスト信号レベル(con_max)と最小のコントラスト信号レベル(con_min)とのコントラスト信号レベルの差(diff_pp)を求める。このコントラスト信号レベルの差(diff_pp)は、正負の符号が含まれる値であってもよいし、絶対値であってもよい。   The control unit 30 obtains the difference (diff_pp) in the contrast signal level between the maximum contrast signal level (con_max) and the minimum contrast signal level (con_min) from the contrast signals acquired from the second detection regions 52a to 52i. The contrast signal level difference (diff_pp) may be a value including a positive or negative sign or may be an absolute value.

そして、制御部30は、コントラスト信号レベルの差がレベル差閾値未満であれば、被写体情報に高い優先度を付与し、コントラスト信号レベルの差が、レベル差閾値以上であれば、被写体情報に低い優先度を付与する。そして、制御部30は、高い優先度が付与された被写体情報を優先してメモリ32に記憶する。   Then, the control unit 30 gives high priority to the subject information if the difference in the contrast signal level is less than the level difference threshold, and lowers the subject information if the difference in the contrast signal level is equal to or greater than the level difference threshold. Give priority. Then, the control unit 30 preferentially stores the subject information to which the high priority is given in the memory 32.

本実施の形態例において、制御部30は、図8に示すようにコントラスト信号レベルの差(diff_pp)と、第1閾値(d_th1)及び第2閾値(d_th1)とを比較する。制御部30は、コントラスト信号レベルの差(diff_pp)が第1閾値(d_th1)未満であれば、被写体の色や輝度に濃淡がないと判定する。このような被写体は、撮像領域50の全体にわたってコントラストは一様であるため、第1低コントラスト被写体と判定される。例えば、図5Cに示す第2検波領域52a〜52iはいずれも同様なコントラストであるため、制御部30は、被写体53を第1低コントラスト被写体と判定する。   In the present embodiment, the control unit 30 compares the contrast signal level difference (diff_pp) with the first threshold value (d_th1) and the second threshold value (d_th1) as shown in FIG. If the difference (diff_pp) in the contrast signal level is less than the first threshold value (d_th1), the control unit 30 determines that there is no shading in the subject color or brightness. Such a subject is determined to be the first low-contrast subject because the contrast is uniform throughout the imaging region 50. For example, since the second detection areas 52a to 52i shown in FIG. 5C have the same contrast, the control unit 30 determines the subject 53 as the first low-contrast subject.

制御部30は、被写体が第1低コントラスト被写体であると判定すると、優先度情報を第1優先度(p_p1)として、撮像時のフォーカスレンズ位置を基に、距離情報テーブルから距離情報を取得する。そして、制御部30は、コントラスト信号生成部15から取得したコントラスト信号レベルが最小となる領域の色信号値と、取得した距離情報と、優先度情報とを含む新たな被写体情報(NI)を一時被写体情報格納領域に格納する。   When determining that the subject is the first low-contrast subject, the control unit 30 sets the priority information as the first priority (p_p1), and acquires distance information from the distance information table based on the focus lens position at the time of imaging. . Then, the control unit 30 temporarily stores new subject information (NI) including the color signal value of the region where the contrast signal level acquired from the contrast signal generation unit 15 is minimum, the acquired distance information, and priority information. Store in the subject information storage area.

図8に示すようにコントラスト信号レベルの差(diff_pp)が第2閾値(d_th2)以上であれば、撮像領域50内に一定以上のコントラストがあると考えられる部分と、低コントラスト部分とが存在すると考えられる。このような被写体は、制御部30によって第2低コントラスト被写体と判定される。例えば、図6Cに示す第2検波領域52c、52d、52gには空が含まれ、これらの第2検波領域はコントラストが低い(con_min)。しかし、第2検波領域52a、52b、52e、52f、52h、52iには雲又は建物が含まれ、いずれかの第2検波領域はコントラストが高い(con_max)。このため、制御部30は、被写体54を第2低コントラスト被写体と判定する。   As shown in FIG. 8, if the difference (diff_pp) in the contrast signal level is equal to or greater than the second threshold (d_th2), there is a portion that is considered to have a certain level of contrast and a low contrast portion in the imaging region 50. Conceivable. Such a subject is determined as a second low-contrast subject by the control unit 30. For example, the second detection regions 52c, 52d, and 52g illustrated in FIG. 6C include sky, and these second detection regions have low contrast (con_min). However, the second detection areas 52a, 52b, 52e, 52f, 52h, and 52i include clouds or buildings, and any of the second detection areas has a high contrast (con_max). Therefore, the control unit 30 determines that the subject 54 is a second low contrast subject.

制御部30は、被写体が第2低コントラスト被写体であると判定すると、第1優先度(p_p1)より低い第2優先度(p_p2)を優先度情報として、撮像時のフォーカスレンズ位置を基に、距離情報テーブルから、距離情報を取得する。そして、制御部30は、コントラスト信号レベルが最小となる領域の色信号値と、取得した距離情報と、優先度情報とを含む新たな被写体情報(NI)を一時被写体情報格納領域に格納する
図8に示すようにコントラスト信号レベルの差(diff_pp)が、第1閾値(d_th1)以上第2閾値(d_th2)未満であれば、撮像領域50内のコントラストが一様でないと考えられる。このような被写体は、低コントラスト領域しか存在しないような第2検波領域52a〜52iはない。例えば、図7Cに示す第2検波領域52a〜52iのいずれにも空に対してコントラストがある建物、雲のいずれかが含まれており、雲又は空だけしか含まれないような領域はない。このため、制御部30は、被写体55を予備用コントラスト被写体と判定する。
When the control unit 30 determines that the subject is the second low-contrast subject, the control unit 30 uses the second priority (p_p2) lower than the first priority (p_p1) as the priority information, and based on the focus lens position at the time of imaging. The distance information is acquired from the distance information table. Then, the control unit 30 stores new subject information (NI) including the color signal value of the region where the contrast signal level is minimum, the acquired distance information, and the priority information in the temporary subject information storage region. If the contrast signal level difference (diff_pp) is not less than the first threshold (d_th1) and less than the second threshold (d_th2) as shown in FIG. 8, it is considered that the contrast in the imaging region 50 is not uniform. Such a subject does not have the second detection areas 52a to 52i in which only a low contrast area exists. For example, any of the second detection areas 52a to 52i shown in FIG. 7C includes a building or a cloud that has a contrast with the sky, and there is no area that includes only the cloud or the sky. Therefore, the control unit 30 determines that the subject 55 is a preliminary contrast subject.

制御部30は、被写体が予備用コントラスト被写体であると判定すると、第2優先度(p_p2)より低い第3優先度(p_p3)を優先度情報として、撮像時のフォーカスレンズ位置を基に、距離情報テーブルから、距離情報を取得する。そして、制御部30は、コントラスト信号レベルが最小となる領域の色信号値と、取得した距離情報と、優先度情報とを含む新たな被写体情報(NI)を一時被写体情報格納領域に格納する。   When determining that the subject is a preliminary contrast subject, the control unit 30 uses the third priority (p_p3) lower than the second priority (p_p2) as the priority information, and determines the distance based on the focus lens position at the time of imaging. The distance information is acquired from the information table. Then, the control unit 30 stores new subject information (NI) including the color signal value of the region where the contrast signal level is minimum, the acquired distance information, and priority information in the temporary subject information storage region.

ここで、図10を参照して被写体情報テーブルの構成例を説明する。   Here, a configuration example of the subject information table will be described with reference to FIG.

上述したように、メモリ32には被写体情報を格納するための被写体情報格納領域が確保されている。そして、制御部30が過去にコントラスト信号生成部15から取得した複数の過去の被写体情報(OI_x)をテーブル形式で被写体情報格納領域に格納している。この被写体情報格納領域には、倍率ごとに番号情報、距離情報、色信号値情報、優先度情報が関連付けられた被写体情報テーブルが形成されている。番号情報には、倍率毎に5個までの番号が格納される。距離情報には被写体距離が格納され、色信号値情報には、RGBのそれぞれに対応する色信号値が格納される。また、優先度情報には、被写体毎に付与された優先度が格納される。図10では、倍率“1”、番号“1”である被写体情報(OI_x)が破線の枠内に示されている。この被写体情報テーブルに格納できる過去の被写体情報の個数には上限がある。本実施の形態例ではそれぞれの倍率ごとに5個の過去の被写体情報を格納できるものとする。   As described above, the memory 32 has a subject information storage area for storing subject information. The control unit 30 stores a plurality of past subject information (OI_x) acquired from the contrast signal generation unit 15 in the past in the subject information storage area in a table format. In the subject information storage area, a subject information table in which number information, distance information, color signal value information, and priority information are associated with each magnification is formed. The number information stores up to 5 numbers for each magnification. The distance information stores the subject distance, and the color signal value information stores color signal values corresponding to RGB. The priority information stores the priority given to each subject. In FIG. 10, the subject information (OI_x) having the magnification “1” and the number “1” is shown in a broken-line frame. There is an upper limit to the number of past subject information that can be stored in the subject information table. In the present embodiment, it is assumed that five past subject information can be stored for each magnification.

なお、制御部30によって被写体情報が取得され、被写体情報テーブル内の最適化が行われるまでは、撮像装置1の使用者が予め任意の被写体情報を格納することも可能である。   It should be noted that until subject information is acquired by the control unit 30 and optimization in the subject information table is performed, the user of the imaging apparatus 1 can store arbitrary subject information in advance.

<被写体情報を被写体情報格納領域に格納する処理>
次に、一時被写体情報格納領域に新たな被写体情報(NI)が格納された場合における、制御部30が行う処理について説明する。
<Process for storing subject information in subject information storage area>
Next, a process performed by the control unit 30 when new subject information (NI) is stored in the temporary subject information storage area will be described.

制御部30が被写体情報格納領域に被写体情報を格納する基準は、フォーカスレンズ群5が合焦している低コントラスト被写体の被写体情報を残すことである。しかし、同環境においては複数の類似する被写体情報を被写体情報格納領域に残すことが好適であるとは限らない。それは、類似する被写体情報を被写体情報格納領域に格納し続けると、被写体情報格納領域に格納されている被写体情報は汎用性に欠けるからである。そこで、制御部30は、被写体情報格納領域に低コントラスト被写体の被写体情報を残しつつも、既に格納されている被写体情報と類似する被写体情報は残さないような処理を行う。言い換えれば、制御部30は、一時被写体情報格納領域から読み出した新たな被写体情報と、被写体情報格納領域から読み出した過去の被写体情報とが類似しない場合に、過去の被写体情報に代えて、新たな被写体情報を被写体情報格納領域に格納する。この処理に際して、制御部30は、新たな被写体情報(NI)と過去の被写体情報(OI_x)の比較を次のように行う。   The reference for storing the subject information in the subject information storage area by the control unit 30 is to leave the subject information of the low-contrast subject in which the focus lens group 5 is focused. However, in the same environment, it is not always preferable to leave a plurality of similar subject information in the subject information storage area. This is because if similar subject information is continuously stored in the subject information storage area, the subject information stored in the subject information storage area lacks versatility. Therefore, the control unit 30 performs processing to leave subject information similar to the subject information already stored while leaving subject information of the low-contrast subject in the subject information storage area. In other words, when the new subject information read from the temporary subject information storage area is not similar to the past subject information read from the subject information storage area, the control unit 30 replaces the past subject information with a new subject information. The subject information is stored in the subject information storage area. In this process, the control unit 30 compares the new subject information (NI) and the past subject information (OI_x) as follows.

まず、制御部30は、一時被写体情報格納領域に新たな被写体情報(NI)を格納すると、新たな被写体情報(NI)の優先度、距離情報、色信号値と、被写体情報格納領域内の全ての過去の被写体情報(OI_x)の優先度、距離情報、色信号値とをそれぞれ比較する。そして、制御部30は、被写体情報格納領域内の過去の被写体情報(OI_x)を新たな被写体情報(NI)に交換するか、または過去の被写体情報(OI_x)を交換せず、新たな被写体情報(NI)を一時被写体情報格納領域から削除するか否かを判定する。   First, when the new subject information (NI) is stored in the temporary subject information storage area, the control unit 30 sets the priority, distance information, color signal value, and all of the new subject information (NI) in the subject information storage area. The priorities, distance information, and color signal values of the past subject information (OI_x) are respectively compared. Then, the control unit 30 replaces the past subject information (OI_x) in the subject information storage area with new subject information (NI), or replaces the past subject information (OI_x) and does not replace the past subject information (OI_x). It is determined whether or not (NI) is deleted from the temporary subject information storage area.

ここで、制御部30が行う判定処理について、図11を参照して具体的に説明する。   Here, the determination process performed by the control unit 30 will be specifically described with reference to FIG.

図11は、制御部30が被写体情報格納領域に格納する被写体情報を選出するために参照する第3閾値(th_3)と第4閾値(th_4)の関係を示す。以下の説明で第3閾値(th_3)を距離閾値の一例として示し、第4閾値(th_4)を距離差閾値の一例として示す。   FIG. 11 shows the relationship between the third threshold value (th_3) and the fourth threshold value (th_4) that the control unit 30 refers to in order to select subject information stored in the subject information storage area. In the following description, the third threshold value (th_3) is shown as an example of a distance threshold value, and the fourth threshold value (th_4) is shown as an example of a distance difference threshold value.

まず、制御部30は、新たな被写体情報が一時被写体情報格納領域に格納されたことをトリガーとして演算処理を開始する。この演算処理にて、制御部30は、新たな被写体情報(NI)に含まれる色信号値と、被写体情報格納領域中の過去の被写体情報(OI_x)に含まれる色信号値とのデータ上の距離(d_I)(データ距離の一例)を次式(1)にて求める。   First, the control unit 30 starts a calculation process triggered by the new subject information stored in the temporary subject information storage area. In this calculation process, the control unit 30 performs data processing on the data of the color signal value included in the new subject information (NI) and the color signal value included in the past subject information (OI_x) in the subject information storage area. The distance (d_I) (an example of the data distance) is obtained by the following equation (1).

式(1)において、Ryは被写体情報の赤色の信号を表し、Gyは被写体情報の緑色の信号を表し、Byは被写体情報の青色の信号を表す。添え字yにはそれぞれnまたはoが当てられる。nは新たな被写体情報(NI)の情報を表し、oは過去の被写体情報(OI_x)の情報を表す。   In Expression (1), Ry represents a red signal of the subject information, Gy represents a green signal of the subject information, and By represents a blue signal of the subject information. The subscript y is assigned n or o, respectively. n represents new subject information (NI) information, and o represents past subject information (OI_x) information.

<データ上の距離(d_I)が第3閾値(th_3)以上であるときの処理>
次に、制御部30は、データ上の距離(d_I)が第3閾値(th_3)以上となる過去の被写体情報(OI2_x)を被写体情報格納領域から選出する。この選出処理は、図11に示す上段の数直線に表されている。この数直線には、新たな被写体情報(NI)の色信号値と、過去の被写体情報(OI_x)の色信号値とのデータ上の距離(d_I)に基づいて、被写体情報格納領域から被写体情報を選出するための第3閾値(th_3)が示されている。このように制御部30が、被写体情報(OI2_x)を被写体情報格納領域から選出する処理は、新たな被写体情報(NI)と過去の被写体情報(OI_x)の色の特徴の類似性を比較するために行われる。
<Processing when data distance (d_I) is greater than or equal to third threshold (th_3)>
Next, the control unit 30 selects past subject information (OI2_x) whose data distance (d_I) is equal to or greater than the third threshold value (th_3) from the subject information storage area. This selection process is represented by the upper number line shown in FIG. This number line shows subject information from the subject information storage area based on the distance (d_I) on the data between the color signal value of the new subject information (NI) and the color signal value of the past subject information (OI_x). A third threshold value (th_3) for selecting is shown. Thus, the process in which the control unit 30 selects the subject information (OI2_x) from the subject information storage area is to compare the similarity of the color features of the new subject information (NI) and the past subject information (OI_x). To be done.

そして、制御部30は、選出した過去の被写体情報(OI2_x)に付された優先度に基づいて、過去の被写体情報(OI2_x)から過去の被写体情報(OI3_x)を選出する。つまり、過去の被写体情報(OI2_x)には、過去の被写体情報(OI3_x)が含まれていると言える。このとき、制御部30は、被写体情報格納領域から選出した過去の被写体情報(OI2_x)より、それぞれ優先度情報を取得し、新たな被写体情報(NI)の優先度情報の優先度と、過去の被写体情報(OI2_x)より取得したそれぞれの優先度情報の優先度とを比較する。上述したように第1優先度、第2優先度、第3優先度の順に優先度は高いため、制御部30は、新たな被写体情報(NI)の優先度以下の優先度が付された過去の被写体情報(OI3_x)を過去の被写体情報(OI2_x)から選出する。例えば、新たな被写体情報(NI)の優先度が“2”であれば、優先度が“2”、“3”である過去の被写体情報(OI2_x)が過去の被写体情報(OI3_x)として制御部30により選出される。   Then, the control unit 30 selects past subject information (OI3_x) from past subject information (OI2_x) based on the priority assigned to the selected past subject information (OI2_x). That is, it can be said that past subject information (OI2_x) includes past subject information (OI3_x). At this time, the control unit 30 acquires priority information from the past subject information (OI2_x) selected from the subject information storage area, and obtains the priority information priority of the new subject information (NI) and the past information. The priority of each priority information acquired from the subject information (OI2_x) is compared. As described above, since the priorities are higher in the order of the first priority, the second priority, and the third priority, the control unit 30 has assigned a priority less than the priority of the new subject information (NI). Subject information (OI3_x) is selected from past subject information (OI2_x). For example, if the priority of the new subject information (NI) is “2”, the past subject information (OI2_x) with the priorities “2” and “3” is used as the past subject information (OI3_x). 30.

次に、制御部30は、新たな被写体情報(NI)に付された優先度が、選出した過去の被写体情報(OI3_x)に付された優先度以上である新たな情報(NI)を被写体情報格納領域に格納する対象とする。このとき、制御部30は、色信号値のデータ上の距離(d_I2)が最小となる過去の被写体情報(OI3_x)に代えて、新たな被写体情報(NI)を被写体情報格納領域に格納する。このデータ上の距離(d_I2)は、制御部30によって上式(1)を用いて算出される。そして、制御部30は、データ上の距離(d_I2)が最小となる過去の被写体情報(OI3_x)を被写体情報格納領域から削除する。   Next, the control unit 30 sets the new information (NI) whose priority assigned to the new subject information (NI) is equal to or higher than the priority assigned to the selected past subject information (OI3_x) as subject information. It is a target to be stored in the storage area. At this time, the control unit 30 stores new subject information (NI) in the subject information storage area instead of the past subject information (OI3_x) that minimizes the distance (d_I2) on the color signal value data. The distance (d_I2) on the data is calculated by the control unit 30 using the above equation (1). Then, the control unit 30 deletes the past subject information (OI3_x) that minimizes the data distance (d_I2) from the subject information storage area.

なお、制御部30は、新たな被写体情報(NI)の優先度と、過去の被写体情報(OI2_x)の優先度が全て同じであると判定した場合には、一時被写体格納領域から新たな被写体情報(NI)を削除する。また、制御部30は、新たな被写体情報(NI)の優先度より、全ての過去の被写体情報(OI2_x)の優先度が高いと判定した場合にも、一時被写体格納領域から新たな被写体情報(NI)を削除する。   Note that if the priority of the new subject information (NI) and the priorities of the past subject information (OI2_x) are all the same, the control unit 30 determines the new subject information from the temporary subject storage area. (NI) is deleted. In addition, when the control unit 30 determines that the priority of all past subject information (OI2_x) is higher than the priority of the new subject information (NI), the new subject information (from the temporary subject storage area ( NI).

このように制御部30は、新たな被写体情報(NI)と過去の被写体情報(OI_x)との優先度を比較して、第1低コントラスト被写体、第2低コントラスト被写体、予備用被写体の順に被写体情報を被写体情報格納領域に格納することができる。   In this way, the control unit 30 compares the priorities of the new subject information (NI) and the past subject information (OI_x), and subjects the subject in the order of the first low-contrast subject, the second low-contrast subject, and the spare subject. Information can be stored in the subject information storage area.

<データ上の距離(d_I)が第3閾値(th_3)未満であるときの処理>
次に、新たな被写体情報(NI)の色信号値に対する、過去の被写体情報(OI_x)の色信号値のデータ上の距離(d_I)の全てが第3閾値(th_3)未満である場合を検討する。このとき、制御部30は、新たな被写体情報(NI)に含まれる被写体距離と、過去の被写体情報(OI_x)に含まれる被写体距離との差(diff_o)をそれぞれ算出する。
<Processing when data distance (d_I) is less than third threshold (th_3)>
Next, a case is considered in which the distance (d_I) on the data of the color signal value of the past subject information (OI_x) with respect to the color signal value of the new subject information (NI) is less than the third threshold value (th_3). To do. At this time, the control unit 30 calculates the difference (diff_o) between the subject distance included in the new subject information (NI) and the subject distance included in the past subject information (OI_x).

図11に示す下段の数直線には、データ上の距離(d_I)が第3閾値(th_3)未満である過去の被写体情報(OI_x)から、被写体距離の差(diff_o)に基づいて、被写体情報(OI3_x)を選出するための第4閾値(th_4)が設定されている。   The lower number line shown in FIG. 11 shows subject information based on the subject distance difference (diff_o) from the past subject information (OI_x) whose data distance (d_I) is less than the third threshold (th_3). A fourth threshold value (th_4) for selecting (OI3_x) is set.

そして、制御部30は、被写体距離の差(diff_o)が第4閾値(th_4)以上となる過去の被写体情報(OI4_x)を過去の被写体情報(OI_x)から選出する。これにより、制御部30は、新たな被写体情報(NI)の色信号情報に類似する色信号情報を持つ過去の被写体情報(OI_x)の中から、新たな被写体情報(NI)の被写体距離が類似しない過去の被写体情報(OI4_x)だけを被写体情報格納領域から選出できる。   Then, the control unit 30 selects past subject information (OI4_x) having a subject distance difference (diff_o) equal to or greater than the fourth threshold value (th_4) from the past subject information (OI_x). Thereby, the control unit 30 has a similar subject distance of the new subject information (NI) from the past subject information (OI_x) having color signal information similar to the color signal information of the new subject information (NI). Only past subject information (OI4_x) not to be selected can be selected from the subject information storage area.

そして、制御部30は、過去の被写体情報(OI4_x)からそれぞれ優先度情報を取得し、過去の被写体情報(OI4_x)の優先度情報に含まれる優先度と、新たな被写体情報(NI)の優先度情報に含まれる優先度とをそれぞれ比較する。このとき、制御部30は、新たな被写体情報(NI)の優先度以下の優先度が付された被写体情報を、過去の被写体情報(OI4_x)から被写体情報(OI5_x)として選出する。   Then, the control unit 30 acquires the priority information from the past subject information (OI4_x), the priority included in the priority information of the past subject information (OI4_x), and the priority of the new subject information (NI). Each of the priority levels included in the degree information is compared. At this time, the control unit 30 selects subject information with a priority equal to or lower than the priority of the new subject information (NI) as subject information (OI5_x) from the past subject information (OI4_x).

そして、制御部30は、新たな被写体情報(NI)に付された優先度が、選出した過去の被写体情報(OI5_x)に付された優先度以上である新たな情報(NI)を被写体情報格納領域に格納する対象とする。このとき、制御部30は、選出した被写体情報(OI5_x)の内、上式(1)にて求めた色信号値のデータ上の距離(d_I2)が最小となる被写体情報(OI5_x)に代えて、新たな被写体情報(NI)を被写体情報格納領域に格納する。そして、制御部30は、データ上の距離(d_I2)が最小となる過去の被写体情報(OI3_x)を被写体情報格納領域から削除する。   Then, the control unit 30 stores the new information (NI) in which the priority given to the new subject information (NI) is equal to or higher than the priority given to the selected past subject information (OI5_x). The target to be stored in the area. At this time, the control unit 30 replaces the selected subject information (OI5_x) with subject information (OI5_x) that minimizes the distance (d_I2) on the data of the color signal value obtained by the above equation (1). The new subject information (NI) is stored in the subject information storage area. Then, the control unit 30 deletes the past subject information (OI3_x) that minimizes the data distance (d_I2) from the subject information storage area.

なお、制御部30は、新たな被写体情報(NI)の優先度と、過去の被写体情報(OI4_x)の優先度とが全て同じであると判定した場合には、一時被写体格納領域から新たな被写体情報(NI)を削除する。また、制御部30は、新たな被写体情報(NI)の優先度よりも、全ての過去の被写体情報(OI4_x)の優先度が高いと判定した場合にも、一時被写体格納領域から新たな被写体情報(NI)を削除する。   Note that if the priority of the new subject information (NI) and the priority of the past subject information (OI4_x) are all the same, the control unit 30 creates a new subject from the temporary subject storage area. Delete information (NI). Also, when the control unit 30 determines that the priority of all past subject information (OI4_x) is higher than the priority of the new subject information (NI), the new subject information from the temporary subject storage area. (NI) is deleted.

さらに、制御部30は、全ての過去の被写体情報(OI_x)と新たな被写体情報(NI)との被写体距離の差が第4閾値(th_4)未満である場合にも、一時被写体格納領域から新たな被写体情報(NI)を削除する。   Furthermore, the control unit 30 also newly adds the temporary subject storage area from the temporary subject storage area when the difference in subject distance between all past subject information (OI_x) and new subject information (NI) is less than the fourth threshold (th_4). Delete subject information (NI).

制御部30は、このような法則に従って被写体情報格納領域に残す被写体情報を決定しているため、撮像装置1が低コントラスト被写体を撮像するために好適な被写体情報を被写体情報格納領域に残す最適化処理を行うことが可能となる。このため、制御部30は、従来の手法のように、測距不能な被写体、即ち、低コントラスト被写体に合焦する際に不要な被写体情報をメモリ32に残さない。   Since the control unit 30 determines subject information to be left in the subject information storage area in accordance with such a rule, optimization is performed so that the subject information suitable for the imaging device 1 to capture a low-contrast subject is left in the subject information storage area. Processing can be performed. Therefore, the control unit 30 does not leave unnecessary subject information in the memory 32 when focusing on a subject that cannot be measured, that is, a low-contrast subject, as in the conventional method.

<AF動作のフローチャート>
図12〜図14は、撮像装置1が行うAF動作の例を示すフローチャートである。この処理は、撮像装置1において制御部30がメモリ32に格納したプログラムを実行して得られる処理シーケンスを表している。
<Flow chart of AF operation>
12 to 14 are flowcharts illustrating an example of the AF operation performed by the imaging apparatus 1. This process represents a process sequence obtained by executing a program stored in the memory 32 by the control unit 30 in the imaging apparatus 1.

制御部30は、電源が投入された場合や被写体が変わった場合等に、オートフォーカス制御処理を開始し、AF動作状態に移行する。   The control unit 30 starts autofocus control processing when the power is turned on or the subject changes, and shifts to the AF operation state.

まず、制御部30は、電子シャッタ47を駆動させて撮像素子8の露光を行うことにより、撮像素子8に撮像信号を取り込ませる(S1)。その後、制御部30は、カメラ信号処理部13から与えられるコントラスト信号に基づき、コントラスト信号レベルを取得する(S2)。   First, the control unit 30 drives the electronic shutter 47 to expose the image sensor 8, thereby causing the image sensor 8 to capture an image signal (S1). Thereafter, the control unit 30 acquires the contrast signal level based on the contrast signal given from the camera signal processing unit 13 (S2).

次に、制御部30は、ステップS2で得たコントラスト信号を元に、フォーカスレンズ群5を駆動させる(S3)。この時、制御部30は、図2に示す第1検波領域51から取得したコントラスト信号に基づいて、現在撮影している被写体を本発明の適用対象内、即ち、ステップS5以降の判定処理の対象とするか否かを判断する(S4)。   Next, the control unit 30 drives the focus lens group 5 based on the contrast signal obtained in step S2 (S3). At this time, based on the contrast signal acquired from the first detection area 51 shown in FIG. 2, the control unit 30 sets the subject currently being shot within the scope of application of the present invention, that is, the target of determination processing after step S5. It is determined whether or not (S4).

対象と判断した場合、すなわち、現在の被写体が低コントラスト被写体でありかつ、コントラスト方式のAF動作では合焦が難しいと判断された場合、図13に示すフローに遷移し、制御部30は、現在のバリエータレンズ群3の位置から距離情報テーブルを参照し、現在のカメラの倍率を取得する(S5)。   When it is determined that the current object is a low-contrast object and it is determined that it is difficult to focus with the contrast AF operation, the process proceeds to the flow shown in FIG. The distance information table is referred to from the position of the variator lens group 3 to obtain the current camera magnification (S5).

次に、被写体情報テーブルから取得した倍率と同じ倍率に紐付けされている被写体情報(pI)を抽出する(S6)。   Next, subject information (pI) associated with the same magnification as the magnification obtained from the subject information table is extracted (S6).

ここで、現在撮影している被写体は図2の第一検波領域で被写体情報が取得されており、しかしながらメモリ32に記録されている情報は図2の第二検波領域で被写体情報が取得されているため、制御部30は、S7にてそれらの検波領域の大きさの違いによる影響をなくすため、取得したそれぞれの色信号値を正規化する。   Here, the subject currently captured is subject information acquired in the first detection region of FIG. 2, but the information recorded in the memory 32 is subject information acquired in the second detection region of FIG. Therefore, the control unit 30 normalizes each acquired color signal value in order to eliminate the influence of the difference in the size of the detection regions in S7.

次に、正規化された色信号値を用いて、式(1)により、データ上の距離(d_I)を計算する(S8)。そして、S9にて算出されたデータ上の距離(d_I)が最小となる被写体情報(pI_m)を選出し(S9)、その後被写体情報(pI_m)が複数あるかを判定し(S10)、データ上の距離(d_I)が最小となる被写体情報が唯一であれば(S10のNo)、その被写体情報(pI_m)から被写体距離情報を抽出し(S11)、抽出した被写体距離情報の距離に合焦するようにフォーカスレンズ群5を移動させる(S17)。   Next, using the normalized color signal value, the distance (d_I) on the data is calculated by Equation (1) (S8). Then, subject information (pI_m) that minimizes the distance (d_I) on the data calculated in S9 is selected (S9), and then it is determined whether there are a plurality of subject information (pI_m) (S10). If the subject information that minimizes the distance (d_I) is unique (No in S10), subject distance information is extracted from the subject information (pI_m) (S11), and the distance of the extracted subject distance information is focused. Thus, the focus lens group 5 is moved (S17).

一方、S10の判定にて、データ上の距離(d_I)が最小となる被写体情報が複数ある場合(S10のYes)、現在のバリフォーカルレンズ群3およびフォーカスレンズ群5の位置より現在、合焦している被写体距離を求め(S12)、次にS9にて選出した被写体情報(pI_m)のうち現在合焦している被写体距離と被写体情報(pI_m)のそれぞれに紐付けられている被写体距離情報との差を算出し、その差が最小となる被写体距離情報を持つ被写体情報(pI_m2)を選出する(S13)。なお、S12〜S14のフロー処理を行わずに、被写体情報pI_m2の中から最新の被写体情報を選出(S15)してもよい。   On the other hand, when there are a plurality of pieces of subject information that minimize the data distance (d_I) in the determination of S10 (Yes in S10), the current focus is determined from the positions of the varifocal lens group 3 and the focus lens group 5. Subject distance information associated with each of the currently focused subject distance and the subject information (pI_m) among the subject information (pI_m) selected in S9. And subject information (pI_m2) having subject distance information that minimizes the difference is selected (S13). Note that the latest subject information may be selected (S15) from the subject information pI_m2 without performing the flow processing of S12 to S14.

S14ではS13にて選出された被写体情報(pI_m2)が複数あるかを判定し、この時被写体情報(pI_m2)が唯一である場合、S16にて被写体情報(pI_m2)と紐付けられている被写体距離情報を抽出し、その被写体距離情報の距離に合焦するようにフォーカスレンズ群5を移動させる(S17)。   In S14, it is determined whether there is a plurality of subject information (pI_m2) selected in S13. If the subject information (pI_m2) is unique at this time, the subject distance associated with the subject information (pI_m2) in S16. Information is extracted, and the focus lens group 5 is moved to focus on the distance of the subject distance information (S17).

一方でS14にてS13にて選出された被写体情報(pI_m2)が複数あると判定された場合、選出された被写体情報(pI_m2)の中で最新の被写体情報を最終的な選出された被写体情報とし、その被写体情報に紐付けられている被写体距離情報を抽出し、その被写体距離情報の距離に合焦するようにフォーカスレンズ群5を移動させる(S17)
S17にてフォーカスレンズ群5を移動させた後は最終的にAF待機状態に移行する(S40)
一方、ステップS4で、制御部30は、被写体をステップS6以降の判定処理の対象としないと判断した場合、ステップS3のフォーカスレンズ群5の駆動指示を続ける。この時、制御部30は、コントラストAF方式に基づきフォーカスレンズ群5の駆動指示を行い、現在撮影している被写体に対し、フォーカスレンズ群5の合焦を図る(S15)。
On the other hand, if it is determined in S14 that there are a plurality of subject information (pI_m2) selected in S13, the latest subject information in the selected subject information (pI_m2) is the final selected subject information. Then, the subject distance information associated with the subject information is extracted, and the focus lens group 5 is moved so as to focus on the distance of the subject distance information (S17).
After the focus lens group 5 is moved in S17, it finally shifts to the AF standby state (S40).
On the other hand, if the control unit 30 determines in step S4 that the subject is not to be subjected to the determination process in step S6 and subsequent steps, the control unit 30 continues the drive instruction for the focus lens group 5 in step S3. At this time, the control unit 30 instructs the focus lens group 5 to be driven based on the contrast AF method, and focuses the focus lens group 5 on the currently photographed subject (S15).

この場合、制御部30は、本発明にとって有利となるようメモリ32内に記録・保持する被写体情報の最適化を行う。   In this case, the control unit 30 optimizes the subject information recorded / held in the memory 32 so as to be advantageous to the present invention.

制御部30はフォーカスレンズ位置、及びカメラ信号処理部13から取得するコントラスト信号に基づいて、現在のフォーカスレンズ群5が合焦状態であるか、すなわちフォーカスレンズ群5が合焦位置で停止しているか否かを判定する(S16)。制御部30は、フォーカスレンズ群5が合焦状態であると判定すると、現在のコントラスト信号レベル、フォーカスレンズ群5が合焦位置に停止するまでの時間等によって上述した信頼度を算出する(S17)。例えば、フォーカスレンズ群5が合焦位置に停止するまでの時間が長ければ、制御部30はコントラスト信号レベルのピークを見つけられていないため、信頼度が低くなる。   Based on the focus lens position and the contrast signal acquired from the camera signal processing unit 13, the control unit 30 determines whether the current focus lens group 5 is in focus, that is, the focus lens group 5 stops at the focus position. It is determined whether or not (S16). When determining that the focus lens group 5 is in focus, the control unit 30 calculates the reliability described above based on the current contrast signal level, the time until the focus lens group 5 stops at the focus position, and the like (S17). ). For example, if the time until the focus lens group 5 stops at the in-focus position is long, the control unit 30 has not found the peak of the contrast signal level, so the reliability becomes low.

次に、制御部30は、ステップS17で算出した信頼度と、メモリ32から読み出した信頼度閾値(r_th)とを比較する(S18)。制御部30は、信頼度が信頼度閾値(r_th)未満であると判定した場合には、AF待機状態へ移行する(S40)。制御部30は、このAF待機状態では、被写体情報に変化が起きるまでAFを動作させず、被写体情報に変化が起きたときにAFを起動してAF動作状態とする。   Next, the control unit 30 compares the reliability calculated in step S17 with the reliability threshold (r_th) read from the memory 32 (S18). When it is determined that the reliability is less than the reliability threshold (r_th), the control unit 30 shifts to the AF standby state (S40). In this AF standby state, the control unit 30 does not operate the AF until the subject information changes, and activates the AF when the subject information changes to enter the AF operation state.

一方、制御部30は、信頼度が信頼度閾値(r_th)以上であると判定した場合、第1検波領域51を、図3に示す9つの第2検波領域52a〜52iに切り替える指示を、カメラ信号処理部13を介してコントラスト信号生成部15に行う(S19)。そして、制御部30は、コントラスト信号生成部15から第2検波領域52a〜52iの各々のコントラスト信号及び色信号値を取得する(S20)。さらに、制御部30は、ステップS20にてコントラスト信号及び色信号値を取得した時点における、バリエータレンズ群3の位置に基づいて、現在の倍率を取得する(S21)。   On the other hand, when the control unit 30 determines that the reliability is equal to or higher than the reliability threshold (r_th), an instruction to switch the first detection region 51 to the nine second detection regions 52a to 52i illustrated in FIG. This is performed on the contrast signal generator 15 via the signal processor 13 (S19). Then, the control unit 30 acquires the contrast signal and the color signal value of each of the second detection regions 52a to 52i from the contrast signal generation unit 15 (S20). Further, the control unit 30 acquires the current magnification based on the position of the variator lens group 3 at the time when the contrast signal and the color signal value are acquired in step S20 (S21).

次に、制御部30は、コントラスト信号レベルの差(diff_pp)を算出する(S22)。コントラスト信号レベルの差(diff_pp)は、第2検波領域52a〜52iの中で最大のコントラスト信号レベル(con_max)から、最小のコントラスト信号レベル(con_min)を減じた値である。   Next, the control unit 30 calculates a difference (diff_pp) in contrast signal levels (S22). The difference (diff_pp) in the contrast signal level is a value obtained by subtracting the minimum contrast signal level (con_min) from the maximum contrast signal level (con_max) in the second detection regions 52a to 52i.

その後、制御部30は、図8に示したようにコントラスト信号レベルの差(diff_pp)と、第1閾値(d_th1)及び第2閾値(d_th2)とを比較する(S23)。第1閾値(d_th1)は、第2閾値(d_th2)より小さい数値とする。そして、制御部30は、コントラスト信号レベルの差(diff_pp)が第1閾値(d_th1)未満であると判定すると、現在撮影している被写体の被写体情報に含まれる優先度情報を第1優先度に設定する(S24)。   After that, as shown in FIG. 8, the control unit 30 compares the difference (diff_pp) in the contrast signal level with the first threshold value (d_th1) and the second threshold value (d_th2) (S23). The first threshold value (d_th1) is a numerical value smaller than the second threshold value (d_th2). When determining that the difference (diff_pp) in the contrast signal level is less than the first threshold (d_th1), the control unit 30 sets the priority information included in the subject information of the subject currently photographed as the first priority. Set (S24).

また、制御部30は、コントラスト信号レベルの差(diff_pp)が第2閾値(d_th2)以上であると判定すると、制御部30は、現在撮影している被写体の被写体情報に含まれる優先度情報を第2優先度に設定する(S25)。また、制御部30は、コントラスト信号レベルの差(diff_pp)が第1閾値(d_th1)以上、かつ、この差(diff_pp)が第2閾値(d_th2)未満と判定すると、現在撮影している被写体の被写体情報に含まれる優先度情報を第3優先度に設定する(S26)。その後、制御部30は、現在のフォーカスレンズ位置に基づいて、メモリ32に格納されている距離情報テーブルから、現在合焦している被写体の被写体距離を取得する(S27)。   If the control unit 30 determines that the contrast signal level difference (diff_pp) is greater than or equal to the second threshold (d_th2), the control unit 30 displays priority information included in the subject information of the subject currently being photographed. The second priority is set (S25). When the control unit 30 determines that the difference (diff_pp) in the contrast signal level is equal to or greater than the first threshold (d_th1) and the difference (diff_pp) is less than the second threshold (d_th2), the control unit 30 The priority information included in the subject information is set to the third priority (S26). Thereafter, the control unit 30 acquires the subject distance of the currently focused subject from the distance information table stored in the memory 32 based on the current focus lens position (S27).

ここで、ステップS11で取得した色信号値、ステップS15、ステップS16、ステップS17のいずれかで設定した優先度情報、ステップS18で取得した被写体距離を合わせて被写体情報とする。そして、制御部30は、この被写体情報を、メモリ32の一時被写体情報格納領域へと格納する(S28)。   Here, the color signal value acquired in step S11, the priority information set in any of step S15, step S16, and step S17 and the subject distance acquired in step S18 are combined to obtain subject information. The control unit 30 stores the subject information in the temporary subject information storage area of the memory 32 (S28).

次に、制御部30は、一時被写体情報格納領域に格納した被写体情報を、新たな被写体情報(NI)と称し、既に被写体情報格納領域に格納されている過去の被写体情報(OI_x)と比較する。まず、新たな被写体情報(NI)から色信号値を抽出し、さらにそれぞれの過去の被写体情報(OI_x)から色信号値を抽出し、それぞれの色信号に対し、式(1)を用いてデータ上の距離(d_I)を算出する(S29)。そして、制御部30は、算出したデータ上の距離(d_I)が第3閾値(d_th3)以上となる過去の被写体情報(OI2_x)を被写体情報格納領域から選出する(S30)。このとき、制御部30は、データ上の距離(d_I)が第3閾値(d_th3)以上となる過去の被写体情報(OI2_x)の有無を判定する(S31)。   Next, the control unit 30 refers to the subject information stored in the temporary subject information storage area as new subject information (NI) and compares it with past subject information (OI_x) already stored in the subject information storage area. . First, the color signal value is extracted from the new subject information (NI), the color signal value is further extracted from each past subject information (OI_x), and the data for each color signal is obtained using Equation (1). The upper distance (d_I) is calculated (S29). Then, the control unit 30 selects past subject information (OI2_x) in which the calculated distance (d_I) on the data is equal to or greater than the third threshold (d_th3) from the subject information storage area (S30). At this time, the control unit 30 determines whether or not there is past subject information (OI2_x) in which the distance (d_I) on the data is equal to or greater than the third threshold (d_th3) (S31).

制御部30は、データ上の距離(d_I)が第3閾値(d_th3)以上となる過去の被写体情報(OI2_x)が被写体情報格納領域に存在しないと判定した場合、被写体距離の差(diff_o)を算出する(S32)。この被写体距離の差(diff_o)は、新たな被写体情報(NI)の被写体距離から過去の被写体情報(OI_x)を減じて算出される。そして、制御部30は、被写体距離の差(diff_o)が第4閾値(d_th4)以上となる過去の被写体情報(OI4_x)を被写体情報格納領域から選出する(S33)。このとき、制御部30は、第4閾値(d_th4)以上となる過去の被写体情報(OI4_x)の有無を判定する(S34)。そして、制御部30は、被写体情報格納領域に過去の被写体情報(OI4_x)が存在しないと判定した場合、一時被写体格納領域に格納されている新たな被写体情報(NI)を削除し(S39)、AF待機状態(S40)へと移行する。   When the control unit 30 determines that past subject information (OI2_x) in which the data distance (d_I) is equal to or greater than the third threshold (d_th3) does not exist in the subject information storage area, the control unit 30 calculates the subject distance difference (diff_o) Calculate (S32). This difference in subject distance (diff_o) is calculated by subtracting the past subject information (OI_x) from the subject distance of the new subject information (NI). Then, the control unit 30 selects past subject information (OI4_x) in which the subject distance difference (diff_o) is equal to or greater than the fourth threshold value (d_th4) from the subject information storage area (S33). At this time, the control unit 30 determines whether or not there is past subject information (OI4_x) that is equal to or greater than the fourth threshold value (d_th4) (S34). When determining that the past subject information (OI4_x) does not exist in the subject information storage area, the control unit 30 deletes the new subject information (NI) stored in the temporary subject storage area (S39), Transition to the AF standby state (S40).

制御部30は、ステップS31にてデータ上の距離(d_I)が第3閾値(d_th3)以上となる被写体情報(OI2_x)が存在するか、又はステップS34にて第4閾値(d_th4)以上となる被写体情報(OI4_x)が存在すると判定した場合、次の処理に移行する。制御部30は、移行した次の処理にて新たな被写体情報(NI)の優先度と、過去の被写体情報(OI2_x又はOI4_x)の優先度とを比較する(S35)。そして、新たな被写体情報(NI)の優先度以下の優先度が付された過去の被写体情報(OI2_x又はOI4_x)の有無を判定する(S36)。   The control unit 30 has subject information (OI2_x) in which the data distance (d_I) is equal to or greater than the third threshold (d_th3) in step S31, or is equal to or greater than the fourth threshold (d_th4) in step S34. When it is determined that the subject information (OI4_x) exists, the process proceeds to the next process. The control unit 30 compares the priority of the new subject information (NI) with the priority of the past subject information (OI2_x or OI4_x) in the next process that has been transferred (S35). Then, it is determined whether or not there is past subject information (OI2_x or OI4_x) with a priority lower than that of the new subject information (NI) (S36).

ステップS27にて制御部30は、新たな被写体情報(NI)の優先度以下の優先度が付された過去の被写体情報(OI2_x又はOI4_x)が存在しないと判定した場合、一時被写体格納領域に格納されている新たな被写体情報を削除する(S39)。そして、制御部30は、AF待機状態(S40)へと移行する。   If the control unit 30 determines in step S27 that there is no past subject information (OI2_x or OI4_x) with a priority equal to or lower than the priority of the new subject information (NI), it is stored in the temporary subject storage area. The new subject information is deleted (S39). And the control part 30 transfers to AF standby state (S40).

一方で、制御部30は、新たな被写体情報(NI)の優先度以下の優先度が付された過去の被写体情報(OI2_x又はOI4_x)が存在すると判定した場合、次処理を行う。この処理にて制御部30は、過去の被写体情報(OI2_x又はOI4_x)の中から、新たな被写体情報(NI)の優先度以下の優先度が付された過去の被写体情報(OI3_x又はOI5_x)を選出する。そして、制御部30は、新たな被写体情報(NI)の色信号値と、選出した過去の被写体情報(OI3_x又はOI5_x)の色信号値とのデータ上の距離(d_I2)を算出する(S37)。   On the other hand, when it is determined that there is past subject information (OI2_x or OI4_x) with a priority equal to or lower than the priority of the new subject information (NI), the control unit 30 performs the next process. In this process, the control unit 30 obtains past subject information (OI3_x or OI5_x) with a priority lower than the priority of the new subject information (NI) from the past subject information (OI2_x or OI4_x). elect. Then, the control unit 30 calculates a data distance (d_I2) between the color signal value of the new subject information (NI) and the color signal value of the selected past subject information (OI3_x or OI5_x) (S37). .

そして、制御部30は、データ空間距離(d_I2)が最小となる過去の被写体情報(OI3_x又はOI5_x)を被写体情報格納領域から削除し、代わりに新たな被写体情報(NI)を被写体情報格納領域に格納する(S38)。その後、制御部30は、新たな被写体情報(NI)を一時格納領域から削除し(S39)、最終的にAF待機状態に移行する(S40)。   Then, the control unit 30 deletes the past subject information (OI3_x or OI5_x) that minimizes the data space distance (d_I2) from the subject information storage area, and instead uses new subject information (NI) in the subject information storage area. Store (S38). Thereafter, the control unit 30 deletes the new subject information (NI) from the temporary storage area (S39), and finally shifts to the AF standby state (S40).

以上説明した一実施の形態例に係る撮像装置1は、低コントラスト環境において被写体を撮像する際、又は低コントラスト被写体を撮像する際に、適切なオートフォーカス制御を行うことができる。このため、撮像装置1は、測距が困難な被写体であっても、フォーカスレンズ位置を適切な位置に駆動し、被写体に合焦することができる。   The imaging apparatus 1 according to the embodiment described above can perform appropriate autofocus control when imaging a subject in a low contrast environment or when imaging a low contrast subject. For this reason, the imaging apparatus 1 can focus the subject by driving the focus lens position to an appropriate position even if the subject is difficult to measure.

ここで、制御部30は、測距可能な被写体に対してAF動作を停止した後、複数の第2検波領域52a〜52iからそれぞれ取得したコントラスト信号レベルに基づいて、被写体を分類し、被写体毎の被写体情報に第1〜第3優先度のいずれかを付与する。第1〜第3優先度は被写体情報格納領域に格納される優先順を示すものであるため、高い優先度が付された被写体情報が優先して被写体情報格納領域に格納される。このため、撮像装置1は、被写体情報格納領域から有用な被写体情報を読み出して、適切なフォーカスレンズ位置で低コントラスト被写体を撮像することができる。   Here, the control unit 30 classifies the subjects based on the contrast signal levels respectively acquired from the plurality of second detection areas 52a to 52i after stopping the AF operation on the subjects that can be measured, and sets the subjects for each subject. Any one of the first to third priorities is assigned to the subject information. Since the first to third priorities indicate the priority order stored in the subject information storage area, subject information with a high priority is preferentially stored in the subject information storage area. For this reason, the imaging apparatus 1 can read out useful subject information from the subject information storage area and image a low-contrast subject at an appropriate focus lens position.

また、制御部30は、メモリ32の被写体情報格納領域に格納された被写体情報が制限個数を超える場合には、被写体情報格納領域の最適化を行う。この最適化に際して、一時被写体情報格納領域に格納された新たな被写体情報が、被写体情報格納領域に格納されている過去の被写体情報と類似する場合には、新たな被写体情報を被写体情報格納領域に格納しない。また、新たな被写体情報の優先度が過去の被写体情報の優先度と同じか低ければ、やはり新たな被写体情報を被写体情報格納領域に格納しない。このようにして被写体情報格納領域に格納される過去の被写体情報の数が最適化され、被写体情報格納領域に不要な被写体情報が格納されるのを防ぐことができる。   In addition, when the subject information stored in the subject information storage area of the memory 32 exceeds the limit number, the control unit 30 optimizes the subject information storage area. In this optimization, if the new subject information stored in the temporary subject information storage area is similar to the past subject information stored in the subject information storage area, the new subject information is stored in the subject information storage area. Do not store. If the priority of the new subject information is the same as or lower than the priorities of the previous subject information, the new subject information is not stored in the subject information storage area. In this way, the number of past subject information stored in the subject information storage area is optimized, and unnecessary subject information can be prevented from being stored in the subject information storage area.

[(3)他の実施の形態]
なお、上述の実施の形態においては、本発明を図1のように構成された撮像装置1に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を有する撮像装置に広く適用することができる。
[(3) Other embodiments]
In the above-described embodiment, the case where the present invention is applied to the imaging apparatus 1 configured as shown in FIG. 1 has been described. However, the present invention is not limited to this, and various other configurations are also possible. The present invention can be widely applied to imaging devices having the same.

例えば、制御部30は、撮影している被写体がAF動作中に低コントラスト被写体と判定され、コントラスト方式のAF動作では合焦不可能と判断された場合のAF動作において、上述の実施の形態例では現在の倍率と最も近い被写体情報から被写体情報(pI)を選出することとしているが、付近の倍率に限らず、被写体情報テーブル全体や被写体情報テーブル上の任意の箇所、もしくは一定の法則に基づいて、選出してもよい。   For example, in the AF operation when the subject being photographed is determined to be a low-contrast subject during the AF operation, and it is determined that focusing cannot be performed in the contrast-type AF operation, the above-described exemplary embodiment In this case, subject information (pI) is selected from subject information closest to the current magnification. However, the subject information (pI) is not limited to the nearby magnification, but based on the entire subject information table, an arbitrary location on the subject information table, or a certain rule. May be elected.

さらに、制御部30は、本発明のAF動作を行う際、現在の色信号に限らず、例えば、領域の分布(位置、形状(慣性モーメント))、領域の面積、領域の数、デフォーカス量(被写体距離)、動きベクトル(差分データ)、色相(色成分)、彩度、明度、及びテクスチャ(模様)もしくはそれらの組み合わせた特徴量を用いても同様に類似性の比較が可能であり、過去の被写体情報に記録されている情報に合わせて、色信号の代わりに他の特徴量を使用しても良いし、複数の信号値を使用した特徴量から類似性を比較しても良い。その際は、改めて特徴量の類似度を比較する数式を用いて、類似度を比較することが望ましい。   Further, when performing the AF operation of the present invention, the control unit 30 is not limited to the current color signal, but includes, for example, a region distribution (position, shape (moment of inertia)), a region area, a number of regions, and a defocus amount. Similarity can be similarly compared using (object distance), motion vector (difference data), hue (color component), saturation, lightness, and texture (pattern) or a combination of these features. Other feature amounts may be used instead of color signals in accordance with information recorded in past subject information, or similarities may be compared from feature amounts using a plurality of signal values. In that case, it is desirable to compare the degree of similarity by using a formula that compares the degree of similarity of the feature amount again.

また、前述している本発明のAF動作は、コントラスト方式に基づいたAF動作では合焦不可能と判断されたときに合焦させる場合に好適なAF動作であるが、その場合に限らず、コントラスト方式に基づいたAF動作では合焦不可能とされるような被写体以外の被写体情報のデータを保持していれば、他のタイミング・被写体に対して前述の情報の類似性を比較するようなAF動作を行っても同様の効果が得られる。つまり、合焦させたい被写体のデータを保持し、そのデータを被写体の種類に合わせた任意のタイミングで呼び出してAF動作を行うことで、本発明と同様の合焦精度を向上させる効果が得られるような各種の被写体に好適なAF動作が可能となる。例えば、低コントラスト被写体ではなく点光源を含む被写体に対しては、過去の被写体までの距離、輝度の値等を色信号値の代わりの特徴量として保持し、点光源被写体があると判定された際は前述の輝度の値を特徴量とした被写体情報を参照しAF動作を行う場合などが考えられる。   Further, the AF operation of the present invention described above is an AF operation suitable for focusing when it is determined that focusing is impossible in the AF operation based on the contrast method. If data of subject information other than the subject that cannot be focused in the AF operation based on the contrast method is held, the similarity of the above information is compared with other timing / subjects. The same effect can be obtained even when the AF operation is performed. In other words, by holding the data of the subject to be focused and calling the data at an arbitrary timing according to the type of the subject and performing the AF operation, the effect of improving the focusing accuracy similar to the present invention can be obtained. An AF operation suitable for such various subjects can be performed. For example, for a subject that includes a point light source instead of a low-contrast subject, the distance to the past subject, the brightness value, etc. are retained as feature quantities instead of color signal values, and it is determined that there is a point light source subject In this case, the AF operation may be performed by referring to the subject information using the above-described luminance value as a feature amount.

さらに、本発明のAF動作のコントラスト信号等の検波領域の形、位置、個数は任意であり、矩形で中心に一つ出なくとも良い。即ち、ある範囲の領域に対し、色信号値、コントラストの差が確認できるように検波領域を任意に設定することができる。検波領域の数、位置、大きさを、撮像しようとする被写体の種類や大きさ、撮像画像内で該被写体が写り込むことが推測される位置等の条件に応じて設定することによって、より的確に目標の被写体に合焦することが可能となる。   Furthermore, the shape, position, and number of detection areas such as the contrast signal of the AF operation of the present invention are arbitrary, and it is not necessary to have one rectangle in the center. That is, the detection area can be arbitrarily set so that the difference between the color signal value and the contrast can be confirmed for a certain area. By setting the number, position, and size of detection areas according to conditions such as the type and size of the subject to be imaged and the position where the subject is expected to appear in the captured image, the detection area is more accurately set. It is possible to focus on the target subject.

また、上記の実施例においては参照した被写体距離情報の距離に合焦するよう、フォーカスレンズを移動させた時点でAF動作を停止させているが、フォーカスレンズを移動させた後、任意の時間コントラスト方式等のAF動作を行わせても良い。そうすることで、被写体距離情報を参照しAF動作を行うだけでは合焦しきれない僅かな被写体距離の差があった場合でも、その差を縮めることが可能になると考えられる。   In the above embodiment, the AF operation is stopped when the focus lens is moved so as to focus on the distance of the referenced subject distance information. However, after the focus lens is moved, an arbitrary time contrast is obtained. An AF operation such as a method may be performed. By doing so, it is considered that even if there is a slight difference in subject distance that cannot be focused by simply performing the AF operation with reference to the subject distance information, the difference can be reduced.

また、記録する被写体情報の最適化の際は、検波領域内で合焦点となりうるコントラスト信号レベルのピークが複数あり、いずれのピークもほぼ同じ値であれば、コントラスト信号レベルの差が小さくなるため、制御部30が、この被写体を第1低コントラスト被写体であると誤認識する可能性がある。このような誤認識を避けるためには、コントラスト信号レベルにレベル閾値を設けておき、制御部30は、各ピークのコントラスト信号レベルがレベル閾値以上であれば、被写体が低コントラスト被写体ではないと判定する。これにより高いコントラスト信号レベルが得られる被写体を低コントラスト被写体と誤認識しなくなる。   Also, when optimizing the subject information to be recorded, there are a plurality of contrast signal level peaks that can be in-focus in the detection region, and if the peaks are almost the same value, the difference in contrast signal level is small. The controller 30 may erroneously recognize this subject as the first low-contrast subject. In order to avoid such erroneous recognition, a level threshold is provided for the contrast signal level, and the control unit 30 determines that the subject is not a low-contrast subject if the contrast signal level of each peak is equal to or higher than the level threshold. To do. As a result, a subject with a high contrast signal level is not erroneously recognized as a low-contrast subject.

また、図10の被写体情報テーブルには、倍率毎に5個の被写体情報が格納されるものとしたが、被写体情報テーブルに格納される被写体情報の数は任意としてよい。また、一定範囲の倍率だけを指定しておき、この範囲内の倍率に対応する被写体情報を共通のものとした被写体情報テーブルを形成してもよい。   In the subject information table of FIG. 10, five pieces of subject information are stored for each magnification, but the number of subject information stored in the subject information table may be arbitrary. Alternatively, only a certain range of magnifications may be specified, and a subject information table may be formed in which subject information corresponding to the magnifications within this range is shared.

また、制御部30は、メモリ32の被写体情報格納領域に格納された過去の被写体情報(OI_x)が制限個数を超える場合には、過去の被写体情報(OI_x)のうち、最も参照頻度が低いもの、又は最も古く被写体情報格納領域に格納されたものを削除してもよい。そして、制御部30は、削除した被写体情報の代わりに新たな被写体情報(NI)を被写体情報格納領域に格納してもよい。   When the past subject information (OI_x) stored in the subject information storage area of the memory 32 exceeds the limit number, the control unit 30 has the lowest reference frequency among the past subject information (OI_x). Alternatively, the oldest information stored in the subject information storage area may be deleted. The control unit 30 may store new subject information (NI) in the subject information storage area instead of the deleted subject information.

また、被写体距離以外にもフォーカスレンズ位置を記憶部に記憶し、選出した被写体情報のフォーカスレンズ位置に基づいてフォーカスレンズを駆動させてもよい。   In addition to the subject distance, the focus lens position may be stored in the storage unit, and the focus lens may be driven based on the focus lens position of the selected subject information.

なお、本発明は上述した実施の形態例に限られるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りその他種々の応用例、変形例を取り得ることは勿論である。   The present invention is not limited to the above-described embodiments, and various other application examples and modifications can of course be taken without departing from the gist of the present invention described in the claims.

例えば、上述した実施の形態例は本発明を分かりやすく説明するために装置及びシステムの構成を詳細且つ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることは可能であり、さらにはある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、置換をすることも可能である。   For example, the above-described embodiment is a detailed and specific description of the configuration of the apparatus and the system in order to explain the present invention in an easy-to-understand manner. Absent. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Moreover, it is also possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。   Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

1…撮像装置、2…レンズユニット、5…フォーカスレンズ群、8…撮像素子、12…オートフォーカス制御装置、13…カメラ信号処理部、14…信号変換処理回路、15…コントラスト信号生成部、16…HPF回路、17…積分器、30…制御部、31…CPU、32…メモリ   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 2 ... Lens unit, 5 ... Focus lens group, 8 ... Imaging element, 12 ... Autofocus control device, 13 ... Camera signal processing part, 14 ... Signal conversion processing circuit, 15 ... Contrast signal generation part, 16 ... HPF circuit, 17 ... integrator, 30 ... control unit, 31 ... CPU, 32 ... memory

Claims (7)

フォーカスレンズを駆動する駆動部と、
前記フォーカスレンズを通じて結像された光学像を撮像して撮像信号を出力する撮像部
と、
撮像された被写体が合焦している場合における前記被写体の被写体距離および撮像領域における第1の特徴量が紐づけられた被写体情報を、ズームレンズの倍率毎に記憶する記憶部と、
撮影している被写体が合焦出来ないと判断された場合には、撮影している撮像領域における第2の特徴量を取得するとともに、前記被写体情報のうち撮影している倍率における被写体情報の第1の特徴量と前記第2の特徴量との類似度を求め、前記類似度が最大となる第1の特徴量を有する被写体情報を選出する制御部と、を有し、
前記駆動部は、前記選出された被写体情報が有する被写体距離に基づいて、被写体が合焦状態となるように前記フォーカスレンズを移動させる撮像装置。
A drive unit for driving the focus lens;
An imaging unit that images an optical image formed through the focus lens and outputs an imaging signal;
A storage unit that stores subject information associated with the subject distance of the subject and the first feature amount in the imaging region when the captured subject is in focus, for each magnification of the zoom lens;
When it is determined that the subject being photographed cannot be focused, the second feature amount in the imaging region being photographed is acquired, and the subject information at the magnification at which the subject is photographed among the subject information is acquired. A controller that obtains the similarity between the feature quantity of 1 and the second feature quantity, and selects subject information having the first feature quantity that maximizes the similarity, and
The driving unit is an imaging apparatus that moves the focus lens so that a subject is in focus based on a subject distance included in the selected subject information.
前記特徴量は、センサの感光度合いである輝度信号である色信号、輝度信号値そのもの、前記色信号または前記輝度信号値に基づいて算出された変換値のいずれかである請求項1に記載の撮像装置。   The feature value is any one of a color signal that is a luminance signal that is a degree of photosensitivity of the sensor, a luminance signal value itself, a conversion value that is calculated based on the color signal or the luminance signal value. Imaging device. 前記第1特徴量または前記第2の特徴量のいずれかの特徴量を正規化したうえで、それぞれの特徴量の類似度を求める請求項1に記載の撮像装置。   The imaging device according to claim 1, wherein after the feature quantity of either the first feature quantity or the second feature quantity is normalized, the similarity of each feature quantity is obtained. 前記制御部は、前記類似度が最小となる被写体情報が複数選出された場合には、前記複数の被写体情報のそれぞれに紐づけられた被写体距離と現在撮影している被写体の被写体距離との差が最小となる被写体距離の情報を有する被写体情報を選出し、
前記駆動部は、前記選出された被写体情報に紐付けされている被写体距離に対して合焦状態とさせるように前記フォーカスレンズを移動させる請求項1に記載の撮像装置。
When a plurality of pieces of subject information having the minimum similarity are selected, the control unit determines a difference between a subject distance associated with each of the plurality of subject information and a subject distance of a subject currently being photographed. Select subject information with information on subject distance that minimizes
The imaging apparatus according to claim 1, wherein the driving unit moves the focus lens so as to be in a focused state with respect to a subject distance associated with the selected subject information.
前記撮像装置は、
前記記憶部は、前記撮像領域内に設定された複数の検波領域の内、算出された最大のコントラスト信号レベルと、最小のコントラスト信号レベルとのコントラスト信号レベルの差をレベル差閾値と比較して、比較結果に基づいて前記被写体の被写体情報に優先度を付与し、前記被写体情報に設定された前記優先度に従って前記被写体情報を記憶している請求項1に記載の撮像装置。
The imaging device
The storage unit compares a contrast signal level difference between the calculated maximum contrast signal level and the minimum contrast signal level among a plurality of detection areas set in the imaging area with a level difference threshold value. The imaging apparatus according to claim 1, wherein priority is given to subject information of the subject based on a comparison result, and the subject information is stored according to the priority set in the subject information.
被写体が合焦している場合における前記被写体の被写体距離および撮像領域における第1の特徴量が紐づけられた被写体情報を、ズームレンズの倍率毎に記憶する記憶部と、
撮影している被写体が合焦出来ないと判断された場合には、撮影している撮像領域における第2の特徴量を取得するとともに、前記被写体情報のうち撮影している倍率における被写体情報の第1の特徴量と前記第2の特徴量との類似度を求め、前記類似度が最大となる第1の特徴量を有する被写体情報を選出する制御部と、を有し、
前記選出された被写体情報における被写体距離に基づいて、被写体が合焦状態となるようにフォーカスレンズを移動させるフォーカス制御装置。
A storage unit that stores subject information associated with the subject distance of the subject and the first feature amount in the imaging region when the subject is in focus for each magnification of the zoom lens;
When it is determined that the subject being photographed cannot be focused, the second feature amount in the imaging region being photographed is acquired, and the subject information at the magnification at which the subject is photographed among the subject information is acquired. A controller that obtains the similarity between the feature quantity of 1 and the second feature quantity, and selects subject information having the first feature quantity that maximizes the similarity, and
A focus control device that moves the focus lens so that the subject is in focus based on the subject distance in the selected subject information.
被写体が合焦している場合における前記被写体の被写体距離および撮像領域における第1の特徴量が紐づけられた被写体情報を、ズームレンズの倍率毎に記憶し、
撮影している被写体が合焦出来ないと判断された場合には、撮影している撮像領域における第2の特徴量を取得するとともに、前記被写体情報のうち撮影している倍率における被写体情報の第1の特徴量と前記第2の特徴量との類似度を求め、前記類似度が最大となる第1の特徴量を有する被写体情報を選出し、
前記選出された被写体情報における被写体距離に基づいて、被写体が合焦状態となるようにフォーカスレンズを移動させるフォーカス制御方法。
When the subject is in focus, subject information associated with the subject distance of the subject and the first feature amount in the imaging region is stored for each zoom lens magnification,
When it is determined that the subject being photographed cannot be focused, the second feature amount in the imaging region being photographed is acquired, and the subject information at the magnification at which the subject is photographed among the subject information is acquired. Finding the similarity between the feature quantity of 1 and the second feature quantity, selecting subject information having the first feature quantity that maximizes the similarity,
A focus control method for moving the focus lens so that the subject is in focus based on the subject distance in the selected subject information.
JP2015124361A 2015-06-22 2015-06-22 Imaging device, focus control device and imaging method Pending JP2017009769A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015124361A JP2017009769A (en) 2015-06-22 2015-06-22 Imaging device, focus control device and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015124361A JP2017009769A (en) 2015-06-22 2015-06-22 Imaging device, focus control device and imaging method

Publications (1)

Publication Number Publication Date
JP2017009769A true JP2017009769A (en) 2017-01-12

Family

ID=57763254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015124361A Pending JP2017009769A (en) 2015-06-22 2015-06-22 Imaging device, focus control device and imaging method

Country Status (1)

Country Link
JP (1) JP2017009769A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115190242A (en) * 2022-07-08 2022-10-14 杭州海康威视数字技术股份有限公司 Focus triggering method and device
WO2024111366A1 (en) * 2022-11-21 2024-05-30 キヤノン株式会社 Focusing device, observation device, inspection device, and focusing method

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02227787A (en) * 1989-03-01 1990-09-10 Hitachi Eng Co Ltd Method and device for recognizing picture pattern
JPH1138309A (en) * 1997-07-18 1999-02-12 Kyocera Corp Focus adjustment device
JP2002131241A (en) * 2000-10-20 2002-05-09 Matsushita Electric Ind Co Ltd Defect inspection method and device
JP2004069953A (en) * 2002-08-06 2004-03-04 Olympus Corp Camera
JP2008289004A (en) * 2007-05-18 2008-11-27 Casio Comput Co Ltd Imaging apparatus and program thereof
JP2010068475A (en) * 2008-09-12 2010-03-25 Canon Inc Imaging apparatus and method of reproducing image in the imaging apparatus
JP2010218057A (en) * 2009-03-13 2010-09-30 Toshiba Corp Device, program, and method for collating character string
JP2010217614A (en) * 2009-03-18 2010-09-30 Sanyo Electric Co Ltd Electronic camera
JP2012090103A (en) * 2010-10-20 2012-05-10 Ricoh Co Ltd Imaging device, and method for displaying the number of captured images
JP2012150167A (en) * 2011-01-17 2012-08-09 Olympus Corp Imaging device
JP2015014672A (en) * 2013-07-04 2015-01-22 住友電気工業株式会社 Camera control device, camera system, camera control method, and program
JP2015068917A (en) * 2013-09-27 2015-04-13 オリンパス株式会社 Focus adjustment device

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02227787A (en) * 1989-03-01 1990-09-10 Hitachi Eng Co Ltd Method and device for recognizing picture pattern
JPH1138309A (en) * 1997-07-18 1999-02-12 Kyocera Corp Focus adjustment device
JP2002131241A (en) * 2000-10-20 2002-05-09 Matsushita Electric Ind Co Ltd Defect inspection method and device
JP2004069953A (en) * 2002-08-06 2004-03-04 Olympus Corp Camera
JP2008289004A (en) * 2007-05-18 2008-11-27 Casio Comput Co Ltd Imaging apparatus and program thereof
JP2010068475A (en) * 2008-09-12 2010-03-25 Canon Inc Imaging apparatus and method of reproducing image in the imaging apparatus
JP2010218057A (en) * 2009-03-13 2010-09-30 Toshiba Corp Device, program, and method for collating character string
JP2010217614A (en) * 2009-03-18 2010-09-30 Sanyo Electric Co Ltd Electronic camera
JP2012090103A (en) * 2010-10-20 2012-05-10 Ricoh Co Ltd Imaging device, and method for displaying the number of captured images
JP2012150167A (en) * 2011-01-17 2012-08-09 Olympus Corp Imaging device
JP2015014672A (en) * 2013-07-04 2015-01-22 住友電気工業株式会社 Camera control device, camera system, camera control method, and program
JP2015068917A (en) * 2013-09-27 2015-04-13 オリンパス株式会社 Focus adjustment device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115190242A (en) * 2022-07-08 2022-10-14 杭州海康威视数字技术股份有限公司 Focus triggering method and device
CN115190242B (en) * 2022-07-08 2024-02-13 杭州海康威视数字技术股份有限公司 Focus triggering method and device
WO2024111366A1 (en) * 2022-11-21 2024-05-30 キヤノン株式会社 Focusing device, observation device, inspection device, and focusing method

Similar Documents

Publication Publication Date Title
JP5048468B2 (en) Imaging apparatus and imaging method thereof
JP5820120B2 (en) Imaging apparatus and control method thereof
US10887515B2 (en) Image capturing apparatus, image capturing method, and storage medium to generate a panoramic image having a high dynamic range
JP6418879B2 (en) Image processing apparatus, control method thereof, control program, and imaging apparatus
US12114070B2 (en) Image pickup apparatus, image pickup method, and non-transitory computer-readable storage medium for correcting influence caused by an effective F-number
JP2009207119A (en) Imaging apparatus and program
US9244335B2 (en) Imaging device and imaging method
JP2012002951A (en) Imaging device, method for detecting in-focus position and in-focus position detection program
JP2013097082A (en) Image signal processing device
KR101728042B1 (en) Digital photographing apparatus and control method thereof
CN110383335A (en) The background subtraction inputted in video content based on light stream and sensor
JP6166848B2 (en) Imaging device, imaging device body, and lens barrel
US20190222754A1 (en) Imaging apparatus, imaging method, and storage medium
US20150334373A1 (en) Image generating apparatus, imaging apparatus, and image generating method
JP2010147786A (en) Imaging device and image processing method
JP4922768B2 (en) Imaging device, focus automatic adjustment method
JP2016197202A (en) Focus adjustment device, control method and control program for the same, and imaging device
KR101431536B1 (en) Digital photographing apparatus and method for controlling the same
JP6057608B2 (en) Focus adjustment apparatus and control method thereof
JP2017173480A (en) Focus controller, imaging apparatus, and focus control method
JP2017139646A (en) Imaging apparatus
KR101839473B1 (en) Method for providing reference image and image photographing device thereof
JP2017009769A (en) Imaging device, focus control device and imaging method
JP6246705B2 (en) Focus control device, imaging device, and focus control method
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170119

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181106